低調的牛肉
個人的觀點,這種大表的優化,不一定上來就要分庫分表,因為表一旦被拆分,開發、運維的複雜度會直線上升,而大多數公司是欠缺這種能力的。所以MySQL中幾百萬甚至小几千萬的表,先考慮做單表的優化。
單表優化
單表優化可以從這幾個角度出發:
表分區:MySQL在5.1之後才有的,可以看做是水平拆分,分區表需要在建表的需要加上分區參數,用戶需要在建表的時候加上分區參數;分區表底層由多個物理子表組成,但是對於代碼來說,分區表是透明的;SQL中的條件中最好能帶上分區條件的列,這樣可以定位到少量的分區上,否則就會掃描全部分區。
讀寫分離:最常用的優化手段,寫主庫讀從庫;
增加緩存:主要的思想就是減少對數據庫的訪問,緩存可以在整個架構中的很多地方,比如:數據庫本身有就緩存,客戶端緩存,數據庫訪問層對SQL語句的緩存,應用程序內的緩存,第三方緩存(如Redis等);
字段設計:單表不要有太多字段;VARCHAR的長度儘量只分配真正需要的空間;儘量使用TIMESTAMP而非DATETIME;避免使用NULL,可以通過設置默認值解決。
索引優化:索引不是越多越好,針對性地建立索引,索引會加速查詢,但是對新增、修改、刪除會造成一定的影響;值域很少的字段不適合建索引;儘量不用UNIQUE,不要設置外鍵,由程序保證;
SQL優化:儘量使用索引,也要保證不要因為錯誤的寫法導致索引失效;比如:避免前導模糊查詢,避免隱式轉換,避免等號左邊做函數運算,in中的元素不宜過多等等;
NoSQL:有一些場景,可以拋棄MySQL等關係型數據庫,擁抱NoSQL;比如:統計類、日誌類、弱結構化的數據;事務要求低的場景。
表拆分
數據量進一步增大的時候,就不得不考慮表拆分的問題了:
垂直拆分:垂直拆分的意思就是把一個字段較多的表,拆分成多個字段較少的表;上文中也說過單表的字段不宜過多,如果初期的表結構設計的就很好,就不會有垂直拆分的問題了;一般來說,MySQL單表的字段最好不要超過二三十個。
水平拆分:就是我們常說的分庫分表了;分表,解決了單表數據過大的問題,但是畢竟還在同一臺數據庫服務器上,所以IO、CPU、網絡方面的壓力,並不會得到徹底的緩解,這個可以通過分庫來解決。水平拆分優點很明顯,可以利用多臺數據庫服務器的資源,提高了系統的負載能力;缺點是邏輯會變得複雜,跨節點的數據關聯性能差,維護難度大(特別是擴容的時候)。
希望我的回答,能夠幫助到你!我將持續分享Java開發、架構設計、程序員職業發展等方面的見解,希望能得到你的關注。
會點代碼的大叔
MySQL數據庫是在國內各大公司最常用的數據庫之一,MySQL是一種開源的關係型數據庫。而對於數據庫的優化我認為可以從以下幾個方面進行:
1.數據庫配置優化在安裝MySQL數據庫時,可以對於數據庫進行優化,增加數據庫的連接數,增加訪問量,訪問量的增加可以提高查詢速度。增加緩存等優化數據庫,在查詢時,可以直接在緩存中查詢數據;
2.表結構優化在創建表結構時,一張數據表中不要創建過多的字段,如果一個功能的數據表結構中字段較多,可以嘗試將字段分離出來,分別建成兩個或多個表。而且對於字段的長度夠用即可,不要設置的過長;
3.索引優化可以在數據庫中,對於經常使用的表建立索引,索引可以增加查詢的速度。但是索引不是越多越好,過多的索引反而會減慢查詢的速度。針對性地建立索引會加速查詢,但是對新增、修改、刪除會造成一定的影響;
4.SQL查詢優化在SQL查詢時可以通過優化SQL的查詢進行優化,通過增加查詢的條件優化SQL,在多表關聯的查詢中,儘量不要使用自關聯和全關聯的方式進行,而是使用左右關聯的方式進行查詢。查詢語句將字段寫出來,不要使用select * from t(表名)的方式進行。
數通暢聯
建議瞭解一下tidb完全兼容mysql的集群
全棧碼農
一、Mysql分庫分表方案
1.為什麼要分表:當一張表的數據達到幾千萬時,你查詢一次所花的時間會變多,如果有聯合查詢的話,我想有可能會死在那兒了。分表的目的就在於此,減小數據庫的負擔,縮短查詢時間。
mysql中有一種機制是表鎖定和行鎖定,是為了保證數據的完整性。表鎖定表示你們都不能對這張表進行操作,必須等我對錶操作完才行。行鎖定也一樣,別的sql必須等我對這條數據操作完了,才能對這條數據進行操作。
2. mysql proxy:amoeba做mysql集群,利用amoeba。
從上層的java程序來講,不需要知道主服務器和從服務器的來源,即主從數據庫服務器對於上層來講是透明的。可以通過amoeba來配置。
3.大數據量並且訪問頻繁的表,將其分為若干個表比如對於某網站平臺的數據庫表-公司表,數據量很大,這種能預估出來的大數據量表,我們就事先分出個N個表,這個N是多少,根據實際情況而定。
某網站現在的數據量至多是5000萬條,可以設計每張表容納的數據量是500萬條,也就是拆分成10張表,
那麼如何判斷某張表的數據是否容量已滿呢?可以在程序段對於要新增數據的表,在插入前先做統計表記錄數量的操作,當<500萬條數據,就直接插入,當已經到達閥值,可以在程序段新創建數據庫表(或者已經事先創建好),再執行插入操作。
4. 利用merge存儲引擎來實現分表如果要把已有的大數據量表分開比較痛苦,最痛苦的事就是改代碼,因為程序裡面的sql語句已經寫好了。用merge存儲引擎來實現分表, 這種方法比較適合.
舉例子:
二、數據庫架構(Java自學網推薦 www.javazx.com)
1、簡單的MySQL主從複製:MySQL的主從複製解決了數據庫的讀寫分離,並很好的提升了讀的性能,其圖如下:
其主從複製的過程如下圖所示:
但是,主從複製也帶來其他一系列性能瓶頸問題:
- 寫入無法擴展
- 寫入無法緩存
- 複製延時
- 鎖表率上升
- 表變大,緩存率下降
那問題產生總得解決的,這就產生下面的優化方案,一起來看看。
2、MySQL垂直分區如果把業務切割得足夠獨立,那把不同業務的數據放到不同的數據庫服務器將是一個不錯的方案,而且萬一其中一個業務崩潰了也不會影響其他業務的正常進行,並且也起到了負載分流的作用,大大提升了數據庫的吞吐能力。經過垂直分區後的數據庫架構圖如下:
然而,儘管業務之間已經足夠獨立了,但是有些業務之間或多或少總會有點聯繫,如用戶,基本上都會和每個業務相關聯,況且這種分區方式,也不能解決單張表數據量暴漲的問題,因此為何不試試水平分割呢?
3、MySQL水平分片(Sharding)這是一個非常好的思路,將用戶按一定規則(按id哈希)分組,並把該組用戶的數據存儲到一個數據庫分片中,即一個sharding,這樣隨著用戶數量的增加,只要簡單地配置一臺服務器即可,原理圖如下:
如何來確定某個用戶所在的shard呢,可以建一張用戶和shard對應的數據表,每次請求先從這張表找用戶的shard id,再從對應shard中查詢相關數據,如下圖所示:
①單庫單表單庫單表是最常見的數據庫設計,例如,有一張用戶(user)表放在數據庫db中,所有的用戶都可以在db庫中的user表中查到。
②單庫多表隨著用戶數量的增加,user表的數據量會越來越大,當數據量達到一定程度的時候對user表的查詢會漸漸的變慢,從而影響整個DB的性能。如果使用mysql, 還有一個更嚴重的問題是,當需要添加一列的時候,mysql會鎖表,期間所有的讀寫操作只能等待。 可以通過某種方式將user進行水平的切分,產生兩個表結構完全一樣的user_0000,user_0001等表,user_0000 + user_0001 + …的數據剛好是一份完整的數據。
③多庫多表隨著數據量增加也許單臺DB的存儲空間不夠,隨著查詢量的增加單臺數據庫服務器已經沒辦法支撐。這個時候可以再對數據庫進行水平區分。
四、分庫分表規則
設計表的時候需要確定此表按照什麼樣的規則進行分庫分表。例如,當有新用戶時,程序得確定將此用戶信息添加到哪個表中;同理,當登錄的時候我們得通過用戶的賬號找到數據庫中對應的記錄,所有的這些都需要按照某一規則進行。 路由 通過分庫分表規則查找到對應的表和庫的過程。如分庫分表的規則是user_id mod 4的方式,當用戶新註冊了一個賬號,賬號id的123,我們可以通過id mod 4的方式確定此賬號應該保存到User_0003表中。當用戶123登錄的時候,我們通過123 mod 4後確定記錄在User_0003中。 分庫分表產生的問題,及注意事項
1. 分庫分表維度的問題假如用戶購買了商品,需要將交易記錄保存取來,如果按照用戶的緯度分表,則每個用戶的交易記錄都保存在同一表中,所以很快很方便的查找到某用戶的 購買情況,但是某商品被購買的情況則很有可能分佈在多張表中,查找起來比較麻煩。反之,按照商品維度分表,可以很方便的查找到此商品的購買情況,但要查找 到買人的交易記錄比較麻煩。 所以常見的解決方式有:
- 通過掃表的方式解決,此方法基本不可能,效率太低了。
- 記錄兩份數據,一份按照用戶緯度分表,一份按照商品維度分表。
- 通過搜索引擎解決,但如果實時性要求很高,又得關係到實時搜索。
聯合查詢基本不可能,因為關聯的表有可能不在同一數據庫中。
3. 避免跨庫事務避免在一個事務中修改db0中的表的時候同時修改db1中的表,一個是操作起來更復雜,效率也會有一定影響。
4. 儘量把同一組數據放到同一DB服務器上例如將賣家a的商品和交易信息都放到db0中,當db1掛了的時候,賣家a相關的東西可以正常使用。也就是說避免數據庫中的數據依賴另一數據庫中的數據。
5.一主多備在實際的應用中,絕大部分情況都是讀遠大於寫。Mysql提供了讀寫分離的機制,所有的寫操作都必須對應到Master,讀操作可以在 Master和Slave機器上進行,Slave與Master的結構完全一樣,一個Master可以有多個Slave,甚至Slave下還可以掛 Slave,通過此方式可以有效的提高DB集群的 QPS. 所有的寫操作都是先在Master上操作,然後同步更新到Slave上,所以從Master同步到Slave機器有一定的延遲,當系統很繁忙的時候,延遲問題會更加嚴重,Slave機器數量的增加也會使這個問題更加嚴重。 此外,可以看出Master是集群的瓶頸,當寫操作過多,會嚴重影響到Master的穩定性,如果Master掛掉,整個集群都將不能正常工作。 所以
- 當讀壓力很大的時候,可以考慮添加Slave機器的分式解決,但是當Slave機器達到一定的數量就得考慮分庫了。
- 當寫壓力很大的時候,就必須得進行分庫操作。
五、MySQL使用為什麼要分庫分表
可以用說用到MySQL的地方,只要數據量一大, 馬上就會遇到一個問題,要分庫分表. 這裡引用一個問題為什麼要分庫分表呢?MySQL處理不了大的表嗎? 其實是可以處理的大表的.我所經歷的項目中單表物理上文件大小在80G多,單表記錄數在5億以上,而且這個表 屬於一個非常核用的表:朋友關係表. 但這種方式可以說不是一個最佳方式. 因為面臨文件系統如Ext3文件系統對大於大文件處理上也有許多問題. 這個層面可以用xfs文件系統進行替換.但MySQL單表太大後有一個問題是不好解決: 表結構調整相關的操作基 本不在可能.所以大項在使用中都會面監著分庫分表的應用. 從Innodb本身來講數據文件的Btree上只有兩個鎖, 葉子節點鎖和子節點鎖,可以想而知道,當發生頁拆分或是添加新葉時都會造成表裡不能寫入數據.所以分庫分表還就是一個比較好的選擇了. 那麼分庫分表多少合適呢? 經測試在單表1000萬條記錄一下,寫入讀取性能是比較好的. 這樣在留點buffer,那麼單表全是數據字型的保持在800萬條記錄以下, 有字符型的單表保持在500萬以下. 如果按 100庫100表來規劃,如用戶業務: 500萬*100*100 = 50000000萬 = 5000億記錄. 心裡有一個數了,按業務做規劃還是比較容易的.
分佈式數據庫架構--排序、分頁、分組、實現
六、最近研究分佈式數據庫架構,發現排序、分組及分頁讓著實人有點頭疼。現把問題及解決思路整理如下。
1.多分片(水平切分)返回結果合併(排序)①Select + None Aggregate Function的有序記錄合併排序解決思路:對各分片返回的有序記錄,進行排序去重合並。此處主要是編寫排序去重合並算法。
②Select + None Aggregate Function的無序記錄合併解決思路:對各分片返回的無序記錄,進行去重合並。
- 優點:實現比較簡單。
- 缺點:數據量越大,字段越多,去重處理就會越耗時。
- AF:Max、Min
- 思路:通過算法對各分片返回結果再求max、min值。
- AF:Avg、Sum、Count
- 思路:分片間無重複記錄或字段時,通過算法對各分片返回結果再求avg、sum、count值。分片間有重複記錄或字段時,先對各分片記錄去重合並,再通過算法求avg、sum、count值。
比如:
解決思路:合併各分片返回結果,邏輯分頁。
優點: 實現簡單。
缺點: 數據量越大,緩存壓力就越大。
分片數據量越大,查詢也會越慢。
3.多分片(水平切分)查詢有分組語法的合併①Group By Having + None Aggregate Function時- Select + None Aggregate Function
- 比如:select job user group by job;
- 思路:直接去重(排序)合併。
- Select + Aggregate Function
- 比如:select max(sal),job user group by job;
- 思路:同Select + Aggregate Function的記錄合併(排序)。
解決思路:去掉having AF條件查詢各分片,然後把數據放到一張表裡。再用group by having 聚合函數查詢。
4.分佈式數據庫架構--排序分組分頁參考解決方案- 解決方案1:Hadoop + Hive。
- 思路:使用Hadoop HDFS來存儲數據,通過Hdoop MapReduce完成數據計算,通過Hive HQL語言使用部分與RDBBS一樣的表格查詢特性和分佈式存儲計算特性。
- 優點:
- 可以解決問題
- 具有併發處理能力
- 可以離線處理
- 缺點:
- 實時性不能保證
- 網絡延遲會增加
- 異常捕獲難度增加
- Web應用起來比較複雜
- 解決方案2:總庫集中查詢。
- 優點:
- 可以解決問題
- 實現簡單
- 缺點:
- 總庫數據不能太大
- 併發壓力大
對 於分佈式數據庫架構來說,排序、分頁、分組一直就是一個比較複雜的問題。避免此問題需要好好地設計分庫、分表策略。同時根據特定的場景來解決問題。也可以 充分利用海量數據存儲(Hadoop-HDFS|Hive|HBse)、搜索引擎(Lucene|Solr)及分佈式計算(MapReduce)等技術來 解決問題。別外,也可以用NoSQL技術替代關係性數據庫來解決問題,比如MogonDB\\redis。
Java架構達人
我也最近在看千萬級數據怎麼解決數據量大的問題,其中我找到2個比較好的解決方案,一個是mycat一個是sharing jdbc,mycat的官方文檔剛看完,提供了分庫分表和分片的概念,如果一個表的數據量太大,可以根據表中的字段區分為好幾個分片,比如5千萬的數據量分為10個分片,每個500萬,當你查詢的的時候他會移動根據路由規則查詢哪幾個分片然後聚合數據,具體的需要你根據自己的業務拆分,sharing jdbc我只是在看書的時候看到的,具體沒怎麼研究過。
怎一個愁字了得呀呀
rm -rf