• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    mysql千萬級數據分頁查詢性能優化

    來源:懂視網 責編:小采 時間:2020-11-09 20:29:04
    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    導讀mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始

    mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。

    實驗

    1.直接使用用limit start, count分頁語句:

    select * from order limit start, count

    當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始分頁的執行時間(每頁取20條), 如下:

    select * from order limit 10, 20 0.016秒
    
    select * from order limit 100, 20 0.016秒
    
    select * from order limit 1000, 20 0.047秒
    
    select * from order limit 10000, 20 0.094秒
    
    

    我們已經看出隨著起始記錄的增加,時間也隨著增大, 這說明分頁語句limit跟起始頁碼是有很大關系的,那么我們把起始記錄改為40w看下

    select * from order limit 400000, 20 3.229秒

    再看我們取最后一頁記錄的時間

    select * from order limit 800000, 20 37.44秒

    顯然這種時間是無法忍受的。

    從中我們也能總結出兩件事情:

    1)limit語句的查詢時間與起始記錄的位置成正比

    2)mysql的limit語句是很方便,但是對記錄很多的表并不適合直接使用。

    2.對limit分頁問題的性能優化方法

    利用表的覆蓋索引來加速分頁查詢

    我們都知道,利用了索引查詢的語句中如果只包含了那個索引列(覆蓋索引),那么這種情況會查詢很快。

    因為利用索引查找有優化算法,且數據就在查詢索引上面,不用再去找相關的數據地址了,這樣節省了很多時間。另外Mysql中也有相關的索引緩存,在并發高的時候利用緩存就效果更好了。

    在我們的例子中,我們知道id字段是主鍵,自然就包含了默認的主鍵索引。現在讓我們看看利用覆蓋索引的查詢效果如何:

    這次我們之間查詢最后一頁的數據(利用覆蓋索引,只包含id列),如下:

    select id from order limit 800000, 20 0.2秒

    相對于查詢了所有列的37.44秒,提升了大概100多倍的速度

    那么如果我們也要查詢所有列,有兩種方法,一種是id>=的形式,另一種就是利用join,看下實際情況:

    SELECT * FROM order WHERE ID > =(select id from order limit 800000, 1) limit 20

    查詢時間為0.2秒,簡直是一個質的飛躍啊,哈哈

    另一種寫法

    SELECT * FROM order a JOIN (select id from order limit 800000, 20) b ON a.ID = b.id

    查詢時間也很短

    您可能感興趣的文章:

  • mysql中迅速插入百萬條測試數據的方法
  • mysql 動態生成測試數據
  • MySQL與MSSQl使用While語句循環生成測試數據的代碼
  • MySQL 百萬級分頁優化(Mysql千萬級快速分頁)
  • mysql千萬級數據大表該如何優化?
  • Mysql limit 優化,百萬至千萬級快速分頁 復合索引的引用并應用于輕量級框架
  • 千萬級記錄的Discuz論壇導致MySQL CPU 100%的優化筆記
  • 如何優化Mysql千萬級快速分頁
  • 30個mysql千萬級大數據SQL查詢優化技巧詳解
  • MySQL如何快速的創建千萬級測試數據
  • 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    mysql千萬級數據分頁查詢性能優化

    mysql千萬級數據分頁查詢性能優化:mysql數據量大時使用limit分頁,隨著頁碼的增大,查詢效率越低下。 實驗 1.直接使用用limit start, count分頁語句: select * from order limit start, count 當起始頁較小時,查詢沒有性能問題,我們分別看下從10, 100, 1000, 10000開始
    推薦度:
    標簽: 數據 百萬 mysql
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 国产国产精品人在线视| 成人国产精品高清在线观看| 99精品在线播放| 日产国产精品亚洲系列| 2023国产精品自拍| 999国内精品永久免费观看| 亚洲一区精品无码| 日本精品少妇一区二区三区| 99久久国产热无码精品免费久久久久| 国产亚洲精品资源在线26u| 亚洲中文精品久久久久久不卡| 免费人欧美日韩在线精品 | 欧美精品人爱a欧美精品| 2024国产精品极品色在线| 1000部精品久久久久久久久 | 6080亚洲精品午夜福利| 精品无人区麻豆乱码1区2区 | 99re这里只有精品6| 久久精品aⅴ无码中文字字幕不卡| 亚洲乱码日产精品a级毛片久久| 欧美精品福利视频一区二区三区久久久精品| 97久久精品人人澡人人爽| 久久国产精品国产自线拍免费| 97r久久精品国产99国产精| 国产麻豆精品一区二区三区v视界| 无码精品视频一区二区三区| 中文字幕日韩精品有码视频| 四虎影院国产精品| 亚洲国产精品一区二区第四页| 热综合一本伊人久久精品| 欧美国产成人精品一区二区三区| 久久精品女人天堂AV麻| 久久精品无码一区二区日韩AV| 久久精品成人| 亚洲av午夜精品一区二区三区 | 99久久国产热无码精品免费| 国产精品亚洲片在线观看不卡 | 免费精品国自产拍在线播放| 精品国产综合区久久久久久 | 国产午夜精品一区二区三区 | 少妇精品久久久一区二区三区|