緩存與數據庫雙寫一致性實戰


秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰


前言

微笑挖坑,努力填坑。

        ———— 已經擁有黑眼圈,但還沒學會小豬老師時間管理學的蠻三刀同學

本文是秒殺系統的第四篇,我們來討論秒殺系統中「緩存熱點數據」的問題,進一步延伸到數據庫和緩存的雙寫一致性問題,並且給出了實現代碼。

前文回顧和文章規劃

  • 零基礎上手秒殺系統(一):防止超賣
  • 零基礎上手秒殺系統(二):令牌桶限流 + 再談超賣
  • 零基礎上手秒殺系統(三):搶購接口隱藏 + 單用戶限制頻率
  • 零基礎上手秒殺系統(四):緩存數據(數據庫與緩存一致性實戰)(本篇)
  • 零基礎上手秒殺系統:消息隊列異步處理訂單
  • ...

本篇文章主要內容

  • 緩存熱點數據 為何要使用緩存哪類數據適合緩存緩存的利與弊
  • 緩存和數據庫雙寫一致性 不使用更新緩存而是刪除緩存先刪除緩存,還是先操作數據庫?我一定要數據庫和緩存數據一致怎麼辦實戰:先刪除緩存,再更新數據庫實戰:先更新數據庫,再刪緩存實戰:刪除緩存重試機制實戰:刪除緩存重試機制實戰:讀取binlog異步刪除緩存

歡迎關注我的個人公眾號獲取最全的原創文章:後端技術漫談(二維碼見文章底部)

項目源碼在這裡

媽媽再也不用擔心我看完文章不會寫代碼實現啦:

https://github.com/qqxx6661/miaosha

正文

秒殺系統介紹

可以翻閱該系列的第一篇文章,這裡不再回顧:

零基礎上手秒殺系統(一):防止超賣

緩存熱點數據

在秒殺實際的業務中,一定有很多需要做緩存的場景,比如售賣的商品,包括名稱,詳情等。訪問量很大的數據,可以算是“熱點”數據了,尤其是一些讀取量遠大於寫入量的數據,更應該被緩存,而不應該讓請求打到數據庫上。

為何要使用緩存

緩存是為了追求“快”而存在的。我們用代碼舉一個例子。

拿出我之前三篇文章的項目代碼來,在其中增加兩個查詢庫存的接口getStockByDB和getStockByCache,分別表示從數據庫和緩存查詢某商品的庫存量。

隨後我們用JMeter進行併發請求測試。(JMeter的使用請參考我的第一篇秒殺系統文章)

<code>/**
 * 查詢庫存:通過數據庫查詢庫存
 * @param sid
 * @return
 */
@RequestMapping("/getStockByDB/{sid}")
@ResponseBody
public String getStockByDB(@PathVariable int sid) {
    int count;
    try {
        count = stockService.getStockCountByDB(sid);
    } catch (Exception e) {
        LOGGER.error("查詢庫存失敗:[{}]", e.getMessage());
        return "查詢庫存失敗";
    }
    LOGGER.info("商品Id: [{}] 剩餘庫存為: [{}]", sid, count);
    return String.format("商品Id: %d 剩餘庫存為:%d", sid, count);
}

/**
 * 查詢庫存:通過緩存查詢庫存
 * 緩存命中:返回庫存
 * 緩存未命中:查詢數據庫寫入緩存並返回
 * @param sid
 * @return
 */
@RequestMapping("/getStockByCache/{sid}")
@ResponseBody
public String getStockByCache(@PathVariable int sid) {
    Integer count;
    try {
        count = stockService.getStockCountByCache(sid);
        if (count == null) {
            count = stockService.getStockCountByDB(sid);
            LOGGER.info("緩存未命中,查詢數據庫,並寫入緩存");
            stockService.setStockCountToCache(sid, count);
        }
    } catch (Exception e) {
        LOGGER.error("查詢庫存失敗:[{}]", e.getMessage());
        return "查詢庫存失敗";
    }
    LOGGER.info("商品Id: [{}] 剩餘庫存為: [{}]", sid, count);
    return String.format("商品Id: %d 剩餘庫存為:%d", sid, count);
}
/<code> 

在設置為10000個併發請求的情況下,運行JMeter,結果首先出現了大量的報錯,10000個請求中98%的請求都直接失敗了。打開日誌,報錯如下:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

原來是SpringBoot內置的Tomcat最大併發數搞的鬼,其默認值為200,對於10000的併發,單機服務實在是力不從心。當然,你可以修改這裡的併發數設置,但是你的小機器仍然可能會扛不住。

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

將其修改為如下配置後,我的小機器才在通過緩存拿庫存的情況下,保證了10000個併發的100%返回請求:

<code>server.tomcat.max-threads=10000
server.tomcat.max-connections=10000
/<code>

不使用緩存的情況下,吞吐量為668個請求每秒,並且有5%的請求由於服務壓力實在太大,沒有返回庫存數據:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

使用緩存的情況下,吞吐量為2177個請求每秒:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

在這種“不嚴謹”的對比下,有緩存對於一臺單機,性能提升了3倍多,如果在多臺機器,更多併發的情況下,由於數據庫有了更大的壓力,緩存的性能優勢應該會更加明顯。

測完了這個小實驗,我看了眼我掛著Mysql的小水管騰訊雲服務器,生怕他被這麼高流量搞掛。這種突發的流量,指不定會被檢測為異常攻擊流量呢~

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

我用的是騰訊雲服務器1C4G2M,活動買的,很便宜。

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

哪類數據適合緩存

緩存量大但又不常變化的數據,比如詳情,評論等。對於那些經常變化的數據,其實並不適合緩存,一方面會增加系統的複雜性(緩存的更新,緩存髒數據),另一方面也給系統帶來一定的不穩定性(緩存系統的維護)。

「但一些極端情況下,你需要將一些會變動的數據進行緩存,比如想要頁面顯示準實時的庫存數,或者其他一些特殊業務場景。這時候你需要保證緩存不能(一直)有髒數據,這就需要再深入討論一下。」

緩存的利與弊

我們到底該不該上緩存的,這其實也是個trade-off的問題。

上緩存的優點:

  • 能夠縮短服務的響應時間,給用戶帶來更好的體驗。
  • 能夠增大系統的吞吐量,依然能夠提升用戶體驗。
  • 減輕數據庫的壓力,防止高峰期數據庫被壓垮,導致整個線上服務BOOM!

上了緩存,也會引入很多額外的問題:

  • 緩存有多種選型,是內存緩存,memcached還是redis,你是否都熟悉,如果不熟悉,無疑增加了維護的難度(本來是個純潔的數據庫系統)。
  • 緩存系統也要考慮分佈式,比如redis的分佈式緩存還會有很多坑,無疑增加了系統的複雜性。
  • 在特殊場景下,如果對緩存的準確性有非常高的要求,就必須考慮「緩存和數據庫的一致性問題」

「本文想要重點討論的,就是緩存和數據庫的一致性問題,客觀且往下看。」

緩存和數據庫雙寫一致性

說了這麼多緩存的必要性,那麼使用緩存是不是就是一個很簡單的事情了呢,我之前也一直是這麼覺得的,直到遇到了需要緩存與數據庫保持強一致的場景,才知道讓數據庫數據和緩存數據保持一致性是一門很高深的學問。

從遠古的硬件緩存,操作系統緩存開始,緩存就是一門獨特的學問。這個問題也被業界探討了非常久,爭論至今。我翻閱了很多資料,發現其實這是一個權衡的問題。值得好好講講。

以下的討論會引入幾方觀點,我會跟著觀點來寫代碼驗證所提到的問題。

不使用更新緩存而是刪除緩存

「大部分觀點認為,做緩存不應該是去更新緩存,而是應該刪除緩存,然後由下個請求去去緩存,發現不存在後再讀取數據庫,寫入緩存。」

《分佈式之數據庫和緩存雙寫一致性方案解析》孤獨煙:

「原因一:線程安全角度」

同時有請求A和請求B進行更新操作,那麼會出現

(1)線程A更新了數據庫

(2)線程B更新了數據庫

(3)線程B更新了緩存

(4)線程A更新了緩存

這就出現請求A更新緩存應該比請求B更新緩存早才對,但是因為網絡等原因,B卻比A更早更新了緩存。這就導致了髒數據,因此不考慮。

「原因二:業務場景角度」

有如下兩點:

(1)如果你是一個寫數據庫場景比較多,而讀數據場景比較少的業務需求,採用這種方案就會導致,數據壓根還沒讀到,緩存就被頻繁的更新,浪費性能。

(2)如果你寫入數據庫的值,並不是直接寫入緩存的,而是要經過一系列複雜的計算再寫入緩存。那麼,每次寫入數據庫後,都再次計算寫入緩存的值,無疑是浪費性能的。顯然,刪除緩存更為適合。

「其實如果業務非常簡單,只是去數據庫拿一個值,寫入緩存,那麼更新緩存也是可以的。但是,淘汰緩存操作簡單,並且帶來的副作用只是增加了一次cache miss,建議作為通用的處理方式。」

先刪除緩存,還是先操作數據庫?

「那麼問題就來了,我們是先刪除緩存,然後再更新數據庫,還是先更新數據庫,再刪緩存呢?」

先來看看大佬們怎麼說。

《【58沈劍架構系列】緩存架構設計細節二三事》58沈劍:

對於一個不能保證事務性的操作,一定涉及“哪個任務先做,哪個任務後做”的問題,解決這個問題的方向是:如果出現不一致,誰先做對業務的影響較小,就誰先執行。

假設先淘汰緩存,再寫數據庫:第一步淘汰緩存成功,第二步寫數據庫失敗,則只會引發一次Cache miss。

假設先寫數據庫,再淘汰緩存:第一步寫數據庫操作成功,第二步淘汰緩存失敗,則會出現DB中是新數據,Cache中是舊數據,數據不一致。

沈劍老師說的沒有問題,不過「沒完全考慮好併發請求時的數據髒讀問題」,讓我們再來看看孤獨煙老師《分佈式之數據庫和緩存雙寫一致性方案解析》:

「先刪緩存,再更新數據庫」

該方案會導致請求數據不一致

同時有一個請求A進行更新操作,另一個請求B進行查詢操作。那麼會出現如下情形:

(1)請求A進行寫操作,刪除緩存

(2)請求B查詢發現緩存不存在

(3)請求B去數據庫查詢得到舊值

(4)請求B將舊值寫入緩存

(5)請求A將新值寫入數據庫

上述情況就會導致不一致的情形出現。而且,如果不採用給緩存設置過期時間策略,該數據永遠都是髒數據。

「所以先刪緩存,再更新數據庫並不是一勞永逸的解決方案,再看看先更新數據庫,再刪緩存」

「先更新數據庫,再刪緩存」這種情況不存在併發問題麼?

不是的。假設這會有兩個請求,一個請求A做查詢操作,一個請求B做更新操作,那麼會有如下情形產生

(1)緩存剛好失效

(2)請求A查詢數據庫,得一箇舊值

(3)請求B將新值寫入數據庫

(4)請求B刪除緩存

(5)請求A將查到的舊值寫入緩存

ok,如果發生上述情況,確實是會發生髒數據。

然而,發生這種情況的概率又有多少呢?

發生上述情況有一個先天性條件,就是步驟(3)的寫數據庫操作比步驟(2)的讀數據庫操作耗時更短,才有可能使得步驟(4)先於步驟(5)。可是,大家想想,「數據庫的讀操作的速度遠快於寫操作的(不然做讀寫分離幹嘛,做讀寫分離的意義就是因為讀操作比較快,耗資源少),因此步驟(3)耗時比步驟(2)更短,這一情形很難出現。」

「先更新數據庫,再刪緩存」依然會有問題,不過,問題出現的可能性會因為上面說的原因,變得比較低!

所以,如果你想實現基礎的緩存數據庫雙寫一致的邏輯,那麼在大多數情況下,在不想做過多設計,增加太大工作量的情況下,請「先更新數據庫,再刪緩存!」

我一定要數據庫和緩存數據一致怎麼辦

那麼,如果我tm非要保證絕對一致性怎麼辦,先給出結論:

「沒有辦法做到絕對的一致性,這是由CAP理論決定的,緩存系統適用的場景就是非強一致性的場景,所以它屬於CAP中的AP。」

所以,我們得委曲求全,可以去做到BASE理論中說的「最終一致性」

最終一致性強調的是系統中所有的數據副本,在經過一段時間的同步後,最終能夠達到一個一致的狀態。因此,最終一致性的本質是需要系統保證最終數據能夠達到一致,而不需要實時保證系統數據的強一致性

大佬們給出了到達最終一致性的解決思路,主要是針對上面兩種雙寫策略(先刪緩存,再更新數據庫/先更新數據庫,再刪緩存)導致的髒數據問題,進行相應的處理,來保證最終一致性。

延時雙刪

問:先刪除緩存,再更新數據庫中避免髒數據?

答案:採用延時雙刪策略。

上文我們提到,在先刪除緩存,再更新數據庫的情況下,如果不採用給緩存設置過期時間策略,該數據永遠都是髒數據。

「那麼延時雙刪怎麼解決這個問題呢?」

(1)先淘汰緩存

(2)再寫數據庫(這兩步和原來一樣)

(3)休眠1秒,再次淘汰緩存

這麼做,可以將1秒內所造成的緩存髒數據,再次刪除。

「那麼,這個1秒怎麼確定的,具體該休眠多久呢?」

針對上面的情形,讀者應該自行評估自己的項目的讀數據業務邏輯的耗時。然後寫數據的休眠時間則在讀數據業務邏輯的耗時基礎上,加幾百ms即可。這麼做的目的,就是確保讀請求結束,寫請求可以刪除讀請求造成的緩存髒數據。

「如果你用了mysql的讀寫分離架構怎麼辦?」

ok,在這種情況下,造成數據不一致的原因如下,還是兩個請求,一個請求A進行更新操作,另一個請求B進行查詢操作。

(1)請求A進行寫操作,刪除緩存

(2)請求A將數據寫入數據庫了,

(3)請求B查詢緩存發現,緩存沒有值

(4)請求B去從庫查詢,這時,還沒有完成主從同步,因此查詢到的是舊值

(5)請求B將舊值寫入緩存

(6)數據庫完成主從同步,從庫變為新值

上述情形,就是數據不一致的原因。還是使用雙刪延時策略。只是,睡眠時間修改為在主從同步的延時時間基礎上,加幾百ms。

「採用這種同步淘汰策略,吞吐量降低怎麼辦?」

ok,那就將第二次刪除作為異步的。自己起一個線程,異步刪除。這樣,寫的請求就不用沉睡一段時間後了,再返回。這麼做,加大吞吐量。

「所以在先刪除緩存,再更新數據庫的情況下」,可以使用延時雙刪的策略,來保證髒數據只會存活一段時間,就會被準確的數據覆蓋。

「在先更新數據庫,再刪緩存的情況下」,緩存出現髒數據的情況雖然可能性極小,但也會出現。我們依然可以用延時雙刪策略,在請求A對緩存寫入了髒的舊值之後,再次刪除緩存。來保證去掉髒緩存。

刪緩存失敗了怎麼辦:重試機制

看似問題都已經解決了,但其實,還有一個問題沒有考慮到,那就是刪除緩存的操作,失敗了怎麼辦?比如延時雙刪的時候,第二次緩存刪除失敗了,那不還是沒有清除髒數據嗎?

「解決方案就是再加上一個重試機制,保證刪除緩存成功。」

參考孤獨煙老師給的方案圖:

「方案一:」

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

流程如下所示

(1)更新數據庫數據;

(2)緩存因為種種問題刪除失敗

(3)將需要刪除的key發送至消息隊列

(4)自己消費消息,獲得需要刪除的key

(5)繼續重試刪除操作,直到成功

然而,該方案有一個缺點,對業務線代碼造成大量的侵入。於是有了方案二,在方案二中,啟動一個訂閱程序去訂閱數據庫的binlog,獲得需要操作的數據。在應用程序中,另起一段程序,獲得這個訂閱程序傳來的信息,進行刪除緩存操作。

方案二:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

流程如下圖所示:

(1)更新數據庫數據

(2)數據庫會將操作信息寫入binlog日誌當中

(3)訂閱程序提取出所需要的數據以及key

(4)另起一段非業務代碼,獲得該信息

(5)嘗試刪除緩存操作,發現刪除失敗

(6)將這些信息發送至消息隊列

(7)重新從消息隊列中獲得該數據,重試操作。

「而讀取binlog的中間件,可以採用阿里開源的canal」

好了,到這裡我們已經把緩存雙寫一致性的思路徹底梳理了一遍,下面就是我對這幾種思路徒手寫的實戰代碼,方便有需要的朋友參考。

實戰:先刪除緩存,再更新數據庫

終於到了實戰,我們在秒殺項目的代碼上增加接口:先刪除緩存,再更新數據庫

OrderController中新增:

<code>/**
 * 下單接口:先刪除緩存,再更新數據庫
 * @param sid
 * @return
 */
@RequestMapping("/createOrderWithCacheV1/{sid}")
@ResponseBody
public String createOrderWithCacheV1(@PathVariable int sid) {
    int count = 0;
    try {
        // 刪除庫存緩存
        stockService.delStockCountCache(sid);
        // 完成扣庫存下單事務
        orderService.createPessimisticOrder(sid);
    } catch (Exception e) {
        LOGGER.error("購買失敗:[{}]", e.getMessage());
        return "購買失敗,庫存不足";
    }
    LOGGER.info("購買成功,剩餘庫存為: [{}]", count);
    return String.format("購買成功,剩餘庫存為:%d", count);
}
/<code>

stockService中新增:

<code>@Override
public void delStockCountCache(int id) {
    String hashKey = CacheKey.STOCK_COUNT.getKey() + "_" + id;
    stringRedisTemplate.delete(hashKey);
    LOGGER.info("刪除商品id:[{}] 緩存", id);
}
/<code>

其他涉及的代碼都在之前三篇文章中有介紹,並且可以直接去Github拿到項目源碼,就不在這裡重複貼了。

實戰:先更新數據庫,再刪緩存

如果是先更新數據庫,再刪緩存,那麼代碼只是在業務順序上顛倒了一下,這裡就只貼OrderController中新增:

<code>/**
 * 下單接口:先更新數據庫,再刪緩存
 * @param sid
 * @return
 */
@RequestMapping("/createOrderWithCacheV2/{sid}")
@ResponseBody
public String createOrderWithCacheV2(@PathVariable int sid) {
    int count = 0;
    try {
        // 完成扣庫存下單事務
        orderService.createPessimisticOrder(sid);
        // 刪除庫存緩存
        stockService.delStockCountCache(sid);
    } catch (Exception e) {
        LOGGER.error("購買失敗:[{}]", e.getMessage());
        return "購買失敗,庫存不足";
    }
    LOGGER.info("購買成功,剩餘庫存為: [{}]", count);
    return String.format("購買成功,剩餘庫存為:%d", count);
}
/<code>

實戰:緩存延時雙刪

如何做延時雙刪呢,最好的方法是開設一個線程池,在線程中刪除key,而不是使用Thread.sleep進行等待,這樣會阻塞用戶的請求。

更新前先刪除緩存,然後更新數據,再延時刪除緩存。

OrderController中新增接口:

<code>
// 延時時間:預估讀數據庫數據業務邏輯的耗時,用來做緩存再刪除
private static final int DELAY_MILLSECONDS = 1000;


/**
 * 下單接口:先刪除緩存,再更新數據庫,緩存延時雙刪
 * @param sid
 * @return
 */
@RequestMapping("/createOrderWithCacheV3/{sid}")
@ResponseBody
public String createOrderWithCacheV3(@PathVariable int sid) {
    int count;
    try {
        // 刪除庫存緩存
        stockService.delStockCountCache(sid);
        // 完成扣庫存下單事務
        count = orderService.createPessimisticOrder(sid);
        // 延時指定時間後再次刪除緩存
        cachedThreadPool.execute(new delCacheByThread(sid));
    } catch (Exception e) {
        LOGGER.error("購買失敗:[{}]", e.getMessage());
        return "購買失敗,庫存不足";
    }
    LOGGER.info("購買成功,剩餘庫存為: [{}]", count);
    return String.format("購買成功,剩餘庫存為:%d", count);
}
/<code>

OrderController中新增線程池:

<code>// 延時雙刪線程池
private static ExecutorService cachedThreadPool = new ThreadPoolExecutor(0, Integer.MAX_VALUE, 60L, TimeUnit.SECONDS,new SynchronousQueue());


/**
 * 緩存再刪除線程
 */
private class delCacheByThread implements Runnable {
    private int sid;
    public delCacheByThread(int sid) {
        this.sid = sid;
    }
    public void run() {
        try {
            LOGGER.info("異步執行緩存再刪除,商品id:[{}], 首先休眠:[{}] 毫秒", sid, DELAY_MILLSECONDS);
            Thread.sleep(DELAY_MILLSECONDS);
            stockService.delStockCountCache(sid);
            LOGGER.info("再次刪除商品id:[{}] 緩存", sid);
        } catch (Exception e) {
            LOGGER.error("delCacheByThread執行出錯", e);
        }
    }
}
/<code>

來試驗一下,請求接口createOrderWithCacheV3:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

日誌中,做到了兩次刪除:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

實戰:刪除緩存重試機制

上文提到了,要解決刪除失敗的問題,需要用到消息隊列,進行刪除操作的重試。這裡我們為了達到效果,接入了RabbitMq,並且需要在接口中寫發送消息,並且需要消費者常駐來消費消息。Spring整合RabbitMq還是比較簡單的,我把簡單的整合代碼也貼出來。

pom.xml新增RabbitMq的依賴:

<code>
    org.springframework.boot
    spring-boot-starter-amqp

/<code>

寫一個RabbitMqConfig:

<code>@Configuration
public class RabbitMqConfig {

    @Bean
    public Queue delCacheQueue() {
        return new Queue("delCache");
    }

}
/<code>

添加一個消費者:

<code>@Component
@RabbitListener(queues = "delCache")
public class DelCacheReceiver {

    private static final Logger LOGGER = LoggerFactory.getLogger(DelCacheReceiver.class);

    @Autowired
    private StockService stockService;

    @RabbitHandler
    public void process(String message) {
        LOGGER.info("DelCacheReceiver收到消息: " + message);
        LOGGER.info("DelCacheReceiver開始刪除緩存: " + message);
        stockService.delStockCountCache(Integer.parseInt(message));
    }
}
/<code>

OrderController中新增接口:

<code>/**
 * 下單接口:先更新數據庫,再刪緩存,刪除緩存重試機制
 * @param sid
 * @return
 */
@RequestMapping("/createOrderWithCacheV4/{sid}")
@ResponseBody
public String createOrderWithCacheV4(@PathVariable int sid) {
    int count;
    try {
        // 完成扣庫存下單事務
        count = orderService.createPessimisticOrder(sid);
        // 刪除庫存緩存
        stockService.delStockCountCache(sid);
        // 延時指定時間後再次刪除緩存
        // cachedThreadPool.execute(new delCacheByThread(sid));
        // 假設上述再次刪除緩存沒成功,通知消息隊列進行刪除緩存
        sendDelCache(String.valueOf(sid));

    } catch (Exception e) {
        LOGGER.error("購買失敗:[{}]", e.getMessage());
        return "購買失敗,庫存不足";
    }
    LOGGER.info("購買成功,剩餘庫存為: [{}]", count);
    return String.format("購買成功,剩餘庫存為:%d", count);
}
/<code>

訪問createOrderWithCacheV4:

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

可以看到,我們先完成了下單,然後刪除了緩存,並且假設延遲刪除緩存失敗了,發送給消息隊列重試的消息,消息隊列收到消息後再去刪除緩存。

實戰:讀取binlog異步刪除緩存

我們需要用到阿里開源的canal來讀取binlog進行緩存的異步刪除。

不過很蛋疼的是,這次文章的工作量實在有點太大了,連續寫代碼和整理文字身體有點吃不消了,不知道你們有沒有學累。我準備把canal之後單開一個文章寫,可能就是第五篇,也可能是單開一個canal的文章。我得先休息會,這裡就留一個坑把。

擴展閱讀

更新緩存的的Design Pattern有四種:Cache aside, Read through, Write through, Write behind caching,這裡有陳皓的總結文章可以進行學習。

https://coolshell.cn/articles/17416.html

小結

引用陳浩《緩存更新的套路》最後的總結語作為小結:

分佈式系統裡要麼通過2PC或是Paxos協議保證一致性,要麼就是拼命的降低併發時髒數據的概率

緩存系統適用的場景就是非強一致性的場景,所以它屬於CAP中的AP,BASE理論。

異構數據庫本來就沒辦法強一致,「只是儘可能減少時間窗口,達到最終一致性」

還有別忘了設置過期時間,這是個兜底方案

結束語

本文總結了秒殺系統中關於緩存數據的思考和實現,並探討了緩存數據庫雙寫一致性問題。

「可以總結為如下幾點:」

  • 對於讀多寫少的數據,請使用緩存。
  • 為了保持一致性,會導致系統吞吐量的下降。
  • 為了保持一致性,會導致業務代碼邏輯複雜。
  • 緩存做不到絕對一致性,但可以做到最終一致性。
  • 對於需要保證緩存數據庫數據一致的情況,請儘量考慮對一致性到底有多高要求,選定合適的方案,避免過度設計。

作者水平有限,寫文章過程中難免出現錯誤和疏漏,請理性討論與指正。

希望大家多多支持我的公主號:後端技術漫談

參考

  • https://cloud.tencent.com/developer/article/1574827
  • https://www.jianshu.com/p/2936a5c65e6b
  • https://www.cnblogs.com/rjzheng/p/9041659.html
  • https://www.cnblogs.com/codeon/p/8287563.html
  • https://www.jianshu.com/p/0275ecca2438
  • https://www.jianshu.com/p/dc1e5091a0d8
  • https://coolshell.cn/articles/17416.html

關注我

我是一名後端開發工程師。

主要關注後端開發,數據安全,物聯網,邊緣計算方向,歡迎交流。

各大平臺都可以找到我

  • 「微信公眾號:後端技術漫談」
  • Github:@qqxx6661
  • CSDN:@Rude3knife
  • 知乎:@後端技術漫談
  • 簡書:@蠻三刀把刀
  • 掘金:@蠻三刀把刀

原創博客主要內容

  • 後端開發技術
  • Java面試知識點
  • 設計模式/數據結構
  • LeetCode/劍指offer 算法題解析
  • SpringBoot/SpringCloud入門實戰系列
  • 數據分析/數據爬蟲
  • 逸聞趣事/好書分享/個人生活

個人公眾號:後端技術漫談

秒殺系統實戰(四)| 緩存與數據庫雙寫一致性實戰

公眾號:後端技術漫談.jpg

「如果文章對你有幫助,不妨收藏,轉發,在看起來~」


分享到:


相關文章: