10.23 索信達:機器學習模型的“可解釋性”研究

近日,索信達控股有限公司(簡稱:索信達)旗下金融人工智能實驗室對外發布《機器學習模型的“可解釋性”研究》,重點闡述了機器學習模型的“可解釋性”的重要意義以及索信達在機器學習可解釋性領域的創新實踐。

索信达:机器学习模型的“可解释性”研究

索信達在研究中指出,神經網絡的發展,為機器學習和人工智能領域帶來了顯著的突破,複雜的網絡結構層出不窮,在計算機視覺和自然語言處理領域獲得了極大的成功。除了模型的預測表現,透明度和可解釋性也是機器學習模型是否值得信賴的重要考核標準。

索信達金融人工智能實驗室負責人邵平表示,隨著機器學習的發展,不同的算法紛紛湧現,特別是在深度學習領域,不同的神經網絡模型在圖像識別、語音識別、自然語言處理等方面都已經取得了一定的成果。但是模型的效果往往是以犧牲模型的可解釋性為代價,在深度學習中網絡模型越來越複雜,導致了它的解釋性很差,我們很難向非專業人士解釋清楚得到的結果。如果沒有充分的可解釋性,這些模型在醫藥、金融等領域的應用將受到很多限制。例如,銀行的信用評分模型不僅要預測精確,各種決策理由也要令人信服。

在銀行業,人們有權詢問為什麼自己的信用評分比較低,而業務人員不能僅僅解釋為因為您的模型評分低。而在醫療這一極負“責任”的領域,使用模型來診斷疾病更加需要可解釋性。但諷刺的是,即使神經網絡可解釋性差,在乳腺癌切片的圖像診斷上,機器學習模型可以達到89%的準確性,而訓練過的病理學家只有73%的平均準確率。由此可見,我們既無法因為其可解釋性差而放棄使用這一高效模型,亦不能完全依賴這個“黑箱子”來幫助人類做出重大決策。

據索信達介紹,《機器學習模型的“可解釋性”研究》在其官方微信公眾號首發,上半部分內容將圍繞模型的可解釋性來對比和介紹傳統統計學模型和神經網絡模型的特點,介紹神經網絡模型原理及其與統計學模型的關係,以及關於神經網絡可解釋性的發展與研究方向。下半部分內容將重點介紹索信達採用一種更簡化、預測精度高的新型可解釋神經網絡模型在銀行業中的創新實踐與應用,幫助銀行創造更大的業務價值。


分享到:


相關文章: