人工智能真的更會“看病”嗎?


人工智能真的更會“看病”嗎?

在這場疫情中,有一個行業獲得了巨大的關注,那就是人工智能。不少人寄希望於人工智能,覺得它可能會是幫人類戰勝病毒的強大武器。我看到報道說,微軟最近就和美國多所頂級大學合作,成立了一個聯合研究所,專門利用人工智能技術尋找攻克新冠肺炎的方法。

除了分析病毒,人工智能還有一個應用場景是做醫學診斷,也就是俗話說的“看病”。在這方面,中國動作非常快。疫情期間,武漢大學人民醫院等一百多家醫療機構引進了依圖公司開發的“胸部CT新型冠狀病毒肺炎智能評價系統”。百度、騰訊、商湯等公司也都推出了自己的新冠肺炎AI診斷工具。

其實在此之前,人工智能進入臨床應用就已經是一個熱門領域了。美國的一份數據顯示,2018年美國有84%的放射診所已經使用或正在準備使用人工智能算法檢查醫療影像。硅谷知名的技術領域投資家維諾德·科斯拉(Vinod Khosla)甚至預測說,算法將會取代80%的醫生。

不過我很好奇,人工智能到底是怎麼看病的,真的比人類醫生厲害嗎?最近我剛好在《環球科學》上看到一篇文章,詳細講了這個領域最新的發展情況。文章說,人工智能在做診斷方面確實非常牛,它很有可能會給整個醫療行業帶來顛覆性的變化。只不過,它至今依然有兩個問題難以解決,一個是“黑盒效應”,一個是醫療責任。

在今天的內容中,我就來跟你分享一下這篇文章的內容。

在臨床領域,人工智能最主要的應用就是分析患者的醫學影像,評估患者是否得病。

你可能覺得,看片子這件事,醫生不就能幹嗎,還需要人工智能幹嘛?我想告訴你的是,算法的準確率非常高,在一些疑難病例上,它甚至能比人類醫生作出更準確的判斷。

文章裡講了這樣一個故事:2012年,麻省理工學院教授巴爾齊萊做了一次乳房X光檢查。影像顯示,她的乳房組織裡有一些白色斑點,醫生也說不清到底是什麼,但讓她不用擔心。2014年,巴爾齊萊又做了檢查,被確診為乳腺癌。這麼說來,巴爾齊萊兩年前就得了癌症,只是醫生沒看出來。

好在巴爾齊萊在接受治療後康復了,但她對診斷過程感到非常失望,就決定做點什麼。巴爾齊萊自己就是一名計算機科學家,於是她組建了團隊開發人工智能算法,通過女性的乳房影像來判斷乳腺癌。五年後,算法開發成功。實驗結果顯示,算法預測癌症的準確率上大大超越了臨床通用的方法。

有意思是,巴爾齊萊把自己2012年拍的那張乳房影像也輸入了程序。你猜結果如何?程序給的診斷是:她在5年內患乳腺癌的風險高達98%。算法完美地戰勝了人類醫生。

除了準確率高,人工智能看病還有一個厲害之處,就是能科學地標記治療優先級。有一項調查發現,放射科醫生在給醫學掃描影像評級時,標記為高優先級的居然高達60%。這顯然不科學,說明醫生們很可能花費了大量時間處理那些不算嚴重的病例,而真正緊急的病例卻因此耽誤了治療時機,甚至因此喪命。

在這一點上,人工智能的優勢就凸現出來了,因為機器可以短時間內處理大量數據,從宏觀上作出更好的判斷。去年9月,美國食品藥品監督管理局批准了一套AI算法工具,能自動標記出最緊急的病例,讓醫生優先治療,這能大大節省醫生的時間和精力。

這就是人工智能做診斷的兩大優勢:準確率高,又能提高診療效率。那你或許覺得,既然如此,就直接讓人工智能代替人類醫生來看病不就行了嗎?可惜,還不行。人工智能有兩個棘手的難題沒有解決。

第一個難題,是“黑盒效應”。簡單來說,由於算法是通過數據自我學習,它是怎麼做判斷的,人類很難理解。就像是在看一個黑盒子,你不清楚裡面到底是什麼結構,工作原理是怎樣的。

《美國醫學會雜誌》去年發表了一篇論文,說研究人員用了8.5萬張X光片訓練出了一個人工智能算法,用來評估患者的死亡風險,準確率很高。為了知道它是怎麼做判斷的,研究人員檢查了影像中被算法納入評估的區域,結果發現算法居然檢查了肩胛骨下方的區域,可這個地方並沒有已知的醫學意義。

啥意思呢?就好比說,算法覺得一個人胳膊抬不高,壽命就比較短,這根本說不通。所以你看,算法並不是從底層原理預測,它們的預測方式不可理解。這樣的話,如果算法判斷患者有病,醫生沒看出來,他又該怎麼向患者解釋呢?

有時,算法甚至會違反基本常識或倫理。比如,在紐約的西奈山伊坎醫學院,研究人員開發了一個識別肺炎的算法,在評估影像時,算法居然把影像來自哪家醫療機構也納入了評估範圍。也就是說,如果片子來自肺炎確診率較高的醫院,那算法判斷患者患了肺炎的幾率就會更高。可是,這種評估策略明顯是有缺陷的,算法應該只評估片子本身,而不應該考慮片子來自哪家醫院。

打個比方,這就好像是你讓算法看照片辨認誰是小偷。算法在之前的訓練數據中發現,黑人是小偷的比例很高,所以它碰到黑人的照片,就更容易認定為小偷。顯然,膚色不應該成為判斷依據,人工智能無意中就涉嫌了種族歧視。

這是第一個難題:黑盒效應。第二個難題是醫療責任問題。

現代醫療體系對於醫療責任的劃分是很明確的,醫生作出了錯誤的診療,就要承擔責任。如果人工智能診斷失誤,而醫生又根據人工智能的判斷作出了錯誤的治療措施,那算醫生的責任還是算法的責任?在醫療訴訟中,這就會成為問題。

還有,算法也會“生病”,它並不是百分百可靠。

隨著時間推移,算法會從很多種不同類型的數據中提取新的含義,進行自我學習。假設醫院換了新的軟件系統,帶來的數據上的變化破壞算法的有效性,而醫生們又不知道,等發現有問題已經晚了。要是在這種情況下發生醫療糾紛,那你說,是算法開發企業的責任,還是醫院自身使用不當的責任?

對於這些問題,人工智能並不關心,也解決不了。它們是屬於社會層面的問題,需要人來探討解決方案。

好了,總結一下,在今天的頭條文章中,我跟你分享了人工智能進入臨床診斷領域的進展。總的來說,人工智能的優勢是診斷準確率高,還能提高診療效率。但它也有兩個難題,一個是黑盒效應,這讓算法的診斷變得難以解釋;另外,如果出現診療失誤,醫療責任劃分需要明確。在這兩個問題沒有解決之前,人們還不能放心地把看病這件事徹底交給人工智能。

不過看完這篇文章,我也有一個重要發現,那就是:人工智能在臨床領域的價值,並不在於它的診斷準確率有多高,而在於它能更合理地分配和調用醫療資源。未來可能會出現這麼幾個變化:

第一個變化出現在醫療系統內部。人工智能或許不會取代人類醫生,但那些使用人工智能輔助的醫生,可能會取代不使用人工智能的醫生。

第二個變化是,人工智能會在發展中國家找到巨大的市場。文章中提到,現在有企業正在開發一種人工智能輔助診斷程序,在手機上就能運行。醫療資源落後地區的醫生如果能用上這類AI程序,肯定能明顯提升自身的診療能力。

第三個變化出現在醫患之間。不光醫生能用人工智能,患者也能用。我看有報道說,谷歌正在和美國政府合作創立一個人工智能網站,用戶可以上傳病歷,讓算法先做診斷,再決定是否要進一步尋醫問藥,這也能減少過度檢查和過度醫療的情況。

總而言之,人工智能會讓整個醫療體系的運轉更高效,這可比單純會“看病”更有價值。

——選自《邵恆頭條》


分享到:


相關文章: