AI毀滅人類或是事實 國外醫療算法正成為白種人“幫凶”

AI毀滅人類或是事實 國外醫療算法正成為白種人“幫兇”

伴隨著AI技術的發展,一個問題一直揮之不去:AI的發展是否會毀滅人類?除了考慮到一種全新的智能形式可能會產生“非我族類,其心必異”的心思,即便技術可被人類掌控,也要考慮這一技術是否會放大人與人之間的敵意,導致嚴重後果。

事實上,自AI技術快速發展以來,關於算法偏見、歧視的問題時常見諸報端。隨著AI在諸多領域取代人類的可能性越來越高,人對人的偏見正在放大,甚至出現在了某些人命關天的重要領域。

據美媒報道,國外研究人員發現,一種當前在醫學界廣泛使用的算法極大低估了黑人病人的健康需求,從而放大了醫學界長期存在的種族差異。據報道,這種算法出自一家業界小有名氣的醫療服務公司Optum,目前已經售出不少,正指導著數百萬人的醫療決策。

具體來說,當該公司對370萬名全國患者的數據集進行重複分析時,他們發現,比起白人患者,需要額外護理的黑人患者病情要嚴重得多。換句話說,患上嚴重疾病的黑人患者,只配獲得比同樣患病嚴重的白人患者更低級別的服務。

研究人員所研究的醫療系統中,如果能糾正這一偏差,那麼被標記為存在複雜醫療需求風險的黑人患者的數量將增加1倍以上。

從算法本身來說,它並沒有故意進行種族歧視——事實上,算法中明確排除了種族因素。遺憾的是,算法的研究者並沒有考慮到現實因素。

要確定哪些患者應該獲得更多醫療支持,算法使用一個明確的指標:患者將花費醫療系統多少錢。然而,在衡量醫療需求的過程中,成本並非一種“種族中立”的指標。事實上,在美國,黑人病人每年拿出的醫療費用比白人病人少1800美元。

因此,該算法自然將白人病人與患有更多疾病的黑人病人在健康風險上劃為相同等級。

這說明了問題所在:當機器越來越多地做出影響人類生活的決定,而大型組織——尤其是在衛生保健領域——試圖利用大數據來改善它們的運作方式時,相關數據可能不帶有種族主義或偏見,但可能受到長期存在的社會、文化和制度偏見(如醫療成本)的嚴重影響。

當計算機系統決定哪些求職者應該接受面試,哪些人應該獲得貸款,或者如何對病人進行分類時,它實際上將這些人暴露在了種族主義或其他偏見自動化的風險之中。

在醫學領域,黑人患者受到差異對待的歷史由來已久。研究發現,與白人患者相比,黑人患者接受疼痛治療、肺癌手術或降膽固醇藥物的可能性更低。這種差異有複雜的來源,包括明顯的種族歧視、獲取問題、缺乏保險、對醫療系統的不信任、文化上的誤解或無意識的偏見,這些問題已經根深蒂固,乃至於有許多人根本意識不到他們存在問題。

《科學》雜誌發表的報告稱,這可能只是行業問題的冰山一角,同樣的問題幾乎一定存在於其他私人公司、非營利醫療系統和政府機構工具中,涉及美國每年約2億人的醫療保健服務。


分享到:


相關文章: