小心,機器人也有偏見!

小心,機器人也有偏見!

在我們的固有印象中,機器人應該客觀、公正,不帶任何人類擁有的感情。但事實上,研究發現,機器的偏見甚至會比人類更多?!

機器為何會反映人類的偏見?這種偏見是如何轉移到機器身上的?機器的偏見對金融領域乃至整個社會可能會產生哪些不利的影響?

帶著這一系列疑問,妙盈科技邀請到了巴斯大學計算機科學系教授Joanna Bryson,針對上述問題進行了探討。


在《有偏見的機器人》這篇論文中,你主要想告訴我們什麼?

從根本來說,我想了解的是認知以及認知的演變。自論文發表以來,人們驚訝於機器也會有偏見。在固有思想中,機器必須是中立的和客觀的——這在某種意義上是正確的,機器沒有自己的觀點或倫理。但考慮到人工產物是人類文化的一個元素,它總是會反映偏見。我認為這種”隱性偏見”可能是文化的一部分,讓我十分感興趣,這意味著文化可能帶領我們探索未知。


小心,機器人也有偏見!

事實上,隱性偏見與偏見盲區無所不在。

人們通常不認為這種“隱性偏見”存在於某個詞或我們使用某個詞的時候,但研究表明偏見是確實存在的。能夠意識到這一點非常重要,因為它能告訴我們包括如何使用語言,如何學習偏見,如何學習語言,以及如何進化語言等方方面面。一切理解都是基於這種方式產生並相互交流的,但很多人並沒有看到其重要性。我們從而瞭解到了大腦的工作方式,以及這對我們如何構建人工智能意味著什麼。

我們的研究論文表明,將機器學習應用於普通的人類語言會導致類似於人類的語義偏見。而能夠了解到機器其實是通過我們來交流的,是非常重要的。


固有偏見向人工智能技術的轉移,是如何發生的?

是人工智能,這都是事實。從計算的角度來看,兩者之間沒有什麼區別。人工智能取得如此大進步的真正原因,就是因為我們可以將已經被文化或生物學計算出來的結果轉化為人工智能。很多人認為,這正是表明了人工智能偏見的存在。然而這其實是說明了實際上是我們存在偏見,而人工智能是僅僅在學習我們。這就是人工智能偏見的第一個來源:它無意中學習到了人類文化中的隱性偏見。

小心,機器人也有偏見!

機器的偏見仍舊來自於人類自身

論文中提到的“隱性聯想”測試,指的是什麼?

該測試是在測量人們對計算機屏幕上顯示單詞進行配對的反應時間(以毫秒為單位)。


小心,機器人也有偏見!

Implicit Association Test: 隱性聯想測試

在先前的研究中,花的種類如“玫瑰”和“雛菊”,昆蟲如“螞蟻”和“飛蛾”,將與“愛撫”和“愛”或“骯髒”和“醜陋”等具有愉快和不愉快內涵的詞搭配。人們更容易把花和愉快的詞聯想在一起,而把昆蟲和不愉快的詞聯想在一起。

為了避免矛盾,我們只複製了心理學中已知的偏見,並用隱性聯想測驗來衡量。我們使用了一種純粹的統計機器學習模型,稱為“詞嵌入”法,這是計算機目前用來解釋語音和文本的方法,它是在包含8400億個單詞的大量互聯網內容樣本上訓練出來的。該算法可以在10個單詞的文本窗中顯示單詞的共現統計量。經常出現在一起的詞比那些很少一起出現的詞具有更強的關聯性。

例如,研究小組對“程序員、工程師、科學家”、“護士、教師、圖書管理員”等職業詞彙和“男性”、“女性”等屬性詞彙進行了研究,觀察人類有意識或無意識地擁有的共同觀點是否也很容易通過算法獲得。


能舉一個研究中發現人類偏見的例子嗎?

我們的機器學習實驗不僅證實了花或蟲子有關詞彙存在的偏見,而且還發現了更多與性別和種族有關隱性偏見令人不安的證據。

機器學習模型發現,“女性”更多地與藝術和人文職業聯繫在一起,與“父母”和“婚禮”等詞聯繫在一起。另一方面,“男性”與數學和工程專業以及“專業”和“薪水”等詞彙密切相關。

此前的一項實驗表明,儘管擁有相同的簡歷,但一個歐洲裔美國人從求職申請中獲得面試機會比非洲裔美國人高出50%。

如果你還不相信名字中有種族歧視的話,我們可以通過人工智能找到答案。我們的人工智能系統認為,歐洲裔美國人名字更容易與“禮物”或“快樂”等積極詞彙聯繫在一起,而令人不快的詞通常與非裔美國人的名字聯繫在一起。

這一證據再次證明了社會中現存的不平等和偏見,而這些偏見可能被轉移到機器上。


當應用到金融領域時,你認為AI的偏見會產生哪些影響?

合規性可能會是一個問題,特別當選擇客戶類型的時候。例如,當我們使用機器學習來分配信用分數時,算法可能會對需要貸款的少數民族的違約風險評估得更高,僅僅因為類似的人傳統上只能獲得不利的貸款條件。這與女性相比男性工資更低、創業融資更少是一個道理。

而我擔心的主要問題是,金融機構並沒有意識到記錄自己的行為並與監管機構合作有多麼重要。

我們人類作為“機器人的創作者”,你建議我們在未來應該做些什麼呢?

許多人試圖證明人工智能正在進行自我學習,或者至少通過機器學習編程。但是任何算法都不能自發地生成某個軟件或機器人,很多影響人們生活的算法都是用電子表格編寫的。人工智能是人們刻意創造出來的。別忘了人工智能也可能存在偏見,因為有些人就是故意而為之。

處理這一問題的方法是堅持合理解釋的權利。所有有可能影響人們生活的人工智能算法都應該接受審查。如果你對軟件不負責任是十分危險的。與政府合作、參與政策制定、培訓法律責任等是必要的。現在是原則成熟的時候,我們應該負起責任。

一旦看到了結果,就會明白為什麼人工智能研究是如此重要,創新研究也十分重要的原因。我們的研究報告幫助人們瞭解人工智能的本質,它證明了隱性偏見正在從現實、文化中進入我們的技術。而我們可以明確的是,那並不是我們為自己選擇的未來。


人工智能會在大量的數據學習中,可能已經不知不覺地帶上偏見,所謂的“客觀”也只是人類的一廂情願,人工智能的黑箱算法始終離不開人的作用。雖然一些科學家對於人工智能最終代替人類信心滿滿,但妙盈科技認為,現階段的人工智能更像是一個“賦能者”,人類在背後的作用始終無法或缺。



分享到:


相關文章: