《nature》雜誌:我們有義務搞懂我們所創造出來的技術

AI 科技評論按:一個跨學科的研究小組希望創建一個名為「機器行為」的新學科,以瞭解人工智能將如何對我們的社會、文化、經濟與政治造成影響。

在《自然》雜誌的一篇評論文章中,作者認為人工智能算法的研究需要擴展到計算機科學以外的領域,納入包括來自物理和社會科學的觀點。

據瞭解,有兩名 CIFAR 研究員是這篇論文的共同作者:

Hugo Larochelle,加拿大 CIFAR AI 主席、機器與大腦學習項目副主任、谷歌大腦研究科學家、Mila 成員。


Matthew Jackson ,斯坦福大學經濟學教授,CIFAR 機構、組織與增長項目 (CIFAR Institutions, Organizations & Growth program) 研究員、人際網絡專家、新書《人際網絡》(the human Network) 的作者,該書研究了社會等級與交互的影響。

本篇採訪經過刪減和編輯,以保持全文清晰和簡潔。雷鋒網 AI 科技評論將之編譯如下。

学界 |《nature》杂志:我们有义务搞懂我们所创造出来的技术

論文鏈接:

https://www.nature.com/articles/s41586-019-1138-y

論文摘要:

由人工智能驅動的機器越來越多參與到我們的社會、文化、經濟和政治的互動調節上。理解人工智能系統的行為,對於我們控制它們的行為、從中獲取利益並將危害降到最低來說而言重要。我們認為這需要一個廣泛的科學研究議程來進行研究,它結合並擴展了計算機科學學科,包含來自不同科學領域的見解。我們首先在文中概述一系列關於這一新興領域的關鍵問題,接著探討機器行為研究的技術、法律和制度約束等內容。

你是在什麼機緣下參與到這篇論文的寫作的?

Hugo Larochelle:論文的第一作者 Iyad Rahwan (麻省理工學院媒體實驗室) 找上了我。他想把人工智能和機器與社會互動的不同觀點結合起來。然後他希望我為論文的技術計算機科學與機器學習部分的內容做出貢獻。

Iyad 是名很有意思的研究員,他做的事情與我習慣的傳統機器學習和深度學習做事方式很不一樣。這也是我決定加入 CIFAR 的部分原因。這個試圖聚集不同背景的研究人員以促成互相學習的想法吸引了我。

Matthew Jackson:我之所以參與是因為我本身就是研究網絡的,我試圖瞭解人類互動的不同結構是如何影響他們的行為。由於社交媒體平臺的存在,如今我們擁有大量的算法視角。此外,我還研究人類社會中的不平等、流動性和其他結構,這些結構正因高頻的人機交互而變本加厲。

本文列出一系列屬於機器行為的示例問題。如果讓你選一個,你覺得哪個最有意思?

Hugo Larochelle:我最感興趣的問題是關於對話機器人的,因為它是人與機器的交互中最直接的。從技術上講,機器人還沒有達到它們本可以做的那麼好。另外還有一個深層次的問題是,我們如何看待涉及機器的對話行為。與機器對話的感覺很不一樣,抑或是很相似? 這意味著什麼? 我認為這裡有一些非常有趣的問題我們還沒有完全探索過。

Matthew Jackson:關於人際網絡與網上約會的問題正好契合我的研究課題。人們傾向於與自己相似的人進行交往。這在文獻中被稱為「同質性」。這種情況的發生涉及性別、宗教、年齡、職業與種族等基礎性質。人們傾向於與自己相似的人聚會、交友、聊天。

類似在線約會的技術正在使人們有很大幾率變得更加挑剔。如今你可以清楚見到一個人的所有屬性,並準確選擇你想要的人。仔細想想 LinkedIn 或 Facebook 網站給你推薦朋友的方式,就會明白算法試圖挑選的都是你會有興趣想要聯繫的人。這降低了人們建立隨機友誼的幾率,且增加更多那些有針對性、與你更相似的友誼建立。

這既有積極也有消極的一面。一方面,這些人是你想要聯繫的,因為他們與你有共同的興趣和信仰,同時這也增加了社會的隔離現象,形成更多回音室效應。

對本篇論文的貢獻如何影響你的工作?

Matthew Jackson:我已經開始在思考當中的一些問題。如果未能意識到新技術的出現如何讓社交網絡發生根本性變化,那麼很難在這個領域有所建樹。

但與 Iyad 以及其他合著作者的交談,使我的觀點開闊了不少。他一直非常積極試圖去理解算法使用中的道德問題,比如在自動駕駛汽車編程上的優先級問題。每當一家公司寫下一種改變新聞推送方式的算法,或對提出一個你應該和誰交朋友的建議時,其實都存在一個道德和倫理的立場。

Hugo Larochelle:我認為這讓我對人們如何看待人工智能有了更多瞭解。還有他們究竟感興趣哪些問題。這也是我參與本文寫作的原因。我覺得作為一名人工智能和機器學習方面的研究科學家,我有義務貢獻我所擁有的知識來引領對話。

為何研究人工智能算法的社會影響會如此困難?

Matthew Jackson:首先,很多算法都是私有的,你無法直接訪問它們。作為社會科學家,我們無法進入黑盒子裡。因此,我們只能間接地研究它們。況且,大多數公司都不希望自己的資料被人搜刮和檢查,或者或者讓研究人員生成假的配置文件。換句話說,對於我們能看到什麼以及如何看到它,都有一系列限制。

更棘手的是弄清楚其中的含義。無論何時只要所做的研究涉及人體,就必須非常小心做研究的方法。加上現在我們試圖以越來越大的規模上去做這件事情,留意的是那些越來越難被觀察到的東西,一旦出錯將會造成更大的影響。毫無疑問,這對研究而言是一項大挑戰。

機器學習專家對他們的算法所造成的社會影響感興趣,這種現象有多普遍?

Hugo Larochelle:我認為,機器學習圈裡的人如今肯定越來越意識到,我們應該以負責任的方式來使用技術。例如,在谷歌裡我們發表了《負責任的人工智能實踐》(Responsible AI Practices),我們試圖引導人們形成這樣一種心態,即技術可以用於好的方面,也可以用於壞的方面。

作為一名研究科學家,我認為我們有義務去研究我們所創造出來的技術,在這個例子中是機器學習和人工智能,並以我們能做到的最好方式來描述它。這意味著我們應該識別出它有哪些做得好的地方,以及哪些做得不好的地方。

目前機器學習社區中有很多關於「負責任的人工智能」研究試圖讓系統變得更具可解釋性,以幫助我們更好地理解這些系統的工作原理和行為模式。此外,為了使機器學習模型和系統的創建變得更加透明,還試圖努力去製作模型卡與數據表。我認為這使我們處於一個有利的位置,以便能與擁有計算機科學以外背景的人進行技術上的對話。

最後,你還有什麼想說的嗎?

Matthew Jackson:當你是一名研究人員,很多時候你是在研究人們已經研究了很長時間的問題,然後突然,一個大問題出現了。這讓人感到新鮮。

對於一名研究人員來說,這真是一個非常有意思的時間點。我認為未來的人們會回頭看並說道,「看,21 世紀初,人們突然意識到人類與人工智能之間的相互作用。」

Hugo Larochelle:我們應該經常尋找解決問題的新方法。這也是我加入 CIFAR 的原因。當然,這很難,但重要的是我們要不斷嘗試讓不同背景的人參與進來。

via:

https://www.cifar.ca/cifarnews/2019/04/26/understanding-machine-behaviour

點擊閱讀原文加入強化學習論文討論小組,與同行一起學習交流


分享到:


相關文章: