10.22 10位女性大咖談AI安全:人工智能需要儘快制定規則

10位女性大咖談AI安全:人工智能需要儘快制定規則

2014年,特斯拉創始人Elon-Musk發佈了一個Twitter——“人工智能可能比核武器更危險”,頓時引發行業熱議,扎克伯格為此特意請他到家裡吃飯,並約上Yann LeCun一起討論這個話題。

如今,人工智能雖已深入應用於各個行業,但關於人工智能安全威脅的討論從未間斷。例如,2018年4月,包括幾十名高級工程師在內的數千名谷歌員工簽署聯名信,抗議公司參與一項美國五角大樓項目,利用人工智能幫助識別無人機鏡頭中捕獲的人和物體。今年以來,國內關於AI數據隱私安全的輿論也此起彼伏。眾所周知,汽車剛誕生時,出臺了一系列的安全、倫理道德和技術應用方面的法律法規,AI也亟需完善。

到底如何看待人工智能之於人類安全的影響?可以採取什麼措施來防止這種擔憂的發生?可以採取什麼措施向公眾保證沒有什麼可擔心的呢?近日,美國Authority雜誌採訪了來自英特爾、Adobe、微軟、愛立信等公司人工智能領域的女性領導者,探討AI帶來的安全挑戰。(根據標準普爾指數,在福布斯500強科技公司中,女性在高級和管理職位中佔比約四分之一)

Anna Bethke (英特爾AI負責人)

10位女性大咖談AI安全:人工智能需要儘快制定規則

我認為,使用AI對人類的危害比AI本身更危險。就像錘子或者其他工具可以用來幫助建造鳥窩,但也可以用來砸花瓶,AI也如此。雖然人工智能有可能通過自我學習,擁有自我意識甚至惡意,但這非常難做到。討論的關鍵是遇到惡意創建的AI時,減輕或者阻止這些負面結果的方法,並告知公眾如何以及何時使用該系統。

我認為,應該加大技術開發和應用的透明度,公眾有發言權提出任何問題。要使得人為判斷處於系統的設計,測試和應用的閉環,並實時糾正任何有害的行為,這一點很重要。

Carolina Barcenas(Visa高級副總裁)

10位女性大咖談AI安全:人工智能需要儘快制定規則

我認為技術是我們的合作伙伴。技術當然會帶來變化,但我相信我們社會的固有適應能力。儘管一些工作可能會消失(那些重複性的,可能帶來很少滿足感的工作),但也將創造新的工作。當前的技術創新時代並非史無前例,比如工業革命。我相信正確使用該技術最終將使我們的生活受益,而我們正處於一場重大變革的開端。

但是,我也認識到,如果技術被惡意使用可能具有毀滅性,圍繞道德標準使用人工智能,進行有效監管至關重要。全球目前已經出臺了非常重視數據的使用和隱私保護的政策和法規,歐洲在這方面處於領先地位,其他國家也在緊隨其後。然而,我們仍處於起步階段,我認為對人們進行“AI真正是什麼”和“我們面臨的AI挑戰”的教育非常重要。

Tatiana Mejia(Adobe AI負責人)

10位女性大咖談AI安全:人工智能需要儘快制定規則

人工智能是我們開發的一種工具,Adobe作為一個社區,我們有責任指導如何創建和使用它。技術本身並不存在好壞,在Adobe,我們的AI服務於開發者並尊重消費者。我們正在仔細研究這個問題,並實施有關數據隱私,數據治理,數據多樣性等方面的流程和準則,並主導透明和持續的對話。

我們有時還會引入實驗性的“秘密”AI技術,但我們會為用戶共享潛在的功能(其中一些功能永遠不會運用於產品中),以便從我們的客戶和社區獲得真實、即時的反饋,包括這些創新對他們意味著什麼,有什麼作用,有什麼可以改進的,什麼可以對創意和營銷人員產生更大的影響和意義。

Marie Hagman(Zillow人工智能總監)

10位女性大咖談AI安全:人工智能需要儘快制定規則


在整個歷史中,人們一直在使用新技術來完成令人驚奇的事情,並給他人帶來痛苦。比如社交媒體在Arab Spring期間傳播核能和原子彈發揮的作用是幫助人們進行政治組織,但今天它在傳播錯誤信息方面發揮了作用。我是一個樂觀主義者,認為AI收益將遠大於風險。我們需要保持技術先進性,同時採取安全措施,並採取更快的行動來創建和更新公共政策以幫助減少風險。

我認為我們不能或不應嘗試向人們保證沒有什麼可擔心的。人們應該被告知風險並保持警惕。我們應該建立保護社會免受不良行為影響的體系,包括執法,司法系統和公共政策,並且我們應該在那些領域中設立負責人,他們應被告知並優先考慮防範AI構成的威脅。公共政策通常太慢而趕不上技術變化。

MadelaineDaianu博士(Intuit數據科學高級經理)

10位女性大咖談AI安全:人工智能需要儘快制定規則


我預計,隨著我們技術的進步,這些辯論只會越來越激烈。有人認為這些爭論為時過早,主要是因為當今的AI系統非常有限。我們尚未發現建立超級智能的意義,因此,我們尚無所有正確的信息來確定如何最好地減輕任何潛在的危害。我認為科技界應該從短期和長期來考慮AI端到端的影響。作為這項技術的貢獻者,我們有責任計劃AI可能帶來的潛在影響。

Doris Yang(BlackBerry Cylance高級總監)


10位女性大咖談AI安全:人工智能需要儘快制定規則


AI的當前狀態取決於人類如何定義我們正在尋找的問題和答案的邊界以及處理這些問題所需的數據。機器人明天不會佔領世界,也就是說,不管自我意識機器人多長時間能夠實現,負責任地談論AI的使用和應用對社會絕對重要。我們目前仍然存在隱私和透明性的問題,比如關於收集個人數據,用途是什麼以及誰可以訪問它。

AI驅動的解決方案有許多直接的好處,但是我們也應該積極考慮負責任的治理,以便我們可以繼續從中受益,而不會放棄更多的自由。我不想說絕對沒有什麼可擔心的,因為那會促進自滿。我們需要開始設定我們的基本界限,並保持警惕,並不容侵犯。有意識的機器人並不是唯一令人擔憂的,首先,人們應該考慮隱私和安全性。

比如一些簡單的事情,AI能夠預測一個人喜歡什麼,他們傾向於做什麼,以及他們將如何回應,這些在購物推薦,營銷活動等方面都有很好的應用。但是,當不法分子獲得這些信息時會發生什麼呢?銀行是否可以根據你可能做的事情拒絕你的貸款?政府是否應該能夠創建和維護公民的個人資料,並根據概率或可能的結果對其進行排名?

Marina Arnaout(Microsoft經理)

10位女性大咖談AI安全:人工智能需要儘快制定規則


歷史表明,每當一項偉大的發明落入壞人之手,邪惡就會盛行。目前,我們正處於AI的早期階段,目前正在探索可以很好地利用AI的許多潛在好處,AI可以幫助預防自然災害,或者為盲人以及更多種形式的業務提供更大的幫助。人工智能能為社會和企業帶來許多好處,但超智能的AI可能會帶來各種不利影響。

通過以人類無法跟上的步伐大幅改變勞動力,可能會對經濟產生重大影響,並帶來許多道德挑戰。這是一個全球性的問題,它需要世界各地的政治和商業領袖坐在一起討論,來自不同政治體系的全球領導人需要協調一致,以確保道德,數據保護和準則具有對稱性,並且對公眾完全透明。

Elena Fersman(愛立信AI研究負責人)

10位女性大咖談AI安全:人工智能需要儘快制定規則


每一項新技術都會帶來威脅。AI是特殊的,它能夠自我學習,所以我們應為其發展設定條件或界限。我們需要承擔責任,並規定這些算法永遠都不能打破的“遊戲規則”。這些規則與人類必須遵守的法律,法規,道德框架和社會規範沒有什麼不同。為避免此類擔憂,應該以AI系統所理解的語言來實施“生存規則”。也就是說,我們需要將這些規則數字化,確保框架和軟件架構具有靈活性並允許修改,並且算法可以保證它們遵守這些框架。

韓超(Lucidworks副總裁)

10位女性大咖談AI安全:人工智能需要儘快制定規則


人工智能可以應用於許多有益於社會的應用,例如醫療保健和自動駕駛汽車。但是,在武器開發或基因編輯領域,危險團體(例如恐怖分子)濫用AI是令人擔憂的。當前,人工智能不具備自我學習的能力來故意傷害他人或通過互聯網相互連接以進行大規模破壞,但是,如果在未來進行精心控制,這些行為是可能的。當前沒有任何集中化的組織來規範AI行業和研究。我們高度依賴大型IT公司的良好意願,並遵循標準的模型構建流程,以防止AI偏見或濫用。我希望能儘快成立這樣的組織,以贏得更多的公眾信任。

TrisalaChandaria(Temboo首席執行官)

10位女性大咖談AI安全:人工智能需要儘快制定規則


新技術帶來了機遇,但也有可能給人類帶來危險,這就是技術的本質。汽車剛剛誕生時,我們必須建立基礎設施,安全措施和其他技術來適應它們。道路,駕照,安全帶和安全氣囊等所有東西都需要確保公眾能夠安全有效地使用汽車。

在開發AI技術時,我們需要考慮安全、基礎設施、法律等因素。只要我們把那些事情考慮進去,我們就可以很好使用人工智能。我們不應該試圖阻止人們有顧慮。人們可以詢問他們的數據是如何被使用的,哪些技術正在影響他們的生活,人工智能是如何影響社會。擔憂和恐懼是有區別的,我們不想嚇走人們對新技術的興趣,但確實應該確保他們在影響他們日常生活的技術方面有所選擇。AI時代的領導者有責任確保公眾知道有權力來做出這些選擇。

AI商業週刊(ID:aibizweek)


分享到:


相關文章: