谷歌宣布對人工智慧實施道德準則,超出「不做壞事」承諾

人工智能:一個道德準則問題?

谷歌宣佈對人工智能實施道德準則,超出“不做壞事”承諾

這些都是比是否會開發武器更重要的承諾。技術高速發展帶來的許多問題並非來自可能有害的項目,而是來自管理不善、安全不足和程序錯誤,這世界並非人人都滿懷善意。

AI在用於可造成傷害的技術時,天真不再是藉口,谷歌重申要避免這種情況,這遠遠超出了“不做壞事”的承諾。當然這並不意味著谷歌不會犯錯誤,但承諾提交嚴格的流程並盡力避免犯錯是非常重要的。

對與AI算法發展相關的道德準則的反思是非常重要的,這需要以合理的方式進行。讓那些不懂機器學習和AI的人參與起草支配未來的道德準則是不合理的。特別是對於政治家來說,不瞭解AI的要麼去了解它,要麼不參與討論。

現實情況促使谷歌思考AI的道德準則:谷歌是該領域的主要參與者之一,AI應用於其所有產品,並且正在進行一項雄心勃勃的培訓計劃,以教會其所有員工如何使用它。對於政府,或任何其他政治組織來說,這又是另一回事,因為在大多數情況下,對AI的瞭解程度多是膚淺的,甚至是完全不瞭解或是道聽途說一些聳人聽聞的消息。我們將會看到關於這個問題的越來越多的討論。

為避免潛在的負面影響或不希望看到的後果,提出有關未來的問題是有幫助的,特別是採用谷歌的嚴謹和準則。但如果僅僅基於科幻小說中無根據的擔憂,則更有可能阻礙進步和人類進化。我們需要防範非理性恐懼、誤導信息、及其近親煽動群眾和民粹主義。為AI算法發展制定有意義的道德準則,是決定我們未來發展方向的重要組成部分。AI是一個道德準則問題,但應是設立完善的準則。

來源Forbes P2P輿情編譯


分享到:


相關文章: