令人恐懼的AI「吸血鬼」時代 人類需要一位刀鋒戰士

令人恐懼的AI“吸血鬼”時代 人類需要一位刀鋒戰士

最近世界上有這樣一個熱門話題:人工智能是否能夠擁有做出符合倫理的決策能力。在討論自動駕駛汽車的未來時,這個問題便自然而然地浮出水面,但是它同時也包含了類似於《刀鋒戰士》這樣的科幻電影所描繪的道德難題。

刀鋒戰士憑著他自身的能力和學到的技巧,出沒有吸血鬼的地方,拯救被當作食物的人類,用身後的銀製長劍將吸血鬼一個又一個消滅,以保護人類免受吸血鬼之害為己任。

而現在,似乎人工智能就是那個令人恐懼的”吸血鬼“。

這些高層次的問題辯論圍繞著關於一個未來幾年的世界,在那時,人工智能已經成為我們生活中不可或缺的一部分。想想Siri,亞馬遜的Alexa,以及許多智能手機上的照片分類功能,像這些技術的普及已經影響了人們對機器人工智能的看法。在最近的一項調查中,61%的受訪者表示社會將會因自動化和人工智能技術的提高而變得更優秀或者說將得到極大的進步。

令人恐懼的AI“吸血鬼”時代 人類需要一位刀鋒戰士

但真正人性化的人工智能需要時間去開發,而且科學必須同時考慮創造智能機器的意義。這個問題可能涉及到對於如何看待給予機器人權利和意識的考慮。隨著人工智能創新的不斷推進,圍繞技術發展的有關倫理方面的討論也非常需要緊跟其發展的步伐。

複雜的人工智能問題很難去得到準確的答案,但有關對它的思考和辯論不會停止。目前人類正在開發許多類似刀鋒戰士中所描述的複製品所需的技術。機器學習是人工智能其中的一個部分,並且該技術已經讓早期的機器人能夠通過觸摸和語言識別與人類進行交互活動,這些能力對仿生技術至關重要。自然語言處理技術也得到了改善,這使得一些機器人能夠通過響應複雜的語音命令來識別揚聲器中發出的聲音,即使在嘈雜的房間中,它們也能做到準確識別。

然而,為了達到更高的水平,由於設備的相關智能系統還相對不成熟,當今的人工智能技術仍需進步來提供更先進的處理方式。這種處理將需要對有關工程進行升級改造,特別是關於高效的計算能力,數據存儲和雲端獨立技術(複製品不能依賴互聯網連接進行思考)等,而我們面臨的主要挑戰是使機器能夠“緊密學習”,這也與人類從經驗中學習的方式類似。

這個概念可以從分佈式計算的思想開始說明。事實上,人工智能算法主要依靠龐大的數據運行。例如,一個智能音箱可能會通過識別關鍵字來進行相對的反應,但是真正的腦力勞動發生在距離數千英里的數據中心。將來,隨著研究人員加強人工智能算法在設備上本地運行的能力,這種情況將會發生改變。離散式學習加速器可以在必要時支持這些算法,使機器達到具有獨立思考和學習能力的水平,並使其能在遇到互聯網上的任何中斷問題時處理起來更有彈性。這也意味著一臺機器可能不需要通過與雲數據來共享敏感信息來做出行為。

許多科技公司都相信這一願景,並正在推動設備的自主機器學習能力,以便有一天能夠在所有設備上實現高級智能,實現從微型傳感器到超級計算機的轉變。這是一種分佈式人工智能計算,這個過程與人腦中發現的過程類似,擁有該技術的設備能夠基於超高效計算,形成了獨立的認知能力。雖然人類大腦的效率仍然比現在我們擁有的任何芯片都高出數萬倍,但是我們可以看到人工智能是如何跟隨進化路徑進入緊密學習狀態來縮小與我們大腦的差距。

在最近的進展中,研究人員已經應用分佈式計算概念來創建雙向腦計算接口(BBCI),它是一種計算機芯片網絡,其目標是將內部網絡植入人腦。這個過程的目的是幫助改善患有神經系統疾病或腦損傷的人的大腦功能,但是這項技術也對先進的人工智能有著更多含義。

和人腦一樣,分佈式網絡中的每個節點都可以存儲和消耗自己的能量。這些迷你電腦可以通過從環境中提取電磁輻射來運行,就像手機和Wi-Fi信號的原理一樣。由於計算能力強大,採用小型自充電封裝,理論上講,分佈式計算網絡可以執行高級人工智能處理,而不依賴龐大的電池組或遠程服務器連接。

分佈式計算的出現有一天會導致人工智能與人類智能的競爭。但是,我們如何確保有生命的複製體擁有與我們類似的複雜決策和道德推理能力呢?他們需要在具有挑戰性的現實環境中如何安全地與人類進行交互?

令人恐懼的AI“吸血鬼”時代 人類需要一位刀鋒戰士

來自利物浦大學的博士後研究員路易斯·丹尼斯(Louise Dennis)看到了一種解決方案。在她看來,所有這些都是關於對人工智能進行編程的問題,對其存在價值的定位要足夠嚴格,以確保人身安全,但它們也應該足夠靈活以適應周圍複雜的情況,有時也會出現相互矛盾的道德原則問題等等。

雖然我們遠沒有遇到像如何對待複製品,如刀鋒戰士電影裡描述的2049年的情況那樣複雜,但人工智能倫理學家們已經在努力開始考慮和嘗試解決一些棘手的問題。

舉個例子,英國已經在圍繞無人駕駛飛機的規定問題上進行辯論。丹尼斯小組建議,公司需要讓無人駕駛智能飛機遵循民航局的空中管制。但民航局擔憂的是,雖然民航局訓練飛行員嚴格遵守條例,但在有必要保全人類性命時,他們往往會選擇打破這些規則。所以,如何編程一個機器人讓它知道什麼時候需要遵守規則,什麼時候需要打破這些規則,並不是一件容易的事情。

如果我們想讓事情變得更加複雜,我們可以考慮到,價值觀並不只有一種。我們的許多道德優先事項取決於我們周圍的社區環境。人工智能的倫理必須具有在一些情況下保持穩定的價值觀,並且與不能被其他人所幹擾,從而能使它們像人一樣運作。

人工智能發生決策錯誤是不可避免的,其中一些會有需要承擔的後果。丹尼斯說,儘管如此,A人工智能承諾會提高安全性,所以我們最終必須決定什麼是可接受的風險水平。

“這永遠不會是完美的結局,”丹尼斯說。 “我認為這只是人們如何看待盡職調查或者去接受將來可能會發生的事故的問題。”

大眾文化充斥著對人類的技術創新的警示,總會有反對者想把靈感精靈永遠裝在瓶子裡,但在人工智能這項問題上為時已晚。我們中的很多人已經在我們的日常生活中與人工智能進行互動,而將人工智能打造成與人類行為進行融合的方式無疑將使互相之間的關係變得更加穩固,像丹尼斯這樣的專家在仿生技術革命中也並沒有表現出太大的擔憂。事實上,她認為這樣的擔憂往往會讓人們對正確的人工智能的發展方向分散注意力。

丹尼斯說:“我們不應該擔心機器人是一種潛在的威脅,而是應該開始擔心社會將如何適應信息革命,如果不能與它同舟共濟,後果很可能是相當難以接受的。”

開發能夠做出道德決策的機器人將是這一適應過程的關鍵部分。雖然分佈式計算可能使現實生活中的複製品K擁有與人類類似的能力,但未來的複製者不會去傷害人類。而且,如果人工智能的倫理學領域的進步速度與人工智能發展速度本身一樣快,那麼未來的機器人可能會被設計成為嚴格遵守我們人類制定的嚴格的道德準則的模範好公民。

令人恐懼的AI“吸血鬼”時代 人類需要一位刀鋒戰士


分享到:


相關文章: