02.26 美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

能夠讀懂人類正面信號的人工智能(AI)機器人

谷歌的團隊正利用來自人類的日常行為去指導機器決策,這個過程不需要任何編程。研究者開發了一款網頁應用,向人們展示由人工智能(AI)創作的繪畫,例如小貓和犀牛,並通過攝像頭記錄他們的反應。如果人們看到這些圖片發笑,那麼就是正面信號。如果人們看起來很困惑,那麼就是負面信號。

谷歌團隊在收集所有這些反饋信息之後,谷歌團隊重新對人工智能(AI)系統進行訓練,並專注於“好”的例子。最終結果是人工智能可以更好地創作繪畫。

谷歌團隊指出,這項研究可以確保人工智能(AI)在長期發展中更加安全。如果人工智能(AI)有能力適應人類的社會行為,並可以從人類面部表情和肢體語言中去了解什麼樣的行為讓人類更快樂,那麼就可以更好地這樣去做。一個由人類滿足感驅動的人工智能(AI)不太可能做出違揹人類利益的行動。

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

有面部表情反應的人工智能(AI)機器人

Facebook下屬人工智能(AI)實驗室開發出一款動畫聊天機器人,它能在交談過程中對人類的面部表情做出自然反應,它的反應幾乎與人類沒什麼差別,而且被認為是一種自然的、類似人類的反應。

研究人員開發出一個由人工智能(AI)算法控制的動畫聊天機器人,並設計用於在Skype對話期間監測人類面部的68個點。隨著時間的推移,這個人工智能(AI)機器人學會了對其所看到的事物做出適當反應的能力,例如:點頭表示同意,眨眼代表驚奇,或者在對方話語中發現有趣的東西時大笑等。目前,這款機器人可在非常基本的動畫中顯示出反應,這個算法還不能直接跳轉到更現實的類人機器人身上。

能讀懂人類喜怒哀樂的人工智能(AI)系統

日本村田製作所開發出通過人工智能(AI)使職場和公共空間等人員聚集場所的氣氛、熱烈程度、人的親密度等實現可視化的系統,將於2018年推向商用化。這套系統主要採用傳感器和通信相關的電子零部件,以這些零部件為基礎,引入人工智能(AI)構築而成。

村田製作所開發的人工智能(AI)名為“NAONA”,可在房間和空間的角落設置配備麥克風的通信設備。通過人的會話等讀取音量、語調高低和長短等信號並使之數據化,然後發送到服務器。試驗時,根據聲音,分別以紅、綠、黃、藍色餅形圖表示“興奮”、“鎮靜”、“快樂”和“悲傷”。

這套系統被認為可用於自動巡視和儘早發現問題等。在與從事軟件開發的Phone Appli公司進行的共同試驗中,通過上司和部下的面談發言次數和時間等,可判斷“對話在多大程度上取得成功”。村田製作所力爭4至5年內實現100億日元左右的銷售額。

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

能讀懂人類思想並繪製圖像的人工智能(AI)系統

日本京都大學神谷研究室 4 位科學家開發了一套能讀取人類腦電波並基於其所見顯示一張圖片的人工智能(AI)系統。例如,如果一個人看到了印有字母A的圖片,那麼人工智能(AI)系統將會創建一張模糊版字母A的圖像。實際上,它在讀取人的思想。

科學家在研究文章中寫道:“在這裡,我們提出了一種新的方法,將其命名為深度圖像重建,它可以將人腦活動的感知內容可視化。”在深度圖像重建的算法中,人工智能(AI)會先載入隨機圖片,並開始根據腦波解碼中讀取到的特徵逐漸去改變像素值。除了深度神經網絡(DNN)和機器學習領域的圖像生成技術,團隊還用了深度生成網絡(Deep Generator Network, DGN)來確保圖片看起來自然。

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

運用 DNN、DGN 與隨機圖片

透過不斷的猜測腦波數據對應的形象化,人工智能(AI)從眾多的數據中持續學習。也就是說,系統並不知道你看到的是字母A,而只是通過你此時此刻腦電波中的數據猜出結果。而在結果出來之前,它需要經過大量的重建。雖然它現在還算不上完美但卻可以作為深度學習的一個實用例證。

擁有“讀心術”的人工智能(AI)系統

近年來,人們對於情感識別的關注度不斷提升,用戶對影片或視頻分析的要求也越來越高。 因此,總部位於日本東京的CAC公司決定開發一款易用的處理工具,讓用戶只需準備影片/視頻,就可以輕鬆分析其中的人物情緒。

據麥姆斯諮詢報道,CAC公司從2018年2月1日起開始提供一種視頻分析產品:“心傳感器”(Ver.1.0),它利用基於AI人工智能的情感識別技術分析人臉表情,並將讀取的情感轉換為數字信號。

“心傳感器”可以根據影片中人物的34個臉部關鍵點的動作,量化為7種情感值、21種表情值、2種特殊指標值。一些商業公司可以利用自己拍攝的視頻數據去解決各種社會調研,如客戶滿意度調查、產品開發中遇到的用戶端問題等,其分析結果能以CSV文件形式輸出。

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

結語

為了讓人工智能機器人能夠像人類一樣跟人類交流,或者更好地廣泛應用,各國科學家們真是煞費苦心。谷歌人工智能(AI)和機器學習首席科學家李飛飛認為,人的第一大感知系統——視覺,佔據了腦神經多半部分,是人正常生活的基石。而圖像識別也是人工智能認識世界的基礎。計算機視覺有著廣泛應用,如醫療成像分析、人臉識別、環境監測、能源應用、抗震救災、自動駕駛等眾多行業。

目前,將這些技術用於研究人類行為,似乎還有很長的路要走。人類是自然界最複雜的動物,有時可以心口不一,有時可以皮笑肉不笑,有時可以言不由衷,有時還會自欺欺人,這些都是目前人工智能(AI)所無法準確分析和判斷的。特拉維夫大學人工智能(AI)研究員戈登.戈登(Gorden Gordon)表示:“對人工智能(AI)來說,真正理解面部交流而不僅僅是模仿它是非常重要的,真實的面部表情是基於你的想法和感覺而展現的。”

試想有一天,人工智能(AI)真的能讀取人類的想法時,那真是太可怕了。不過人工智能還是一門很年輕的學科,相信以後還有很長的路要走,想要吃透人類的思想,一時半會還不太可能。

美國日本科學家通過人工智能研究人類言行舉止 走向了一條不歸路

關鍵詞:美國,日本,人工智能,谷歌,AI,Facebook,機器人


分享到:


相關文章: