09.08 IBM的“辯論機器人”,已經基本能把你噴暈了

在DeepMind AlphaGo在圍棋上徹底碾壓人類之後,IBM的人工智能Project Debater已經準備好和人類展開一場辯論。

最早在1997年,深藍(Deep Blue)計算機在國際象棋比賽當中戰勝了當時的國際象棋大師加里.卡斯帕羅夫(Gary Kasparov);2011年的時候在《危險邊緣》(Jeopardy!)的遊戲中,IBM的第二個人工智能Watson又打敗了當時在這個遊戲中的兩位人類冠軍。

IBM Project Debater看起來是IBM在AI技術上的延續,儘管一些人們對IBM展現AI技術的方式上頗有微詞。但幾十年以來,人工智能遵循在遊戲對壘中的發展,尤其是在棋類遊戲中。研究人員通常是會在既定的遊戲規則中,讓人工智能與人類對壘,很少會在一個很開放的領域去研討人工智能如何打敗人的問題。而就是在那之後, IBM研究團隊就提出要有這樣的人工智能,提出這樣的課題,並且與人類進行辯論。

IBM Project Debater由IBM研究院以色列海法實驗室於2011年開始展開研究,研究人員討論如何設計一個能夠與人類辯論的人工智能系統。

它在2018年6月那場公開的Project Debater與人類的辯論比賽中公開亮相。人類和Project Debater各拿下一局。

IBM Proejct Debater是一個像人一樣高的黑色長方形物體,擁有簡單的類似於語音助手一樣的UI交互設計,在當天的議題當中,Project Debater對壘人類2016年以色列全國辯論冠軍Noa Ovadia和以色列辯論專家Dan Zafrir,他們各擁有4分鐘陳述論點,4分鐘反駁論點,2分鐘做最後總結,探討是否資助太空探索和是否增加遠程醫療的使用。

IBM Project Debater在比賽前並不知道比賽的議題,它在瞭解到辯論議題之後,分析辯論的問題,然後掃描數據庫中的文檔內容,從大數據中獲取信息,組成句子,最後形成自己的觀點用以反駁。

在這其中,Project Debater需要“聽懂”輸入人類辯論的陳詞,“理解”其中的句子,主要技術建立在NLP和TTS之上,最後以一個類似人工智能語音助手的聲調“表達”出來。IBM Project Debater發言人提到,他們的辯論,沒有任何內容是被提前安排。

IBM的“辩论机器人”,已经基本能把你喷晕了

在IBM Project Debater的核心技術內容中,擁有三個主要功能。第一是數據驅動的演講稿撰寫與表達功能。在辯論過程中首先要做一個本方觀點開場白,就像觀點陳述的文章,這個要有自動寫成的功能,清晰地闡述,具有說服力。

第二是聽力理解功能。這不同於我們熟知的閱讀理解的功能,當對方辯手開始講的時候,Project Debater要能聽長達4分鐘的內容,對方人類辯手在講的過程中語速可能是快的,情感可能是充滿激情的,同時還會有一些道德性、倫理性的問題,Project Debater要在聽力理解中做到能夠理解對方所表達的主旨。

Project Debater首席研究員Noam Slonim對包括PingWest品玩(公眾號:wepingwest)在內的幾家媒體介紹道,“這和我們已經熟悉的個人助手一類的智能是完全不同的,因為像個人助手類只需要聽懂一句話就可以,比如開燈、關燈,而在Project Debater要在很長的語句中去聽懂對的主旨。”

第三是模擬人類困境的功能。“我們總結了人類專家辯手的一些共同性,對他進行模擬、建模,並且把這個注入到系統中去,就形成了一個知識圖譜給到Project Debater來用。所以一旦開始去進行辯論的時候,Project Debater就可以在已經形成的圖譜中去做自己的嚮導和索引,找到可以支撐他的證據。”

從人類的角度來說,辯論專家的表達似乎會更好,或者說更貼合人類自然表達的方式。但Project Debater利於引用全球事件和大量事實形成論點,更多的時候它模仿人類的辯論技巧和方式,甚至是語氣對人類辯論進行反駁。

IBM的“辩论机器人”,已经基本能把你喷晕了

我們知道辯論是一個非勝即敗的內容,它是一個開放式的挑戰,IBM Project Debater與之前AI所解決的挑戰不太相同。

此前的AI挑戰會有一些具體的衡量工具,比如在AlphaGo對壘人類的圍棋比賽中有具體判斷輸贏的方法,傳統的技術可以直接幫助制定相應的衡量工具,並且判斷輸贏。在辯論中沒有這樣的輸贏問題。辯論就像在實際中做商業決策,沒有清晰的以分數高低衡量輸贏的簡單標準。

這也是IBM Project Debater立項的初衷,它被用來在大數據中檢索信息,提供分析意見,輔助人類做出決策。這個決策基於數據,它沒有完全的對錯,只有更適合和不適合,人類在這樣的輔助數據面前能得到更好的答案。

IBM Project Debater全球經理Ranit Aharonov提到, 辯論是Project Debater展示技術的一種方式,但是我們可以從商業的角度來看,看我們具體如何去使用Project Debater,具體可以使用到什麼的案例中去。

Project Debater在辯論過程中可以看出一個事情的好與壞、利與弊、支持與反對不同的觀點,這就可以幫助我們做決策。

“再比如說律師在準備庭審過程中需要去翻閱非常多的卷宗,去了解對方的觀點,為自己的辯護方做更多的辯護,就可以通過我們的Project Debater為他去提供基於證據更好的信息和決策。”

董事會的高管需要做出基於海量事實的決策,需要了解一件事情的正反面。Ranit Aharonov還提到,Project Debater有潛力在全球範圍內協助人類制定日常複雜決策,包括在金融顧問領域、公共事務決策領域、學生助手領域以及律師和企業決策領域等。

IBM的“辩论机器人”,已经基本能把你喷晕了

辯論的起源不是衝突和對抗,也從來不是侷限在觀賞的層面。而是建立更有效的討論,提出建設性的觀點,理解不同人們思考問題的方式,瞭解一件事物中的利與弊,以此做出權衡。

IBM AI Tech副總裁Aya Soffer認為,在真實的世界中,我們並不是需要回答很多瑣碎的問題,而是要回答真正重要的問題做出真正重要的決策。信息是海量的,但是找到那些能助力我們做出正確決策的信息是難的。

目前IBM Project Debater還在研究階段,還沒有商業化,IBM目前還沒有具體的計劃。

以下根據多家媒體現場問答內容整理:

中國電子報: 人類一直希望找一些場景打造和訓練AI以使AI更接近人的智慧,甚至超越人的智慧或者幫助人類。像我們之前說的從象棋到圍棋,現在到辯論,就是從有條件到無條件、從有規則到無規則。您認為在辯論之後更大的場景或更大的挑戰是什麼?什麼比辯論更難,你們如何去定義更大的場景?

Aya Soffer:關於AI的下一步,就是智慧上越來越接近人類。我覺得Project Debater是一個很好的例子,它展示了我們是如何教授機器,只要有充足的時間、充分的數據和算法就可以充分前進。

講到未來的方向,Project Debater下一步就是要讓人工智能更像人。一個小孩子去上學,學科學,學歷史,你給他看了兩三張大象的圖片,人就學會了從不同的角度看大象。下一次再看到大象的圖片,即使不是這個角度也知道是大象,也就是人可以去理解概念,並且在概念的基礎上學以致用到新的領域,這種開放域的應用能力是強的。但是機器不會,即使目前AI再發達,AI和計算機所學的還是從一個具體的例子中去學,學不會概念,尚不能把概念進行學以致用的應用。現在AI做的工作還是再學習的工作,而我們希望AI下一步的發展是從比較窄的例子上學習,而後擴展到比較寬泛的領域、跨不同領域的應用,以及能夠從概念上學習。不是再學習的能力,而是具體自己去推理的能力。

品玩:這個項目展現了結構良好的演講內容,甚至會適時展現幽默感。請問從技術的角度看,機器的幽默感怎麼產生的?這是自發的,還是IBM有意去展現出來的?

Ranit Aharonov:我們也知道要讓人能夠持續聚精會神地去辯論,任何一方都應該有點幽默。我們也知道在人類中開玩笑有兩種,第一類是原創的笑話,第二是複製的笑話。我們在系統中首先有海量笑話、開玩笑、幽默的輸入,算法可以告訴Project Debater什麼時候適合它去開哪一個玩笑。

所以從技術上來講,它不是一個自發的行為,它更傾向於第二種,而是之前有海量的幽默和笑話在系統裡面。但是它又具有一定的自發性,從這個意義上來講是我們故意去做的,有意為之。它有一定的自發性,因為算法可以告訴Project Debater在什麼時候合適去開什麼樣的玩笑。

知識分子:我所理解的Project Debater辯論的過程是自發的、實時完成的過程。在這個過程中既要了解對方辯手的觀點,同時也要準備好自己如何駁斥對方觀點,自發、實時完成的進程是怎麼樣做到的?

Noam Slonim:這次辯論是完全即興,Project Debater之前沒有見到,也不知道辯論的題目是什麼。一旦開始辯論,是很難預期到對方會怎樣說的,這是主要的挑戰。如何應對呢?主要是在兩個層面去應對完全即興、無法預期的情況。

一方面是剛才講到第一個層面上通過知識圖譜來模擬人類困境,形成辯駁的能力。我們是在系統中去模擬了,並且對不同論證中的共同點來建模。舉個例子,比如說涉及到是否要禁止器官的販運、器官貿易,是否要禁止酒精的貿易。類似於這種類型的辯題,我們可以自然而然期待如果禁止了器官交易、酒精交易,有一種風險是會有黑市的蓬勃發展。理論上來講,Project Debater的系統可以理解與這種類型相關的一些辯論,但凡是針對這種類型的觀點進行辯論,後續就會出現與黑市相關的問題,於是可以在模擬好中的圖譜等待著與黑市相關話題的出現。

如果這樣講,大家就會覺得這並不難,語料庫足夠大就夠了,一旦出現要禁止什麼東西,你就等著,或者Project Debater就自己去搜索,去找與出現黑市相關的論證就可以了。但是並不總是這樣,比如美國最近討論比較多的是否要禁止在公共場合母乳餵養的選擇。這也同樣是一個要禁止什麼東西的選擇,但是我們知道這個東西跟黑市一點都沒有關係,所以我們依然是在這個方面不斷地去建模、擴大語料庫,包括人類豐富的語言中各種細微和微妙的地方。這樣Project Debater在已經建模的知識圖譜中,才能夠更加精準地為自己導航,找到與支持自己論點相關的觀點。


分享到:


相關文章: