03.03 AlphaGo Zero三天擊敗人類的背後究竟意味著怎樣的進步?

包不靚


AI碾壓人類智商,人工智能真的會全面超越人類智商嗎?“阿爾法狗”從誕生到挑戰圍棋大師就一直備受人們的關注,表象之下實際是人類社會對人工智能發展所帶來的隱憂。算法是一系列解決問題的清晰指令,算法代表著用系統的方法描述解決問題的策略機制。

步入互聯網時代,數據與算法相伴而生,大量的數據在依靠算法進行有序組合、排列,實現對互聯網用戶產生的數據的二次利用,算法在某些領域大大提高了社會生產效率,基於算法為基礎的人工智能應用現如今已經對當下人們的生產生活產生深刻影響。

科技的發展應該有其發展的邊界,違反人類世界倫理和法律的科技、對人類社會生存產生嚴重危機的科技、人類社會不可控的科技這些都應該通過立法進行禁止,科技是一把雙刃劍,利用科技提高勞動生產率、造福人類社會固然值得鼓勵,反之就應該引起警覺,禁止科技的負面影響對人類社會產生威脅。

正如Deepmind所認為的“阿爾法狗”實現算法在缺少數據或者數據異常昂貴領域的更好發展,算法改進在能源節約、生物科技上的應用,無疑是對社會進步和人類發展起到極大的正向作用。

在人類對科技發展可控前提下,利用人工智能改進社會生產模式,提高社會生產效率,這是我們所樂見的。而對科技發展所給人類社會的帶來的隱憂,我認為大可不必,算法始終是一種機械性的線性思維,只能按照既定模式的機械運行,而這些都是屬於人類思維可控的。


獨角獸工場


學習3天:AlphaGo Zero>AlphaGo Lee>李世石;學習40天:AlphaGo Zero>AlphaGo Master>柯潔。

碾壓圍棋界的 AlphaGo 再次進化,AlphaGo Zero 這次擊敗了戰勝柯潔的 AlphaGo Master

10 月 19 日消息,DeepMind 作為谷歌旗下專注於推進人工智能(AI)研究的子公司,在今日發佈了新款程序“AlphaGo Zero”。據瞭解,憑藉“強化學習”的機器學習技術,AlphaGo Zero 可以通過自學玩轉多種遊戲,並在遊戲中吸取經驗教訓。

令人興奮的是,在訓練 AlphaGo Zero 的過程中,為其引入了圍棋遊戲並學習先進的概念,挑選出一些有利的位置和序列。經過 3 天的訓練後,AlphaGo Zero 能夠擊敗 AlphaGo Lee,而後者是去年擊敗韓國選手李世石的 DeepMind 軟件。經過大約 40 天 2900 萬場自玩遊戲的訓練後,AlphaGo Zero 擊敗了 AlphaGo Master,後者在今年早些時候擊敗了圍棋世界冠軍柯潔。

研究結果表明,在不同技術的有效性方面,AI 領域還有很多有待研究的地方。AlphaGo Zero 的開發使用了許多與 AlphaGo Master 相似的方法,但在開始進行自玩遊戲之前,它就開始被使用人類數據進行訓練。值得注意的是,儘管 AlphaGo Zero 在幾周的訓練中掌握了幾個關鍵概念,但它的學習方式不同於人類棋手。

此外,AlphaGo Zero 比之前產品的學習能力高效得多。AlphaGo Lee 需要使用幾臺機器和 48 個谷歌張量處理單元機器學習加速器芯片,該系統的早期版本 AlphaGo Fan 需要 176 個 GPU。而 AlphaGo Zero 和 AlphaGo Master 一樣,只需要一臺機器和 4 個 TPU。

人工智能如此強大,你怕了嗎?


動點科技


打敗柯潔、功成名退的 144 天后,AlphaGo 再次刷屏的原因不再只是棋下得好那麼簡單。

2016 年 3 月,李世乭 1-4 敗給了來自英國的圍棋人工智能系統 AlphaGo。

2017 年 1 月 4 日,在取得了 59 場連勝之後,化名 Master 的神秘棋手在留言板上承認了自己的身份。

2017 年 5 月,在中國烏鎮 ·圍棋峰會上,AlphaGo 對陣人類世界排名第一的棋手柯潔,三局全勝。

以上就是 AlphaGo 在科技圈大規模刷屏的三次事件。

當其研發團隊 DeepMind 在烏鎮宣佈 AlphaGo 正式退役時,所有人都以為這是一個創造了歷史的圍棋「棋手」傳奇的結束,但沒想到的是,2017 年 10 月 19 日的清晨,科技圈和圍棋圈再一次,集體被 AlphaGo 刷屏。

從零開始純自學的 AlphaGo

根據 DeepMind 的官方網站,AlphaGo 推出了最新的升級版,名為 AlphaGo Zero,這個版本完全依靠機器自己進行強化學習,在擺脫了大量的人類棋譜後,機器根據圍棋的規則左右互搏,在三天之內就超越了去年三月對陣李世乭的版本,接著在第 21 天戰勝了對陣柯潔的版本,到第 40 天,在對陣此前最先進的版本時,已經能保持 90% 的勝率。

DeepMind 官方表示,這毫無疑問是史上最強的圍棋棋手。

但你也知道,僅僅是棋藝的升級不足以讓它一夜之間霸佔中外媒的頭條,是什麼讓再次升級的 AlphaGo 吸引了這麼多人的關注呢?

柯潔和古力紛紛轉發微博感慨機器的強大

DeepMind 在自己的官網上發表了一篇博客文章,同時表示新版本 AlphaGo 的研究論文已在權威學術期刊《自然》上發表。對學界來說,這是一個非常重磅的消息,總結來說這個版本特別的原因有三:

1、AlphaGo Zero 只使用圍棋棋盤上的黑子和白子作為輸入,而 AlphaGo 之前的版本中包含了少量人工設計的功能。

2、它使用的是一個神經網絡而不是兩個。AlphaGo 的早期版本使用「走棋網絡(policy network)」來選擇下一個動作和一個「價值網絡(value network)」來預測遊戲的贏家。AlphaGo Zero 合併了兩者,使其能夠更有效地進行訓練和評估。

3、AlphaGo Zero 不使用「Rollout」——其他圍棋程序使用的快速、隨機的遊戲來預測哪個玩家將從當前的棋局中獲勝。相反,它依賴於高質量的神經網絡來評估棋局。

以上這三點大大改善了 AlphaGo 的表現。

擺脫人類經驗後下得更好

但 DeepMind 同時指出,是算法的改變讓這個系統更加強大且高效。

72 小時自我對弈,AlphaGo Zero 就以 100-0 的成績戰勝了此前對陣李世乭的版本;40 天訓練之後,它成功超越了擊敗柯潔的改良後的 Master 版本。

從下面的動圖可以看到,因為從零開始的緣故,AlphaGo Zero 的初期表現非常糟糕,但水平提高的速度也非常快,僅僅三天就超越了對陣李世乭的版本。

「它比此前的版本更強大,是因為滅有使用人類的數據,也不使用任何形式的人類經驗,我們已經消除了人類知識的侷限,它能夠創造知識本身,」AlphaGo 的首席研究員 David Silver 說道。

這個系統通過強化學習來提高它自身的技巧水平。每當 AlphaGo Zero 走了一步好棋時,它就會獲得系統的「獎勵」,反之則有損失。

系統的核心是一組軟件上的「神經元」,這些「神經元」連接在一起,形成一個人工的神經網絡。在遊戲的每一個回合中,神經網絡會查看棋盤上棋子的位置,然後計算下一步棋的位置,並計算出每一步的可能性,做出最可能獲勝的選擇。在每一場比賽之後,它會更新它的神經網絡,使它在下次比賽中更加強大。

儘管比以前的版本好得多,但 AlphaGo Zero 其實是一個更簡單的系統,它需要的數據更少,硬件要求也更低(對陣李世乭的 AlphaGo 使用了 48 個 TPU,而 AlphaGo Zero 只用了 4 個 TPU),但它仍能夠更快地掌握遊戲。Silver 表示,如果有更多的時間,它甚至可能會發展出一套自己的規則。

根據一些外國棋手的觀察,AlphaGo Zero 在棋局的初期表現仍與人類千年來的套路相同,但到棋局中期就會變得令人難以理解。

圍棋之外,AlphaGo 還能帶來更多

這也是這次 AlphaGo 再次刷屏的原因之一。身為該研究重點的強化學習是機器智能領域一個非常重要的技術,它從深度學習中延伸出來,進一步擺脫人類的干涉訓練機器,而 DeepMind 也一直致力於「深度強化學習(Deep Reinforcement Learning)」的研究。

此前他們就發表了一篇論文,研究如何讓一個 AI 系統自學「跑酷」。該 AI 系統在沒有輸入人類經驗的前提下學習翻越障礙物,最終發展出自己翻越的方法。

機器能夠發現人類無法發現的一些東西,這在人工智能界是一個普遍的共識,早先就有人頗為異想天開地嘗試讓人工智能根據圖片來辨別人的性取向,雖然這樣的研究遭到了不少的批評,但它確實反映了人工智能研究者們對 AI 的一些期待。

人類自己的知識是有侷限的,而本質是計算機程序的人工智能往往與大多數人類的視角不同,他們能夠在人類的固有思維和司空見慣的事物中發現人類找不到的規則和破解問題的方法。

AlphaGo Zero 就是一個很好的證明。

所以讓 AlphaGo Zero 再次刷屏的並不是它多強的圍棋技巧,也不是「100-0」、「3 天」和「40 天」這樣惹人眼球的數字,而是它所證明的技術理論的可行性。

在圍棋以外,得到論證的理論其實還能做到更多。

「儘管目前仍處於早期階段,但 AlphaGo Zero 構成了朝著這個目標邁進的關鍵一步。如果類似的技術可以應用到其他結構問題上,比如蛋白質摺疊、減少能源消耗或者尋找革命性的新材料時,那麼這些突破就有可能對社會產生積極的影響。」DeepMind 在官方博客中如此說道。

所以,有關「讓機器下圍棋,下得再好又有什麼用」的看法其實是非常幼稚的。

當 DeepMind 和 OpenAI 等公司開始研究讓 AI 打 Dota、星際爭霸等遊戲時,收穫的往往也是社會上的嘲笑聲。

在大多數人的設想中,他們希望人工智能幫他們開車、打掃房間、完成這樣那樣簡單且重複性的工作。事實上,這也是那些擁有著最頂尖技術的科技公司想要的,但在達到這些終極目標之前,他們也需要棋牌、遊戲等訓練算法的土壤,在這些模擬的棋局、比賽中,打造 AI 系統的模擬器(simulator),這也是為什麼當 DeepMind 表示要挑戰星際爭霸時,他們表示這會比圍棋更有挑戰性——因為 MOBA 類遊戲的場景更加複雜。


極客公園


準確的說是三天超過打敗李世石的alphago, 21天超過完敗柯潔的alpha master. 40天以100:0的戰績完敗其它alpha, 成為棋力最強的計算機程序。

這次的提升是多方面的。首先,alpha zero是從零開始無師自通。沒有參考任何人類棋譜。之前的alpha go的技術是用基於卷積神經網絡的監督學習算法,結合蒙卡隨機森林搜索,並利用策略網絡和價值網絡兩套獨立架構。通過學習成千上萬的人類高手棋局,然後再自我對弈來提升棋力的。整個算法龐大而複雜,並且有不少地方的確還有些人工雕琢的痕跡。

但反觀alpha zero。 它最大的亮點就是完全不參考人類高手棋譜,利用強化學習算法,從一上來就開始自我對弈。在蒙卡搜索樹搜索的過程中將價值網絡和策略網絡合二為一。可以說利用的算法架構是最簡單直接的那種。但效果卻異常的好。這裡說的效果不光是指在棋力上超過的原有算法,還包括學習效率上的巨大提升,新算法達到舊算法的實力僅僅用了三天。程序調用的CPU資源也有了明顯的下降。這不禁讓人們思考,這種學習效率提升的背後,意味著alpha zero在完全不依賴人類的前提下另闢蹊徑找到了更快的提高圍棋勝率的方法。也許學習人類高手的棋譜反而誤導了alpha。

DeepMind團隊表示,人工智能的最大挑戰是研發一種能從零開始、以超人類的水平學習複雜概念的算法。此次AlphaGo Zero的出現不僅僅意味著圍棋上的成功,還意味著距離通過創建通用算法來解決科學中的難題又進了一步。

至於這項技術能否成功從圍棋遷移到別的領域,去解決實際生活中的許多問題。比如預測蛋白質分子的形狀,或者進行精確的材料設計。我們只能說,一切皆有可能。

圖:不同版本alpha需要的計算資源。


低熵製造機


阿爾法狗將作為人工智能的試金石,因為圍棋是一個巨大的搜索空間和難以評估棋局位置和移動的難度,長期以來被認為是最具挑戰性的傳統人工智能遊戲。阿爾法元的成功證明了記憶是最原始的存儲方式,而不是思考的方式,它不是高價值的;這個方法比機械學習好得多,可以說阿爾法已經從樣本的進化演變為方法的進化。因此,它的誕生,它的進步意義是,人類與機器戰爭不再有意義了!

DeepMind的新算法AlphaGo Zero開始擺脫對人類知識的依賴:在學習開始階段無需先學習人類選手的走法,另外輸入中沒有了人工提取的特徵。

在某些領域培訓AI代理的過程中,模型的價值超過了培訓數據(先前的知識)。如果這個模型可以應用於其他領域,那麼就可以期待人工智能代理產生新的、有創造性的知識,這些知識將超越人類積累的知識。當然也能更好的服務人類。



看楽兒


TalkingData和國內頂尖的職業圍棋選手培訓機構——葛道場有長期合作,從我們的經驗來看,要成為一個職業圍棋選手,最晚也要從六歲到七歲開始學棋。即使是像柯潔這樣不世出的奇才,從五、六歲學起,到成為世界冠軍也需要十多年的時間。

而AlphaGo,前年最初連樊暉這樣不太知名的圍棋職業選手都無法戰勝;而短短几個月後,到去年已經可以擊敗李世乭;再到今年以Master的身份復出,人類圍棋選手已經完全沒有抵抗之力,再到現在Zero可以完全不依賴人的經驗而碾壓Master。

我們回來看看Zero的原理到底是什麼?首先我們來看看在物理世界裡有沒有可能演化的這麼快?我們知道在物理世界中,大家都學習過的牛頓第一定律表明,引力和質量成正比。這是一個線性的關係,也就是說我們的物理世界總體是由線性的規律主導的。所以,即使你可以造一臺下圍棋非常快的機器,每秒可以移動1000個棋子,可以想象不太可能造出AlphaGo。

AlphaGo廣為人知的三個部分分別是策略網絡、價值網絡和蒙特卡洛樹搜索。策略網絡所代表的是人類的經驗、歷史的經驗。從公開的論文來看,AlphaGo的策略網絡準確度基本在57%。這個比喻未必特別精確,但類比考試成績,如果期末考試才考了57分,這在人類世界不是特別可以拿出手的好成績,這說明什麼?說明這個策略網絡和人類可以學到的相比並不是特別厲害,所以Zero在Master之後必然從頭開始尋找更優策略。讓我們再來看看價值網絡,根據我們的實踐,價值網絡特別不好訓練,很難獲得一個質量特別好的結果;也就是說價值網絡評估當前棋局形勢的能力其實也不如人類。策略網絡和價值網絡都不如人類,那為什麼AlphaGo還能這麼厲害?所以最根本的,還是在於它使用的蒙特卡羅樹搜索這塊能力比人強。人類每下一步棋,能考慮到幾十步已經是頂尖的高手,但AlphaGo卻可以搜索幾十萬、幾千萬、幾億步。

策略網絡(圖自CSDN,作者張俊林)

價值網絡(圖自CSDN,作者張俊林)

蒙特卡洛樹搜索(圖自CSDN,作者張俊林)

這種方法給了我們極大的啟示,未來的AI將物理世界建立的模型投影到計算機的數字世界,然後利用由摩爾定律支撐的指數級增長的計算力,在數字世界中進行無限的模擬、探索,並且結合以往的經驗找到更好的方案,再把這個方案反過來應用到現實世界中,並從現實世界獲得真實即時的反饋,並用於在數字世界中找到更好的方案。

就像AlphaGo從與樊暉試棋,再到在網上與邀請的頂級圍棋選手對弈,都是期望通過現實棋局得到真實的反饋,再回到數字世界中找到更好的解決方案。目前,還有一個特別火爆的領域,那就是自動駕駛。

像谷歌,做自動駕駛近十年時間,積累的路測數據有幾百萬英里;特斯拉每年賣出幾萬輛汽車,號稱路測數據積累了上億英里。然而根據專家的估計,想讓自動駕駛汽車能夠可靠地上路行駛,最樂觀的估計也需要至少100億英里的路測,這對企業來說幾乎是不可能實現的。

現在很多自動駕駛企業都建立了模擬系統,在數據世界搭建一個虛擬世界,例如谷歌已經把鳳凰城完全數字化,自動駕駛系統可以在這個虛擬世界中每天行駛超過幾億英里。這樣做的好處是,在現實的、線性的世界中,試錯的成本非常高。而通過數據的方法在虛擬數字世界中建立一套與現實世界對應的模擬,利用計算機強大的計算能力去嘗試各種可能性,儘量找到可找到的最好的解決方案,再應用到現實世界中,這樣可以極大的提高迭代速度。

觀察這三個例子,我們可以發現他們有一種共同的模式,那就是建模,投射,探索,應用和反饋;這就是數據驅動方法的基本框架,而其成功的核心,則是試錯的成本和迭代的速度。

數據驅動方法的基本框架

讓我們再看看另一面,目前我們記錄下來的都是用戶的行為,但這個世界除了計算機領域的數字世界、我們生活的物理世界,其實還有每個人大腦中的思維世界。而人的行為,其實都是由大腦中的世界驅動的。那我們有沒有能力把每個人大腦中的世界也數字化呢?這是比我們以往做的更前沿、也更少人去做的事情。而TalkingData人本實驗室的使命就是試圖去解決這些問題。


崔曉波


AlphaGo是第三代計算機圍棋程序的代表,最開始使用了“監督學習+強化學習”的訓練策略。“監督學習”,說白了就是跟人類學;“強化學習”,就是左右互搏自己練。

AlphaGo Zero是第一個不用監督學習,只用強化學習的版本。就是說不再跟自己學了,只自己摸索!

一開始程序完全不會下棋,亂扔亂放;然後越來越強,發現了吃子、死活的規律;繼而發現各種人類研究過的或沒研究過的定式變化,再在進步過程中判斷取捨;最後實力越來越強,超過了以往的AlphaGo版本。

-

需要注意的是,AlphaGo Zero的意義主要不在於達到了更強的水平,因為這主要取決於資源的投入。AlphaGo Master和AlphaGo Zero在同為20層神經網絡的情況下,投入等量訓練資源後達到的實力從論文中的圖表上看沒有明顯差距。如果給Master也投入更多資源,它應該也能達到Zero現在達到的水平。

最重要的意義在於:

1. 脫離人類知識學習客觀規律;

2. 模擬了學習客觀規律的進化過程。

第一點的意義無疑是非常重大的,意味著AI更強的進化能力。但我想強調的是,第二點也是很有用的,我們觀察AI的學習進化過程,對照人類自己的過程,就能判斷出人類在總結客觀規律形成自身理論的過程中,有沒有走入歧途?有沒有形成“局部最優解”?如果有,該朝什麼方向進行調整?

具體到AlphaGo Zero學習圍棋,其實觀察進化過程,和人類學習總結圍棋規律的過程還是很像的,也沒有進化出一個“完全不一樣的外星棋手”。所以粗略的看Zero進化中不同階段的棋譜,現在我並沒有看出人類的圍棋理論有什麼顯著的、形成了重大缺陷的系統誤差。當然,小問題上有多少可改進的,還需要我們更深入的研究AlphaGo Zero的棋譜和數據。


神之一手


“根據一些外國棋手的觀察,AlphaGo Zero 在棋局的初期表現仍與人類千年來的套路相同,但到棋局中期就會變得令人難以理解。”看來人類下了幾千年年圍棋,才只是剛剛入門而已,我們不禁要問,圍棋真的是人類發明的呢?

當然,雖然AlphaGo Zero如此厲害,但它和人類還是不能相比,不管它能通過神經網絡算出多麼優化的棋路,但它終究無法進行模糊思考,而這一點可能正是人類最大的優勢,也是人工智能在未來可能永遠也無法超越人類的根本。

在量子力學的觀點裡,微觀粒子都是以疊加態存在,不會有準確的位置或動量,也就是說一個粒子可以同時出現在任何地方,在某個時刻它可以既在這裡又在那裡,完全違揹人類的常識。但人類可以理解這種量子態,並發展出一整套量子力學理論,成為今天我們幾乎所有現代科技成果的基礎;但人工智能能理解這種模糊的認知嗎?人工智能能像人類一樣理解人類的感情、意識和思想嗎?它能從量子力學的觀點,推導出人擇宇宙原理,以及它的強弱版本嗎?從目前人工智能的工作方式來說,我覺得這依然是極為遙遠,甚至根本不可能的。

所以,AlphaGo Zero三天擊敗人類旗手,其進步只是人工智能作為人工智能的進步,還不是人工智能全面超越人類的進步,在這一點上,或許它永遠不可能做到,除非人類願意和它分享人類的大腦,並有技術能夠做到。


徐德文科學頻道


人類用幾千局訓練出了AlphaGo,但AlphaGo Zero經過自我學習,從一個只知道規則的初級玩家到打敗AlphaGo Master(打敗柯潔的AI),它只用了40天。這個學習速度和過程連柯潔都嘆了口氣:人類太多餘。

要我說,人類就先別自怨自艾了,我在很小的時候打不過遊戲裡的電腦,就已經接受人不如機器的事實了。這事兒接受起來,並不難。

在科技領域之內,AlphaGo Zero當然有其進步意義。其中最大的一項進步是,它甩開了人類這根柺棍,開始獨立行走了。因為我們都知道,早年間的AlphaGo,是靠人類餵養長大的,其中不光是數據和信息,也包括人類對下圍棋的理解與經驗,現在的AlphaGo Zero,是純靠與自我對弈來進步的,人類對它來說,不再像過去那麼重要了。

AlphaGo Zero的勝利還意味著,對AI來說,算法的重要程度已經超過了數據資源。這事兒看著小,可實際上是蠻關鍵的,在過去這麼多年裡,我們一直在談大數據大數據,似乎培養人工智能只有數據澆灌這一條路。可是AlphaGo Zero證明,數據澆灌只是第一階段,人工智能的第二階段是自我澆灌,算法工程師們的職業前景更加美好了。

一切似乎都在朝向更高級更前沿的未來發展,唯獨,我對柯潔這些職業圍棋選手感到一絲惋惜。他們耗費大量時光,好不容易在該領域內做到全球頂尖,結果人生最高光的時刻,竟然是被AI橫掃,我曾經試想,假如我是圍棋高手,在見過AlphaGo Zero這樣的圍棋上帝之後,幾乎是很難像從前一樣懷有職業自信了。這,實在太悲情了。


默爾索


昨天AlphaGo Zero橫空出世,碾壓圍棋界。AlphaGo Zero完全不用人類過去的棋譜和知識,再次打破人類認知

對此,創新工場創始人兼CEO李開復的觀點是:一是AI前進的速度比想象中更快,即便是行業內的人士都被AlphaGo Zero跌破眼鏡;二是要正視中國在人工智能學術方面和英美的差距

一方面,AlphaGo Zero的自主學習帶來的技術革新並非適用於所有人工智能領域。圍棋是一種對弈遊戲,是信息透明,有明確結構,而且可用規則窮舉的。對弈之外,AlphaGo Zero的技術可能在其他領域應用,比如新材料開發,新藥的化學結構探索等,但這也需要時間驗證。而且語音識別、圖像識別、自然語音理解、無人駕駛等領域,數據是無法窮舉,也很難完全無中生有。AlphaGo Zero的技術可以降低數據需求(比如說WayMo的數據模擬),但是

依然需要大量的數據。

另一方面,AlphaGo Zero裡面並沒有新的巨大的理論突破。它使用的Tabula Rosa learning(白板學習,不用人類知識),是以前的圍棋系統Crazy Stone最先使用的。AlphaGo Zero裡面最核心使用的技術ResNet,是微軟亞洲研究院的孫劍發明的。孫劍現任曠視科技Face++首席科學家。

雖然如此,這篇論文的影響力也是巨大的。AlphaGo Zero 能夠完美集成這些技術,本身就具有里程碑意義。DeepMind的這一成果具有指向標意義,證明這個方向的可行性。

在科研工程領域,探索前所未知的方向是困難重重的,一旦有了可行性證明,跟隨者的風險就會巨幅下降。我相信從昨天開始,所有做圍棋對弈的研究人員都在開始學習或複製AlphaGo Zero。材料、醫療領域的很多研究員也開始探索。

AlphaGo Zero的工程和算法確實非常厲害。但千萬不要對此產生誤解,認為人工智能是萬能的,所有人工智能都可以無需人類經驗從零學習,得出人工智能威脅論。AlphaGo Zero證明了AI 在快速發展,也驗證了英美的科研能力,讓我們看到在有些領域可以不用人類知識、人類數據、人類引導就做出頂級的突破。

但是,AlphaGo Zero只能在單一簡單領域應用,更不具有自主思考、設定目標、創意、自我意識。即便聰明如AlphaGo Zero,也是在人類給下目標,做好數字優化而已。


歡迎關注創新工場微信公眾號:chuangxin2009。這是一個創新工場和創業者的溝通交流平臺,您可以學習創業相關的法務、市場、財務、HR等各個業務領域所需的知識乾貨,還有機會參與到創新工場舉辦的創業者培訓、沙龍和其他各類活動中。


分享到:


相關文章: