12.02 炮轟“偽AI”,“偽人工智能”三大特徵新鮮出爐

不可否認,人工智能現在已成為技術展開的幹流,而且在用前所未有的力量影響著人們的日子。通過將更多更好的數據、軟件、運用與這項技術結合,人工智能在社會的多個領域裡得以完成。

  一同,由於技術的不斷展開,人工智能研討員幾十年來一貫在極力處理的問題也正在獲得相應的處理計劃。


炮轟“偽AI”,“偽人工智能”三大特徵新鮮出爐


  但是,是風口就會有“虛火”和“偽概念”的出現,人工智能也不會破例:在本錢許多湧入,鉅子紛亂入局的情況下,如同一夜之間,人工智能相關的企業和產品漫山遍野襲來。

  熱潮之下,既有技術的日新月異,也夾雜著概念下的虛偽昌盛。

  儘管人工智能的標語喊的嘹亮,但實際上建立一項由人工智能驅動的效力很難。究竟困難到什麼程度呢?一些草創公司在實踐中發現,讓人類像機器相同作業,要比讓機器像人相同作業簡略的多,也廉價的多。

  “事實上,用人工來完結一份作業能夠讓企業跳過許多的技術和業務開發面對的應戰。很顯著,這不會擴展一個公司的規劃,但是卻容許一個企業在初期的時分跳過最困難的部分,並獲得必定的用戶基礎,“ReadMe首席執行官Gregory Koberger說道。

  他標明,自己接連不斷遇到了許多偽人工智能(Pseudo AI)。在他看來,這正是人與人工智能聯絡的原型。


炮轟“偽AI”,“偽人工智能”三大特徵新鮮出爐


  偽人工智能特徵一:人工代替AI作業

  就Koberger對人與人工智能聯絡的表述而言,最典型的一個案例就是本週早些時分,谷歌Gmail被曝光的任由開發者閱讀用戶郵件一事。

  根據《華爾街日報》的報道,谷歌容許數百家外部軟件開發商,通過掃描數百萬用戶的郵件內容來投進更加精準的廣告;而這些開發商能夠操練計算機,甚至讓員工來閱讀用戶的Gmail郵件,對此谷歌卻疏於處理。

  此外,還有總部位於聖何塞的Edison Software,該公司的人工智能工程師通過瀏覽數百名用戶的個人電子郵件來改進“智能回覆”功用。當然,條件是該公司並沒有在其隱私政策中提到過會對用戶的電子郵件進行人工審理。

  假設對人類代替人工智能進行作業這種做法進行深究的話,早在2008年就現已有徵兆了。當時一家旨在將語音郵件轉換為本錢信息的公司Spinvox,被指控在海外呼叫中心通過人工而不是機器來完結相應的作業。

  隨後,2016年,彭博社也報道過關於人類會每天作業12小時,以代替談天機器人為用戶進行效力安排的困境。當時,有相關人員標明,這項作業會讓人腦筋麻木,以至於他們都期望自己能夠被機器人代替。

  緊接著,2017年,智能商業處理計劃運用Expensify招認,該公司一貫在人工轉錄被其稱為運用了“智能掃描技術”處理的部分收據。這些收據的掃描效果被髮布到亞馬遜的Mechanical Turk眾包勞動工具上,而低薪的員工對其進行閱讀和轉錄。

  即使是在人工智能領域投入了巨資的Facebook,也會依託人類充當其名為Messenger的虛擬輔佐。

  偽人工智能特徵二:AI效果造假,獲取出資

  在某些情況下,人類會被用於操練人工智能系統並進步其精確性。一家名為Scale的公司的業務就是供應人類勞動力,為自動駕駛轎車和工智能系統供應練習數據。

  比如,“Scalers”會查看攝像頭或傳感器的數據,並對轎車、行人等進行標籤處理,之後通過滿意的人工校正,AI才初步學習辨認這些物體本身。

  在一些情況下,有些公司會一貫用這種方法假裝下去,告訴出資者和用戶他們現已開發了可擴展的AI技術,一同持續秘密地依託人類智能。

炮轟“偽AI”,“偽人工智能”三大特徵新鮮出爐

  偽人工智能特徵三:把預設程序稱為人工智能

  現在,市面上出現的大多數產品都被冠上了“智能”的標籤,比如,對話式兒童智能機器人,實際上多數是預設程序的玩具;包學包會包工作的AI練習,實際上就是編程練習;神乎其神的AI炒股軟件,也不過是用了量化的方法選股算了。對此,阿里巴巴前CEO衛哲甚至定論,現在偽人工智能比例可能高達90%或許99%。

  簡略來說,這些產品不過是“穿了個馬甲”,盛行什麼就貼什麼標籤,認為貼上了人工智能的標籤,就真的成了人工智能。現在關於人工智能業界還沒有精確的定義,承受度較廣的就是人工智能需求具有自主學習的才能,因此有產品鑽這個空子,也不可避免。但這也會打亂商場,對技術的展開蒙上一層暗影。

  用戶對人工智能的心情——透明化

  談天機器人Woebot的創始人兼心思學家Alison Darcy標明,“許多時分,人工智能的反面是人工而不是算法。建立一個傑出的人工智能系統需求‘許多的數據’,有時出資者在進行出資之前會想知道該領域是否有滿意的效力需求。”

  但她標明,這種方法不適合像Woebot這樣的心思支撐效力。“作為心思學家,我們要遵從道德原則,不欺詐是非常顯著的道德原則之一。“

  不過有研討標明,在人們的知道里,面對機器比面對人類醫師,會更簡略讓他們走漏自己的心聲。來自南加州大學的一個團隊用名為Ellie的虛擬醫治師進行了檢驗。他們發現,患有傷口後應激阻礙的退伍軍人在知道Ellie是一個AI系統的時分會更簡略傾訴自己的症狀。

  但是有些人認為,公司應該一直對自己的效力運營方法堅持透明。

  “我不喜歡這樣。這對我來說是不誠實,是欺詐。從我的角度啟航,這些也都不是我想從正在運用的效力中獲得的東西。”一些來自假裝供應人工智能效力,實際上卻僱傭人類進行作業的員工標明,

  “而在工人方面,感覺我們被推到了背地裡。我不喜歡一家公司運用我的勞動力,轉而向客戶扯謊,不告訴他們實在發作的工作。”

  這種道德上的困境也在人工智能系統方面引發了人們的考慮。以Google Duplex為例,一個機器人輔佐,能夠與人類翻開讓人毛骨悚然的傳神對話,完結餐廳或美髮沙龍的預定,這對人類來說,不是一種很好的感覺。

  Darcy標明,“在他們的演示版別中,我感覺被欺詐了。”在用戶的反饋下,谷歌究竟仍是改變了Duplex的對話方法,在說話前會先標明自己的身份。儘管如此,人們仍是覺得有些介意,比如,輔佐的聲響假設模擬了一些名人或政治家再打電話,會發作什麼呢?

  在小智君看來,跟著人工智能的展開,多數人現已對人工智能發作了驚駭,因此,在AI技術的運用短少透明度的情況下,這項技術並不會實在地便利人們的日子。

  此外,不管是把裝有簡略預設程序的音箱/機器人稱為人工智能,仍是把自動化設備偷換概念稱之為人工智能,這些偽立異的炒作,只會對人工智能的展開發作越來越大的損傷。

  人工智能需求的是清醒客觀的判別以及紮紮實實的極力。

  所以,就現在而言,關於人工智能的展開,建立一個更務實的展開環境才是重中之重。


分享到:


相關文章: