11.27 机器人与人类共同辩论AI危险性 英媒:人类最后被说服了

英媒称,一个人工智能系统日前与人类就人工智能的危险性展开了辩论——它以微弱优势说服观众相信人工智能利大于弊。

据英国《新科学家》周刊网站11月24日报道,由IBM公司开发的机器人——“辩论家”计划(Project Debater)——分别代表正方和反方进行了辩论,而每一方的团队都各有两名人类辩手。21日晚,这个人工智能平台在剑桥大学同学会以一名美国女性的声音向观众做了正反双方的开篇立论,其间使用了来自人类预先提交的1100多份意见中的观点。

报道称,在代表正方——主张人工智能弊大于利——时,“辩论家”计划的开场白带有阴暗的讽刺意味。它说:“人工智能可以造成许多伤害。人工智能将无法作出一个在道德上正确的决定,因为只有人类才讲道德。”

它还说:“人工智能公司在如何正确评估数据集和过滤掉偏见方面仍然极度缺乏专业知识。人工智能将采纳人类的偏见,并把这种偏见固化数十年时间。”

报道指出,人工智能利用一款名为“众包演讲”(speech by crowd)的应用软件对人们在网上提交的论点进行分析,进而生成自己的论点。“辩论家”计划随后将人们提交的意见归入若干关键主题,并识别出冗余观点——即措辞不同的相同观点。

报道称,该人工智能平台在辩论过程中能做到前后一致,但是也出现了少量纰漏。它有时会说车轱辘话,并且没有提供具体的例子来支持自己的论点。

在代表反方——主张人工智能整体而言利大于弊——时,“辩论家”计划称,人工智能将在某些部门创造新的就业岗位,并“大大提升工作场所的效率”。

但随后它又提出了一个与其观点背道而驰的观点:“人工智能能够照顾病人,机器人能够教导学童——那些领域也不再需要人类。”

报道称,反方以微弱优势获胜,赢得了51.22%的观众票。

报道称,“辩论家”计划去年首次与人类展开辩论,它在今年2月与冠军辩手哈里什·纳塔拉詹的一对一较量中失利。纳塔拉詹本次也作为反方三辩参加了在剑桥大学同学会的辩论。

IBM公司计划利用“众包演讲”人工智能平台收集大量人群的反馈。例如,IBM工程师诺姆·斯洛尼姆说,政府可以利用它征求选民对政策的意见,企业也可以利用它征求员工的意见。

他说:“这项技术有助于在决策者和将受决策影响的人之间建立有趣和有效的沟通渠道。”(编译/冯雪)


分享到:


相關文章: