「布鲁金斯」半数美国人支持AI军事化

「布鲁金斯」半数美国人支持AI军事化

布鲁金斯学会于2018年8月19日至21日期间,对2000名成人互联网用户进行了美国全国民意在线调查,调查旨在回答:美国人在战争中是否应该使用人工智能技术这一问题,尤其是在其他国家已经在发展军事人工之智能的假设下美国人对这一问题的反应。这次调查数据及结果由学术plus编译,仅供参考。文章版权归原作者所有,观点不代表本机构立场。

「布鲁金斯」半数美国人支持AI军事化

发布日期:2018年8月29日

编译:学术plus

原载:https://www.brookings.edu

态度鲜明的调查结果

据布鲁金斯学会研究人员进行的一项调查显示,30%的美国互联网用户认为人工智能技术应该用于战争,39%持反对意见,32%的人不确定。但是接近半数的美国人(45%)认为,如果对手已经在开发此类武器,美国也应该这样做,25%反对,30%的人不确定。

不同的性别,年龄和地理差异,导致了人们对这一问题认识的区别。如果对手开发这类武器,男性(51%)比女性(39%)更支持AI战争。与18至34岁的老年人相比,老年人(53%)更支持使用AI作战。与生活在西部的人(41%)相比,生活在东北地区(51%)的人最有可能支持这些武器。

「布鲁金斯」半数美国人支持AI军事化

AI应该基于人类价值观

三分之二(62%)的人认为人工智能应该以人的价值观为指导,而21%认为不用。男性(64%)比女性(60%)更认同AI应该遵循人类价值观。

谁来决定部署?

该调查询问谁应该决定如何设计和部署AI系统。19%认为一般公众有权利参与决定,其次是11%投票给私人公司领导者,9%的人认为立法者应该决定,7%的人认为应由软件编码员决定,4%的人支持法官来裁决。但更重要的是,被调查者中有半数不知道应该由谁做出决定。

「布鲁金斯」半数美国人支持AI军事化

但在其中,男性(14%)比女性(8%)更希望私人公司领导者做出人工智能决策。此外,来自东北地区(14%)的人比中西部地区(9%)表示他们更倾向私人公司领导人。

「布鲁金斯」半数美国人支持AI军事化

道德保障

调查中列出了多种AI道德保障方案。每种方案都各具优势和特色,但最受欢迎的是:人工智能道德准则(67%),AI审核委员会(67%),在受到伤害的情况下进行AI调解(66%),人工智能培训计划(65%),AI审计跟踪(62%)和招聘伦理学家(54%)。

「布鲁金斯」半数美国人支持AI军事化

(全文完)


分享到:


相關文章: