04.06 我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

“Don’t Be Evil”(不要作恶)是谷歌广为人知的公司格言之一。但是最近它与美国国防部的业务来往似乎在违背这一指引公司方向超过15年之久的信条,这也引起公司内部员工的不满情绪和随后的集体性行动。

我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

图 | 这条格言代表了谷歌的公司文化

有近3000名谷歌员工共同署名一封公开信,要求首席执行官Sundar Pichai终止Maven项目,这个项目就是与美国国防部签订的合同,旨在开发一套“定制AI监控系统”,可能会被用于军用无人机的目标识别。员工们还要求CEO发布新的公司政策,明确谷歌和其承包商均不参与发展战争技术。

我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

图 | 印裔美国人CEO

这封公开信措辞比较直接,称该公司正在失去其核心价值:“谷歌的历史基于其独立的理念,“不要作恶”,我们的成功来自于对数十亿用户生活的触达,脱离这一信条显然对公司发展不利”。随后谷歌CEO也作出了回应,在一份向《纽约时报》发表的声明中,他说与员工们的公开交流“非常重要和有益”,但并没有提及具体的措施。他继续表示,五角大楼要采用的这项技术可供“任何其它谷歌云服务客户”使用,而非专门用于攻击性目的。

我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

图 | 谷歌标志

另一家科技媒体Gizmodo此前报道过谷歌的Maven项目,报道认为这个项目要开发机器学习技术,用于无人机识别其镜头中的车辆和其它物体目标,从而减轻军队分析人员的负担。当时五角大楼就解释说,该技术不会用于开发一个自动武器系统,可以识别目标并在无人扣动扳机下就进行自动射击。

我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

图 | 军用无人机

事实上,谷歌不是唯一一家与军队共谋合伙的科技公司,微软与亚马逊都与美国国防部签订合同,为其开发云服务系统。而最新传出消息说,韩国科技研究院下属的一个研究单位,要与一家武器公司联合成立人工智能武器实验室,于是AI发展的危险信号立即响起,来自30个国家的50位研究员呼吁抵制韩国科技研究院,与其断交。由此可见人工智能的威力和风险很大,一旦和武器、战争扯上关系,人们敏感的神经马上就会感到危险。

我们不要像韩国那样作恶:谷歌员工集体抵制公司AI军事项目

图 | 杀手机器人模型

虽然也有一些相反的观点认为,人工智能技术可以提高武器的精度,理论上降低平民的误伤。但是毫无疑问,科技公司与军队的这种合作仍然是个危险的游戏,很难把控技术运用的平衡度。虽然谷歌员工的“集体进谏”可以促使公司决策者更谨慎的选择军队合同和发展业务,不过小编个人还是持悲观态度。人工智能有点像潘多拉魔盒,已经打开了,间接或直接用于战争只是迟早的事情。因为AI的自我进化一旦启动,会逐渐脱离人类创立者的控制,未来的新文明形态将超出人类的想象,我们只能期待这一切不要来得太快。


分享到:


相關文章: