AI走向“战争技术”,是减少损伤还是推向灾难

最近几周,发生的诸多事件都表明了大家对人工智能日益增长使用的担忧。比如近期在日内瓦举行的#AI4Good峰会上,与会者共同讨论了AI在医学、教育、经济以及执法应用方面可以帮助人类的许多方式。

然而,与此同时,不管是谷歌退出五角大楼Project Maven,还是员工站出来反对亚马逊将其人脸识别技术卖给政府,亦或是微软Azure与政府的合作造成孩子与父母分开引发众怒,这些都是人们对AI技术使用的担忧。不可避免的,“战争技术”成为了其中最受关注的焦点。在谷歌Project Maven一案中,谷歌员工还曾引用“不作恶”的口号,进行上书。

那么,是否存在一种可能,即使人工智能部署到战场上,可以依然遵循“不作恶”的标准呢?换句话说,当人工智能用于战争,是将更智能地控制战争,还是会“养虎为患”,将人类推向更恐怖的战争深渊呢?

AI走向“战争技术”,是减少损伤还是推向灾难

我们不能否认,谷歌员工提出的问题是值得思考的:那些正在努力开发用于战争的AI技术研究员应该以道德和负责任的方式来完成这项任务。战争与技术,除了我们习以为常的残酷,其实还有另外一面——虽然我们印象中的战争史,充满了残忍与杀戮,但是技术也可以用于减少战争的悲惨代价。

举个例子,精确制导和小型弹药可以限制所谓的附带损害,即对平民和其他非战斗人员的杀戮和致残,同时,减少对家庭和关键基础设施的破坏也将成为可能。只不过,一直没有相关的公开讨论来研究如何将人工智能应用于战争,帮助缓解悲剧的发生。在小智君(ID:Aiobservation)看来,人工智能除了会带来伤害,或许我们还可以让她来减少战争灾难的发生。

人工智能的军事潜力,不只是技术

众所周知,技术是军事组织成功开展行动的决定因素之一。同时,在使用这个时代下,他们还需要最大限度地发挥技术潜力,特别是获得各个国家青睐的人工智能。但这并不是最主要的,重要的是,AI也将是改变军事教育的方式之一。

AI走向“战争技术”,是减少损伤还是推向灾难

正如最近的一份报告所指出的那样:AI驱动的智能辅导系统可以提供模拟人类的一对一辅导,学生们也可以从这位“终身学习伙伴”中受益,即根据学生的个人资料,进行有针对的教学。此外,人工智能还可以用于协助学习。

军事组织一直致力于分享历史课程,并建立有效的以及有凝聚力的战斗团队。人工智能在帮助培养专业技能的同时,还可以支持团队中更高水平的运营和战略规划。在以往的战争中,指挥员的决策,一方面来源于情报、侦察、监视等手段,另一方面受指挥员自身的经验、灵感、联想等主观因素影响。在AI的辅助下,该技术便可以为指挥员的决策提供新的参照,弥补军事信息系统的不足,从而构建起功能强大的网络信息体系,提高军队的智能化评估和辅助决策能力。

用AI减少战争造成的人道主义损伤

随着今天人工智能的快速发展,如何利用这一技术减少战争带来的人道主义损失,成为了一个值得深入思考的问题。“General AI”——一个能够像人类一样做出广泛决策的人工智能,就如电影《2001:太空漫游》的情景一样——可能需要几十年甚至更长时间才能实现。

AI走向“战争技术”,是减少损伤还是推向灾难

所以,就目前的情况而言,可用的更有针对性的AI类型会变得非常有用,因为它们能够处理大型数据集并快速整合来自不同来源的数据。如果可以进行创造性的思考,那人工智能就有可能可以通过多种方式来改善决策,达到更好地保护武装冲突中的平民的效果。

CNA(华人新闻通讯社)曾对战争中民众的伤亡情况以及其发生的原因进行过研究。考虑到现代军队目前拥有的能力和使用的技术程序,以及人为判断失误和程序问题导致的失误类型,人工智能极有可能可以减少战争中的民众的伤亡。

比如,AI技术可以根据情报以及图像审查情报,减少被误认为是战斗人员的平民数量。它们还可以监控战场,并对现有的附带损害估测进行双重检查,特别是随着时间的推移,情况会发生变化。AI驱动的无人系统将让这些系统承担风险并有耐心去等待最佳“战斗”时机,从一定程度上,这可以降低平民的风险。同时,在探测到战场上民用基础设施后,AI还可以进行提醒,并提出建议来采取措施降低破坏风险的存在,就如电力和水利设施,如果不被破坏,将很有助于未来城市的恢复。

AI走向“战争技术”,是减少损伤还是推向灾难

人工智能,积极影响下的潜在风险

将人工智能应用于战争中的积极成果,并不意味着我们要对其潜在的风险视而不见。技术的有效和安全使用是复杂的,需要全面解决,而不是仅仅通过部署一个新的,更先进的系统就能实现的。相反,有一些具体方法可以提高军事系统中人工智能的安全性,比如通过人机组合来充分利用人和机器的优势。这种组合通常产生比单独操作更好的结果。

那如何实现在战争中用人工智能拯救生命呢?如果政府选择让自己的军队审慎使用人工智能,并从中获取人道主义收益;如果国际论坛倡议将这种积极成果作为集体目标,那么这一救国就有很大可能会实现。

像谷歌这样的公司也可以在“不作恶”的承诺上,研究如何将自己的专业知识贡献给战争中的人道主义,其他人,其他企业,其他组织必然也可以寻求使用人工智能来造福世界,保护战场上的民众。

如今,人工智能的军事应用浪潮已不可避免,因此无论是应对技术还是伦理的挑战,都应坚持探索与发展人工智能技术,加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。


分享到:


相關文章: