人工智能可能引发核战争,但只有人类能让AI开始核战争

人工智能可能引发核战争,但只有人类能让AI开始核战争

以下是一些非常确切的事实:

  • 计算机掌握着比以往更多的军事能力,包括控制自动驾驶车辆和探测系统。

  • 他们也负责我们的核武库

  • 人工智能越来越自主

  • 专家警告说,AI控制的武器可能会在不久的将来威胁到我们所有人

你可能会试图将这些事实拼凑在一起,并假设人工智能可能自主地开始一场核战争。这是兰德公司今天发表的一篇新论文和文章的主题,兰德公司是一家非营利性的智库,研究国家安全是其2040年安全计划的一部分。

但人工智能不一定会导致核战争,人工智能将只有当我们决定建立可启动核战争的人工智能才会引发核战争。

兰德公司在国家安全、核武器和人工智能等领域举办了一系列具有神秘匿名专家的专题讨论会,对AI未来几年将如何发展以及对核战争意味着什么进行推测和推理。

人工智能可能引发核战争,但只有人类能让AI开始核战争

文章中的大部分内容都会谈到超级智能电脑,当一个国家决定发射其核导弹时这些电脑将会发生变化。研究人员想象的算法可以追踪洲际弹道导弹,在它们被袭击摧毁之前发射它们的核弹,甚至在敌人的核弹甚至离开其巢穴之前展开报复性打击。

它还提到人工智能可以建议人类操作员何时应该发射导弹,同时也争辩说后代会更愿意将人类操作员排除在外,将那些生死攸关的决定留给已接受过培训的人工智能。

哦,还有研究人员说,所有这些系统在人们解决问题的时候都会变得鬼鬼祟祟。因为涉及核武器时,在一些小小的试验和错误中会有什么伤害?

人工智能可能引发核战争,但只有人类能让AI开始核战争

随着我们对AI的军事应用越来越依赖,我们可能需要重新考虑实施这些系统如何影响全世界的核大国,其中许多国家发现自己处于一个复杂的联盟和政治对抗网络中。

如果你对以计算机为主的军队的前景感到绝望,研究作者提供了一些慰藉。他们的研究结果提出了一个非常合理的观点,即人工智能在其开发的超级任务中表现出色,并将继续以渐进的速度发展并且可能不会那么做。是的,人工智能已经足够成熟,可以在Go中获胜,但它还没有准备好负责我们的核武器。

简而言之,在计算机决定何时启动核武器之前还需要一段时间(不过,考虑到人类的失误和过去的一些严重的失误,人类的控制是否真的是一件好事?)。


分享到:


相關文章: