人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

提示:本文是微软全球执行副总裁沈向洋和微软公司总裁施博德合著的《计算未来》一书的读书笔记的第二篇。该书中二位作者对于人工智能的伦理原则一共是提出了六大项。本文是讨论第二大项:可靠性。本文的结构逻辑是以本书的内容而来的,略微做了调整。可以算是一篇驳论文。所以我没有另外梳理自己的逻辑。相应的内容可以去参考我写的关于这本的第一篇论文,就是关于隐私的那篇。

目录

1问题的提出

2 什么是可靠性呢?

3 人类为人工智能立法

4 外部世界,是人工智能系统建设不能封神的决定因素

5全球共享信息的人工智能系统毫无可能

6 人类是人工智能系统的护法金刚

7 对人工智能系统的控制与反控制将是未来战争的一个主题

8 结语:最高级的控制是人类对自己生产条件的掌握

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

正文部分

1问题的提出

第二个大原则,作者认为是可靠。

他们认为人工智能系统应确保运行可靠安全。

具体来说,人工智能技术的复杂性,引发了人们对人工智能的担心,担心人工智能系统可能会在不可预见的情况下造成伤害,或者被人恶意操纵,实施有害行为。与其他任何技术一样,人工智能能否取得人们信任,最终取决于基于人工智能的系统,能否可靠安全和一致的运行,不仅是在正常情况下,更包括在不可预见的或受到攻击的情况下。

现在无人驾驶方面的交通事故一出现就成为新闻,而且网上也有人开始讨论无人驾驶交通事故的法律问题,这都说明人们开始对这方面的影响给以关注。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

2 什么是可靠性呢?

那么什么是可靠性呢?

我们知道在现实中百分百的可靠的工业品是没有的。大到核电站,小到自行车,都可能出现这样,那样的问题从而给人带来人身危险。可是到今天,这些东西人们还是在使用。比如,人们并没有因为骑自行车出现大量的交通事故而停止自行车的使用。所以,确定可靠的概念就是第一步的工作。

当今普遍认为:所谓可靠,是指某一产品、系统在规定的条件下,规定的时间内,完成规定功能的能力称为可靠性。

这里的产品可以泛指任何系统、设备和元器件。产品可靠性定义的要素是三个“规定”:“规定条件”、“规定时间”和“规定功能”。

“规定条件”包括使用时的环境条件和工作条件;例如同一型号的汽车在高速公路和在崎岖的山路上行驶,其可靠性的表现就不大一样,要谈论产品的可靠性必须指明规定的条件是什么。可靠性这个概念最大的问题是以设备的运行效果为标准,而这就割裂了与人的联系,排除了机器设备的使用中人的因素。比如,在一个狭小的环境内如果集中了太多的机器,那么操作者可能就会因为环境的狭小而受到空气质量的影响。这点在传统钢铁制造业是非常明显的。钢企的设备进行生产是没有问题的,但是其产生的粉尘却对生产工人有致命的危险。或者是由于缺乏环保设备,造成对外的环境污染。虽然从生产上说设备是具有可靠性的。但是这种可靠性是以制造了环境污染为代价的。因此,可靠性不能作为一个孤立的因素来考虑。设备的可靠性其实第一个标准应该是 人的标准,既不能伤害到人。而这个人无论是否是使用者。例如交通事故中大量的无辜人士成为受害者,而肇事司机却早已经不见踪影,逍遥法外。

“规定时间”是指产品规定了的任务时间;随着产品任务时间的增加,产品出现故障的概率将增加,而产品的可靠性将是下降的。因此,谈论产品的可靠性离不开规定的任务时间。例如,一辆汽车在在刚刚开出厂子,和用了5年后相比,它出故障的概率显然小了很多。

“规定功能”是指产品规定了的必须具备的功能及其技术指标。所要求产品功能的多少和其技术指标的高低,直接影响到产品可靠性指标的高低。例如,电风扇的主要功能有转叶,摇头,定时,那么规定的功能是三者都要,还是仅需要转叶能转能够吹风,所得出的可靠性指标是大不一样的。

可靠性包含了耐久性、可维修性、设计可靠性三大要素。

耐久性:产品使用无故障性或使用寿命长就是耐久性。例如,当空间探测卫星发射后,人们希望它能无故障的长时间工作,否则,它的存在就没有太多的意义了,但从某一个角度来说,任何产品不可能100%的不会发生故障。

可维修性:当产品发生故障后,能够很快很容易的通过维护或维修排除故障,就是可维修性。像自行车、电脑等都是容易维修的,而且维修成本也不高,很快的能够排除故障,这些都是事后维护或者维修。而像飞机、汽车都是价格很高而且非常注重安全可靠性的要求,这一般通过日常的维护和保养,来大大延长它的使用寿命,这是预防维修。产品的可维修性与产品的结构有很大的关系,即与设计可靠性有关。

设计可靠性:这是决定产品质量的关键,由于人——机系统的复杂性,以及人在操作中可能存在的差错和操作使用环境的这种因素影响,发生错误的可能性依然存在,所以设计的时候必须充分考虑产品的易使用性和易操作性,这就是设计可靠性。一般来说,产品的越容易操作,发生人为失误或其他问题造成的故障和安全问题的可能性就越小;从另一个角度来说,如果发生了故障或者安全性问题,采取必要的措施和预防措施就非常重要。例如汽车发生了碰撞后,有气囊保护。

实际上这个可靠性只有从人的角度上来说,它才有人工智能系统是否可靠的问题,在这点上人工智能系统一传统的工具机器没有区别。

规定的功能,那么这个功能呢,至少能够满足人的需要规定的时间,这个时间只有在人活动的范围内才有意义,这个世界是对人而言的,当然还有规定的条件规定的条件往往是人的波动界限,或者是他设定的条件。比如潜艇,那么潜艇在水下活动,那么水下,这就是人设定的条件。易使用性也是相对于人来说的,是相对于人的活动来说的。使用过于复杂,自然将使用者挡于门外。而且这点也是现代大工业的基本要求,容易使用的本质是降低了人的劳动在产品生产中的作用,自然也就降低了人赋予劳动产品的劳动量和价值量。而可维修性照完全是与人的实践相一致的原则,人能够来处理机器里面的问题,那就是你这个系统本身不能够脱离人。设计可靠性给人工智能系统上留下了无数的为人类进入的后门,方便人类随时出入,从而把控人工智能。从设计的考虑到容易操作。这些都需要以人的行为角度为标准。所以我们说可靠性本身是属于人的。在这里我们依然可以说古希腊哲学的一个根本角度就说技术是为人的人是万物的尺度这个概念在。在人工智能系统中,人的因素依然是存在的,因此,超乎人类的人工智能是不可能的。

反过来说,系统当中,天然存在的不可靠性,也会反过来为系统的发展提供了更更多的参考点、出发点。人工智能系统的研发人员会发现他更多的问题,实质上具有更多的成长点。所以在这个角度上讲,我们并不能完全否定他的不可靠性

如果我们把复杂的人工智能系统,作为一个复杂系统来看。这个系统自身就会存在着不可靠性。这个不可靠性从系统这些这个角度上来讲,它实质上就是不确定性。那么系统的内在的特点就是,系统的确定性和不确定性的对立统一的关系。不确定性是在复杂系统天然存在的。所以,你想完全规避不确定性,这是不可能的。不确定性必然带来的不可靠性。当然不确定性并不等于不可靠性,但是不确定性和不可考生有很大的重合性。所以作为复杂系统。人工智能系统自身必然要带有不可靠性的特点。我们说的可靠性更多是可靠性更强些,更加符合我们的预期。或者说更为符合我们的认识。从哲学上讲这种可靠性其实就是传统认识论中的可知性问题。进一步说,工程学中的这点可靠性是实践性和认识性的统一。实践能够达到人的认识,那么就是可靠的,反之,就是不可靠的。越是具体的科学,马克思主义的哲学越能被证明。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

3 人类为人工智能立法

那么如何保证人工智能系统拥有安全可靠的系统呢?《计算未来》的两位作者认为,首先必须要有明确的设计原则,这个原则就是人工智能系统在可预见的情况下,必须有一整套行为规划。在这套规范当中运行。由于人工智能系统以数据驱动其行为方式以及其是否有能力在复杂状况下可靠而安全的运行。很大程度上取决于开发人员在设计和测试过程中所预期到的情况和环境,例如用于检测错位物体的人工智能系统,在照明不足的条件下,很可能难以识别物体。因此。设计人员应该在普通光线和暗光线环境中都进行测试,为确保系统能够安全地对意外的情况作出反应,同时不造成意外性能故障。更不会以与预期不符的方式进行隐蔽在系统开发和实施过程过程中严格的测试是必不可少的。

从规则上来讲,任何规则自身都是带有缺陷的,不可能存在绝对完美无暇的完美无缺的规则。所以就这个角度上来说。那么,如果任何一个智能系统它只要是在规则的范围内运行,那么它出现不可靠性的情况就是必然的。不出现不可靠性是偶然的。但是我人工只能系统又必须只能在一定的规则下规则范围内运行。这是它的宿命。

更不要说所有的规则都是逐渐摸索,建立的,而每一次摸索都是一个坎坷都是一个问题。也就是说规则的摸索出现,实际上是有不可靠而来的

在这里我们还是看到西方的工具理性主义,人工智能建设思想尚没有西方非理性主义哲学那一套否定规律的想法。毕竟人工智能系统的运行规则,对人工智能系统来说,实际上就是运动规律,如果我们遵守了,如果我们认可了西方哲学否定定规律存在的非理性主义哲学来说那么。人工智能系统几乎就是混乱不堪的。当然在这里,西方传统之非理性哲学几乎是看不到。但是他们改变了模式,提出一个至高无上的时代新神——人工智能系统。说机器人可以像人一样有感情,那不就是在说人吗?

但是他们却不对这个具有神一样至高无上能力的人工智能系统进行细致的阐述。因为一致一碰到具体问题。就必然要露出马脚,或者说神是不能具体的。

可是人工智能系统在目前来说还是具体的

那些一直认为人工智能系统可以发展成为一个超越人类,且会控制人类的人工智能系统的人们却忘了这套人工智能系统是依靠人类制定的规则来运行的。换言之。既然是依靠人类制定的规则运行的,那么,如果其可靠,说明正好符合人类的认识。而人类可以认识的对象,当然也可以控制了。正如前面所说,规则的可靠性正是人们的实践性和认识性的统一。反之,如果超出人类的控制,那么就意味着人类不能认识面前这个对象了。试问,这套人工智能系统怎么会在人类可以认识的、可以控制的规则中发展出不可控制、不可认识呢?这里的悖论自然是,一旦人工智能系统出现超越人类的控制,自然就等于出现了不可靠的特征。而其基础是植根于可靠性原则的规则之上的,这样,就意味着我们之前的人类制定的人工智能的规则是不可靠的了。而且是根本不可靠,因为它完全超越了人的认知——控制是以对对方的认知为前提的,是人类认识对象的行为重复性行为。

人类为人工智能系统制定规则,就像人类为人工智能系统立法。立法者法者是高于于被规范的对象的。如果说人工智能系统成为人类的主宰,那就等于说人类为不可知的事物确定规则——这,有意义吗?历史上人确实是为神的世界立法的。但是,神的世界不过是颠倒的方式的人的世界,是人创造了神的世界,当然人为神的世界立法,而不是反是。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

4 外部世界,是人工智能系统建设不能封神的决定因素

两位作者另外说:“在设计和测试过程中,还应预料到,并防止意外系统交互或不法行为影响运行。如网络攻击的可能性。要保护人工智能系统的安全性,开发人员需要识别异常行为,并防止被操纵,例如导入可能对人工智能行为产生负面形象的恶意数据”。

这其实是两点内容,一个是防止外部的攻击,另一个是恶意的数据。在今天,外部的攻击,比如黑客攻击,几乎是无法避免的。如果想把黑客攻击消灭掉,那么只能改变人类社会的根本制度才可以。这个观点对于超级神一般的人工智能系统的思想是又一个致命的打击。因为这个思想是以在人工智能系统之外另有其他系统存在为基础的。而神的特点是全知全能。如果说在人工智能系统之外还有系统,且不说这个系统是什么,例如黑客,那么,这就意味着你的系统不可能是全知全能的了。因为你的建设是始终以有外部世界的存在为前提的。

致于恶意的数据输入,如果从总体来看,人工智能系统自身就会吸纳大量的垃圾信息。这些碎片化的垃圾信息几乎是人工智能系统诞生那天起就存在的。而是否恶意,是否是垃圾信息,其实如果站在不同的角度,那又完全不一样。从目前猖獗的电信诈骗分子的角度看,那些垃圾信息就是必要的,并非是垃圾,他们正是利用概率事件来捕获被伤害的对象。而模糊不清的,甚至是完全无意义的信息也是整个人类人工智能系统所不可改变的。信息的冗余是信息存在的条件。信息被干扰也是信息存在的条件。世界上哪里有纯粹的信息传播渠道呢?而信息对于人工智能系统来说好比灵魂之于肉体。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

5全球共享信息的人工智能系统毫无可能

“我们相信,以下措施可以提高人工智能系统的安全性和可靠性。

”对于训练和运行人工智能产品和服务的数据和模型,进行系统性的质量和适当性评估并系统地分享关于训练数据潜在不足的信息。“

作者还认为:”当人工智能系统用于做出与人相关的相应决定时,应要求对整体系统运行提供充分说明,特别是有关训练数据和算法已发生的训练失败以及产生的理论和重大预测等。”

且先不说是否可以对人工智能系统做出系统性评估——截止到目前为止,就是我们的互联网也已经非常巨大了。更何况最简单 划分,我们的互联网还分为明网和暗网两大体系。我们的真的可以对这个系统进行全面的评估?

其次,最为关键的是,恐怕二位微软的总裁在这里也只是嘴上说说,那就是分享数据的问题。而大家现在已经知道互联世界存在的数据霸权、算法霸权等等,更不要说西方人自我设限地高举知识产权这个大棒。你们怎么可能和别人分享数据呢?如果做不到信息的共享,毫无疑问,安全的可靠的人工智能其实也不能出现。从建设全球性的安全可靠的人工智能系统来说,信息的共享也是必要的。二位说的肯定没有错。但是,关键是二位所代表的西方资产阶级治下的人工智能系统能否跟全世界分享自己的信息呢?我们几乎是不相信微软会这么作的。原因很简单,当然是为了钱。

信息分享对于个体而言,几乎对这些并不在乎。比如,我们使用网络,对于网络自己是如何运行的,并不关注。因为那是另外的专业。人们只是希望使用的非常方便,简洁,类似傻瓜相机那样的。而现实是网络平台公司也不会告诉每一个用户它们是怎么运行的。使用 的自己尽管使用,而运行的则尽管运行。如果彼此并不伤害,那就行。

从这点看,如果全世界不能统一语言,而统一语言就意味着抹杀太多的传统的文化,我们是不能建设一个可靠的人工智能系统的。起码在地球这个范围上是这样的。从国际政治看,民族国家,而非全球化的世界,才是西方资产阶级最适宜的政权形式。因此,截止到今年,英美为首的西方国家,其上层精英已经表现出了强烈的反全球化的特征。特朗普提倡美国优先,大搞贸易保护,封锁墨西哥和美国的边境线是最为明确的做法了。当政权的边界高高筑起到时候,全球化的政治进程自然受到约束和阻碍,这样,想建设一个可以共享信息的全球化的人工智能系统几乎毫无可能。

另外,全球化的统一的人工智能系统必然需要统一的电力能源的 供应,这在目前完全没有可能出现。美国自己的电力系统就不互相同属。没有统一的电力系统,怎么可能建立统一的人工智能系统?如果不建设统一的人工智能系统,自然不能共享信息,自然不能使这个系统安全可靠。因此,全球化的统一的人工智能系统是人工智能系统安全可靠的必要条件。而问题是,资产阶级现在就横亘在这个面前阻挡着。反过来说,单是这一条,超人类的人工智能系统就不可能出现。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

6 人类是人工智能系统的护法金刚

接下来第二点,作者们认为是”通过相关流程,对人工智能系统的运行情况进行记录和审计以帮助理解持续进行的现场监控。“这是让人类始终在人工智能系统旁边作守护神的意思。作者的根本思想是人类和人工智能系统是二分的。一边是人工智能系统,另一边是人类。这些如果是对具体的系统来说,我们不否认其合理性。但是,人工智能系统,就目前来说,已经不是一个简单的事物,你可以在那里像观察机器仪表那么简单了。

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

7 对人工智能系统的控制与反控制将是未来战争的一个主题

第四点,作者认为是:“人工智能被用于做出与人相关的决定的。应让相关领域的专家参与设计和运行。评估在危急情况下人工智能系统应何时以何种方式寻求人类帮助以及人工智能控制的系统如何。以有意义和简明的方式将控制权交给人类。“在所有的建议中,这第四条是我最为震惊的。这点与前面我提到的那条令我震惊的信息是一致的。就是在关键时刻要把控制权交给人类。如果我们的设计是以这个原则为标准的话,那么设计出超人类的人工智能系统就永远也不可能实现。因为一旦出现了威胁人类的情况,我们就将控制权交还给人类了。自然,机器人等人工智能就还是会被我们人类踩在脚下。但是这并不否认以机器人为代表的人工智能系统进行自我繁衍,比如,用机器人来制造机器人等。但是这并不意味着这个系统就会成为人类的主宰,这完全是两码事。

作者还另外的表达了这样的意思:“人工智能的目的在于提高和增强人类的能力。因此人工智能系统的部署方式、部署时间以及是否适宜继续使用人工智能,这些关键决定应由人类主导。人工智能系统往往并不能看到或理解更大的社会图景。因此,人类的判断对于识别人工智能系统潜在的盲点和偏见非常关键。开发人员在构建和布置系统时,应意识到这些挑战,与客户共享相关信息,帮助客户监控和理解系统行为,以便客户快速识别和纠正任何可能出现的意外行为。”

“例如在人工智能研究领域,一个旨在帮助决定肺炎患者是否需要住院的系统“学习”到哮喘患者死于肺炎的概率低于一般人群。这一结果令人惊讶,因为人们通常,认为哮喘患者比其他人更容易死于肺炎。系统发现的这一关联性并没有错,但是它并没有注意到哮喘患者死于肺炎的死亡率较低的主要原因是他们的风险更高,因此能够比其他患者更快和更全面地获得护理。如果研究人员没有注意到人工智能系统做出了一个误导性的推论,那么该系统就可能会建议哮喘患者不要进行住院治疗,而这一结论与数据揭示的真相背道而驰。从这个例子我们可以明显的看到在人工智能有必要由人类(特别是具有相关专业知识的人员)进行评估和观察。”

可以说,这是西方近些年来关于人工智能系统哲学的最为冲突的两大观点:一方面是未来会衍生出超乎人类的人工智能系统。另一方面则是,人工智能系统的建设必须建立在控制权始终掌握在人类手里的原则之上。这二者完全是自相矛盾的。一个控制权始终在人类手里的人工智能系统肯定不会是超人类的,这点无需解释。反之,一个可以成为人类主宰的人工智能系统又怎么会建立在以人类的控制权为原则的基础上?可是更为悖论的是,如果这个系统不建立在以人类的控制权为基础之上,我们现在又怎么建设人工智能系统呢?换言之,我们现在的建设原则肯定是如二位作者所言是建立在人类掌握人工智能系统的控制权这一原则上的。因此,让这一原则基础上产生出脱离人类控制,反倒可以控制人类的人工智能系统,那就完全是自相矛盾!

不过,这还不是我最为吃惊的,更让我吃惊的是,在关键时刻将人工智能系统的控制权交给人类这一貌似合理实则背后充满了保守气息的建设伦理。比如在当今法国开始的黄背心抗议运动是在网络上征集发起的。政府想谈判都找不到对手。但是持续的数周抗议却让法国政府狼狈不堪。那么,此时的网络的控制权究竟是交给谁呢?政府可以关闭网络吗?可以说这个关键时刻将人工智能控制权交给人类的思想,深深充满了西方资产阶级对人工智能的恐惧、不信任、满腹狐疑,且不可奈何不得不发展又左顾右盼的态度。一方面目前人工智能确实让西方资产阶级对于无产阶级占据了更有利的位置——可以大量的裁员。但是另一方面几乎本能地感到人工智能与自己的本性不一致、矛盾、或许几乎是对立的可能。这与当年发展机器大工业是完全不一样的了。他们深深地感受到了传统大机器不好使用,那么伤害的也是使用者——操作工人。而人工智能则完全可以奋起反击资产阶级自己,成为吞噬自己的无法掌控的妖魔。所以,所谓的人类其实就是西方资产阶级要时刻将人工智能的发展牢牢把握在手中,不至于丧失控制权。

比如,美国掌控GPS这个资源,而这个资源对于全球的人工智能系统系统建设至关重要。可是一旦发生美国对抗的战争,美国处于军事安全考虑当然就会给对方切断信号。这样,美国是掌握了GPS的控制权的。但是对方却没有掌握。那么这个人类掌握人工智能系统控制权的原则该如何落实呢?毫无疑问,这是个零和博弈的游戏。你拥有,我就不能拥有。

简单说,如果人工智能系统威胁到美国人了,美国人完全可以关闭它。要知道,互联网的十三根根服务器,唯一主根部署在美国,其余12台辅根有9台在美国,2台在欧洲,1台在日本。这个治理体系一方面造成了全球互联网关键资源管理和分配极不均衡(可笑的是现在还有人在相信世界是平的——在互联网的背景下。)。如果美国关闭这根主根服务器那么就意味着全世界回到了互联网前时代了。参考了网友们的看法,我国是大国,如果美国给我们关闭中国的根服务器,我们自己可以在我国的局域网使用,只是国外网站上不了。还有人说可以上,但是人家美国人会抗议。(本人不是这方面的专业,这点还请更多专业的朋友提意见。)这只是对于我们这个互联网大国而言的,可是换个其他国家就不行了。要知道我国的互联网的国庆在全世界除了美国之外,没有第二家。也就是说不依靠美国根服务器还能使用网络,在其他国家几乎不可能。网络的独立不仅需要庞大的用户群,还需要统一的语言的用户群,和最为关键的政治独立、经济独立。没有这几个指标,独立的互联网是建立不起来的。

这样,人类——包括全世界所有的人——的人工智能系统控制权就是一句空话,起码对部分人是空话。而在人工智能系统的建设上,当今没有卫星,没有全球定位系统,几乎是不可想象的。因此,从这点来说,全世界能够建设人工智能系统的国家也就是掌握全球卫星定位系统的国家而已。我们知道,全球就几家,屈指可数。可见,人类掌握人工智能系统控制权的观点实际上只是为了这几家说的观点而已。幸运的是,中国现在已经有了北斗导航,否则就得臣服美国人了。如果不掌握卫星定位系统,何以建设车联网呢?而对于完全不掌握卫星定位系统的国家而言,人工智能系统的建设其实就是一句空话。

对于GPS、网络,美国人可以关闭,但是对于那些廉价的无人机怎么办呢?未来的(其实已经不是未来了,而是已经来了)那些自己满街跑的机器人,可怎么办呢?你作为外人如何关闭对手的机器人?中美洲的难民翻越墨西哥和美国的边境线比较困难,可是无人机这类设备就容易多了。目前用无人机送快递这样的事情已经出现。可以想象,以当今网络金融这么发达和疯狂,研发者一旦确保无人机送快递可以跑入大街小巷,那么以催生满大街的共享自行车的投资速度来投资无人机快递我想其实并不是难事。但是,我们见面临满大街跑着无人驾驶的机器人这样的现象。机器人能在胡同和楼道里跑,当然也可以进入战场。而楼道和胡同可以是生活区,当然也可是战场。无人机可以送货,当然也可成为武器。自己的无人机当然可以控制,敌人的呢?这就存在着一个你是否可以完全掌握人工智能控制权的问题。因为人工智能建设的一个重要原则是使用的简易性(这里当然还会衍生出一个再生产人工智能的简易性)这就意味着未来的机器人的出现比现在的一般的机器数量更多,当然作用也更多。

这样,人工智能系统的控制权问题就成了一个无法解决的难题了。控制与反控制纠结在一起。可以预测,对人工智能系统的控制与反控制将是未来战争的一个主题。至于二者的最终结果是什么,我们目前还无法预测。

最后一点是建立强大的反馈机制,以便用户轻松报告与它的性能问题。这反映了系统和人的交互作用,又是以人的存在为前提的。可笑的是,那种将来驾驭人类的超级人工智能系统的出现是否还在和人类进行信息反馈?在始终与人类进行反馈的建设过程中,如何出现突然不给人类反馈的人工智能自我繁衍的机制呢?从人-机交互的角度看,只要始终存在人机交互的反馈机制,就不可能出现脱离人类控制的人工智能系统。而超级的人工智能系统正是以无需对人类进信息反馈为前提。试想,这可能吗?

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇

8 结语:最高级的控制是人类对自己生产条件的掌握

马克思当年说过,大工业本身依靠机器制造机器是其成熟的标志,而我想,人工智能系统的全社会的建成(至少是全世界范围)自然也该是机器人等人工智能来繁衍生产人工智能。但是这当然不等于脱离人的掌握,不等于脱离与人的信息反馈!这是两个概念。

对于人类来说,什么是最高级的可靠呢?我想就是人类对自己的生产条件的掌握。人们将按照自己的目的来安排生产,而不是像目前一样为生产条件所困惑——经济危机就是这种典型:大量的社会财富不能实现其使用价值而被毁灭,表明人类还不能驾驭目前的生产力。以可靠性为基本建设伦理的人工智能下系统,其最终结果也一定是成为人类控制自身社会和生产的手段。最终实现,人类自己对自己 的控制,从而由必然王国走向自由王国!

人类对机器的控制,对人工智能的控制,本质还是对自己 的控制,是对自然规律探索的结果。人类越能控制对象,也越能表明人类对世界(自己和外部世界)认识是多么的深刻,进而也会说明人类自身是多么自由!

不幸的是,上面提到西方资产阶级世界对人工智能的恐惧和忧虑预示着他们很可能不会走到人工智能之花开遍全球的时代了。他们的电视剧《西部世界》还是以美国早期的历史为背景——这种向历史的回归思潮不正是对当今世界的恐惧的最好写照吗?

人工智能之可靠性伦理原则批判——《计算未来》笔记第二篇


分享到:


相關文章: