在 AlphaGo 狂虐围棋界之后,有一大波业内人士和吃瓜群众瞬间陷入了被AI支配的恐惧中。
这种时候,最适合开脑洞了!
话说AI也不是什么新鲜事了。自从计算机被发明以来,“AI统治人类”的话题就没有在学术界和科幻界失宠过。
其实在 AlphaGo 事件出现之前很久,博主就坚信:
AI会在各个方面打败人类智力,只是时间问题。
AI在任务处理上有很多本质上的优势:
1. 可无限拓展的运算速度
电流的传播速度本来就比神经元的传播速度快。
早期的AI表现效果不佳,有一部分是受限于硬件技术。
如果不计成本,再加上硬件技术的不断升级,AI的运算速度将会是惊人的。
机器的运算速度有没有极限很难说,毕竟就目前的技术,还远没有达到需要探讨极限的高度。
2. 精确而且无限容量的信息存储
目前的科学研究,还没有完全搞清楚人脑存储信息的机制。但只从现象上来看,人脑存储的信息是有选择性的,不全面、不准确、有时还会伪造,最要命的是分不清楚真伪。信息的提取更是在各种因素的影响下充满了变数。
如果不计成本,AI的信息存储量可以无限扩充,而且所有信息都是准确的,提取路径可以始终保持最优解。
3. 不受主观感觉和环境因素的束缚
当人类在完成一项任务时,从来都不仅仅只是在完成任务。人类,作为一个社会个体,受到太多其他因素的影响。
比如去年李世乭跟 AlphaGo 的对战,整个AI研究届和围棋界都盯着,李世乭知道,但AlphaGo不知道。
当棋局有利时,李同学会放松(窃喜?),脑子里幻想着“果然AI还是干不过专业棋手我还是最棒的欧耶!”;当棋局不利时,李同学就会想“卧槽!怎么会这样?围棋界~不~人类的尊严就要被我毁了,我如何面见父老乡亲~~~”,于是就会体验到紧张啊焦虑啊退缩啊不自信啊各种情绪,而所有这些情绪都会影响他落子的决策。
而 AlphaGo 同学呢?ta只会根据当前的棋局计算出最优解,做出完全理性客观的决策。
有了这些先天优势,AI碾压人类智力,难道不是理所当然的事情吗?
然而这样的AI,是通过不了增强版的图灵测试的。
毕竟,AI最难模拟的不是人类的智慧,而是人类的愚蠢。
图灵测试
是指测试者在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。
问过一些问题后,如果被测试者有超过30%的答复不能使测试者确定出哪个是人、哪个是机器,那么这台机器就通过了测试,并被认为具有人类智能。
博主一直主张“人工智能(AI)”和“人工意志(AW)”是两个不同的概念,应该分开讨论。纵然主流学术界和科幻界似乎一直把两者混为一谈。
AlphaGo 那么NB各种碾压顶级棋手,但这并不意味着,ta能意识到自己是在下棋。
正如AI领域著名的思想实验“Mary's Room”所表达的,AI是关在黑白房间里的Mary,当她走出房间的那一刻,才真正成了人类。
Mary's Room 思想实验
Mary是一个研究色彩的科学家,她知道关于色彩的一切知识(包括光的波长,视网膜如何接收,神经细胞如何传递视觉信号等等),可是她毕生都只能通过一个黑白电视屏幕来观察一个黑白房间,在她的主观经验里,从来没有除了黑白之外的一切色彩。那么有一天她看到了外面的多彩世界,她会因此获得新的知识么?
这个思想实验想要说的是,尽管人(或是AI)可以获知关于色彩的物理知识,可是它们没法从物理知识中得到关于感质(Qualia)的经验。
我们再把脑洞开大一点。
假设我们可以在AI领域也完全模拟人类社会的各种属性,把除任务本身之外的环境因素也作为输入,把情感变量也写进决策树中,理想情况下,AI可以完美地模拟人类行为。
然而,这就意味着机器有了自由意志吗?
如果不是,那人类与机器的区别究竟在哪里?
又或者,“自由意志”本身就是伪命题?
AI不过是一群被“上帝”编程过的实体,通过模拟造物主的创作来执行“上帝”的意志。
为什么AI一定要模拟人类行为?
自从AI概念出现以来,人们都在企图以人类为蓝本制造出可以以假乱真的AI作品。
这种思路本身或许就是出自人类的自大本性,而选择回避一个问题:
人类本身,很可能并不是进化的最优解。
物种进化的一个很重要的环节是“淘汰”。
而当人类处于食物链最顶端,随着科技的进步又攻克了各种疾病时,“淘汰”已然不存在。
而没有淘汰就没有选择,没有选择就没有进化。
这是一个非常可怕的推论——
人类很可能已经不再进化了!
难道正如某些脑洞大开的人所担忧的:
AI 才是人类文明发展的下一个阶段?
不关注,你永远不知道自己错过了什么!
长按上图“识别二维码”
閱讀更多 ThisMortalLife 的文章