为什么人工智能下围棋牛,打星际牛,算圆周率更牛,但无法证明数学猜想?

追忆往昔91


人工智能

是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。这个高大上的名词,是当下最火热的一个研究领域。各大科技公司都在人工智能领域投入了巨大的人力物力。仿佛稍微懈怠一下就会失去公司未来一样。

AI技术是用先进的算法来实现本来应该由人工实现的动作,比如无人行驶,智能语音,机器视觉,人脸识别等等。人工智能(AI)最著名的应用就是2016年,DeepMind的AlphaGo大战人类顶尖棋手李世乭,并以4:1的巨大分差几乎横扫了李世乭。到现在我都记得当时看直播的时候激动的心情,也就是在那一年,人工智能彻底流传开来。

虽然现在人工智能显得很智能,已经给我们的生活带来了巨大的改善,但是归根到底,人工智能并不是我们理解的智能。首先AI没有自己的思想,不会对眼下的状态分析给出创造性想法。只不过是我们人类赋予了他们高级算法,他们可以很好地理解并且执行这些算法,执行到最后给我们的感觉就是,AI已经表现得相当聪明了。然而这却远远不够,这仅仅是一个开始。在我看来,人工智能的最终结局就差不多是终结者系列里的红皇后一般,有思维,有逻辑判断,甚至还会有个人情感,除了硬件不是肉体之外,其余跟正常人类无异。这还要有太多太多发展的时间了。

这么一说,那么为什么现在的人工不能破解一些著名的数学难题就比较好理解了。真正的数学难题被困扰了很久很久,很少是因为我们只是在眼下的理论中没有找到方法来解决,基本上都是缺少一种直接有效的数学工具,也就是说你要创造出一种全新的数学工具才有可能解决最后难题。

目前数学界已经达成共识了,无论你用什么精巧的筛法都已经不可能哥德巴赫猜想的1+1了,筛法到了陈景润这里就停止了。要不然,五六十年来,数学界蓬勃发展的年代,不可能在这个问题上没有丝毫进展。大家都期待着新方法新思维的出现。

有创造性思维和想法,这一点对于顶尖的人类科学家都非常困难,更别说是对于当今还处在幼年时期的人工智能了。我们不排除以后人工智能空前强大,强大到理性与创造性思维并存。那个时候,机器才有可能从另外一个方向上给出方法来直接解决这个难题。

也许,那个时代才是人类最幸运的巅峰。


科学认识论


我的评论识字的都能看明白。

自从阿尔法狗完胜柯洁后,我以为ai淘汰人类只是时间问题,直到我看到了一个游戏ai的实现思路,才明白所谓的ai真面目,如果ai仅仅是这样,那永远不可能淘汰人类。

这个ai就是快速通关超级玛丽奥,大家可以看下ai怎么玩游戏的。

全程基本无停顿,是不是恐怖如斯。一些积年骨灰玩家是不是挫败感很强烈,能深刻体会到柯洁的心情了吧,哈哈。

下面说下实现思路,ai核心为两个部分,一个叫表演家,一个叫评论家。

表演家:一步一步试错

评论家:给表演家的行为打分

好了接下来表演家不停的试错,评论家打分记录最好的步骤,于是经过几十万盘运算,表演家举世无敌,程序不在犯错,思路就是这么简单。

所以,用上述这种思路也可以用在围棋,只是阿尔法狗算法更复杂,但本质还是在穷举,只是通过算法和硬件性能穷举的效率不一样而已。

想明白之后,我一下就不慌了,泡面汤喝起来都更甜了!

-----------------

抱歉各位,我也没想到之前瞎写也能有这么多关注,其实上面写的东西逻辑很有问题,下面和网友的争论,才让我想通人和现代人工智能的本质区别:

1,人没有完全固定的目标,是随自身需求不停的在变化,而目前的人工智能,哪怕表现再优异也仅仅只是为了完成,人类最初设定目标的工具。

2,生物和机械存在根本区别:生物以生存为第一根本需求,无论是为了个体存在还是集体延续,然后衍生出七情六欲,个性化行为等等。而机械不存在任何本能和需求,至少目前远远达不到这个水平,达到了才会出现所谓自主意识的计算机。



洗手战神


就拿谷歌的阿尔法来说吧。

前几年,当谷歌的阿尔法狗打败世界围棋大神李世石,以及柯洁以来,人工智能这个概念开始进入公众视野。

关于楼主这个问题,其实很好解释。任何一款人工智能产品,都不外乎要经过这几个步骤。

提取数据,构造模型,设计算法,再不断训练优化模型。你也许只知道阿尔法能打败这些围棋大神,但是你不知道阿尔法狗团队进行了多少次的棋谱训练优化,才有了这个强大的阿尔法狗。

再来说一下为什么人工智能为什么无法证明数学猜想。因为它缺少任何一款人工智能产品所必须的环节,模型构造,算法设计,这两个环节都无法满足,为什么缺少我想应该不必多说吧,目前这些数学猜想还没有被证明,自然在算法以及如何建模方面,就没有办法实现。其实说到底,是人工智能产品缺少思考,它不像人一样可以经过学习就能形成更加广阔的思考深度与广度。

说到底,人工智能不过只是人类的产品。突然想起六级考过的一篇有关谷歌的人工智能驾驶,作者的看法是,首先很惊讶它竟能如此牛逼,因为开车比人还厉害,然后他觉得以后某些重复复杂的工作可能会被人工智能产品取代,这些我表示赞同,最后也是最重要的一点,人工智能产品本质上缺少创造性。这一点应该可以很好的回答这个问题了。


野风Alter


答:现在出现的人工智能,都是基于算法的,不具备真正意义的人工智能,还无法拥有真正能推理和解决深度问题的能力。


就在前几年里,Google的人工智能“阿尔法狗”横扫整个围棋界,再次把人工智能推向了公众的视野,轰动了全世界,于是人们思考人工智能将会给人类社会带来哪些影响。

近几年,汽车的自动驾驶是人工智能中一个比较火热的关注点,但是自动驾驶技术的不成熟也体现出来,比如特斯拉的自动驾驶功能,也不能很好地适应所有路况。

归根到底,还是目前人工智能的局限性导致的,目前所有的人工智能很大程度上依赖于程序算法,甚至连“弱人工智能”都算不上,顶多算是表现出智能的程序而已。


在上世纪,计算机之父图灵提出一个图灵测试,让一个真人和计算机做黑箱对话,如果计算机的表现让真人无法确定对方是真人还是计算机时,就算计算机通过了图灵测试。如果按照图灵测试,目前所有的计算机都无法达到标准,哪怕是计算机伪装得很完美,但还是无法模拟真人的行为表现。

计算机能打游戏、计算圆周率、下围棋等等,其实是计算机针对性的程序完成的,就拿下围棋来说,理论上只要计算机的计算能力足够大,它就能计算出当前围棋之后的所有步数,然后选择最佳的下棋策略,在目前计算能力有限的时候,计算机得益于算法的优化,来大大降低计算量,所有才有了阿尔法狗。


但是数学证明不一样,绝大部分复杂的数学猜想,可能需要新的数学工具,甚至新的数学概念,这些都是当前计算机无法完成的,因为目前的计算机不具备“自主意识”,也不具备真正能推理和解决深度问题的能力。

但是也有例外,近代数学的三大难题之一——四色定理,目前就是计算机基本完成证明的,只是在数量上取得了成功,数学上还没有完成四色定理的逻辑证明。


我的内容就到这里,喜欢我们文章的读者朋友,记得点击关注我们——艾伯史密斯!


艾伯史密斯


因为人工智能只有一种“神经链接”,这种链接还是基于已有模式的推演,就好比,在人工智能面前,世界只有一条路,而且是人们走过的路,因为人类在创造人工智能的时候,初始设定只有这一路径,然而,实际上,世界存在无数条路径,部分数学猜想需要不同的神经链接,不同的路径来证明,目前,人工智能显然不具有这样的能力。


人工智能不具有自我意识,没有感知环境的能力

自我意识是一套复杂的自我感知程序,在感知自身的情况下,也感知周围环境,并对环境刺激做出全方位、多角度有效反应,而人工智能不具有自我意识。

目前,人类对于自我意识的理解尚且浅薄,无法给予人工智能以自我意识,人工智能无法认识到自己是“机器”,依旧是以物的形态诞生的,也就是说,它们只是复杂化的工具。

没有自我意识,所以,人工智能不能做出全方位、多角度的反应,不具有自我修复和革新的能力。当任何情况发生,甚至是毁灭即将来临,人工智能都只是重复着某些程序设定。


人工智能的背后是人类理解大脑的能力

人工智能是人类模仿动物大脑的产品,目前人类对于大脑的研究仍然处于起步阶段,也许,信息的本质就是一段代码,这段代码被无数神经元细胞体加工,传递,最后汇集在一起,相互组合,构成了智慧的基石。

如果有一天,人工智能被分解成无数个的信息处理单元,每个处理单元都有完整的信息采集和处理能力,并且相互连通,形成不同的信息处理矩阵,那么,人工智能很可能会出现自我意识,当它拥有了自我意识,它也拥有了自我修复和革新的能力,肯定不会满足于为人类服务,它一定会试图建立自己的帝国,这一点毋庸置疑。


游戏只是按照特定规则的特定路径,某些数学猜想,需要多路径寻找答案

人工智能是一种工具,工具的诞生就是为了顺利通过特定路径,游戏正是如此。

但某些数学猜想需要多路径寻找答案,所以,人工智能目前无法胜任,做个类比,如今的人工智能相当于生物起源阶段的古细菌、古蓝藻,而某些数学猜想,就好比我们人类,让它们直接和我们对话,这并不现实。

有一天,人类对于大脑的研究取得突破性进展,并将这些成果转化给人工智能,安装好自我毁灭程序,那么,人工智能就能完全取代人的作用,开创宇宙的新纪元。

如果情况成立,我们地球上的生物极有可能就是某些物种的“人工智能”。


时光歌者王阿癫


人工智能,永远不能代替人脑?但确有神奇?为什么?象超级计算机,电子,你就指一碰就知道你所需要什么了!数字与编程是否是机器智能的指令?人体思维来自眼睛的观察?耳朵,口腔,舌头,鼻吼,七巧八舌反映给人大脑,智能只是科学家没一个道,所以智能机器人不如人灵活!但机器人思维己超过人类平均人类思维百分之九十。百分之十的人类精英机器人胜不了!


宋德山357


上帝是万能的!那上帝能造一个自己都举不起的石头吗?

程序是万能的!能写一段程序判断它停止时陷入死循环吗?

没有万能的东西,计算机也是如此。计算机证明数学定理,主要提供反证,通过穷举法找到反例。算法设计合理,可以证明一些数学定理,四色问题。

人工智能本质还是计算,一种优化设计的程序。围棋啥的,都没从根本上解决问题,是否存在只此一手的算法,现在是优化选择方式,完全解决问题还差的很远,可能根本就是无解。其他的智能研究都是优化算法,穷举法中设置选择停止程序。过去人们一直相信围棋短时期无法破解,是基于穷举法无法停止,智能程序则是加入了程序停止算法,达到预订目标停止程序。所有智能都是如此,求优化解不是唯一解,数学定理证明是求唯一解不是优化解。

(火车往前走,撞死在铁轨上的几个小朋友,转换轨道,撞死一个小朋友,停车被后面的火车撞,机器人操作,加入机器人几条约束定理,让机器人选择唯一结果?)

至于圆周率计算,这个很简单,学过微积分的都能手工计算结果,与计算机算法无关。


邓伟定


人工智能目前为止进行大数据算法和深度学习,深度学习最著名的应该就是谷歌旗下团队研发的AlphaGo,在围棋比赛中大战李世石和柯洁了,那么为什么AlphaGo能赢?原因就是它能不断的对目前所有的棋子进行计算,通过大数据和深度学习方法来识别你后面所走的棋。这就好像我和你下棋,你每走的一步棋,我都知道你下面几步要走哪步。

那么为什么哥德巴赫猜想目前人工智能不能证明呢?因为人类的思维能方式不一样,人的思维方式可以分为常规和不常规,常规的就是你按照现有的或者别人已经制定好的思路去思考,这点目前人工智能可以达到这一点,非常规的说白了就是创新,以前别人从来都没有想过和尝试过的新方法,思考方向不确定。而人工智能呢?它思考就是通过刷选,通过层层刷选来得到最优答案!比如我们猜谜语,那么通常都会给一个大概方向,如果猜不出来,再把提示范围缩小一点。那么人工智能也是,根据问题选择方向,然后通过深度学习和大数据算法来层层刷选,最后得出结论。而证明哥德巴赫猜想有几个方向不确定,所以人工智能也无法证明?我们就叫非常规思维,它需要创新性思维,这种思维比较抽象,无法使他具体化,如果你能将它具体化,那么也就不用人工智能了,你自己就可以了。

以上个人观点,不喜勿喷!


曙光里的科技


目前的人工智能还处于初级阶段,它能完成的任务都具有一些鲜明的特点。一是人工智能处理结果是精确可描述的。这种可描述是指可以用计算机能懂的,没有歧义的公式或算法来判断结果准确性。二是人工智能擅长做判断题和选择题,却不擅长做问答题

人工智能为什么目前不会证明数学问题,就是因为这是一个问答题,而且结果准确性难以用简单知识或计算机能懂的语言来判断。

人工智能下围棋,围棋的规则是十分明确的,能够简单地让计算机也能懂。人工智能玩竞技游戏,同样也是如此,对胜负的判断不会有任何争议。在规则明确的情况下,人工智能甚至不需要向人类学习,不需要“有监督学习”,自己就可以和自己完成对弈或自己和自己玩游戏。不论是下棋还是游戏,人工智能每一个动作本质上都是在做判断或选择题。下围棋就是每一步棋在最多361*361个点中选择一个最佳点。这个选择看似很多,但却是有限的。

我们用稍专业的语言形容,就是:围棋和竞技游戏,它们的解空间是有限的。或者说,本质上是可以穷举的。当然,这依然必须基于(下棋、游戏)规则的明确性。然而,数学证明的解空间是无限的。

人工智能目前还在图像处理、语音处理、自然语言等方面取得了成绩。拿图像处理来说,经典的问题就是判断一个动物是具体什么动物。你以为它是在做问答题,而事实上,却是做判断题。几乎所有的图像识别都只能识别有限的动物,这些动物是人类提前让人工智能去学习(训练)的。比如某个人工智能可能只能识别猫、狗和鸡。它所做的工作就是根据图像的特征依次判断:是不是猫,是不是狗,是不是鸡?如果提供一个老虎给它识别,它很有可能认为是猫。因为在它脑子里,没有判断“是不是老虎”这样的问题,而只会在猫、狗、鸡中选择一个最“像”的。自然语言处理目前最成功的也就是情感分析和文章分类,也是典型的判断或选择题。注意选项是有限的。

类似人工智能的外语翻译、作诗、作画、换脸等等,看上去已经很接近是在做“问答题”了,这又是怎么回事?实际上这可以理解为它在做一个复杂的判断题:到底像还是不像。拿作画来说,人工智能会选择一些随机因子,在有限的画面像素里填充颜色,然后判断“是否像某画家画的“的网络去告诉它是否需要重画,直到画得很像为止。

好了,我们来分析一下证明数学猜想和上面提到的那些问题有什么异同点

首先,数学证明其结果是否正确很难描述,不容易让计算机搞懂。在这一点上,和围棋、游戏等不同。围棋要精通很难,但胜负规则却非常非常简单。在这一点上,数学证明和猫狗图像识别倒有点相似,一个图像到底是什么动物,也没有容易描述的规则,靠的是难以用语言表达的“感觉“、”经验“。但是和图像识别的区别在于,图像识别的种类是有限的,本质上是做判断题(比如判断是否是猫),而数学证明不是判断题。

那么,数学证明和作诗作画这种带创作性的人工智能区别在哪里呢?区别在于:作诗、作画,用到的变相判断题叫:“像不像“,而不是“对不对“。我们很少听说某个人或某个人工智能作的画是”对“的或”错“的,而只是像不像(比如像画家),好不好。这种东西,没有对与错。但相反,数学证明的特殊性在于,它不能叫”像不像“,而只是能”对不对“。我们可以想像,按现在的人工智能水平,模仿人类大脑去写一篇像模像样的学术论文还是可以的。但只能说很像很像——特别是外行看来。而数学证明要的不是“像”,而是严格证明。当然,这又回到刚才那个问题上了,“对不对”是很难用计算机语言描述的。

我相信,大家搞懂了数学证明和目前人工智能的成熟应用的不同点后,就很容易理解为什么人工智能目前无法证明数学猜想。

未来,人工智能在艺术创作上可能越来越有建树(作品很像艺术家的而不是作品很正确),但是在科学创作上要走的路还很远。它们或许可以创作很多新的数学公式(结果可精确描述),但是却很难创作新的数学理论,数学体系(结论是否正确难以描述)。


犍为真人


那是做的还不够智能!大脑也是计算机!总有一天会实现,人类科技的发展巅峰,就是自己创造出将人类自身淘汰的科技产品!理论上是必然结果……谁说所谓的外星人就不能是机械智慧载体呢?只有智慧的“机器人”才更加符合我们所了解的“外星人”从恒星汲取能源、用观察的角度看待人类、匪夷所思的科技能力、永恒的延续能力、穿越星际......机器人都能轻易做到......它们只需要在宇宙中收集资源、能量、它们可以轻易的做到永恒存在、所以时间对它们来说没什么意义、渺小的人类在它们眼里不值一提!而拥有智慧的人类将有能力创造出类似的科技产物……只要时间足够,永存的科技“机器人”将必然出现!


分享到:


相關文章: