电脑已经向我们学习了。但是他们能自学吗?

这篇文章是我们最新文章的一部分人工智能专题报告,它关注技术如何继续发展并影响我们的生活。

人工智能似乎无处不在,但我们真正见证的是一场有监督的学习革命:我们教计算机看模式,就像我们教儿童阅读一样。但是研究人员说,人工智能的未来依赖于没有监督的独立学习的计算机系统。

当一位母亲指着一只狗,告诉她的孩子,“看看这只狗”,孩子学会了怎么称呼毛茸茸的四条腿的朋友。这就是监督学习。但是当那个婴儿一次又一次地站着、蹒跚着,直到她能走路时,那就是另一回事了。

电脑是一样的。正如人类主要通过观察或反复试验来学习一样,计算机将不得不超越监督学习,以达到人类智能的圣杯。

“我们希望从需要大量人类知识和人工工程的系统转向“越来越多的自主系统”,麻省理工学院-IBM沃森人工智能实验室的IBM主管大卫·考克斯说。他指出,即使一个有监督的学习系统阅读了世界上所有的书,它仍然缺乏人类水平的智力,因为我们的很多知识从未被记录下来。

电脑已经向我们学习了。但是他们能自学吗?

脸书,通过美联社雅恩·乐村,脸谱网副总裁兼首席人工智能科学家。

监督学习依赖于带注释的数据:图像、音频或文本,这些都是由一群工人辛苦标记的。他们在街道交通的图片上圈出人们或勾勒出自行车的轮廓。标记的数据被输入计算机算法,教算法寻找什么。在摄取了数百万张有标签的图像后,这些算法在识别他们被教导看到的东西方面变得很专业。

但是监督学习被限制在由训练数据定义的相对狭窄的领域。“由于你需要大量有标签的数据,所以今天你可以应用的有监督的学习是有限的,”Yann LeCun说,他是当前人工智能革命的创始人之一,也是2018年相当于诺贝尔计算机科学奖的图灵奖获得者。他是脸谱网的副总裁兼首席人工智能科学家。

不依赖于这种精确的人工监督的方法,虽然很少被探索,但被监督学习的成功及其许多实际应用——从自动驾驶汽车到语言翻译——所掩盖。但是监督学习仍然不能做很多简单的事情,即使是对初学走路的孩子来说。

电脑已经向我们学习了。但是他们能自学吗?

纽约时报的雷诺·菲利普约舒亚·本吉奥创建了魁北克人工智能研究所Mila,并与勒肯博士和杰弗里·辛顿分享了图灵奖。

“这对于人工智能来说是不够的,”约舒亚·本吉奥说,他创建了米拉,魁北克人工智能研究所,并与勒昆博士和杰弗里·辛顿分享了图灵奖。“人类不需要那么多监督。”

现在,处于人工智能研究前沿的科学家们已经将注意力转向了监督较少的方法。“有自我监督和其他相关的想法,比如在将模型压缩后重建输入,预测视频的未来或屏蔽部分输入并试图重建它,”优胜华的兄弟兼谷歌研究科学家萨米·本吉奥(Samy Bengio)说。

还有强化学习,监督非常有限,不依赖于培训数据。现在在加拿大阿尔伯塔大学的理查德·萨顿开创了计算机科学中的强化学习,它是以大脑中的奖励驱动学习为模型的:想象一只老鼠在学习推动一个杠杆来接受一粒食物。该策略已被开发出来,用于教导计算机系统采取行动。

设定一个目标,一个强化学习系统将通过反复试验朝着这个目标努力,直到它一直得到回报。人类总是这样。“如果你研究心理学,强化是一个显而易见的想法,”萨顿博士说。

《纽约时报》的罗伯特·里格尔彼得·阿比埃尔在加利福尼亚经营着伯克利机器人学习实验室。

他说,对于人工智能的未来,一个更具包容性的术语是“预测性学习”,这意味着系统不仅能识别模式,还能预测结果并选择行动方案。“每个人都同意我们需要预测性学习,但我们不同意如何达到这个目标,”萨顿博士说。“有些人认为我们是在监督学习理念的基础上发展起来的;其他人认为,我们是通过强化学习理念的延伸实现这一目标的。”

彼得·阿贝耳是加州伯克利机器人学习实验室的负责人,他使用强化学习系统,通过一种叫做自我游戏的方法,与自己竞争,以更快地学习。例如,相同的模拟机器人相扑,起初并不是很好,但很快就有所改进。“通过与你自己的水平或与你自己对抗,你可以看到什么样的变化有助于逐渐积累技能,”他说。

尽管强化学习很强大,但勒肯博士说,他认为其他形式的机器学习对一般智力来说更为关键。“我的钱都花在自我监督的学习上了,”他说,指的是那些接收大量未标记数据的计算机系统,它们在没有监督或奖励的情况下理解这些数据。他正在研究通过观察学习的模型,积累了足够的背景知识,可以产生某种常识。

“想象一下,你给这台机器一段输入,比如一个视频剪辑,然后让它预测下一步会发生什么,”莱坤博士在纽约大学的办公室里说,他的办公室装饰着电影《2001:太空漫游》的剧照“为了让机器训练自己做到这一点,它必须开发一些数据表示。它必须明白,有些物体是有生命的,有些是无生命的。无生命的物体有可预测的轨迹,而其他物体没有。”

他说,在一个自我监督的计算机系统“观看”了数百万个YouTube视频之后,它将从这些视频中提取一些世界的代表。然后,当系统被要求执行一个特定的任务时,它可以利用这个表示——换句话说,它可以自学。

麻省理工学院-国际商用机器公司沃森人工智能实验室的考克斯博士也在进行类似的工作,但是他将更传统形式的人工智能与他的实验室称之为神经符号人工智能的深层网络相结合。他说,目标是建立一个人工智能系统,能够获得与人类相似的常识知识的基线水平。

“我们在日常工作中所做的很大一部分就是不断完善我们对世界的心智模型,然后用这些心智模型来解决问题,”他说。“这概括了我们希望人工智能做的许多事情。”

许多人希望机器人最终能体现人工智能,并在世界上自由行动。但要让他们达到目标,需要的不仅仅是监督学习。目前,机器人只能在定义明确、变化很小的环境中工作。

电脑已经向我们学习了。但是他们能自学吗?

自从人工智能发展以来,技术的界限已经被打破,挑战它比人类思考和行动更快。最优秀的人才与机器竞争,看谁能胜出。在这里,我们回顾一下人类和计算机之间的一些最好的竞赛。

伯克利的助理教授谢尔盖·莱文(Sergey Levine)说:“我们的工作假设是,如果我们构建了足够通用的算法,那么一旦完成了,我们真正要做的就是将它们放入机器人中,让它们在现实世界中做真实的事情。”他经营着该大学的机器人人工智能和学习实验室。

他正在使用一种自我监督的学习方式,在这种方式中,机器人探索他们的环境,并建立起勒昆博士和考克斯博士正在谈论的基础知识。“他们只是在自己的环境中玩耍和学习,”莱文博士谈到实验室的机器人时说。“机器人本质上是在想象可能发生的事情,然后试图找出如何让它发生。”

通过这样做,机器人积累了大量的知识,可以在新的环境中使用。最终,机器人可以联网,这样它们就可以分享各自获得的知识。

“一个机器人花几个小时摆弄一扇门,来回移动,它就能打开那扇门,”莱文博士说。“我们有六个不同的机器人,所以如果我们让他们都玩不同种类的门,也许当我们给一个人一个新的门时,它实际上会推广到那个新的门,因为它已经看到了足够的多样性。”

盖蒂农业中的智能机器人农民未来机器人自动化到蔬菜农场,智能农场概念

为工业自动化制造人工智能机器人的公司Covariant的创始人Abbeel博士说,所有这些方法最终都有可能结合起来。我们能在某个时候制造出像人类一样智能的机器吗?“当然;毫无疑问,”勒昆博士说。“这只是时间问题。”

克雷格·史密斯是《泰晤士报》的前记者,主持播客“关注人工智能”


分享到:


相關文章: