可以阻止人工智能超越人性吗?

塔林,就像一个大编程问题一样。2003年,他与人共同创办了Skype,开发了应用程序的后端。两年后eBay买下它之后,他兑现了他的股票,现在他正在为一些事情做准备。盯着Singularity捣乱计算机代码,量子物理学以及Calvin和Hobbes引用。他被迷住了。

可以阻止人工智能超越人性吗?

塔林很快发现,作者Eliezer Yudkowsky是一位自学成才的理论家,撰写了1000多篇论文和博客文章,其中许多都致力于超级智能。他写了一个程序来从互联网上抓取Yudkowsky的着作,按时间顺序排列并为他的iPhone格式化。然后他花了一年的大部分时间阅读它们。

人工智能,或计算机或机器中的智能模拟,是在第一台电子数字计算机创建仅十年后的1956年创造出来的。正如他们所说的那样,具有超人的能力,但仅限于他们在特定的支配地区。国际象棋游戏人工智能不能清理地板或带你从A点到B点。超级智能AI,塔林开始相信,将在一个实体中结合各种技能。超级智能AI将在进化阶梯上占据我们的位置并以我们现在主宰猿的方式统治我们。或者,更糟糕的是,消灭我们。

可以阻止人工智能超越人性吗?

一周后,他在加利福尼亚州米尔布雷的一家咖啡馆遇到了住在附近的Yudkowsky。他们的聚会延长到四个小时。“他实际上,真正理解了潜在的概念和细节,”Yudkowsky最近告诉我。“这是非常罕见的。”随后他(Singularity Institute for Artificial Intelligence)写了一张5000美元(3,700英镑)的支票,该研究所是Yudkowsky是研究员的非盈利组织。(该组织于2013年更名为机器智能研究所,或美里。)

​他踏上了旅行的生活,在世界范围内就超级智能构成的威胁进行了会谈。这并不意味着机器或代理人特别擅长聊天天气,或者它会记住你孩子的名字 - 虽然超级智能AI可能能够做到这两件事。这并不意味着它是出于利他主义或爱情的动机。“友善”意味着更为根本的东西:明天的机器不会在追求实现目标的过程中消灭我们。

可以阻止人工智能超越人性吗?

在与研究人员结束俱乐部时,他甚至比年轻的研究生还要长。他对超级智能的关注在他的队列中很常见。PayPal联合创始人Peter Thiel的基金会已向美里提供160万美元,2015年,特斯拉创始人埃隆马斯克向马萨诸塞州剑桥市的技术安全组织Future of Life Institute捐赠了1000万美元。但塔林进入这个稀有世界的进入是在20世纪80年代的铁幕后面,当时一位有政府工作的同学的父亲让一些聪明的孩子接触到大型计算机。爱沙尼亚独立后,他成立了一家视频游戏公司。

他的给予策略是有条不紊的,就像他所做的其他一切一样。他在11个组织中分配资金,希望人们可以坚持下去。2012年,他共同创立了剑桥存在风险研究中心(CSER),初期支出接近20万美元。

可以阻止人工智能超越人性吗?

除人工智能外,CSER的20多名研究人员还研究气候变化,核战争和生物武器。但是,对塔林来说,那些其他学科“实际上只是门户药物”。对气候变化等更广泛接受的威胁的关注可能吸引人们。他希望,超级智能机器接管全世界的恐怖将说服他们留下来。

在耶稣学院,我们的餐饮伙伴是各种各样的会议参与者,年长的男人问他们在大学就读的桌子上的每个人。(塔林的答案,爱沙尼亚的塔尔图大学,并没有给他留下深刻的印象。)然后,他试图引导谈话走向新闻。“我对短期风险不感兴趣,”他说。

可以阻止人工智能超越人性吗?

当没有与其他程序员交谈时,他默认使用隐喻,并且他通过他的套件:高级AI可以像人类砍伐树木一样快速处理我们。超级智能对我们来说就是我们对大猩猩的看法。

没有某种物理外壳,它怎么可能获得物理控制?

塔林准备了另一个比喻:“把我放在地下室连接互联网,我可以做很多伤害,”他说。然后他吃了一口意大利调味饭。

可以阻止人工智能超越人性吗?


分享到:


相關文章: