03.23 AI给社交网络带来了什么

AI给社交网络带来了什么

人的大脑

小金今天和大家一起关注一下本周最为吸引人的FACEBOOK事件。

Facebook的“剑桥数据门”事件持续发酵,虽然扎克伯格已经发长文解释原因,但公众并不买账。昨天,Keras的主要作者、谷歌研究员François Chollet发表一系列推文,抨击由AI驱动的Facebook很快就会成为“极权主义的圆形监狱”,他说:AI研究人员应该有良知,不要帮Facebook做事。

AI给社交网络带来了什么

剑桥数据分析CEO演讲《大数据和心理分析在竞选中的力量》

随着丑闻的持续发酵,Facebook成了众矢之的,一个让人有点意外的谴责来自:谷歌。

谷歌研究员François Chollet在昨天发表一系列推文,警告说,Facebook的问题不仅仅是隐私泄露或缺乏信任,而是由AI驱动的Facebook很快就会成为“极权主义的圆形监狱”。他呼吁研究人员:“请表现出一些良知”。

今天Facebook是一个强大的实体,它建立了超过20亿人的精细心理特征,进行着大规模的行为操纵实验,它的目的是开发出世界上最好的AI技术。就我个人而言,这真的令我感到害怕。”Chollet昨天发推特说,“如果你是做AI的,请不要帮助他们。不要参与他们的研究生态系统。请表现出一些良知。”

在Facebook事件中,问题不仅仅是“你的隐私受到了损失”,也不仅仅是你的隐私可以被用作极权主义的“圆形监狱”这一事实。在小金看来,更令人担忧的问题是,数字信息消费被用作一种心理控制的媒介。

世界在很大程度上受到两个长期趋势的影响:首先,我们的生活日益被非物质化,包括在工作和家中线上的信息消费和信息产生。其次,AI变得越来越聪明。

在影响我们如何消费数字内容的算法层面,上述两种趋势有重叠。不透明的社交媒体算法正在越来越多地决定我们阅读哪些文章,我们与谁保持联系,我们阅读谁的观点,获得谁的反馈。

经过多年的训练,算法对我们所消费信息的处理使得这些系统在我们的生活中掌握了相当大的权利,决定了我们成为什么样的人。由于我们的生活很大程度上已经转移到数字领域,我们变得非常容易受到那些规则——AI算法的影响。

在这么多年的时间里,如果Facebook能够决定让你看到哪些新闻(真实的新闻或假新闻),让你看到谁的政治地位在提升,以及让谁看到你的动态,那么Facebook实际上就已经在控制你的政治信仰和你的世界观。

从2013年开始,Facebook就已经进行了一系列的实验,它们通过调整新闻信息流(newsfeeds)的内容,成功地控制了不知情的用户的情绪和决策,并且能够预测用户未来的决策。

简言之,Facebook可以同时窥测我们的一切,并控制我们消费的信息。当你能同时触及感知和行动,你就会看到一个AI问题。你可以开始为人类行为构建一个优化循环,一个RL循环。

在这个循环中,你可以观察目标的当前状态,并不断调整向它提供的信息,直到观察你想要的结果和行为

人工智能研究领域的很大一部分(特别是Facebook一直在投重资研究的领域)是开发算法,以尽可能有效地解决此类优化问题,从而关闭这个loop,并实现对所处理的现象的完全控制。

Facebook鼓励“虚假、脆弱的人气”,让用户感到空虚,以及需要受到关注,人们继续不得不分享他们认为会获得其他人赞同的帖子,形成了“恶性循环”。Facebook的发展让人上瘾,他将Facebook描述为一种“社交验证反馈循环”(a social-validation feedback loop)的模式,利用人性的弱点来博取用户的注意力。

由于人类的思想极易受到简单的社交操纵模式的影响,这种行为被称为“心理攻击模式”。

其中一些攻击模式已经在广告中使用了很长时间(例如积极/消极的社交强化),但是它们是非常弱的、没有针对性的形式。从信息安全的角度来看,人的这种心理可以被视为“漏洞”:已知可以用来控制一个系统的漏洞。就人类的思维而言,这些漏洞永远没法修补,因为它们就是人类的思维运作的方式。它们存在于DNA中。对个人而言,我们没有切实可行的方法来防御它们。

人类的思维是一个静态的、易受攻击的系统,它将越来越多地受到越来越智能的AI算法的攻击,这些算法同时观察着我们所做的、所相信的所有事情,并且完全控制着我们所接触到的信息。

这真是一个悖论,人们织起了互联网,希望大家沟通便捷,足不出户,而知天下事。但是,最后的发展却是自己被这张网锁定在各个节点或单元,却由AI和各种算法来控制你的生活,这是我们想要的吗?


分享到:


相關文章: