AI 主播?AI 歧视?AI鲜为人知可怕事件!多的是你不知道的危机!

我们经常听到有人称赞:好羡慕你坐在办公室, 做的是脑力的工作。你我很多人潜意识中一般会认为:工作中基本不使用头部和手指以外肌肉的人就应该属于脑力劳动者。但是类似每天应付一些浅层知识的重复调用的工作还能算的上(整理表格、录数据等)是脑力劳动吗?

所以我们已经利用ai技术运用到各大方面,去代替人类去做那些重复、单调、低水平的工作,解放人类。其中大家很熟悉的应该有搜狗分身-AI虚拟主播(24小时不知疲倦地工作,只要将文本输入系统,他们随时工作并且一直工作下去)、BM AI Vision视觉大脑(代替剪辑师从长达69年、超过21亿秒篮球比赛视频中剪辑成60秒精彩集锦片段)这里不过多描述,有兴趣的伙伴可以在留言处我们一起讨论学习。

但是,这个但是后面就是我今天想说的重点。AI目前训练主要是使用庞大的数据来进行,但是目前来说我们对它的认知还存在瑕疵,我们无法理解大数据和 AI 的算法,以及它为何会做出这样的决定。那么就有可能在无心的情况下,会发展成为带有偏见、歧视的AI , 更无法排除有些有意图的人利用AI能力发展危及人类的武器。

美国公司NorthPointe开发了一套不考虑种族因素的情况下AI 算法,目的是用来计算“罪犯再次犯罪”的几率, 但是由于黑人的整体犯罪率高,所以AI在大数据情况下测试出来的黑人再犯罪率就会偏高。根据AI系统评估黑人的再犯罪率为42%,白人的为22%,是将近两倍的数据差。但是研究发现在同一水平的再犯罪评估上,白人和黑人的再犯率是相同。

所以这就是一种歧视,为什么犯罪是一群人,为此付出代价的却要是另外一群人?还有AI不能公正地筛选求职者简历、AI不能辨认老人有口音的话语等。

在美国问答网站Quora上曾经有过这么一个问题:到目前为止,AI做过最可怕的事情是什么?诺斯洛普·格鲁门公司(Northrop Grumman)创造过一台代号X-47B的无人机,这个无人机就是由AI系统自行决定飞行。X-47B成为历史上第一架成功在航母上着陆的无人机,可以称作历史里程碑上的一件事。就在第三次测试时候,原本工程师的指令是降落在航母上,但是无人机却选择降落在附近的Wallops岛空军基地。因为在它看来这个地方降落更安全也就是说AI觉得自己的决定优先于人类的指令。有没有觉得细思极恐,有没有一种《西部世界》的既视感?(此部分资料来源于知乎,作者:量子位 链接
https://zhuanlan.zhihu.com/p/29235840)

我觉得 ,由AI自行演化所造成的失去控制的行为还不是更可怕的,若是有心作恶的人滥用 AI技术,以此作为工具,从而造成一发不可收拾的科技灾难。

那是多么细思极恐的事情。你不要觉得这离我们很远,科技时代的发展谁也说不准未来会发生什么,大事就是从小事演变而来。

有一个关键字,我觉得每一个人都有必要知道: FAT ML—公平(Fairness)、责任(Accountability)、透明性(Transparency)in Machine Learning(机器学习),这股由科技界、学界发起、勿让人工智能为恶的风潮。我们每一个人都有责任去抵制用于不正当用途的AI技术。