人工智能(深度学习)简单解释

人工智能(深度学习)简单解释

像HAL 9000这样的科幻级人工智能(AI)早在20世纪60年代就已经被承诺,但直到最近,个人电脑和机器人还很笨。现在,科技巨头和初创公司正在宣布人工智能革命:自动驾驶汽车、机器人医生、机器人投资者等。PwC刚刚表示,到2030年,人工智能将为世界经济贡献15.7万亿美元。“人工智能”是2018年的流行语,就像1999年的“。com”一样,每个人都声称自己喜欢人工智能。不要被人工智能的炒作所迷惑。这是泡沫还是真实的?旧的人工智能有什么新特点?

人工智能的应用既不容易也不快速。最令人兴奋的人工智能例子来自大学或科技巨头。自封的人工智能专家承诺,将在短时间内用最新的人工智能给任何一家公司带来革命性的变化。他们在做人工智能的错误信息,一些人只是将旧技术重新命名为人工智能。每个人都已经通过谷歌、微软、亚马逊等服务使用了最新的AI。但“深度学习”不会很快被大多数企业用于定制内部项目。大多数都没有足够的相关数字数据,不足以可靠地训练人工智能。因此,人工智能不会杀死所有的工作,尤其是因为它需要人类训练和测试每一个人工智能。

AI现在可以“看见”,和掌握视觉工作,喜欢从医学图像识别癌症或其他疾病,统计上比人类的放射科医生,眼科医生,皮肤科医生,等等,开汽车,读唇,等。AI可以在任何风格从油漆样本(例如,毕加索或你的),并应用样式的照片。反过来说:从一幅画中猜出一张真实的照片,幻想缺失的细节。ai查看网页或应用的截图,可以编写代码生成类似的网页或应用。

风格转换:从一张照片中学习,应用到另一张照片中。

人工智能(深度学习)简单解释

人工智能现在可以“听”,不仅可以理解你的声音:它可以像披头士或你的乐队那样创作音乐,模仿它听到的任何人的声音一段时间,等等。一般人不能说什么绘画或音乐是由人或机器创作的,或什么声音是由人或人工智能的模仿者说的。

机器学习(ML)是人工智能的一个子集,它让机器从经验中学习,从现实世界的例子中学习:数据越多,它学习的就越多。如果一台机器在完成一项任务时的性能随着经验而提高,那么它就可以从一项任务的经验中学习。大多数人工智能仍然由固定的规则组成,并且不学习。从现在开始,我将用“ML”来指代“从数据中学习的AI”,以强调区别。

人工神经网络(ANN)只是ML的一种方法,其他方法(不是ANN)包括决策树、支持向量机等。深度学习是一种具有多层抽象的神经网络。尽管“深度”炒作,但许多ML方法是“浅显”的。胜过MLs通常是一种混合,一种方法的集合,像树+深度学习+其他,独立训练,然后结合在一起。每种方法可能会产生不同的错误,因此对它们的结果进行平均有时会胜过单个方法。

老人工智能没有学习。它是基于规则的,由人类编写的几个“if this then that”:这可以是AI,因为它能解决问题,但不能是ML,因为它不能从数据中学习。目前大多数人工智能和自动化系统仍然是基于规则的代码。ML自20世纪60年代就为人所知,但与人脑一样,它需要对大量数据进行数十亿次计算。在上世纪80年代的个人电脑上,培养一名ML电脑需要几个月的时间,而且数字数据很少。手工编写的基于规则的代码可以快速解决大多数问题,因此ML被遗忘了。但是有了今天的硬件(NVIDIA gpu,谷歌tpu等),您可以在几分钟内训练一个ML,优化的参数是已知的,并且可以获得更多的数字数据。然后,在2010年之后,一个又一个人工智能领域(视觉、演讲、语言翻译、游戏等)被MLs所掌握,战胜了基于规则的人工智能,通常也战胜了人类。

为什么人工智能在1997年的国际象棋比赛中打败了人类,而在2016年的围棋比赛中才打败了人类:对于人类能够作为一个有限的、定义良好的规则集来解决的问题,例如,在国际象棋比赛中打败卡斯帕罗夫(当时的世界冠军),用旧的方式编写基于规则的代码就足够了(也是最好的)。在国际象棋(8×8格有极限)中,接下来可能出现的十几个走法只有数十亿:1997年,计算机的速度变得足够快,足以探索出足够多的走法序列的结果,从而击败人类。但是在围棋(19×19网格,自由)中,移动的次数比宇宙中的原子还多:没有任何机器可以在十亿年里尝试所有的移动。这就像尝试所有随机的字母组合来得到这篇文章,或者尝试随机的绘画笔触直到得到毕加索的作品:这永远不会发生。目前已知的唯一希望是训练ML来完成这项任务。但是ML是近似的,不是精确的,只用于直观的任务,您不能在相当少的循环中将其简化为“if this that then”确定性逻辑。ML是“随机的”:对于模式,您可以进行统计分析,但无法准确预测。

ML实现自动化,只要您正确地准备了要训练的数据。这与人工自动化不同,在人工自动化过程中,人们会制定规则来自动化一项任务,比如,大量的“如果这个那么那个”描述,什么电子邮件可能是垃圾邮件,或者一张医学照片是否代表癌症。在ML中,我们只提供需要解决的问题的数据样本:大量(数千或更多)垃圾邮件和无垃圾邮件、癌症和无癌症照片等,所有这些都是首先由人类进行排序、打磨和标记的。然后ML神奇地自己找出(学习)规则,但它没有解释这些规则。你给他看一张猫的照片,ML说这是一只猫,但没有说明原因。

人工智能(深度学习)简单解释

大多数ML是监督学习,其中训练的示例与标签、每个示例的描述或转录一起提供给ML。你首先需要一个人来区分猫和狗的照片,或从合法的电子邮件垃圾邮件等。如果你标签的数据不正确,ML的结果将是不正确的,这是非常重要的,我们将在后面讨论。它是一种无监督学习,ML在其中发现数据上的模式和集群,这对于探索很有用,但单独解决许多问题还不够。一些MLs是半监督的。

在异常检测中,您可以识别与正常情况不同的异常情况,例如欺诈或网络入侵。一名ML只接受旧的欺诈训练,它将会错过总是新的欺诈思想。然后,您可以教正常的活动,要求ML警告任何可疑的差异。政府已经依赖ML来发现逃税行为。

强化学习在1983年的电影《战争游戏》(War Games)中得到了展示。在这部电影中,一台电脑决定不发动第三次世界大战,而是以光速运行每一个场景,结果发现所有场景都将导致世界毁灭。人工智能通过在游戏规则或环境中数百万次的尝试和错误发现哪些行为能带来最大的回报。AlphaGo是这样训练的:它与自己对弈了数百万次,掌握了超人类的技能。它做出了以前从未见过的令人惊讶的举动,人类会认为是错误的。但后来,这些被证明是出色的创新策略。在围棋比赛中,ML变得比人类更有创造力。在扑克或其他隐藏纸牌的游戏中,美国职业足球大联盟(MLs)也学会了虚张声势和欺骗:它会尽最大努力赢得比赛。

“人工智能效应”是指人们认为人工智能不是真正的智能。人类潜意识里需要相信自己有一种神奇的精神,在宇宙中扮演着独特的角色。每当一台机器在一项新的智能上(如下棋、识别图像、翻译等)超过人类时,人们总是说:“那只是蛮力计算,不是智能。”许多应用程序都包含了大量的人工智能,但一旦被广泛使用,它就不再被贴上“智能”的标签。如果“智能”只是人工智能还没有完成的事情(这对大脑来说仍然是独一无二的),那么字典应该每年更新一次,比如:“直到20世纪50年代,数学一直被认为是智能,但现在不是了,因为电脑可以做到”,这很奇怪。关于“蛮力”,人脑有100万亿的神经元连接,比地球上任何一台计算机都多。ML不能做“蛮力”:尝试所有的组合可能需要十亿年。ML使用比大脑更少的计算进行“有根据的猜测”。因此,它应该是“更小”的人工智能,声称人类大脑不是真正的智能,而只是蛮力计算。

ML不是人脑模拟器:真正的神经元是非常不同的。这是另一种获得类似大脑的结果的方法,类似于马的大脑类似于汽车。重要的是,汽车和马都能把你从一个地方带到另一个地方:汽车跑得更快,消耗更多的能量,而且缺乏大部分的马的特征。大脑和ML都运行统计信息(概率)来近似复杂的功能:它们给出的结果只会有一点错误,但却是有用的。MLs和大脑在相同的任务上给出不同的结果,因为它们以不同的方式近似。每个人都知道,虽然大脑会忘记事情,在做明确的数学题时受到限制,但这些机器对于记忆和数学来说是完美的。但是,机器要么给出准确的结果,要么坏掉的旧观念是错误的,过时的。人类会犯很多错误,但不是说:“这个大脑坏了!”,你听到的是:“多学习!”MLs犯错误也不是“坏的”,他们必须研究更多的数据,或者不同的数据。用有偏见的(人为产生的)数据训练的MLs将以种族主义、性别歧视和不公平的方式结束:人类最糟糕的方式。人工智能不应该仅仅和我们的大脑比较,人工智能是不同的,这是一个机会。我们用数据训练MLs,只模拟人类的工作、活动和大脑。但是同样的MLs,如果在其他星系中训练,可以模仿不同(也许更好)的外星大脑。让我们也试着用外星人的方式思考。

人工智能正变得和人类一样神秘。计算机不可能具有创造性、说谎者、错误或类人的想法来自于旧的基于规则的人工智能,确实是可以预测的,但ML似乎改变了这一点。剩下的真正问题是:通用AI vs .狭义AI。

请忘记电影里的AI将军。但“狭义人工智能”也很聪明!

与其他一些科学不同,您不能使用逻辑理论来验证ML是否正确。要判断ML是否正确,您只能在不可见的新数据上测试其结果(错误)。ML不是一个黑盒:您可以看到它生成并运行的“如果这个那么那个”列表,但是它通常太大太复杂,任何人都无法理解。这是一门实用科学,它试图再现现实世界的混乱和人类的直觉,却没有给出一个简单的或理论的解释。它给出了太大以至于无法理解产生结果的线性代数。这就像当你有一个工作的想法,但是你不能解释你如何想出了主意:对大脑这叫做灵感,直觉,潜意识中,而在计算机叫做毫升。如果你能神经元信号的完整列表,导致人类大脑决定,你能明白为什么和真正的大脑如何决定?也许吧,但它很复杂。

每个人都能凭直觉想象(有些人甚至画出)一个人的脸,用的是毕加索的原作风格。或者想象(有些人甚至演奏)声音或音乐风格。但没有人能用一个完整有效的公式来描述面部、声音或风格的变化。人类只能看到三维空间:即使是爱因斯坦,它也无法有意识地想象出,比如说500维的ML-like数学。这种500D的数学问题一直都是由我们的大脑凭直觉解决的,就像魔法一样。为什么没有有意识地解决?想象一下,如果对于每一个想法,大脑也给出了我们使用的公式,有上千个变量。这些额外的信息会让我们迷惑,让我们慢下来,为什么呢?没有人能使用长达数页的数学,我们也没有进化到头上有USB数据线。

如果没有人能预测某些事情,ML通常也不能。很多人用多年的市场价格变化来训练最小二乘,但是这些最小二乘并不能预测市场。ML会猜测如果过去学到的因素和趋势保持不变,事情会怎样发展。但是股票和经济趋势经常变化,就像随机的一样。当较旧的数据变得不那么相关或错误时,MLs就会失败。学习到的任务或规则必须保持不变,或者至少很少更新,以便您可以重新培训。例如,学习开车、打扑克、用一种风格绘画、根据给定的健康数据预测一种疾病、在不同语言之间转换,这些都是MLs的工作: 旧的规则在将来继续有效。

ML可以在数据上找到相关性,但相关性并不意味着因果关系,ML在猜测因果关系方面不可靠。不要让ML试图找到数据集中不存在的相关性:ML会找到其他不相关的模式,很容易把您想要找到的错误理解为它们。在一项奇怪的研究“使用面部图像自动推断犯罪行为”中,ML被训练在被监禁和诚实人的贴有标签的面部照片上(让我补充一句,其中一些人可能是未被发现的罪犯?)作者声称,ML仅仅从一张面部照片就学会了捕捉新的坏蛋,但“感觉”进一步的研究将驳斥面相(种族主义)的有效性。事实上,他们的数据集是有偏见的:一些白领罪犯假装诚实的人,笑着说。ML学会了它能找到的唯一关系:高兴或生气的嘴,衣领(颈布)的类型。白领微笑的人被归类为诚实,白领悲伤的人被归类为骗子。ML的作者试图通过人们的脸来判断他们(不是科学!)没有相关性),但没有看到ML人学会了通过衣服(社会地位)来判断。ML扩大了一种不公正的偏见:穿着廉价衣服(也许是深色皮肤)的街头小偷比腐败的政客和顶级企业欺诈者更容易被发现和监禁。这个ML会把所有街头的家伙都送进监狱,而且没有一个白领,如果不也告诉他,街头的小偷被发现的频率比白领高x%。如果这样说,它会随机或不做决定,这不是科学。一个教训是:MLs没有像成年人一样生活在我们的世界里。MLs不可能知道给定数据之外的情况,包括“明显的”。

在某些情况下,MLs可以预测人类无法预测的事情。纽约西奈山医院(M. Sinai Hospital)从70万名患者的数据中训练出的“深度患者”(Deep Patient),可以预测精神分裂症的发作:没人知道怎么回事!这是一个问题:对于一项投资、医疗、司法或军事决策,你可能想知道人工智能是如何得出结论的,但你做不到。你不知道为什么ML拒绝了你的贷款,建议法官把你关进监狱,或者把工作交给别人。ML是公平的还是不公平的?不受种族、性别或其他因素的影响?ML计算是可见的,但是太多了,无法形成一个人类可读的摘要。ML像先知一样说话:“你们人类不能理解,即使我给你们看数学,所以要有信心!”你验证了我过去的预言,这些预言是正确的!”

人类也从来没有完全解释过他们的决定:我们给出的理由听起来合理,但总是不完整、过于简化。举个例子:“我们入侵伊拉克是因为伊拉克拥有大规模杀伤性武器”看起来是对的,但还有几十个原因。这看起来是错误的,即使ML是正确的:“我们轰炸了那个村庄,因为一个有名望的ML说他们是恐怖分子”。它只是缺乏解释。人们从大ls得到的几乎总是正确的答案会开始编造虚假的解释,只是为了让公众接受大ls的预测。有些人会秘密使用MLs,把这些想法归功于他们自己。

ML结果只与您训练ML时使用的数据一样好。在ML中,您很少编写由谷歌(Keras, Tensorflow)、Microsoft等提供的软件,算法是开源的。ML是一门由实验而非理论定义的不可预测的科学。你花了大部分时间准备数据来训练和研究结果,然后做了很多改变,主要是通过猜测和重试。ML如果输入的数据太少或不准确,就会给出错误的结果。谷歌的图片错误地将非洲裔美国人归类为大猩猩,而微软的Tay机器人在Twitter上仅仅训练了几个小时就学会了纳粹、性和仇恨语言。问题是数据,而不是软件。

不受欢迎的偏见隐含在人类产生的数据中:一种ML训练谷歌新闻相关的“父亲是医生,母亲是护士”反映性别偏见。如果是这样的话,它可能会优先考虑男性求职者而不是女性求职者。执法人员ML可以根据肤色进行区分。在特朗普竞选期间,一些ML可能减少了推荐“墨西哥”餐馆的数量,这是阅读了许多关于墨西哥移民的负面帖子的副作用,即使没有人特别抱怨墨西哥食物或餐馆。您不能简单地将数据从internet复制到ML中,然后期望它最终是平衡的。要训练一个聪明的ML是很昂贵的:你需要人来回顾和“消除偏见”什么是错的或邪恶的,但自然发生在媒体上。

ML是有限的,因为它缺乏一般的智能和先验常识。即使将所有的专业语言学习结合在一起,或者对ML进行所有方面的培训,它在一般的AI任务上仍然会失败,例如在理解语言方面。你不能像和真人一样和Siri、Alexa或Cortana谈论每一个话题:他们只是助手。2011年,IBM沃森在《危险边缘》(Jeopardy!)电视问答,但把加拿大和美国搞混了。ML可以生成有用的长文本摘要,包括情绪分析(观点和情绪识别),但不如人类作品可靠。聊天机器人无法理解太多的问题。目前没有任何一款人工智能能够做到所有人都能做到的事情:当客户感到沮丧或挖苦时,它能够一直猜测,并相应地改变语气。在电影中没有任何AI将军。但我们可以单独得到一些科幻风格的人工智能小部件,让人类在有限的(特定的)任务中胜出。新发现的是,“狭义”可以包括创造性的或被认为是人类独有的任务:绘画(风格、几何图形,如果是象征性或概念性的,就不太可能)、创作、创造、猜测、欺骗、虚假情感等等,令人难以置信的是,所有这些似乎都不需要一般的人工智能。

没有人知道如何构建一个通用AI。这是伟大的:我们有超人类专业(狭义人工智能)的工人,但没有任何终结者或黑客帝国将决定自己杀死我们很快。不幸的是,人类现在可以训练机器来杀死我们,比如一个恐怖分子教自动驾驶卡车撞行人。拥有一般情报的人工智能可能会自我毁灭,而不是听从恐怖分子的命令。有关人工智能末日辩论的细节,请阅读:人工智能会在夺走我们的工作后杀死我们所有人吗?

人工智能伦理将被黑客攻击,并被非法重新编程。目前的ML不是一般意义上的人工智能,也不是有知觉的人工智能,它总是遵循人类给出的命令(训练数据):不要指望人工智能出于良心拒服兵役。每个政府都必须制定法律,详细说明自动驾驶汽车是否更愿意杀死乘客或行人。两个孩子突然跑到一辆只有一个乘客的汽车前面,为了避开孩子,汽车只能在致命的情况下跑,比如悬崖。民意调查显示,大多数人宁愿拥有一辆撞死行人的车,也不愿拥有一辆撞死自己的车。大多数人对这些非常罕见的事件还不以为然,但当第一起事件发生时,他们会反应过度,并对政客提出质疑,即使每10亿辆车只发生一次。在一些国家,汽车将被要求杀死一名乘客以拯救多名行人,车主将要求黑客对汽车进行秘密编程,以拯救乘客。但是在盗版的AI补丁中,隐藏的AI恶意软件和病毒可能也会被安装!

教一个人很容易:对于大多数任务,你给出一打例子,让他/她尝试几次。但是一个ML需要上千倍的标记数据:只有人类才能从少量数据中学习。一个ML必须再试一百万次:如果现实世界的实验是强制性的(不能像国际象棋、围棋等游戏那样完全模拟),那么在完成一项训练之前,你将不得不撞毁数千辆真实的汽车,杀死或伤害数千名真实的人类患者,等等。ML与人类不同,它会过度适应:它记住的是训练数据中过于具体的细节,而不是一般的模式。因此,它在真实任务中失败的概率超过了之前从未见过的数据,甚至与训练数据稍有不同。当前的ML缺乏对每种情况建模并将其与之前经验联系起来的人类一般智力,无法从很少的例子或尝试和错误中学习,只能记住一般性的东西,忽略不相关的东西,避免尝试可以预测为失败的东西。

在学习了100万个例子之后,ML在百分比上比人类犯的错误要少,但是错误可以是另一种类型,人类永远不会犯的错误,比如把牙刷归类为棒球棒。它与人类的这种区别可以被用作恶意的人工智能黑客,例如,在街道信号上画出微小的“对抗性”变化,虽然不为人类察觉,但对自动驾驶汽车来说,却会造成极大的困惑。

人类将继续做一般的人工智能任务,这是ML无法做到的。智商(IQ)测试是错误的:他们不能预测人们成功的因为有许多不同的智能(视觉、言语、逻辑、人际关系等),这些合作混合,但是结果不能量化一个智商数量从0到n。我们将昆虫定义为“愚蠢”相比,人类的智商,但是蚊子赢得我们在狭窄的“咬和逃逸”的任务。每个月,人工智能都会在更狭窄的任务上击败人类,比如蚊子。等待“奇点”时刻——人工智能将在所有方面击败我们——是愚蠢的。我们得到了许多狭窄的奇点,一旦人工智能在一项任务上赢了我们,除了监督人工智能的人,所有人都可以放弃这项任务。由于人工智能具有一定的创造性,我们无法预测它下一步将赢得哪些任务,但它将缺乏“一般智力”。一个例子:喜剧演员和政客是安全的,尽管不需要特殊的(狭隘的)研究,他们只是可以用有趣或令人信服的方式谈论任何事情。如果你专门从事一项困难但狭窄而常见的工作(如放射科医生),MLs将为你培训并取代你。


分享到:


相關文章: