你所不了解的“可解释人工智能”

在谈及人工智能透明化时,我们第一个想到的应该是数据,即为算法提供支持的数据。公司应该公开他们获取帮助人工智能系统决策的数据的来源和方式。消费者也应该管理好自己的数据,防止不法企业在没有取得消费者的明确同意时,滥用或者兜售消费者的个人信息。由于数据是所有人工智能的基础,所以知道数据的来源,以及它对如何解释人工智能系统所产生的偏见和违反直觉的决定是颇有用处的。

就算法层面来说,由IBM和其它科技巨头公司吹捧的“可解释人工智能”也只不过是个空洞肤浅的概念,并且在现实中没有任何根据。但是笔者并没有发现IBM公开了Watson(IBM Watson 是认知计算系统的杰出代表,也是一个技术平台)的内部运作方式——即这些算法是如何运作的?为什么它们会提供建议或者进行预测?

关于“可解释人工智能”,有两个问题,其中一个是定义:“可解释性”是什么意思?我们需要知道什么?使用的是算法还是数据模型?学习又是如何改变变量?进行特定预测的模型应该是什么样的?以及同人类可理解概念之间的因果关系?

上述每一个问题的复杂性都不一样,有些很简单——人们需要设计算法和数据模型,所以他们知道他们使用的是什么以及使用原因。至于这些模型是什么,也很明显。事实上,在当前的人工智能浪潮中,大多数的人工智能成果都是出现在经同行评审的论文中,即每个人都能够看到。

但是至于模型意味着什么,这就另当别论了。模型是如何改变的,以及是如何进行一次具体的预测都是可以检查出来的,但是至于它意味着什么,我们大多数人都可能不知道,就像是你买了一部iPad,背后有一个标签解释微型处理器和触摸屏是如何工作的。然后增加一个处理人类可理解的因果关系层,这又是一个完全不同的问题。

当前一些方式(尤其是深度学习)的优势之处在于模型能够识别一些相关的变量,并且要优于我们所能够识别的变量,但是它们性能更好的部分原因复杂到难以解释,因为人类并没有识别或者阐明系统所识别的变量和关系。如果可以的话,我们会对其进行编程,然后将其称之为软件。

当考虑“可解释人工智能”时,第二个首要考虑因素是评估“真实可解释的和透明的人工智能”的权衡。目前,除了会影响业务之外,在性能和可解释性之间还有一些工作需要权衡。如果一个人工智能平台的所有内部工作都是公开可用的,那么知识产权作为一个区别对象就不复存在了。

想象一下,如果一家初创公司创建了一个专有的人工智能系统,不得不把工作原理解释的透彻,这就好像要求公司公开其源代码一样。如果知识产权具有任何价值,公司就会在点击“发送”知识产权后很快倒闭。这就是为什么这些要求会为在市场上拥有大量预算和主导地位的企业带来好处,而且也会扼杀创业生态系统的创新。

请不要误以为笔者赞成“黑盒”人工智能。公司应该对他们的数据保持透明,并向感兴趣的人解释他们的人工智能系统,但我们需要从“我们可以做什么”和“我们创建的商业环境”两个角度思考这些问题的社会影响。笔者很支持开放源代码和数据透明,并将人工智能视为具有积极影响的变革性技术。

编 译:信软网


分享到:


相關文章: