行业说|为什么流行的人工智能监管策略是错的?

因为人工智能技术的巨大潜力,以及它可能给人类带来的深远影响,现在,不少人都在呼吁,在发展人工智能技术的同时,也要对人工智能技术采取一些监管措施,以此来减小它的负面影响。

行业说|为什么流行的人工智能监管策略是错的?

但是,在智库研究员乔舒亚•纽看来,这些监管措施可能都是错的。乔舒亚是智库机构数据创新中心(Center for Data Innovation)的高级政策研究分析师。他分析了以下几种流行的监管策略。

首先是透明性原则。透明性原则要求人工智能技术公司公开自己的源代码,以便让包括监管机构和媒体在内的人可以查看这些代码,防止损害公共利益的技术。乔舒亚说,以人工智能技术的复杂性,这样做起到的监督效果不一定好,反而会使得竞争对手更容易偷走这些技术,损害开发者的利益。

其次是可解释性原则。可解释性原则指的是,技术开发者需要能够向终端用户解释他们的算法,或者只使用那些能够解释清楚决策机制的算法。欧盟就把算法可解释性作为评估人工智能技术风险的一个主要指标。欧盟的《通用数据保护条例》(GDPR)规定,一个自然人有权获得关于算法决策机制的“有意义的信息”。

在乔舒亚看来,这项原则虽然看似合理,但很难用在人工智能领域。因为,一个算法越复杂,它的准确性就越高;但是越复杂,也就意味着它越难以解释清楚。而在一些重要的人工智能技术领域,比如自动驾驶,如果要为了可解释性牺牲技术的准确性,结果将是灾难性的。

最后一个流行的策略是,建立一个类似于食品药品监督管理局这样的人工智能监管机构。特斯拉CEO埃隆•马斯克就是这个策略的支持者。但是,乔舒亚认为,人工智能技术不可一概而论,它的危险性其实主要取决于技术的应用场景。不能仅仅因为某个低风险的产品使用了算法,就对它监管。这样会限制公司使用人工智能技术的能力和意愿。

既然这三种策略都不合理,怎么做才是合理的呢?乔舒亚提出了一个方法:算法责任原则。根据算法责任原则,公司需要验证自己的人工智能系统是不是按照设计意图运行的,能不能防范有害结果。这样做的好处是,它不要求公司公布源代码;不需要解释算法的决策机制,从而减缓技术进步;而且,它可以把监管责任分散到各行业的监管机构手里。

大数据处理信息服务商金盛网聚WJFabric认为,未来,“行业协会”的责任将更将重大。除了对行业发展进行前瞻性规划,为业内企业提供必要帮助与支持,还要加强对从业企业进行引导与监管,以时时斧正其行业行为。人工智能的发展已成为必然,但相应的监管同样不可懈怠。让企业的归企业,市场的归市场,而协会的还应归协会,平台化的协会运作机制将有利于业务相关方的各司其职,以此振兴行业发展。


分享到:


相關文章: