思辨|可信赖人工智能具备的七个要素

2019年4月8日,欧盟委员会发布了一份人工智能道德准则。这份道德准则是由欧盟人工智能高级专家组起草的。这个专家组在2018年成立,由52位学术界、工业界和民间社会独立专家构成。他们的工作就是撰写人工智能道德准则,以及给欧盟提供人工智能领域的政策和投资建议。

思辨|可信赖人工智能具备的七个要素

这份新的人工智能道德准则提出,可信赖的人工智能,需要具备七个要素。分别是:

1. 确保人的能动性和监督性。人工智能系统应该支持人的能动性和基本权利,而不是减少、限制或错误地指导人类的自我治理。

2. 稳健性和安全性,人工智能的算法要足够安全、可靠和稳健。

3. 在隐私和数据管理上,人类应该完全控制自己的数据,跟个人相关的数据,不能被用来伤害或者歧视他们。

4. 要有透明度,人工智能系统应该具备可追溯性。

5. 人工智能系统应该考虑到人类能力和技能要求的范围,要做到多样性、非歧视性和公平性。

6. 人工智能系统应该有助于社会的可持续性,并且担负生态责任。

7. 人工智能系统应该有相应的问责机制,需要对它造成的后果承担责任。

欧盟官员的态度是,人工智能伦理,不应该是一个奢侈特征或者附件功能,因为只有人们对技术信任,社会才能充分受益于技术。接下来,欧盟希望通过三个步骤来促进可信赖人工智能的发展,分别是:制定出关键要求;启动大规模试点;以及就“以人为中心的人工智能”建立国际共识。

美国科技媒体The Verge曾经评论说,欧盟希望成为人工智能道德领域的领导者,某种程度上是因为,欧盟在人工智能的投资和研发上,已经没有办法跟美国和中国竞争。因此,他们选择通过道德来塑造技术的未来。

大数据处理信息服务商金盛网聚WJFabric认为,上述七条可谓给人工智能构建了发展边界。事实上,对于人工智能研发,应该以共同体的方式进行合作,成果共享,责任共担,而不应成为国别间新一轮技术竞争的筹码。道德约束是制约野蛮发展的有效手段,但前提是达成共识。信任成就共识,共识打造共同体。


分享到:


相關文章: