预防AI侵害人权 华顿教授吁美国制定新权利法案

预防AI侵害人权 华顿教授吁美国制定新权利法案

学者认为,人工智慧(AI)技术掌控在Google等大型科技公司手中,不能指望他们自律,宜立法对机器智慧的权力设限,以保障人们的基本权利。美联社

华顿商学院教授主张,随着世界日益自动化,提升资讯透明度和加强政府监管变得更有必要,美国需要制定新的权利法案(Bill of Rights),以保障人类基本权利免遭演算法(algorithm)剥夺。

财经新闻网站MarketWatch报导,华顿商学院教授霍萨纳格(Kartik Hosanagar) 表示,对于机器学习逐渐融入世人生活,他的看法是乐观大于悲观。但他担心,社会对这主题普遍的自我感觉良好和无知,是很危险的事。

霍萨纳格说:「若对演算法如何运作只有模糊概念,对负责任的公民、消费者和专业人士来说,都是不足的。」

人工智慧(AI)技术愈来愈发达,衍生出一些问题。例如,应征工作的人那么多,哪些人可取得面试机会?谁申请贷款可获核准?约会应用程式(App)从众人中该挑选谁出来配对?这些决定若一律交给不完美、甚至有「偏见」的程式码来决定,如何防范不会有偏差?该由谁来检查演算法运作正不正确,权力会不会过大并且遭到滥用?

鉴于此,霍萨纳格认为,一如「权利法案」限制联邦政府权力,美国现在需要制定新的「权利法案」,对机器智慧的权力设限,从而保障人类的权利。

霍萨纳格指出,这些权利中最重要的,是要了解演算法如何做决定。他接受MarketWatch访问时表示,每个人都应能要求并获得这样的解释,而联邦监管当局应有能力充分审核相关数据。

他说:「资讯透明攸关人们能否接受做出这些决定的方式。研究显示,我们预期AI比人类更能提供资讯透明,而我们也倾向愿意原谅人为疏失,更甚于原谅演算法出错。」

霍萨纳格表示,演算法出错导致的后果也比较严重:医生误诊可能影响数千名病患,但医疗演算法出错却可能危害数百万人。因此,必须有能力审核这些演算法是怎么做决定,必须能建立某种演算法「黑盒子」,这对防止各种状况发生都很重要,无论是防范演算法交易导致闪电崩盘,还是自驾车和飞机肇祸或坠毁。

他认为,使用者也应该有权表达意见,借此对改善演算法的表现发挥影响力。

霍萨纳格并指出,当今AI权力掌握在大企业手中,不能指望苹果、Google等科技公司能够自律。他表示,「太大的权力集中于掌握AI技术的一小撮公司」,是很危险的是;但另一方面,过度介入监管,却又会冒着窒碍创新的风险。如何在两者之间取得平衡,将是政府面临的重大考验。

他认为,现在唯一的希望,是决策者和一般大众都务必要对演算法有更深入的了解。


分享到:


相關文章: