人工智能能否成为法律主shi?

人工智能载体到底担不担责任?如果担责,该如何量刑?

去年3月,亚利桑那州发生一起Uber无人驾驶汽车撞死行人事故。直到今年3月5日,美国检察官表示:Uber公司不用担责,但自动驾驶汽车的后备司机Rafael Vasquez的行为应提交警方进行进一步调查。

前沿|人工智能能否成为法律主shi?

人工智能的异军突起将这样的案件带入公共视野,也为当前的法律法规、伦理规范和政策体系带来不小的考验:

“人工智能的载体究竟是不是法律主体?”

如果不是法律主体,那么当人工智能载体触犯他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?如果是法律主体,那么又该如何为这些“人工智能”定罪量刑呢?

AI制定政策?联邦政府早已启动

不要以为人工智能只是科技公司的专利。事实上,近年来美国联邦政府已经开始考虑使用机器学习和人工智能相关技术帮助公共政策的制定。

2013年以来,为了减少工作人员审理纸质文件的负担,并提高案件决策一致性,美国退伍军人事务部推出了一套计算机案件管理系统,用于处理退伍军人的残疾索赔。

人工智能与行政结合的优势与担忧

到底人工智能对政府绩效的改善有哪些优点?主要有三点难以抗拒的优势。

01

以较低成本完成大量重复性事件

能在排除个人因素干扰的前提下进行数据分析和结果预测。决策者可能表现出种族偏见,可能过分地或不足地衡量某一信息的重要性,或者可能对所处情况的预设过于天真。对人为意志的排除使机器做出的决策有天然的说服力。

最重要的是,通过与大数据的连接,计算机程序能帮政府官员分析信息,并对潜在的战略性行为做出反应。

02

担忧和争议来自人工智能所谓的“机械理性”

由于在由算法主导的行政决策占越来越重要的位置,但机器减少人为因素干扰的同时,是否应该反思,那些所谓的“偏见”和“情感因素”是否都没有价值?一些可能被机器排除的“偏见”例如对弱者的同情,或许也同样值得关注。

03

网络安全风险及其他不利影响。

当行政越来越依赖数据收集和计算机程序,这可能带来更高的效率,也同时意味着受网络安全威胁的影响更大。

04

如何向公众解释决策过程将遇到困难

民主治理的内涵是通过对话和交流,每一种声音都有被决策者或公众理解、接受或拒绝的机会。除非人工智能的决策机制能依赖相对简单透明的结构,否则向公众提供决策如何产生的理由时,决策机构将会遇到相当的困难。

斯坦福法律课上的头脑风暴

从2019年起,斯坦福大学政策研究中心新开设一门法律和计算机科学交叉的课程“算法管理:在规制型国家中的人工智能”。

前沿|人工智能能否成为法律主shi?

这门课程邀请了律师、计算机科学家和算法工程师来和大家共同探讨政府机构的技术研发和应用。

前沿|人工智能能否成为法律主shi?

课堂的学生来自计算机科学、法律、政治、哲学等多个专业背景,需要通过团队合作,完成三部分任务。

首先,团队对100个最重要的联邦机构进行调查。当发现有算法参与决策的例子时,学生们开始测评这项技术具体归属哪一类:是属于人工智能,还是机器学习,还是一些其他的基础技术?

第二步,学生集体评估近期或中期政府机构中最可能部署人工智能的环节。

最后,转向规范性问题探讨:思考使用人工智能执行监管任务带来的法律、政策分析和哲学层面的挑战。例如,如何解决诸多程序性权利面临被机器行政架空的威胁等。

前沿|人工智能能否成为法律主shi?

课程结束后,学生将完成一份报告,探讨行政机构在不同层面该如何应用人工智能技术。该报告将提交到无党派独立机构美国行政会议,并有望影响未来行政机构的政策。


分享到:


相關文章: