现有法律能管好人工智能吗?
更新时间:2024-11-30 21:49 浏览量:5
说起人工智能监管对应的法律局限,就不能不提不断陷入窘境的制作复制品能力。一方面,这种复制能力,也就是简单意义上的转录复制影像、音乐等版权作品的能力越来越强。另一方面,复制能力已经发展到“人工智能创作”,也就是AI生成影像作品,很多内容不可避免越过了法律允许的范畴。
人工智能发展,还使得识别和控制“假新闻”变得愈发困难。2016年美国大选引发了人们对于人工智能作为辅助工具,帮助捏造信息的做法的广泛担忧。而在更多情况下,上述的“人工智能创作”,不可避免产生了很多虚假内容,比如经过篡改的图片和视频,普通投资者很难识别,这很容易被用来进行股市操纵。
当然,人工智能作为技术、工具,本身没有价值属性,这也是其支持者反对过多追究技术开发者以及设备所有者责任的原因。人工智能在内的新技术,在过去10多年里越来越多地被用于高频交易,也就是说,这本身可以加快交易频度,理论上有利于为客户创造价值。但众多机构竞相在高频交易方面发力的结果,就必然是造成股市的更大不稳定。美国纽交所2010年就迎来了因此造成的闪电崩盘事件。
正是因为这样,美国监管部门、欧盟都致力于完善法律,来限制高频交易,增加“减速带”,以减少无需交易并平抑由此带来的市场波动。
人工智能的应用,甚至还影响到反垄断法、反不正当竞争法的应用实施。全球著名的人工智能治理、国际公法专家,新加坡国立大学大卫·马歇尔讲席教授、副校长陈西文(西蒙·切斯特曼)在其所著的《我们,机器人?:人工智能监管及其法律局限》一书中就谈到,越来越多企业采用价格监测算法来追踪竞争对手的行动,有可能形成一种客观上的共谋现象,也就是不同企业看似约定了相关的商品或服务价格,但这种情况下,监管部门很难证明共谋故意的存在。
但是监管部门和法学界也同时认为,算法背后是精心设计的人类共谋者,其目的恰恰是削弱那些虚拟卡特尔垄断之外的垄断对手。即便共谋企业纷纷采用看似没有人为操纵的算法,在没有正式协调的情况下设定类似的价格,但相关做法的危害和实质却没有被改变。
《我们,机器人?:人工智能监管及其法律局限》这本书讨论了人工智能监管的三方面法律局限,分别是高速性、自主性、不透明性。前面提到了高速性方面的局限,那么自主性则直观呈现为比如无人驾驶汽车的责任判定。在民法和刑法层面,无人驾驶汽车,以及人工驾驶汽车在自动驾驶程序启用期间造成的事故,究竟应该如何有效来衡量责任,都是一个争议不休的问题。
与之相关的还有自主武器系统,也就是并非人为操纵,凭借智能程序设定、依托算法判断来实施打击的武器,小到巡逻无人机,大到洲际导弹。
在谈到人工智能监管面临的不透明性时,书作者指出,深度学习方法因为算法设计原因而天然具有不透明性,而其中一些算法逻辑也很难真正意义上被法官、律师理解。这使得通过算法来解读企业、个人等主体的法律责任,尤其是“故意”、主观问题变得难上加难。
接下来,《我们,机器人?:人工智能监管及其法律局限》这本书讨论了美国、欧盟等国家和地区监管人工智能的法律工具,强调了这些工具存在的极大局限。比如传统意义上对汽车驾驶员、厂商以及路人等对象划分的交通事故责任逻辑,就很难有效应用到对于无人驾驶汽车、其他汽车在自动驾驶程序启用期间的事故的衡量。
随着人工智能、物联网、机器人设备越来越多地获得应用,通常分摊风险、降低事故受害者经济损失的方式就是强迫购买产品险,但这些实际上削弱了这类设备设计者、厂商、所有者安全管理和使用的责任动力。
《我们,机器人?:人工智能监管及其法律局限》书中还谈到一个问题,那就是从法律人格出发,如果要激励创新、加速技术迭代,就要尽可能降低人工智能等新技术厂商的法律责任“束缚”,但这些厂商也将因此无力承担法人资格,因为“法人资格意味着具有起诉和被起诉、签订合同、承担债务、拥有财产以及被定罪的能力”。毫无疑问,这些意味着立法机关必须对此作出比较困难的权衡。
所评图书:
书名:《我们,机器人?:人工智能监管及其法律局限》
作者:(澳)陈西文
译者:游传满、费秀艳
出版社:北京大学出版社
出版日期:2024年8月