`
AI(人工智能)是否应该被赋予法律权力以及人格一直是过去科幻小说里的议题,如今,这个问题已摆在我们面前。不可否认,人类对待AI的方式将会越来越多地被讨论。本文编译自digital trends原题为“I, ALEXA: Should we give artificial intelligence human rights?”的文章。
几年前,AI的人格及法律权利出现在了科幻小说里。
在道格拉斯·亚当斯第二本《银河系漫游指南》——《宇宙尽头的餐馆》中,讲述了一个未来智能电梯的故事。这个人造智能的电梯可以预测未来,甚至能在你了解自己的想法前,把你送到要去的楼层。在它看来,等电梯时所有繁琐的聊天和结交朋友,都是被迫而为。
亚当斯认为,当智能电梯对每天上上下下的工作感到厌倦时,它会产生“存在主义的抗议”,从而开始尝试自己从一边移动到另一边,这时问题就出现了。
虽然有像谷歌和苹果这样的技术巨头为自己量身定制智能电梯,但目前来说我们还没能拥有这项智能技术。事实上,正如我们在数字趋势中一再记载的,目前AI正在做的事情,是我们以前从未想过的,比如自动驾驶汽车或通用翻译机。
那么,现在是否达已经到了需要考虑人工智能权利的地步?
保护人类的权利人人都知道,人工智能已经慢慢在将人脑复制出来。2016年,曾对175位行业专家进行调查,其中有半数专家预计,人工智能在2040年会达到人类水平,而有90%的人相信,2075年一定会达到。
强迫智能电梯上上下下很残忍?早在几年前,英国作家比尔·汤普森写道,任何人工智能的尝试都不会伤害人类,AI永远必须是服务人类,而不应有自主的思想。
然而,我们面临最直接的问题是AI代理人的合法权利。 简单来说,我们应该考虑给予他们某种形式的法人资格吗?
这听起来有些荒谬,但不代表人工智能已经到了全社会接受的地步。相反,它反映了一个复杂的现实:人工智能无论是现在还是将来,都会在我们的生活里。
非智能法律时代的智能工具
目前,我们的法律体系认为我们存在于一个非智能的世界。我们可能会讨论枪支管制的重要性,但如果有人用枪射杀了人,判刑的是人而不是枪。如果枪是因缺陷而爆炸的则另当别论,可以把责任转移到造枪的公司身上。
到目前为止,这种想法基本上已经被推延到人工智能和机器人领域。1984年,一家名为Athlone Industries的美国公司老板被起诉,原因是在机器人投球机上进行了打击练习,被指称行为太恶毒。这件事震惊已久,主要是法官的宣布,该诉讼是针对Athlone而不是击球机器人的,因为“机器人不能被起诉”。
(Sean Ryan / Rapid City Journal)
同样的观点也出现在2009年。当时一位英国司机被他的GPS系统引导,沿着一条狭窄的悬崖小路行驶,导致被困,而不得不被警察拖回主要道。当他指责GPS时,法院却判定是他因驾驶疏忽而致。
然而,现在的AI技术(当然还有未来),和以前大有不同。像自动驾驶汽车或机器人这样的智能设备,不仅会被人使用,而且还会被更有效利用,之后他们会在指令之下独立行事。智能设备会配备机器学习算法,自己收集分析信息,然后做出决定。这么说来就难以归咎于技术的创造者了。
正如华盛顿乔治敦大学法学教授David Vladeck通过少数深入研究的案例指出,参与设计、修改和合并人工智能部件的个人和公司的数量之多,会让人很难识别出谁是负责的一方。
Vladeck写道:“有些组件可能在人工智能项目之前已经设计了几年,而这些组件的设计者可能从来没有预想到,他们的设计会被整合到任何人工智能系统中,更不用说是会造成伤害的特定人工智能系统了。”
这种情况下,将责任归咎于组件的设计者是不公平的,因为它的工作与人工智能系统的完成、操作时间和地理位置上都相去甚远。法院可能会犹豫,组件的设计者可以预见发生的危害。
AI将成为公司法人?
授予人工智能一个法人身份,并不是史无前例的。因为公司只需要长期有法人的存在,就不必要以CEO或执行董事会的名义,来进行资本的获取和解决诉讼纠纷。
佛罗里达州立大学的法学教授Shawn Bayern指出,尽管尚未进行过测试,但技术上人工智能可能已经具备这样的地位,因为它可以对一家有限责任公司负责,从而使它成为法人。另一个原因可能是出于税收,如果比尔盖茨提出的“机器人税”能在法律层面上能得到通过的话,人工智能成为法人的愿望将得到实现。
然而,这并非是毫无争议的。有其他观点认为,如果人工智能以某种方式实施了一种行为,而它的创作者没有明确地负责,那授予AI们这种地位将阻止创作者承担责任。而且这也可能鼓励公司对人工智能的使用应付了事——因为可以从技术角度上找借口说,人工智能不按公司的意愿行事。
而且也没有惩罚人工智能的方法,因为像监禁或销毁这样的惩罚根本毫无意义。
“我不认为这是一件好事,当然不是现在,”一位研究法律人格AI的法学教授John Danaher博士表示,“我的猜测是,在可预见的将来,这将在很大程度上为人类提供责任屏障,掩盖反社会活动。”
“今天,公司拥有合法的权利,被认为是合法的人,而大多数动物都不是,”《人类简史》的作者Yuval Noah Harari曾经这样告诉我们,“企业显然没有意识,没有人格,没有能力去体验幸福和痛苦,而动物是有意识的实体。不管人工智能是否能产生意识,但有可能是经济、政治和法律的原因赋予它人格和权利,就像公司赋予个人权利一样。事实上,人工智能可能会主宰某些公司、组织甚至国家。这条路在科幻小说中很少被提及,但我认为它更有可能发生,而不是像在现实和银幕上占据主导地位的西方世界那样。”
走出科幻场景的AI
目前,这个话题仍然带有科幻的味道,但这种现状不会持续太久。基于AI在现实世界中的应用以及它们自身的现实,一旦AI导致人死亡,谁由该为此负责?或者人们是否能够跟AI结为婚姻伴侣?在我们有生之年,恐怕不免要面对这些问题。
“给实体赋予人格主要取决于两点”,Danaher说。“这个实体是否应该被看作是道德主体,因此要为所做的事情负责?或者被看作是一种道德病人,因此应该避免受到一定的干扰和侵犯从而保证自身的完整性。而我的观点是,AI们暂时不能被看作是道德代理人,至少现在不是。但是我觉得会有些案例来证明AI更贴近道德病人,人们很容易塑造出自己的附属品,因此,在很多情况下,重组或破坏变得非常容易,这也就意味着人类有责任保证AI的完整,使其免受损害。”
换句话说,我们不应该允许生产AI的企业回避责任。当AI系统在现实世界中运行的时候,这些场景从无人驾驶汽车到金融交易员,再到自主无人机甚至是机器人之间的战斗,有人为他们所做的事情负责至关重要。
此外,认为在非智能时代我们享有的关系,AI也同样会有,这种想法其实是错误的,虽然无法从技术上解决我们改从哪些方面考虑对待AI的残酷,但是并不妨碍这个问题被提出。
所以,当下次Siri因为没有听清,而建议你去上网搜搜时,消消气吧。
`
1