机器人犯罪,谁该负责?

发布时间:2024年01月18日

?

186c5f0de6924c17b8f290a1a41584c9.png

? 机器人犯罪:是人的过错还是机器的问题?

?

????????中世纪时,动物也会接受刑事审判,这听起来匪夷所思。当时人们认为动物也有道德能力,能够明辨是非,所以会对鸡、老鼠、田鼠、蜜蜂、小飞虫、猪等动物提起诉讼。关于道德行为体,有一个广为接受的定义:它必须能够完成两件事,一是能够感知到其行为后果中与道德相关的部分,二是能够在不同行动方案中作出选择。

????????有趣的是,这两个条件与任何主观和先天的是非判断无关,只要求道德行为体能够依照公认的道德标准控制自己的行为,并评估行为的影响。对于道德行为体来说,无论这个标准是不是其自身制定的,也无论它们是否理解标准背后的道理,更无论它们是否能“感觉”到正义和罪恶的差别,这些都不重要。如今,我们可能会觉得中世纪时动物也能犯罪的观点很可笑,但对于道德能力的现代解读早已不仅仅局限于人类了。

????????2010 年,墨西哥湾的“深水地平线”石油钻井平台发生了一次可怕的水下井喷事故。11 名工人不幸罹难,大量石油泄漏,污染了大片水域和沙滩。美国联邦政府对该钻塔的所有者——英国石油公司(BP)提出了刑事指控(而非民事指控)。最终,BP 以 40 亿美元的巨额赔偿才平息了这场诉讼,这比一般的大型民事处罚要多得多。BP 被刑事起诉,因为BP 本应该更加明智,有能力做出正确的决策来避免事故的发生,但他们没有做到。公司与员工不同,它有责任对事件进行充分的控制,以防止此类情况的发生。现代法律理论接受了这个概念,即人和公司都可以是道德行为体,因此都可能被指控犯罪。那么,合成智能呢?它是否也能满足承担道德责任的要求呢?答案是肯定的。

? ? ? ??如果合成智能能够感受到周围环境中与道德相关的事物或情况,并且能够自己做出选择,那么它就具备了成为一个道德行为体的条件。这些系统不需要复杂到跨越人类学的界限,它们只需要像人类一样,拥有基本的道德判断和行为能力就可以了。

????????这个问题离我们并不遥远。关于如何为自动驾驶汽车编程的讨论已经悄悄展开了。无论我们多么想回避,自动驾驶汽车都会不可避免地遇到一些具有道德挑战的情况。比如说,你的自动驾驶汽车可以为了救你而碾压一只狗,在这种情况下你肯定希望它这么做。但是如果它要抉择的是碾过一对老年夫妇或者撞倒一群正在过马路的孩子呢?如果要杀死你的一个孩子,是前座的那个?还是后座的那个?你会怎么选择呢?我们可以选择忽略这些痛苦的问题,但忽略这些问题本身就是不道德的。????????

?

?

ff0d02e3b98846fa8671906e27e83d0e.png

?

机器人犯罪与法律制裁:新判例与法律体系的诞生

?

? ? ? ? ?除了机器的道德能力问题,我们还有一个问题:当决策出错时,谁应该负责?要回答这个问题,我们需要了解“当事人”和“代理人”之间关系的法律理论。为了更好地理解这一点,我们需要再回到 BP 的案件。

????????你可能会想,公司怎么会犯错呢?毕竟,是公司的员工犯了事,而且有人在“深水地平线”事故中丧生。但这并不意味着有人玩忽职守或参与了犯罪活动。相反,每个员工可能都完成了分配给他们的任务,而没有人的任务是杀死那 11 个人。员工只是公司犯罪的“手段”。同样,当你抢银行时,你的腿只是帮你走进银行的“手段”,你的腿当然不需要承担刑事责任。但是,这两种“手段”有很大的区别。你的腿把你送进银行,和“深水地平线”的管理者未能监测或纠正潜在的危险情况是不同的。管理者应该是公司的“代理人”,所以也潜在地肩负了一些责任。

????????代理人是一个获得授权的独立个体,代表当事人行动。你的腿既不是独立的,也没有同意代表你行动。而 BP 的员工是独立的个体,他们代表 BP 行动。当代表你时,你的代理人有受托责任,要完成你的意愿,保护你的利益,但也有一定的限制。例如,如果你的代理人代表你犯罪,他也会被追究责任。假设你知道自己参与了违法阴谋,如果我雇你杀死我的情敌,那么你对这场谋杀负有责任。但是,如果代理人犯罪了,但自己并不知情呢?我说“按这个按钮”,你照做了,然后炸弹在超级碗引爆了。你是我的代理人,但只有在你应该知道后果的情况下,你才负有责任。

?

现在我们换个角度来看。假设代理人在为当事人服务时犯罪了,但他自己并不知道。我让你去银行取 100 美元,你拿着枪去了银行,然后给了出纳员一张字条,让他把钞票装进纸袋里。你回来后把钱给了我。那么,我要为你的偷窃行为负责吗?大多数情况下,答案是否定的。(我简化了这个问题,因为如果假定无辜的组织从犯罪中受益,就算不知情,也需要承担法律责任。)

? ? ?

????????对于在当事人-代理人关系中谁需要负责呢?其实,在不同组织相关责任不清晰时如何分摊责任,法律上的原则和判例有着悠久的历史。在 BP 的案子中,政府的结论是,个体员工的行为本身并不构成犯罪,但是这些行为聚合之后就构成了犯罪。所以政府控告了作为当事人的 BP,因为 BP 具有充分而清晰的责任。那么,智能机器呢?当合成智能代表你行动的时候,谁该负责?你可能认为答案是你。在今天确实如此。

? ? ? ? 想象一下,你买了一台家庭机器人(这台机器人被预编好了一套标准的行为准则,还会因地制宜地通过观察它接触到的人的行为来加强自己的导航和社交能力),它从你的公寓出发,去马路对面的星巴克帮你买杯咖啡。可你不知道,你的机器人最近看到了一个小概率事件,一个善良的人在警察赶到之前制服了一个偷钱包的贼,赢得了围观群众的赞许和钦佩。所以,它在去买咖啡的路上,看到一个男人和一个女人当街争吵,并拉扯衣服和包包时。机器人根据它的通用编程和具体经验推测有人在犯罪,于是它把男人摔倒在地并控制住他,同时拨打了 110。警察赶到后,男人解释说他和自己的妻子只是在闹着玩,争抢车钥匙,好决定由谁来开车。他的妻子也证实了这个说法。随后,众人的注意力转移到了你的机器人身上。机器人解释说,它只是在执行你的命令,去买杯咖啡而已。这两个人愤怒地要求警察以伤害罪逮捕你。你的辩护律师认为:你没有做这件事,是你的机器人做的你太相信这台机器人的设计而购买了它,并且依照说明书来使用它,所以机器人公司应该为这起事件负责。而机器人公司的律师辩护道:他们有相关的产品责任标准,并尽到了自己的义务,并指出这是第一起此类事件。

?????????对这起事件的责任缺口感到困惑的法官寻找了以前的判例。他在美国内战前 17 世纪和 18 世纪的“奴隶法典”中找到了一个判例。在美国内战之前,各州和各司法管辖区保持了独立的(也是非常不平等的)法律体系,用来管理奴隶的待遇、法律地位以及责任。大部分情况下,这些法则把奴隶描述为具有有限权利的财产,他们在主人那里获得有限的保护。这起案件中的法官看到了奴隶(他是法律上的“财产”,但同时也有能力作出自己独立的决定)和机器人地位之间的相似性。所以他判定,在这个案子里,合适的惩罚是清除机器人的记忆,让它忘掉目睹抢钱包的事。而且为了赔偿,机器人要被交给受害方托管 12 个月。受害者觉得这个决议还不错,而且很乐意在接下来的一年里,拥有一个免费又听话的仆人。你因为暂时不能使用机器人而感到不开心,而且惩罚期结束后还得重新训练它,但这总比因为伤害罪而坐牢要强多了。

????????于是,一系列新的判例和法律体系诞生了。

?

?

0efa48400e9c49b9a4ceaa9c90552f0d.png

?

?

AI 的“失忆”惩罚:是解决犯罪的最佳方式吗?

??????????

? ? ? ?我们的法律并没有要求道德行为体必须具有人性或意识,就像 BP“深水地平线”案件中表现的那样。回想一下,合成智能通常都配有机器学习程序,这些程序会根据训练集的示例发展出独特的内在表征。它可能是你的法定代理人,但既然你不知道它在干什么,那么作为它的委托人,你也不用负责任,而它需要承担责任。问题是,如果你认为合成智能可以犯罪,那你又该如何训导它呢?在这起案件中,法官有效地惩罚了机器人的主人,并给予了受害者补偿。但是,这对机器人来说公平吗?

?

作为参考,我们可以考虑一下处置公司的方法。很明显,你不能用惩罚人类的方式来惩罚公司。你不能判处一家公司 10 年监禁或者剥夺它的政治权利。用 19 世纪末英国大法官爱德华·瑟洛(Edward Thurlow)的话说:“你怎么会指望一家公司有良心呢?它没有灵魂可以下地狱,也没有身体可以让你施以暴力。

????????

39ddbea92b5342b5ac2248e50875cba0.png

?

????????这里的关键在于,不管是人、公司,还是合成智能,他们都有一个共同点,那就是都有一个目标或目的。一个人可能会因为各种原因犯罪,比如为了功利,或者为了消灭情敌……而我们给予的惩罚也和目标相关:我们可能会剥夺犯罪者的生命(比如判死刑)、自由(比如关进监狱)或者追求幸福的能力(比如发布限制令)。当公司犯罪时,我们不能把它们关起来。在这种情况下,我们会征收罚款。因为公司的主要目标是赚钱,罚款就成为一种对不良行为的有力震慑。我们也可以让合同无效,把公司驱逐出市场,或者让它的行为受到外部监督在极端情况下,我们甚至可以责令公司关门。

? ? ? ?当然啦,并不是所有犯罪的人受到的惩罚都一样。惩罚不仅要看犯的什么罪,还要看是什么人犯的罪。惩罚一个合成智能就需要限制它实现目标的能力。这种做法可能不会像对人那样造成心理上的影响,但是对于法律系统的威慑和改造目的来说还是很有用的。那些为了完成任务而设计的合成智能,在遇到困难的时候会为了达到目的会残忍地伤害阻止它的人或物体,对此,它也必须承担责任。请注意,和大多数大规模生产的产品不同,合成智能就像同卵双胞胎并不是同一个人一样每一个合成智能都会从自己独特的经历中学习,并且得出具有自己特色的结论。

?

我再举一个现代的例子,比如一个用机器学习算法实现的信用卡诈骗检测程序。它可能因为不小心把持卡人的种族考虑进来,或者独立发现了某些其他和种族相关的变量,就违反了反种族歧视法规。为了找到这种知识的源头而大动干戈是非常不切实际的行为,所以最终的惩罚可能就是删除整个数据库。

????????这可能听起来没什么大不了的,但其实并不是这样。对于银行或程序所有者来说,这可能会造成巨大的经济损失,因为这个程序是根据上亿笔实时交易进行了多年的调整才达到现在的性能的。所以,合成智能的所有者为了避免这种情况肯定会极力争取。

?

?

ccb3defa6c904ae68081bc7ada391b3e.jpg

?

合成智能的权利与责任:强制失忆与撤回行动的选择

???????

????????强制性失忆并非实现合成智能目标的唯一方法,撤回其行动的权利也是一种方法。事实上,合成智能的使用许可与合成智能对自身行为的责任是相辅相成的。例如,政府或保险公司可能会审批每一辆自动驾驶汽车,就像他们对待现在的汽车一样。对于管理医疗设备的计算机程序来说也是如此。未来,我们可能会通过撤回自动驾驶出租车的执照,或者删除自动交易程序上的账户凭证,来撤回它们的权利。

????????合成智能可以被赋予权利,也会承担责任,就像所有其他能够感觉、行动或作出选择的实体那样。处理此类问题的法律框架被称为“人格”。合成智能的拥有者大概率会赞同把合同权利和财产权利赋予人造人,因为这样做会潜在地免除他们个人资产的责任。和大多数预测不一样,这可不是对未来各种可能性的空想之一。相反,这种情况很难阻止,因为把每个 AI 都包装成合法的公司,效果会很好。如果我是一队自动驾驶出租车的所有者和运营商,我会考虑把每辆车都变成它自己法律实体的资产,因为我不想因为一个灾难性的错误而让整个公司垮掉。?

????????合成智能会让我们的生活更丰富,成功的几率更大,闲暇时间也更多。但是科技带来的好处会掩盖一个令人不安的事实:合成智能和人造劳动者会作为独立的道德行为体出现在各个地方。它们会工作,会帮主人赚钱,但不会考虑自己的行为对他人和社会造成的后果。

????????它们可能会像高频交易程序那样,从巨大的社会财富中搜刮出可观的份额,只为了让少数幸运儿获利。这样的事情已经在发生了。超乎常人的全知系统正在观察我们的个人和群体行为,然后引导我们去购买、去倾听、去观看、去阅读——而利益正在悄悄地流向别处。

?

?

?

?

文章来源:https://blog.csdn.net/weixin_40183036/article/details/135661085
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。