大家好,近年学界与工业界都已开始关注并热议 AI 伦理治理问题,也在伦理规范研究上取得了初步进展。然而,由于 AI 伦理的抽象性,如何定量化度量智能系统的伦理,还是一个未知的难题。
李学龙教授团队在《中国科学:信息科学》的《人工智能伦理计算》一文,探讨了伦理可能的度量方式,尝试建立 AI 伦理的定量计算框架,指出伦理计算将是促进技术伦理实践的关键交叉领域和构建伦理规范的重要基础工具,希望能够引发更多关于人工智能伦理的思考。
多模态认知计算、生成式大模型等技术的突破加速了智能系统在医疗、教育等各领域的应用,智能系统越来越多的参与人类生活和决策,技术社会化的深入引发了一系列技术伦理问题的讨论。
伦理问题的讨论由来已久,阿西莫夫的科幻小说中曾提出了著名的机器人三定律用以限制人工智能行为,但随着技术社会化的深入,我们的伦理忧虑显然已不再处于科幻小说或电影的虚构场景。手术机器人是否值得信任,辅助决策系统的决策是否公正,生成模型的成果是否侵犯了版权,这些技术伦理问题都是当下与个人切身相关,迫切需要更具体且可操作的人工智能技术伦理治理方案。
图 1:AI 应用场景决策要素对比
作为人工智能发展的重要议题,人工智能伦理治理引起了各界的广泛关注。联合国教科文组织于 2021 年 12 月发布了《人工智能伦理问题建议书》用于规范人工智能技术的发展,同时各个国家也积极参与到人工智能治理的讨论中来。研究表明,全球各国已经在技术透明度、公平公正、不伤害、隐私等方面形成了初步共识。
图 2:主要的人工智能伦理原则
2023 年,科技部、教育部、工业和信息化部等十个部门联合发布了《科技伦理审查办法(试行)》,重点关注了智能领域相关技术在实际应用中产生的技术伦理审查问题,这是我国迈出科技伦理治理实践的关键一步,为人工智能领域健康发展提供了方向指引。
然而需要清醒地意识到,人工智能伦理治理在进步的同时,依然面临着诸多问题。如何确保智能系统以善意、公平的方式做出决策?如何衡量一个系统的伦理表现或者如何评价其决策结果?如何建立统一、明确的伦理规范?导致种种问题的深层原因,在于伦理本身的抽象性。关注伦理的定性分析,缺少定量计算,导致相关规范难以付诸实践,这也成为人工智能伦理治理的阿克琉斯之踵。
人工智能伦理计算是人工智能和伦理学等学科的交叉领域,通过定量描述、度量或模拟技术对伦理原则进行数学符号化或算法化,并在此基础上约束智能算法的伦理表现。通过伦理计算,我们寻求机器伦理决策的量化或模拟思路,例如,如何对某个决策的公平性、善意程度进行度量,或者机器是否可能学习人类道德决策的方式。
根据智能系统的在伦理认知程度和伦理决策自主化程度上的不同,将伦理计算划分为高阶伦理认知和低阶伦理认知两类计算范式。
图 3:AI 伦理计算范式
2.1 高阶认知伦理计算:规范 AI 意图
高阶认知伦理计算旨在构建伦理推理模块,使计算机能够学习模仿人类的道德决策机制,规范高自主性智能系统的道德决策意图。
电车难题是一个经典的伦理困境命题,同时也是困扰自动驾驶系统发展已久的问题。对于这类困境我们不会有一劳永逸的选择,不同的道德决策情境和不同的哲学观点(结果主义伦理学、义务伦理学、美德伦理)都可能导致差异化决策。此时,在系统中引入高阶伦理计算,能够基于哲学假设或人类决策经验等模仿学习人类的决策机制,计算出可行的机器决策,进而实现规范 AI 系统的意图。
图 4:电车难题示意图
高阶认知伦理计算思路由于试图理解和模拟人类伦理决策的机制,会面临人类伦理决策动机复杂、决策场景多样的困难,且机器决策要求可解释性也会为这类思路带来困难。尽管如此,它依然有助于理解人类伦理决策的机制,也或有助于实现对更高自主性机器的有效控制。
2.2 低阶认知伦理计算:约束 AI 行为
低阶认知伦理计算侧重于建立伦理度量方法,无需深入理解伦理机制,通过对抽象伦理概念的度量和约束优化,实现对 AI 行为的直接约束。此时的伦理计算并不关注系统在伦理决策背后的道德动机,目标是构建能够有效约束 AI 行为的度量指标。
其中,公平机器学习的研究是典型应用,关键问题是如何定义系统公平性。通常表现为在算法决策中减少对某些敏感属性或受保护属性的偏见。通过设定公平性指标,可以量化系统在公平指标上的表现,进一步优化伦理决策。
图 5:公平性研究示例
低阶认知伦理计算通过伦理度量提供对抽象伦理概念的计算描述,以提高伦理表现。然而,这一方法也面临着诸多问题。指标的量化需要反映伦理这一动态、发展因素的特征,同时只考虑结果的指标度量也存在简化,因此明确量化指标的评估和适用范围也是重要问题。尽管如此,通过量化定义去度量和改进伦理诉求,为伦理治理提供了重要辅助,这也是当前发展伦理计算的重要意义。
总的来说,上述两种范式根据智能系统的伦理认知和决策自主程度来选择适当的方法,以确保系统行为符合伦理要求。不论高自主性系统(如自动驾驶汽车和手术机器人)还是低自主性系统(如辅助决策和辅助设计),伦理计算都旨在通过定量计算的方式,规范其意图或者直接约束其行为。
哲学伦理学尤其是规范伦理学(研究道德决策的原则、机理,即为何做出某些道德决策的动因)对伦理计算有着重要影响。在当前 AI 伦理研究中主要关注的哲学观点有三类,分别是结果主义伦理学 (Consequentialism)、义务伦理学 (Deontology) 和美德伦理 (Virtue ethics),这些不同流派反映了人类伦理道德决策的不同倾向,通过不同的原则,甚至综合经验、情感等因素的考量,伦理计算可以推理出复杂情境下道德决策。
道德决策的基本要素就是道德主体,以及道德行为、决策背景和决策后果。以考虑单个主体的道德决策为例,智能体需要在决策背景等信息上进行决策后果的判断和道德决策。
结果主义伦理学又常称作功利主义,采用这一哲学基础的系统,倾向于权衡每种选择的后果并选择最大道德收益结果的选择,因此在计算时功利主义可以通过在已有决策背景下,最优化决策的道德收益函数从而得出决策,其中,决策收益需要通过对一系列决策序列及其决策背景所对应的决策后果进行考察,判断最优的决策序列。但事实上,决策时往往并非所有信息都是准确的,此时就涉及到在概率意义下优化决策结果,也会涉及到贝叶斯因果推理相关研究。
义务伦理学则强调决策者尊重特定条件下的义务和权利,此时的行为主体会倾向于按照既定社会规范行事。采用这一决策哲学的系统在计算量化中可能会涉及逻辑规范的表达或者某些规则约束。
美德伦理学要求决策者根据某些道德价值来行动和思考,同时,具有美德的行为主体会表现出一种被他人认可的内在动力。品格高于行为,良好的品格会导致良好行为的产生。这一规范伦理理论不同于优化结果的功利主义或者遵守规则的义务伦理学,将更加偏向于从实践中学习,在计算中需要从某些经验集数据中进行学习,将会利用更多描述性伦理(研究人类的伦理决策,并不其做出评价)的经验结果,同时也天然地与当前各类数据挖掘、学习算法存在紧密的联系。
通过上述讨论可以发现,伦理计算问题是人工智能与哲学伦理学等高度交叉的跨学科研究课题,其计算策略、适用范围还需要更多跨学科的探讨。
随着智能深入到人类社会的各个领域,伦理治理已经成为人工智能健康、可持续发展的必答题。伦理计算的理论与技术研究,能够推动解决抽象伦理定量分析的难题,这或许将成为约束人工智能遵循人类伦理的一把锁,同时也是打通 AI 应用落地的一把钥匙。
人工智能是大势所趋,相关的立法和规范也会逐步出现,这些规则由谁来制定?是熟悉领域的科研人员,还是并不足够了解具体技术的群体?这个问题很难回答,但至少,人工智能伦理的数值度量可以为规则指定提供一个参考指标体系。
伦理计算的核心在于通过量化计算将抽象伦理具体化,强调将伦理原则融入计算技术的实践中,例如公平、透明性、隐私保护和可信等。这不仅有助于人工智能的可控发展,鼓励研究人员更深入地理解技术伦理并在构建算法系统时更主动地考虑伦理问题,同时也将为制定伦理治理的原则、法律法规等提供至关重要要的技术参考指标。
然而,伦理计算也面临着诸多挑战。在自主搜救、无人巡检等开放性的临地安防场景中,智能系统需要动态感知和适应环境变化的能力,以减少潜在的伦理风险。同时,伦理决策通常牵涉到情感和认知等因素,需要借助多模态认知计算和因果推理等技术来应对伦理推理的复杂性,也需要更多关于人类伦理决策方式的认识。这些挑战需要跨学科深入合作,以确保伦理计算技术能够有效处理不断演化的伦理问题。
总之,人工智能伦理计算将作为推动伦理治理发展的重要工具,通过促进伦理治理理论与实践的迭代发展,伦理计算将更安全地释放人工智能的潜力,并有望在协助制定法规等方面发挥作用,确保人工智能以符合伦理和道德原则的方式发展,最终造福人类社会。