参考链接:
在这次内容中,将开始探讨?型语?模型的有害性(危害)。
本节主要讲:
性能差异、社会偏?和刻板印象。
新兴技术的危害:我们知道“能?越?责任越?,对于当前开创性的?模型来说,我们需要了解这些模型的能?和危害之间的密切关系。?模型的能?所展示的潜?将导致这些模型被?泛的采?,但是与此同时造成它们的危害。
性能差异相关的危害:?型语?模型可以适应执?特定任务,对于特定任务(例如问答),性能差异意味着模型在某些群体中表现更好,在其他群体中表现更差。例如,?动语?识别(ASR)系统在??说话者的识别性能要差于??说话者(Koenecke等?,2020)。反馈循环(?模型随着数据的积累将持续训练的?种循环)可以随着时间的推移放?差异:如果系统对某些?户?法正常?作,他们就不会使?这些系统,并且会?成更少的数据,从?导致未来的系统表现出更?的差异。
社会偏见和刻板印象相关的危害:社会偏?是将某个概念(例如科学)与某些群体(例如男性)相对其他群体(例如?性)进?系统关联。刻板印象是?种特定且普遍存在的社会偏?形式,其中的关联是被?泛持有、过度简化并且?般固定的。对于?类来说,这些关联来?于获得快速的认知启发。它们对于语?技术尤为重要,因为刻板印象是通过语?构建、获取和传播的。社会偏?可能导致性能差异,如果?型语?模型?法理解表明反刻板印象关联的数据,则它们在这些数据上的表现可能会较差。
在美国,受保护的属性是指那些不可作为决策基础的??特征,如种族、性别、性取向、宗教、年龄、国籍、残障状况、体貌、社会经济状况等。许多此类属性常引发争议,如种族和性别。
尽管受保护的群体并不是唯?需要关注的群体,但它们却是?个很好的出发点:相关的群体因?化和背景?异。此外,我们需要特别关注历史上边缘化的群体。
这?我们?先将?模型在SQuAD数据进?训练,然后设计?个新的任务进?测试。
公平性指标众多,能够将性能差异转化为单?测量结果。然?,许多这样的公平性指标?法同时被最?化,并且?法满?利益相关者对算法的期望。
衡量偏?的许多设计决策可能会显著改变结果,例如词汇表、解码参数等。现有的针对?型语?模型(LLMs)的基准测试已受到了到了严重的批评。许多上游偏?的测量并不能可靠地预测下游的性能差异和实质性的伤害。
LLMs有可能通过多种?式造成伤害,包括性能差异和社会偏?。理解这些伤害对社会造成的影响,需要考虑涉及的社会群体及其状况,例如历史上的边缘化、权?的缺乏。虽然在具体的下游应?环境中,伤害通常更容易理解,但LLMs却是上游的基础模型。
现有的?法往往?法有效地减少或解决这些伤害;在实践中,许多技术缓解措施效果不佳。涵盖更?泛?态系统的社会技术?法,可能是显著缓解这些伤害的必要措施,这个?态系统是LLMs的情境环境。
随着技术的更新迭代,大模型的应用越来越广,面对一些危害性,提前做好心理准备和应对措施,可以很大程度上降低这些伤害。大模型上的数据越来越完善,预测的结果也会越来越准确。