OpenAI 最新宣布将成立一个“集体对齐”(Collective Alignment)的全新团队!
这个团队主要由研究人员和工程师组成,旨在专注于设计和实施收集公众意见的流程,以协助训练和调整AI模型的行为,从而解决潜在的偏见和其他问题。
众所周知,为了安全考虑,AI要想真正进入到人类社会,一定要做好价值观对齐。OpenAI 认为让公众参与进来非常重要,这是为了确保AI模型与人类价值观保持一致的关键举措。
早在 2023年5月,OpenAI 就宣布启动“民主人工智能”(Democratic Inputs to AI grant program)计划,并从近1000名申请者中挑选出了十大民主人工智能团队,授予这些团队总额达10万美元的资金用于设计、开发用来让公众治理人工智能的的工具。
比如前5个团队做的项目如下:
人工智能政策判例法:?创建一个全面的案例库支持人工智能的交互场景。鼓励专家和公众的参与,塑造复杂情况下的人工智能行为。
民主政策制定的集体对话:?制定反映知情公众意愿的政策,通过采用集体对话的方式来弥合人口鸿沟,确保政策的制定更具民主性。
大规模审议:通过AI辅助的视频通话进行小组对话,增强参与者之间的联系和理解。
民主微调:?通过从聊天对话中提取价值观,创建价值观道德图,用于微调人工智能模型,确保了模型在跨文化和意识形态范围内的一致性。
激励AI对齐:?制定实时、大规模的参与指南的协调平台,旨在实现透明和民主的人工智能模型协调。
在资助计划进行的过程中,OpenAI 和项目小组也提出了一些有趣的发现:
项目小组发现公众的观点变化的速度非常快,甚至可能每天都不同!这对于确定意见,收集不容易改变的核心价值观来说非常困难。
研究小组发现在线招募的人普遍更积极支持人工智能,因此并不可以代表中立的观点。而且,由于咨询平台的限制,跨越鸿沟来吸引多样性参与者是非常困难的。
当一些人对某个问题持不同意见时,寻找共识可能会很困难。比如在会议上,少数人坚决认为不应该限制人工智能助手回答某些问题,而多数投票结果与他们相左。为了解决这个问题,一些团队努力寻找在两极分化的群体中得到大力支持的政策提案。
在代表群体意志时,要达成的包容各种观点的共识可能是一个巨大挑战。一些团队采用了一些创新的方法,比如Inclusive.AI团队研究了不同的投票方法,以确保每个人都有平等发言的机会。
总的来说,人工智能治理是一个复杂的任务,需要在捕捉多样观点的同时确保公平、民主和透明,还要确保人工智能的发展与人类的价值观保持一致,并在民主进程中发挥积极作用。这是一个持续演化的领域,需要不断的改进和调整,以适应不断变化的社会需求和技术发展。希望OpenAI此举能够帮助人类找到更多的方法来有效治理人工智能,以实现更公平和包容的社会。
?