OpenAI 公布2024选举虚假信息打击计划

发布时间:2024年01月19日

据统计,2024 年预计将有 50 多个国家举行大选,虚假信息的威胁成为人们关注的焦点。

人工智能聊天机器人 ChatGPT 和图像生成器 DALL-E 的开发商 OpenAI 近日宣布了一项新的措施,以防止在今年大选之前再次出现虚假信息滥用和误导事件。

本周一(1月15日),该公司宣布正在与美国历史最悠久的无党派公职人员专业组织——全美国务卿协会(NASS)合作,防止 ChatGPT 在 11 月美国总统大选前向用户输出一些错误信息。

例如,当被问及有关选举的问题时,如在哪里投票,OpenAI 的聊天机器人将引导用户访问美国投票信息的权威网站 CanIVote.org。该公司认为,这项工作的经验教训将为我们在其他国家和地区的工作提供借鉴。

1705550135_65a8a1376b18991dc5142.png!small?1705550136346

利用加密水印打击深度伪造

为了防止深度伪造,OpenAI 还表示将对其最新版人工智能图像生成器 DALL-E 3 生成的图像实施内容出处和真实性联盟(Coalition for Content Provenance and Authenticity,C2PA)的数字证书。

C2PA 是联合发展基金会(Joint Development Foundation)的一个项目,该基金会是一家总部位于华盛顿的非营利组织,其主要举措是内容真实性倡议(CAI)和起源项目,通过实施加密内容出处标准来应对数字时代的虚假信息和操纵行为。

包括 Adobe、X 和《纽约时报》在内的几家大公司都是该联盟的成员,并积极支持该标准的制定。

OpenAI 表示,它正在试验一种出处分类器,这是一种用于检测由 DALL-E 生成的图像的新工具。据其内部测试显示,即使图像经过常见类型的修改,早期结果也很有希望。他们计划将其提供给第一批测试者--包括记者、平台和研究人员--以征求反馈意见。

谷歌 DeepMind 也开发了类似的工具,利用 SynthID 对人工智能生成的图像和音频进行数字水印处理。Meta 也在尝试为其图像生成器开发类似的水印工具,不过马克-扎克伯格的公司很少分享相关信息。

OpenAI 称在发布新系统之前会对其进行红队测试,让用户和外部合作伙伴参与反馈,并建立安全缓解措施,以降低潜在的危害。

打击虚假信息具有挑战性

基于人工智能的文本分析平台 Copyleaks 的联合创始人兼首席执行官阿隆-亚明(Alon Yamin)在接受 Infosecurity 采访时表示十分鼓励 OpenAI 致力于打击虚假信息的行为,但实施起来可能具有挑战性。

他表示,今年的大选被认为是近代史上最大的选举年之一,不仅是在美国,在全世界范围内,人们都非常担心人工智能会被滥用于政治活动等,这种担心是完全有道理的。但正如我们多年来在社交媒体上看到的那样,由于用户群规模庞大,这些行动可能难以实施。

在英国,下一次大选应在 2024 年年中至 2025 年 1 月之间举行,信息专员办公室(ICO)于 1 月 15 日启动了关于生成式人工智能的系列咨询。

参考来源:OpenAI Announces Plans to Combat Misinformation Amid 2024 Elections - Infosecurity Magazine (infosecurity-magazine.com)

文章来源:https://blog.csdn.net/FreeBuf_/article/details/135679764
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。