OpenAI 增强安全团队并赋予董事会对危险人工智能的否决权

发布时间:2023年12月19日

OpenAI?在扩展其内部安全流程方面的举措以应对有害 AI 的威胁,OpenAI高层推出了一份更新的“准备框架”。OpenAI 的目标是识别、分析和决定如何应对他们正在开发的模型中的“灾难性”风险。他们通过对模型的四个风险类别进行评估,并根据风险级别制定相应的应对措施。此外,OpenAI 还特别成立了一个“跨职能安全咨询小组”,负责审查和提出建议。他们的建议将同时发送给董事会和领导层,董事会有权推翻决策。这一举措旨在避免高风险产品或流程未经董事会的认可就被批准的情况发生。

这一举动应该是受先前OpenAI的CEO——Sam Altman的“离职事件”(事件的始末都是因为一个叫Q*的AI人工智能模型安全隐患问题)影响而作出的。该流程要求将这些建议同时发送给董事会和领导层,他们的理解是指首席执行官 Sam Altman 和首席技术官 Mira Murati 以及他们的副手。领导层将决定是运送还是冷藏,但董事会将能够推翻这些决定。

这有望避免传闻中所述的在董事会不知情或未经批准的情况下,高风险产品或流程获得批准的事件发生。当然,上述戏剧性的结果是两位更具批评性的声音被边缘化,并且任命了一些财力雄厚但并非人工智能专家的人(如布雷特·泰勒和拉里·萨默斯)。这些人可能在财务方面很敏锐,但并非专业的人工智能专家。

假设开发了一个模型来确保“关键”风险类别。OpenAI过去一直不吝表扬他们的模型有多么强大,以至于他们拒绝发布它们,这是很好的宣传。但如果风险是如此真实且OpenAI如此担心,我们是否能确保这种情况不会发生呢?也许这是一个不明智的决定。但无论如何,它并未被真正讨论到。

文章来源:https://blog.csdn.net/heehelcom/article/details/135091660
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。