OpenAI成立新的风险监督团队,Sam Altman领导

OpenAI 近日表示,已经成立了一个由高级管理人员领导的安全和安保委员会。与此同时,OpenAI还透露,已开始训练下一个前沿模型。 OpenAI 在本月早些时候解散了一个负责人工智能长期风险的监督小组。
2024-05-30 16:43:08  |   作者:开源爱好者  |   来源:

OpenAI成立新的风险监督团队,Sam Altman领导

OpenAI 近日表示,已经成立了一个由高级管理人员领导的安全和安保委员会。与此同时,OpenAI还透露,已开始训练下一个前沿模型。 OpenAI 在本月早些时候解散了一个负责人工智能长期风险的监督小组。
2024-05-30 16:43:08
作者:开源爱好者
来源:

OpenAI 周二表示,在5月中旬解散了之前的监督委员会之后,该公司已经成立了一个由高级管理人员领导的安全与安保委员会。这个新委员会将负责向OpenAI董事会提出关于“OpenAI项目和运营的关键安全和安保决策”的建议。

在新委员会成立的消息传出之际,OpenAI还宣布已经开始训练其“下一个前沿模型”。

图片1.jpg

OpenAI 在一篇博客文章中表示,它预计“新系统将引领我们进入通往AGI(通用人工智能)的下一个能力水平”,AGI 是一种与人类一样聪明或比人类更聪明的人工智能。

据博文称,除了Altman之外,安全委员会还将由Bret Taylor、Adam D'Angelo和Nicole Seligman组成,他们都是 OpenAI 董事会的成员。

在新监督团队成立之前,OpenAI 解散了专注于人工智能长期风险的团队。在此之前,OpenAI 联合创始人Ilya Sutskever和主要研究员Jan Leike这两位团队负责人都宣布从这家微软支持的初创公司离职。

Leike在本月早些时候写道,OpenAI 的“安全文化和流程已经被对闪亮产品的追求所取代”。对于Leike的离职,Altman在社交媒体平台 X 上表示,他对莱克的离开感到难过,并补充说 OpenAI “还有很多事情要做”。

博文称,在未来 90 天内,新成立的安全小组将评估 OpenAI 的流程和保障措施,并向公司董事会分享他们的建议。OpenAI 将在晚些时候提供其采纳建议的最新情况。

随着支持 ChatGPT 等应用的大模型越来越先进,人工智能的安全性一直是讨论的焦点。人工智能产品开发人员也想知道,AGI 何时到来以及会伴随着怎样的风险。