奥特曼离开OpenAI安全委员会:可决定大模型是否发布_tiknovel-最新最全的nft,web3,AI技术资讯技术社区

奥特曼离开OpenAI安全委员会:可决定大模型是否发布

2024-09-17 19:58:56  浏览:111  作者:管理员
奥特曼离开OpenAI安全委员会:可决定大模型是否发布

9月17日消息,据外电报道,OpenAI 首席执行官 Sam Altman 将离开 OpenAI 于 5 月成立的内部委员会,该委员会负责监督与公司项目和运营相关的关键安全决策。

OpenAI在今天的一篇博文中表示,安全与保障委员会将成为由卡内基梅隆大学教授Zico Kolter担任主席的独立董事会监督小组,成员包括 Quora 首席执行官 Adam D'Angelo、美国退役陆军将军 Paul Nakasone 和前索尼执行副总裁 Nicole Seligman。

他们都是 OpenAI 董事会的现任成员。

OpenAI 在帖子中指出,委员会对OpenAI 的最新 AI 模型o1进行了安全审查——尽管 Altman 仍参与其中。该公司表示,该小组将继续定期接受 OpenAI 安全团队的简报,并保留推迟发布的权力,直到安全问题得到解决。

OpenAI 在帖子中写道:作为其工作的一部分,安全委员会将继续定期收到有关当前和未来模型的技术评估报告,以及持续发布后监测报告。我们正在基于我们的模型发布流程和实践,建立一个综合的安全框架,明确定义模型发布的成功标准。

Altman 离开安全与保障委员会之前,五名美国参议员在今年夏天致 Altman 的一封信中对 OpenAI 的政策提出了质疑。

OpenAI 曾经专注于人工智能长期风险的员工中,近一半已经离职,前 OpenAI 研究人员指责Altman 反对真正的人工智能监管,而倾向于推进 OpenAI 企业目标的政策。

正如他们所说,OpenAI 大幅 增加了 在联邦游说方面的支出,2024 年前六个月的预算为 80 万美元,而去年全年的预算为 26 万美元。

今年春天早些时候,Altman 还加入了美国国土安全部的人工智能安全与安保委员会,该委员会为美国关键基础设施中人工智能的开发和部署提供建议。

即使 Altman 被撤职,也几乎没有迹象表明安全委员会会做出严重影响 OpenAI 商业路线图的艰难决定。

值得注意的是,OpenAI 在 5 月份表示,它将寻求通过委员会解决对其工作的有效批评——当然,有效批评取决于旁观者的看法。

5 月份,OpenAI 前董事会成员海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley)在《经济学人》的 一篇专栏文章中表示,他们认为目前的 OpenAI 不值得信任,无法承担责任。

他们写道:根据我们的经验,我们认为自治无法可靠地承受利润激励的压力。

而OpenAI的盈利激励还在不断增长。

据传,该公司正在筹集65 亿美元以上的资金,这将使 OpenAI 的估值超过 1500 亿美元。为了达成这笔交易,OpenAI 可能会放弃其混合非营利性公司结构,该结构旨在限制投资者的回报,部分原因是确保 OpenAI 与其创始使命保持一致:开发造福全人类的通用人工智能。


评论区

共 0 条评论
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~

【随机内容】

返回顶部