据外电报道,Sam Altman 在推文中透露,OpenAI 将向美国人工智能安全研究所提供其下一代模型的早期使用权,作为其安全工作的一部分。
显然,该公司一直在与该联盟合作推动人工智能评估的科学发展。美国国家标准与技术研究所 (NIST) 已于今年早些时候正式成立人工智能安全研究所,尽管副总统卡马拉·哈里斯 (Kamala Harris)早在 2023 年英国人工智能安全峰会上就宣布了这一消息。
根据NIST 对该联盟的描述,它旨在制定基于科学和经验支持的人工智能测量和政策指南和标准,为全球人工智能安全奠定基础。
该公司与 DeepMind去年同样承诺与英国政府共享 AI 模型。
正如TechCrunch指出的那样,人们越来越担心 OpenAI 在寻求开发更强大的 AI 模型时,安全性不再是首要任务。
有人猜测,董事会出于安全方面的考虑,决定将 Sam Altman 踢出公司——他很快就恢复了原职。然而,该公司当时在一份内部备忘录中告诉员工,这是因为沟通中断。
今年 5 月,OpenAI 承认解散了其创建的超级对齐团队,以确保在公司推进生成人工智能工作的同时,人类的安全。
在此之前,OpenAI 联合创始人兼首席科学家 Ilya Sutskever离开了公司,他是该团队的领导者之一。同样是该团队领导者之一的 Jan Leike 也辞职了。
他在一系列推文中表示,他长期以来一直与 OpenAI 领导层在公司的核心优先事项上意见不一,并且安全文化和流程已经让位于闪亮的产品。
OpenAI在 5 月底成立了一个新的安全小组,但由包括 Altman 在内的董事会成员领导,引发了人们对自我监督的担忧。