前openai高管萨姆·奥特曼(Sam Altman)指责他选择了“闪亮的产品”,而不是人工智能的安全

2024-10-28 16:32来源:本站

  

  

  本周二,OpenAI一位研究安全问题的高管辞职。

  简·莱克说他已经到了“崩溃的边缘”。

  他补充说,山姆·奥特曼的公司优先考虑的是“闪亮的产品”,而不是安全。

  OpenAI的一位前高级安全主管正在详细阐述这一点。

  周二晚上,这家人工智能公司超级联盟小组的负责人简·莱克(Jan Leike)宣布辞职,他在X上直言不讳地写道:“我辞职了。”

  现在,三天后,雷克分享了更多关于他退出的信息,并表示OpenAI没有足够重视安全问题。

  “在过去的几年里,安全文化和流程已经让位于闪亮的产品,”雷克周五在X上的一条长帖子中写道。

  本文仅对Business Insider订阅者开放。成为业内人士,现在就开始阅读。有账户吗?.

  雷克在他的帖子中说,他加入OpenAI是因为他认为这将是世界上研究如何“引导和控制”人工通用智能(AGI)的最佳场所,这种人工智能可以比人类思考得更快。

  “然而,在相当长的一段时间里,我一直不同意OpenAI领导层对公司核心优先事项的看法,直到我们最终达到了临界点,”雷克写道。

  这位前OpenAI高管表示,该公司应该将大部分注意力放在“安全、监控、准备、安全、对抗性稳健性、(超级)一致性、保密性、社会影响和相关主题”上。

  但雷克表示,他的团队——致力于如何将人工智能系统与人类的最佳利益结合起来——在OpenAI是“逆风航行”。

  他写道:“我们早就应该认真对待人工智能的影响,”他补充说,“OpenAI必须成为一家安全第一的人工智能公司。”

  有关的故事

  莱克最后给OpenAI员工写了一封信,鼓励他们改变公司的安全文化。

  “我就指望你了。全世界都指望着你们。”

  周二,Leike和另一位超级联盟团队负责人Ilya Sutskever在几个小时内离开了OpenAI。

  在一份关于X的声明中,奥特曼称赞苏斯克维尔“无疑是我们这一代最伟大的思想之一,是我们这个领域的指路明灯,也是一位亲爱的朋友。”

  “没有他,OpenAI就不会有今天,”奥特曼写道。“尽管他有一些个人意义重大的事情要去做,但我永远感激他在这里所做的一切,并致力于完成我们共同开始的使命。”

  奥特曼没有对莱克的辞职发表评论。

  上周五,《连线》(Wired)报道称,OpenAI已经解散了两人的人工智能风险团队。据《连线》杂志报道,那些调查人工智能失控危险的研究人员现在将被吸收到公司的其他部门。

  OpenAI没有回应Business Insider的置评请求。

  这家人工智能公司最近推出了一款新的大型语言模型gpt - 40,在过去几周受到了高调的人事变动的冲击。

  据the Information报道,除了雷克和苏斯克沃的离职,人力资源副总裁黛安·尹(Diane Yoon)和非营利组织和战略计划负责人克里斯·克拉克(Chris Clark)也已离职。上周,商业内幕网报道,另外两名从事安全研究的研究人员辞职了。

  其中一名研究人员后来写道,他已经对OpenAI“在AGI时代的负责任行为”失去了信心。

  Business Insider的母公司阿克塞尔·斯普林格(Axel Springer)签署了一项全球协议,允许OpenAI根据其媒体品牌的报道训练其模型。

三九点资讯声明:未经许可,不得转载。