OpenAI 前员工 Kelsey Piper 爆料,任何员工的入职文件说明中都包含一项:「在离开公司的六十天内,你必须签署一份包含『一般豁免』的离职文件。

自从 Ilya 和 超级对齐负责人 Jan 离职后,OpenAI 内部还是心散了,后续也有越来越多的人离职,同时也引发了更多的矛盾。

昨天,争议的焦点来到了一份严格的「封口协议」。

 

OpenAI 前员工 Kelsey Piper 爆料,任何员工的入职文件说明中都包含一项:「在离开公司的六十天内,你必须签署一份包含『一般豁免』的离职文件。如果你没有在 60 天内完成,你的股权获益将被取消。」

 

 

这份引发风浪的文件截图,让 OpenAI CEO 迅速下场回应:

 

我们从未收回任何人的既得权益,如果人们不签署分离协议(或不同意不贬损协议),我们也不会这样做。既得股权就是既得股权(句号)。

 

关于 OpenAI 如何处理股权,山姆・奥特曼的其他回应如下:

 

 

仅仅 15 分钟后,爆料者再次质疑并大胆提问:既然你已经知道了,那么,此前员工的限制协议会取消吗?

 

因为大部分人,想要的是一个明确的解决方案,而不只是歉意:

 

爆料者 Kelsey Piper 同时表示:「至于我这样做是否对 Sam 不公平 —— 我的意思是,我认为这是 CEO 的职责之一。有时你不仅需要道歉,而且人们还会吹毛求疵,想要澄清,想要看到政策已经改变的证据。」

 

去年有报道称,OpenAI 员工薪酬中最常见的一种组合是:30 万美元的固定基本工资,以及每年约 50 万美元的 PPU(利润参与单位)补助金,这是一种股权补偿形式。也就是说,在 PPU 赠款的四年期中,大多数 OpenAI 员工预计至少获得 200 万美元的股权薪酬。

 

如果消息为真,大部分「被离职」的前员工应该都想「坚持到底」。

 

在这场风波之外,还有一条争议同时进行:有关 OpenAI 将如何处理安全和未来风险。

 

据多家媒体报道,随着最近 Ilya Sutskever、Jan Leike 两位超级对齐团队的共同领导者离职,OpenAI 的超级对齐团队已被解散。周五,Jan Leike 还发布了一系列帖子,怒斥 OpenAI 及其领导层忽视「安全」而偏爱「光鲜亮丽的产品」。

 

今天早些时候,OpenAI 联合创始人 Greg Brockman 对该问题进行了长文回应。

 

在这篇落款为「Sam and Greg」的文章中,Brockman 指出:OpenAI 已采取措施确保 AI 技术的安全开发和部署。

 

我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续从外部为 OpenAI 的使命做出贡献。鉴于他的离开所引发的问题,我们想解释一下我们是如何考虑整体战略的。

首先,我们已经提高了人们对 AGI 风险和机遇的认识,以便世界能够更好地为其做好准备。我们多次展示了扩展深度学习的惊人可能性,并分析了其影响;在此类呼吁流行之前,我们就呼吁对 AGI 进行国际治理,并帮助开创了评估人工智能系统灾难性风险的科学。

其次,我们一直在为安全部署能力越来越强的系统奠定必要的基础。首次使用一项新技术并不容易。例如,我们的团队做了大量工作,以安全的方式将 GPT-4 推向世界,此后,我们根据部署过程中的经验教训,不断改进模型行为和滥用监控。

第三,未来将比过去更加艰难。我们需要不断提升我们的安全工作,以应对每一个新模型的风险。去年,我们采用了「Preparedness Framework」,以帮助将我们的工作系统化。

现在是谈论我们如何看待未来的好时机。

随着模型的功能不断增强,我们预计它们将开始与世界进行更深入的整合。用户将越来越多地与由许多多模态模型和工具组成的系统进行交互,这些系统可以代表他们采取行动,而不是与一个只有文本输入和输出的单一模型对话。

我们认为,这些系统将给人们带来极大的好处和帮助,而且有可能安全地提供这些系统,但这需要大量的基础工作。这包括围绕它们在训练过程中与什么联系在一起的深思熟虑,解决困难问题(如可扩展的监督)的方案,以及其他新型安全工作。在朝着这个方向发展的过程中,我们还不确定何时才能达到发布的安全标准,如果这将推迟发布时间,也没关系。

我们知道,我们无法想象未来所有可能发生的情况。因此,我们需要一个非常严密的反馈回路、严格的测试、每一步的慎重考虑、世界一流的安全性,以及安全与功能的和谐统一。我们将继续针对不同的时间尺度开展安全研究。我们还将继续与各国政府和许多利益相关方就安全问题开展合作。

在通往人工智能的道路上,没有行之有效的指南。我们认为,经验性的理解可以帮助我们指明前进的道路。我们相信,既要实现巨大的发展前景,也要努力降低严重的风险;我们非常认真地对待我们在这方面的角色,并仔细权衡对我们行动的反馈意见。

— Sam and Greg

 

但效果似乎不尽如人意,甚至受到了嘲讽:

 

AI 领域的活跃学者 Gary Marcus 也说:透明度胜于雄辩。

 

看起来,Greg Brockman 并不打算对政策或承诺方面做出更具体的回应了。

 

在 Jan Leike 和 Ilya Sutskever 离开后,另一位 OpenAI 联合创始人 John Schulman 已转而负责超级对齐团队正在做的工作,只是不再有一个专门的部门,而是一个松散关联的团队。嵌入公司各个部门的研究人员小组。OpenAI 将其描述为「更深入地整合(团队)」。

 

争议背后的真相是什么呢?也许 Ilya Sutskever 最清楚,但他选择了体面离场,今后可能也不会再谈起这件事。毕竟,他已经有了「一个对个人而言非常有意义的项目」。

Loading

作者 yinhua

发表回复