OpenAI周二宣布成立一个新的安全顾问委员会,负责监督与公司项目和运营相关的“关键”安全和安保决策。而值得注意的是,进入该安全顾问委员会的成员全部为该公司内部人员,包括OpenAI的CEO Sam Altman,外部人员一个也没有。
根据OpenAI公司博客上的一篇文章,安全顾问委员会将在接下来90天内负责评估OpenAI得安全流程和保障措施。然后,该委员会将向OpenAI董事会汇报其发现和建议,OpenAI表示,届时将以符合安全和安保的方式公布任何已采纳的建议的更新。
OpenAI周二表示,已开始训练新一代旗舰人工智能模型,以期超越目前的GPT-4大模型。“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往通用人工智能的道路上迈上一个新台阶,”OpenAI写道。“虽然我们很自豪地构建和发布在能力和安全方面都领先的模型,但我们欢迎在这个重要时刻进行深入讨论。”
除了Altman,安全顾问委员会的其他成员包括OpenAI董事会成员Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科学家Jakub Pachocki、OpenAI早期筹备团队的Aleksander Madry、安全系统负责人Lilian Weng、安保负责人Matt Knight和“人工智能对齐”(AI Alignment)负责人John Schulman。
安全不再优先 多名高层离职
过去几个月,OpenAI的技术团队中有多名安全方面的高层人员离职,这些前员工中有些人对OpenAI在AI安全方面的优先级下降表示担忧。
曾在OpenAI担任团队治理工作的Daniel Kokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时“负责任的行为”失去了信心,他在个人博客上写道。此外,OpenAI的联合创始人兼前首席科学家Ilya Sutskever在与Altman及其盟友的长期斗争后,于5月离职,据报道部分原因是Altman急于推出AI驱动的产品而牺牲了安全性能。
最近,前DeepMind研究员Jan Leike此前在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中,也辞去了安全研究员职务,他在一系列X平台的帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。同时,AI政策研究员Gretchen Krueger上周离开OpenAI,她也同意Leike的观点,呼吁公司提高问责制和透明度,并“更加谨慎地使用自己的技术”。
媒体报道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,包括前OpenAI董事会成员Helen Toner和Tasha McCauley。两人日前在媒体撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。
“根据我们的经验,OpenAI的自我治理无法承受利润激励带来的诱惑。”
倡导监管?塑造监管
此前有媒体报道,负责开发“超级智能”AI系统治理方法的OpenAI超级对齐(Superalignment team)团队被承诺获得公司20%的计算资源,但实际上却很少这部分资源。超级对齐团队自那以后被解散,其工作大部分被转交给“人工智能对齐”(AI Alignment)负责人John Schulman和OpenAI在12月成立的安全咨询小组。
虽然OpenAI一直在倡导AI监管,但也在努力影响塑造这些监管,该公司聘请了一名内部游说者和越来越多的外部律师事务所游说者,仅在美国游说方面该公司2023年第四季度就花费了数十万美元。最近,美国国土安全部宣布Altman将成为其新成立的人工智能安全和安保委员会(Artificial Intelligence Safety and Security Board)的成员,该委员会将为“安全和可靠的AI开发和部署”提供建议,以覆盖美国的关键基础设施。
而为了避免由于安全和安保委员会全部为内部高管而被认为是橡皮图章,OpenAI承诺聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家Rob Joyce和前美国司法部官员John Carlin。
然而,除了Joyce和Carlin,OpenAI尚未详细说明该外部专家组的规模和组成,也没有透露该组对委员会的影响力和权力的限制。有专家指出,OpenAI成立此类的企业监督委员会,类似于谷歌(177.4, -0.62, -0.35%)的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。