OpenAI安全团队动荡:核心成员流失与内部监控加剧
尽管OpenAI不断尝试通过招募新成员来强化其团队,但近期安全团队却遭遇了前所未有的“集体出走”风波,使得公司站在了舆论的风口浪尖上。更令人瞩目的是,在此敏感时期,OpenAI却宣布将对内部员工展开更为严格的安全监控。
自今年5月发布会后,安全团队的关键人物——负责人Ilya Sutskever和Jan Leike相继在推特上宣布离职,这标志着OpenAI“超级对齐”团队的正式解散。Jan Leike在离职后更是直接指责OpenAI对AI安全的投入不足,认为公司的“安全文化和流程已经让位于闪亮的产品”。
Ilya和Jan的离职只是冰山一角。据前OpenAI研究员Daniel Kokotajlo透露,原AGI安全团队中近一半的员工已经离职,其中包括ChatGPT架构师John Schulman、Scaling Law论文的共同作者Jeffrey Wu等核心成员。这些离职不仅反映了团队内部的不稳定,也引发了外界对OpenAI技术风险控制的担忧。
Kokotajlo本人也于今年4月辞职,他坦言对公司在构建通用人工智能系统方面的负责任行为失去了信心。他认为,OpenAI在盈利动机的驱使下,可能忽视了技术风险,导致了一系列危险行为。特别是自去年11月CEO奥特曼的“宫斗”事件后,公司内部的权力结构发生了变化,AGI安全和准备工作逐渐被边缘化。
为了应对这一危机,OpenAI开始加强内部监控。Business Insider报道称,公司最近发布了一则招聘信息,寻找一名技术方面的内部风险调查员,以强化组织对内部安全威胁的防御。这一举措引发了内部员工和立法者的广泛担忧,他们质疑公司是否采取了足够措施来确保其技术不会被滥用。
OpenAI表示,此举是为了应对来自某些国家的关联行为者试图利用AI模型进行恶意行为的威胁。同时,公司也承认曾遭遇黑客入侵并窃取机密信息的事件。然而,内部监控的加强是否真正能够解决这些问题,以及是否会引发新的信任危机,仍有待观察。
对于留在OpenAI的员工,Kokotajlo警告他们要警惕“群体思维”的影响。他认为,在科技巨头竞相开发AGI的过程中,大多数公司都会认为赢得竞赛将造福人类,但这种观点往往受到公司高层激励措施的影响而显得片面和荒谬。
总的来说,OpenAI安全团队的动荡和内部监控的加强不仅反映了公司在技术风险控制方面的挑战,也凸显了AI技术发展过程中面临的复杂伦理和社会问题。如何在追求技术创新的同时确保安全、负责任地发展AI技术,将是所有科技公司需要共同面对的重要课题。