继OpenAI共同创办人Ilya Sutskever离职之后,另一名OpenAI研究人员Jan Leike也在上周五(5/17)宣布开该公司。Leike是OpenAI超级对齐(Superalignment)团队的共同主管,宣称在最近这几年,OpenAI推出绚烂产品的重要性已经超越了安全的文化与程序。同一天,OpenAI的两名共同创办人Greg Brockman与Sam Altman便对此作出回应。而根据《彭博社》(Bloomberg)的报导,OpenAI实际上已经解散了成立不到一年的Superalignment团队。
OpenAI是在2023年7月设立超级对齐团队,该团队的任务是「确保那些具备超级智慧、比人类还聪明的AI系统得以遵循人类的意图」,当时OpenAI亦承诺要在未来的4年将投入20%的运算能力,来解决超级智慧的对齐问题,而该团队的两名共同主管即是相继于上周离职的Sutskever与Leike。
Leike表示,离开该工作是他做过最困难的事情之一,因为他们迫切需要弄清楚如何引导与控制AI系统,当初加入的原因即是因为他认为OpenAI是世上最适合执行此一研究的最佳场所,然而,很长一段时间以来,他一直不同意OpenAI领导阶层关于公司核心优先事项的看法,最终达到了临界点。
他认为应该要把更多的资源用在下一代模型的安全性、监控、对抗鲁棒性、超级对齐、机密性及社会影响等相关议题,但过去几个月该团队一直在逆势中挣扎以获取运算资源。Leike指出,打造比人类更聪明的机器于本质上就是一项危险的工作,代表全人类的OpenAI肩负著巨大责任,OpenAI必须成为一家以安全为优先的通用人工智慧(AGI)公司。
Brockman及Altman也联名对Leike的看法作出了回应,表示已经提高了对AGI所带来风险与机会的认识,号召AGI的国际治理,并协助创立了评估AI系统灾难性风险的科学;同时也替日益强大之AI系统的安全部署奠定了基础;未来还会不断提升安全工作以应对每个新模型的利害关系。
不过,这两位OpenAI的共同创办人也坦承,第一次就要确保新技术的安全性并不容易,也没有可用来引导AGI路径的剧本,相信实证可以帮助指引前进的方向,他们非常重视自己的角色也会谨慎看待对OpenAI行动的回馈意见。
今年才成立的AI问责联盟(Coalition for AI Accountability)则发动了一项连署行动,指出OpenAI从一非营利机构转向至快速扩展AI模型,其高阶管理团队在监督与问责上一再出现失败,对于像AI这类重要及危险的技术来说,并不适用于某些科技公司受到赞扬的「打破常规及快速行动」态度。要求OpenAI成立一个由AI安全及公民领导者组成的非营利董事会;确保其非营利组织不受营利子公司的财务影响;向非营利组织、监管机构及学术界建立早期存取模式;扩大专注于安全及道德的内部团队并赋予否决权;以及对OpenAI的产品承担明确的法律责任。