继英国去年主办的第一届AI安全高峰会(AI Safety Summit),邀请28个国家共同签署《布莱切利宣言》(Bletchley Declaration),就AI的风险达成共识之后。本周于韩国首尔举行的AI高峰会(AI Seoul Summit)则凝聚了全球的16家AI业者,针对前沿AI的安全性达成承诺(Frontier AI Safety Commitments),包括Amazon、Anthropic、Google、IBM、Inflection AI、Meta、微软、OpenAI及三星等。
这16个组织承诺自愿负责任地开发与部署前沿AI模型与系统,同时预计于明年初在法国举行AI行动高峰会(AI Action Summit)之前,发布一个专注于严重风险的安全框架。
相关组织承诺开发与部署前沿AI模型系统时得以有效的识别、评估及管理风险,涵盖自训练到部署的整个AI生命周期,将同时考量内部与外部的评估;它们也将设定一个模型或系统构成严重风险的阀值,该阀值也将参考国际协定;同时阐明如何识别及实施风险缓解措施,以将风险保持在规定的阀值内。
而在极端情况下,倘若无法透过缓解措施将风险保持在阀值以下,这些AI巨头承诺将停止开发或部署其模型或系统。