美国网路安全暨基础架构安全管理署(CISA)及英国国家网路安全中心(NCSC)发表《安全AI系统开发指引》(Guidelines for Secure AI System Development),号称首份全球AI安全标准,从设计阶段强化系统安全性,以防范可能的资安风险。
这份指引是由包括美、英、德、法、日、韩、新加坡在内18国,以及微软、Google、OpenAI、Anthropic、Scale AI共23个网路安全组织参与制订。该指引提供AI系统开发的必要建议,并彰显开发AI系统,应遵循安全设计(Secure by Design)的原则。CISA指出,这份指引强调把客户安全、极度透明及权责、以及建立安全设计的组织架构列为优先要项。
这份指引适用于所有类型的AI系统,而不只是尖端模型,也涵括其他像是使用外部代管模型或API开发的系统。指引包含4个主要部分:安全设计、安全开发、安全部署及安全维运(operation and maintenance)。每部分都提出安全风险可能,以及避免方法,以协助资料科学家、开发人员、经理、决策者及负责人员进行决策,从开发过程中降低网路安全风险。
最新指引是美国拜登政府倡议强化AI系统安全及可控制性,以保障美国安全与利益的一环。白宫7月间取得7大AI公司自主管理AI风险的承诺,10月拜登签署首份AI行政命令,责成国土安全部制定AI安全标准,并推动全球组织采用。CISA也在同月发表10大资安错误配置,以协助企业组织及软体业者强化资安措施、降低攻击风险。