SAS副总裁Reggie Townsend负责带领SAS数据伦理措施(Data Ethics Practice)团队,他在今年年会上揭露AI监管与治理新产品,包括模型卡、AI治理顾问服务,另也释出AI监管工具。(摄影/王若朴)
不只主打生成式AI,在今年Innovate 2024年会上,数据分析大厂SAS还聚焦另一关键领域:AI监管与治理,并推出新工具和服务,来因应日渐高涨的企业需求。
这些新产品,包括整合在云端资料分析平台Viya、犹如营养标示卡的AI模型卡(Model Cards),清楚显示模型各种指标,如准确率、模型漂移等。另一产品是SAS AI治理顾问服务,透过会议辅导方式,来协助企业落实合规的AI治理,同时,他们还释出可信任AI生命周期(Trustworthy AI Life Cycle)工作流程,专门对应美国国家标准暨技术研究院(NIST)制定的AI风险管理框架需求,方便企业实践风险管制。
3年前就开始布局AI监管发展蓝图
这不是SAS第一次聚焦AI监管与治理。早在2019年,SAS在主力产品Viya平台新添自动化机器学习建模功能的同时,就高调宣布了机器学习模型的解释功能,来因应企业和监管单位对AI黑盒子的担忧,借此提高模型透明度和可解释性。
后来,2021年,他们进一步锁定AI伦理,发起数据伦理措施(Data Ethics Practice),由时任SAS总监、现任SAS副总裁的Reggie Townsend担任指挥官角色。当时,他才刚被任命为美国商务部国家人工智慧咨询委员会(NAIAC)成员,负责对美国政府提供AI发展建议。而对内,他则负责组成SAS跨职能团队,来指导、整合全球作业,以公平方式开发和部署兼具包容性的AI,提供给内外部顾客。
隔年,SAS在数据伦理措施的原则下,进一步发起负责任创新行动,要全面开发负责任的演算法、AI应用,甚至要找出整个创新过程中可能发生的偏见,并在模型部署的每个阶段确保公平性。
AI监管与治理亮点1:模型标示卡
SAS今年年会发表的AI模型卡犹如模型的营养成分表,记载了模型各种关键指标和变动记录,方便企业使用者落实AI监管措施。(图片来源/SAS)
在这些策略基础下,今年,SAS首度亮相了AI监管工具模型卡。这是因为,如何将AI模型以通俗易懂的方式,呈现给所有参与AI生命周期工作中的人员,是一件很困难的事。再加上AI监管法规在世界各地越来越严格,比如欧盟议会今年3月通过AI法案,来规范AI风险等级与相应措施,美国去年则发布AI行政命令,同样规范AI系统风险和对社会的冲击与因应方法。
台湾去年则由行政院提出公家机关生成式AI指引,年底则有产业主管机关发布金融业运用AI指引草案,来规范金融机构使用AI需达到的公平性、可解释性等要求,今年初数位部旗下AI评测中心则发布包含公平性、准确度等指标在内的评测规范。对企业来说,如何呈现模型表现和相关指标,让监管机构容易理解,成为另一重要课题。
看准这波需求,Reggie Townsend在2024年年会上揭露模型卡功能,能让企业或组织内的利害关系人,不论是开发者还是董事会董事,都能查看易懂的模型重要资讯。这个模型卡功能,预计今年中正式上线。
模型卡的运作方式是,直接根据SAS产品内容来为使用者注册的模型,自动产生模型卡,使用者不必手动建立。不只是SAS平台提供的模型,因SAS Viya已有用于管理开源的架构,因此也能替开源模型自动建立模型卡,目前从Python模型开始支援。
模型卡内容会特别突显准确性、公平性和模型漂移等指标。尤其,模型漂移是模型性能随条件变化而下降的重要指标,可用来判断模型的适用性。
除了这些,模型卡还包含详细的模型治理资讯,像是模型上次修改的时间、谁对模型做出贡献、哪些人对模型负责等,方便使用者组织解决模型效能异常问题。SAS表示,模型卡还涵盖模型使用资讯,可供企业或组织查明预期用途、超出范围的应用和限制资讯。对企业和组织来说,这些讯息可因应业务营运所需的透明度和规范检查,让使用单位更轻松符合法遵。
AI监管与治理亮点2:顾问服务与监管工具
除了提供模型指标,为更进一步提供现有顾客AI监管和治理服务,SAS自己也成立了AI治理顾问服务(AI Governance Advisory)团队,透过会议方式来协助企业达到AI治理目标。目前,SAS已试办这项顾问服务,其中中东欧洲最大的金融机构PZU波兰保险集团,就有采用。
PZU集团部署了300个AI和机器学习模型来协助日常业务营运,如客户分析、欺诈侦测等。但近几年,AI监管法规越来越完备,PZU集团便在去年5月开始与SAS AI治理顾问团队展开专案,来建立更完善的AI监管与治理制度。
他们表示,这个试办服务可为企业带来几大好处,包括从可信任且分散式的决策制定中,取得更高生产力,或是透过更好地划分资料当责性,来加深信任,以及能留住呼吁负责任创新的高阶人才等。
另一方面,SAS也注意到美国NIST在去年推出的AI风险管理框架(AI RMF)。这是一份关于AI系统设计、开发、部署和使用的指南,也成为美国企业组织在缺乏官方法规的情况下,用来设计可信任和负责任AI的重要参考。
于是,SAS根据NIST AI风险管理框架,设计出一套可信任AI生命周期工作流程,来让企业和组织更容易实作NIST的AI风险管理框架。
首先,这款工作流程定义了个别角色和工作期望,并收集所需文件、列出考量因素,透过自动化来简化实作的工作流程。之后,企业或组织会得到一个正式模型,附带一个文件,来说明他们已做好尽职调查、确保模型是公平的,且作业流程不会造成任何伤害。
除此之外,这款工作流程还能让使用者记载,自家AI系统可能产生的社会影响思考。
比如,使用者可透过工作流程的几个步骤,来确保训练资料能足够代表被影响的受众群体,且模型的预测能力和表现,在受保护的类别中都差不多。这些步骤可确保模型不会造成负面影响,或伤害特定群体,而且,使用者还能建立人为介入(Human-in-the-loop)的任务,来确保模型一直准确、有效。
目前,使用者可从SAS模型管理资源的GitHub上,下载可信任AI生命周期工作流程。预计不久后,使用者也能在NIST AI风险中心下载这个工作流程。