图片来源/KPMG
面对各种生成式AI的应用日益普及,固然带来便利,但越来越多人更关注AI治理可能面临的风险。
台湾KPMG安侯企管顾问执行副总经理林大馗表示,进一步参考SSDLC(安全的软体开发生命周期)、各国家的AI法案和各种AI标准,我们可以发现,如果要落实AI的风险治理,可以先从落实数据治理、云端治理、资讯治理,接下来,才能再进一步做到AI治理,继而推动AI治理最终目的:利害关系者都愿意相信演算法会做正确的决定。
而他认为,不论企业或是组织想要做到AI治理,都应该建立一个可供参考的框架,进而提升AI的信任度,并且做到AI的风险评估,以及AI的治理,这些都会是整个人类社会必须共同面对的重大挑战。
参考安全的软体开发生命周期、各国AI法案和多种AI标准后,KPMG认为,企业与组织若欲落实AI的风险治理,可以先从数据治理、云端治理、资讯治理之后,再来做到AI治理,目的就是要做到利害关系者,愿意相信演算法会做正确的决定。图片来源/KPMG
先做到数据、云端、资讯的治理,才能做到AI治理
「慎始!」林大馗表示,所有的AI应用最重要的,就是刚开始要决定「范围」,包括:科技应用情境与治理范围。
然后做到「分析」科技应用责任后,再「识别」目标使用者应用的目的与情境,下一步,便可以「评估」AI应用情境与适法性风险。
后续须做到「数据治理」:评估数据品质风险,确认资料来源与正确,也须对相关AI应用进行「AI风险评估」;接著进行「资讯治理」:评估其他云端服务与资讯设备面向冲击,例如,所运用的演算法是否可能遭受其他攻击,或是隐私保护缺陷等风险。
接著,进入「决定AI应用范围与发展生命周期阶段」,选择演算法或第三方大型模型,并在AI设计过程「融入隐私与安全」,同时做到保存相关处理记录,接下来还要进行「演算法调校与测试」:不仅要做到演算法效能与安全分析,还要测试数据深度学习,并且要确认演算法是否能够满足需求。
最后,在导入、部署与深度学习后,还是要做到「持续监控」与改善,并对使用者进行安全「教育训练」、宣导与应用推广,还可以视需求,进行「独立确信与审验」。
图片来源/KPMG
AI成骇客诈骗、伪冒身分利器,「眼见为凭」将不可信
对于企业和组织而言,又该如何架构AI资安防护呢?林大馗说,包括强化基础网路架构韧性,以及打造多层次零信任架构(Zero Trust),这些都是可行的方法。
他进一步指出,目前AI已经可以做到的方式,包括:使用AI来训练防御系统,识别和防御AI攻击;也可以建构多层次网路安全措施,提高防御AI攻击的有效性。
另外,也要做到定期更新安全软体和修补漏洞,减少AI攻击的成功率;提高员工的安全意识,可以帮助员工识别和防御AI攻击。
对此,林大馗提出生成式AI遭网路犯罪集团滥用,提高虚拟犯罪效率的例子。
因为这些隐藏在网路背后的虚拟绑匪,已经能够做到利用语音复制、SIM卡挟持、ChatGPT以及社群网路分析与倾向(SNAP)模型,寻找最有利可图的目标并执行诈骗。
又或者这些网路犯罪份子都开始利用AI工具,建立层层自动化搜集资讯、发掘鱼叉式网路捕鲸,或以爱情诈骗手法攻击高知名度受害者。他坦言,现在蓬勃发展的生成式AI,已经成为军火库,骇客能借此发动各种网路攻击、入侵,甚至,可以成功达到诈骗目的。
另外,也有骇客成功利用深伪技术(Deepfake)伪冒身分验证。
他表示,现在的AI深伪变脸技术,已经可以制造出逼真的虚假影像和声音,仿真度极高,加上AI变脸软体还内建许多来自不同人种的脸部图片,甚至连名人、明星照片也有,可以让使用者自由选择性别及种族。
他指出,这些遭到伪冒的深伪影像,就算从正面观看,都可以做到以假乱真,很容易让民众误判,以为伪冒者是被害者本人、检警或名人。
当生成式AI做到以假乱真,林大馗指出,企业对网路基础架构也会有纵深防御要求,从企业组织内部的使用者开始,一直到要面对组织外的风险,在整个工作环境的范围之内,都必须布建各种基础的资安防护设备,目的就是要做到建构零信任网路架构,并且能够即时进行漏洞更新修补。
林大馗表示,单靠基础的资安防护设备,并不足以对抗这些生成式AI对企业、组织甚至是个人带来的资安风险。
所以,我们还必须做到进阶防御强化的要求,例如在公开影片添加专属杂凑值,或是安全凭证;或善用现阶段机会,趁深伪技术存在未能完整学习受复制对象侧面的技术缺陷,可要求以生物认证方式来识别对象,左右转头90度并维持一小段时间,因为如果是利用深伪技术所伪造的影片,可能会产生人脸闪烁的情况。
以其他作法而言,我们可扩大运用「MFA多因子认证」,要求使用者必须通过两种以上的身分认证机制,之后才能取得授权。
另外,可以采用零信任「永不信任、总是验证」的资讯架构,包含以每个连线为基础,评估每个资源请求者的存取要求等机制,避免使用一次性验证后,就可以长时间与完全取用所有服务的传统做法。
甚至,我们要能够让使用者建立「眼见不为凭」的警觉,让一般民众能够充分理解到:过去习惯的「有图有真相」的心态,已经到了必须改变的时候,不然,这就可能沦为一种「看片都上当」的习性。
为了架构足以因应AI资安风险,台湾KPMG安侯企管顾问执行副总经理林大馗表示,企业必须打造基础网路架构的韧性,从内部使用者到面对组织外的环境,都必须建构具备零信任的网路纵深防御,并做到即时漏洞更新。图片来源/KPMG
利用3种方式提升AI方案的可信任度
为了成功推行人工智慧(AI),组织与社会必须能够相信AI会做出正确的决策,而且AI不会做出错误的决定,KPMG目前提出名为「人工智慧风险控制与管理」的框架。
这个框架包含3种促进人工智慧解决方案取得信任的方法,希望透过提升演算法的信任,让「生成式AI」可以提升到「生产力AI」。
林大馗指出,这些方式分成:(1)与其他决策方法∕模型来做结果比对;(2)介入理解与验证人工智慧模型;以及(3)于可控的环境中发展人工智慧解决方案。
他也进一步解释,举例说明3种方式可能面临的结果。
若以(1)与其他决策方法∕模型来比对结果,可能面临下列几种情形,例如:其他可靠的决策方法或许不存在;更换模型或开发替代方案,并非总是可行的;如果有其他决策来源,为何还需要发展人工智慧解决方案?
若采用(2)介入理解与验证人工智慧模型的方法,也可能面对模型或许过于复杂,以至于人类无法予以解释或理解。因为模型本身使用深度神经网路(Deep Neural Networks),众所皆知,这项技术的运作原理很难解释。
如果是采用(3)在可控的环境中发展人工智慧解决方案,同样会面临挑战。例如,于安全的环境中,技术人员使用严谨的方法论,并不能保证品质结果;在资料科学领域中,使用较严谨的方法,与AI领域常用的敏捷与较前瞻的方法,可能有所违背。
林大馗坦言,无论用何种方式提高AI解决方案的信任度,但实际上,都有其限制。
对此,KPMG发展出一套「人工智慧风险控制与管理的治理框架」,期盼协助组织与企业利用上述三种方法,定义出最优良的控制措施组合。
为了成功推行人工智慧,组织与社会必须能相信它会做出正确的决策,并且不做出错误的决定。KPMG为此提出「人工智慧风险控制与管理」框架,期盼透过三种方法的运用,促使人工智慧解决方案的发展与应用能够得到更大的信任。图片来源/KPMG
落实AI资安整备度之余,也必须培养AI治理团队
面对AI甚至是生成式AI的日益发展,组织、企业甚至是个人是否都已经做好足够准备?面对AI时代的来临,又该进行何种前瞻的资安布局呢?
林大馗认为,所有的组织和企业应该要做到AI资安整备度分析,以及培养AI治理团队智识与人才地图。
在AI资安整备度分析方面,我们可以从五个面向来看,包括:人才投入、研发与市场经营、生态链合作、基础建设、法规。
先从人才投入的面向来看,企业与组织要能够做到外部机构的AI资安协同合作、AI安全开发,以及使用AI解决方案的宣导活动,以及制定AI安全性的指引与实务守则。
而从研发与市场经营的面向来看,企业须提高对AI安全能力的必要资源投入、制定国家对AI发展的限制与安全规范,落实相关规范与监控机制。
针对生态链合作的面向,包括AI的API管理、数据品质、资料交换安全、开放资料(Open-Data)治理等,需要处理的内容包括:
● AI事件通报与处理
● AI威胁、漏洞和安全控制情资
● 如何和外部机构合作,有效处理AI相关事件
● 定义∕开发∕使用特定的网路安全度量或指标
● 监控AI系统生命周期中的安全水平
● 要求AI利益相关者进行动态风险评估
● 对违反数据和模型完整性进行制裁
关于基础建设面向中,像是数据、演算法、通讯等,都包含在内,要处理的对象,则包括:监控开发人员、关键基础设施厂商等AI利害关系者,都要采取合宜的安全控制措施,以及定义AI利害关系者的安全控制措施。
最后的法规面向,涵盖AI道德规范、AI标准、AI与数据治理相关法规,例如欧盟人工智慧法案(AI Act),以及欧盟个资法GDPR等。因此,我们要处理的内容,包括:法规盘点与风险识别;监控AI资料集的完整性和品质;并建立认证或评估机制,以评估AI系统安全。
要能够推广和应用AI,企业在AI治理团队与人才地图中,除了「咏唱师」,还需要「调音师」。
林大馗表示,在人才投入面向,企业成立当责AI治理委员会、制定AI策略与延聘治理顾问,并落实AI安全性的指引与实务守则。
如果是在研发与市场经营面向上,企业与组织除了要制定AI策略,以及延聘治理顾问,也必须要设立AI安全稽核师和AI生命周期安全小组。
至于生态链合作面向上,要成立资安事件管理小组,成立针对AI威胁、漏洞和安全情资的管理小组,以及AI生命周期安全小组,对于AI生态链与委外厂商,也必须成立相关的管理小组。
至于基础建设面向上,企业除了要有AI策略与治理顾问,也必须要有AI生态链与委外厂商的管理小组,以及网路安全小组。
最后在法规面向上,企业则要有数据品质管理的管理小组、数据法规专家小组,以及建立认证或评估机制,以评估AI系统安全性。
想开发安全可信的AI应用,可依据WEF的指引设计
林大馗认为,对于设计各种AI产品或服务,我们可以参考世界经济论坛(WEF)在2022年3月发布的指引《Artificial Intelligence for Children》,其内容可以统称为FIRST指引,当中包括了五大项目,分别是:Fair(公正)、Inclusive(包容)、Responsible(负责)、Safe(安全),以及Transparent(透明)。
「公正」是从公司文化和流程层面,解决人们如何开发AI模型,以及AI模型在使用中,所受到道德方面的影响与偏见问题。
「包容」则是留意到AI模型如何与来自不同文化,以及不同能力的用户公平互动,所以,在产品测试的过程中,需要包括不同类型的用户。
所谓的「负责」,主要是因为AI相关产品常反映当下最新的学习科学和科技应用范例,毕竟,最终发展AI,就是要做到如何实现健康的认知、社交、情感或身体发展,并且负起相关的责任。
关于「安全」这一项要求,主要是因为AI技术必须做到保护用户和购买者得数据,因此,应用AI提供产品或服务的公司,应该要披露其如何收集和使用数据及如何保护数据与用户隐私,也允许用户随时选择退出,并删除他们的数据。
「透明」则是要求提供AI产品或服务的公司,必须要能够以非技术术语向买家和用户解释为什么使用AI、AI如何工作以及如何解释AI的决策过程;使用AI的公司也必须承认AI有其局限性和潜在风险,并开放监督和稽核。
林大馗指出,所有组织或企业使用AI的初衷,都是为了提供更好的产品和服务,若能参考这份简称为FIRST的AI应用指引,不仅可以提供保护,降低AI对孩童造成的可能风险,也是应用AI时,应该要关注的重点。