前资安院副院长吴启文认为,在导入AI应用之前,应先作好妥善管理AI带来资安风险的准备,平衡AI带来的利益及风险。
「资安是持续的风险管理,因此对威胁、趋势掌握非常重要」,前国家资通安全研究院副院长吴启文在今年台湾资安大会中分享在AI时代下的资安防御思维。
传统的资安威胁可能来自漏洞、恶意软体或是DDoS,然而AI等技术的快速发展,虽为企业带来许多正面的优点,也同时使得企业面临负面的风险增加,吴启文以透过生成式AI写程式为例,虽然提高开发的效率,但是其所产生的程式也可能存在漏洞,进而带来资安风险,或是使用AI造成用户的资料外泄。
另一方面,骇客也可能利用AI写恶意程式,设计新型态的攻击,或是利用生成式AI技术,以使得网路钓鱼、社交工程的攻击手法更为逼真,让更多的使用者上当。
国外已提出AI的风险管理框架
鉴于AI的风险不容轻忽,吴启文表示,国外已针对AI技术发展提出风险管理对策,其中NIST提出风险管理框架AI RMF 1.0,该框架提出4大管理功能,包括治理(Govern)、映射(Map)、测量(Measuree)及管理(Manage),同时也提出AI可信任的7大特性,安全、资安及韧性、隐私强化、公平性等等。NIST也特别针对生成式AI提出风险管理架构,点出资料隐私等12项重大风险,可对应AI RMF 1.0。
OWASP则是提出LLM应用程式的十大风险,例如提示词注入、未妥善处理输出内容、训练资料的下毒攻击、阻断服务攻击、供应链攻击、机敏资料外流、不安全的外挂程式等等。
政府也将导入AI新科技作为国家未来发展方向
吴启文指出,台湾在前总统蔡英文执政下,提出资安即国安,将资安升级为国家安全的层次,并在2018年提出国家资通安全战略1.0,提高政府对于资安的重视程度,同时将扶植国内资安产业发展作为执政目标,2021年提出资安即国家战略2.0,愿景为打造韧性安全可信赖的国家。
在今年,政府提出最新国家资通安全战略2025,目的为打造坚韧、安全、可信赖的智慧国家,两大措施包括战略伙伴的链结,以及坚实资安治理机制及防护,其中坚实资安治理机制及防护底下包含4个支柱,包括全社会防卫韧性、国土防卫与关键基础设施、关键产业与供应链、人工智慧应用与安全,其中的人工智慧应用与安全,目的为善用AI技术,并且平衡其可能带来的风险,一方面将AI技术用于全社会防卫韧性、土防卫与关键基础设施、关键产业与供应链的资安防护,并建立产业生态系;另方面则是要确保AI技术的安全性及可信任性。
今年接任职掌国家资通安全政策研拟、规画及执行的资安署长的前金管会主秘蔡福隆,在接受媒体采访时,蔡福隆也提出今后国家资通安全政策,除了应用人工智慧等新兴科技外,也面临相应的挑战,即生成式AI带来的风险,包括骇客利用AI技术的自动化攻击,以及钓鱼邮件、恶意软体等。
资安防御策略应扩及AI风险管理
对于如何管理AI可能带来的风险?吴启文借用世界经济论坛WEF的报告,该报告提出平衡AI与网路安全的风险及报酬的6个问题,作为AI应用管理风险的自评依据,这些问题例如对于使用AI技术具有适当的风险承受能力,且被所有风险所有者理解?在考虑新的AI计划时,适当的平衡风险与报酬?有效的流程以管理追踪组织AI计划发展?确保AI部署符合组织政策与法规义务的验证流程?等等。
吴启文认为,WEF的报告提出的6个问题,可让企业或组织规画运用AI技术时,先评估自己的准备是否已经完备,已做到上述问题的要求方能考虑AI应用,如果没有做到则需要重新考虑是否导入AI应用。
在该报告里也提到AI对网路安全的三个影响,威胁者运用AI提高攻击的有效性,防御者则运用AI提高网路安全防御能力,第三个是AI的网路安全,主要为使用AI可能增加威胁者的攻击面向,现有资安防御策略需要扩大到处理AI的新弱点。
吴启文指出,目前国内已有数产署针对AI技术建立评测机制,先以大语言模型LLM为评测对象,参考欧美的AI规范例如NIST RMF、ISO 24028、欧盟议会等等,共提出10个评测项目,包含安全性、可解释性、韧性、公平性、透明性、可靠性、隐私等等。以手动或自动的方式进行验证。
尽管AI可能带来负面的风险,但是吴启文认为,AI为中性技术,AI在资安防御的事前、事中、事后仍能提供很好的功能,例如在事前,AI能够自动分析海量的情资,产生比较好的威胁报告,提出预测让组织及早因应,或是运用AI Honey Pot来搜集更多情资,也能对新型态的未知威胁提出预测;在事中及事后方面,可利用AI作自动化调查,国外也有SOC运用AI Agent调整调查的规则。