AI攸关全人类的工作与生活变化,国家资通安全研究院院长何全德日前在一场演讲中,特别针对AI应用的风险、治理甚至发展前景等面向,提出他的观察与期许。
Jamf提供
在当今科技快速发展的浪潮中,生成式AI成为人类科技史上少有的革命性技术,其深度、速度与广度的影响超乎预期。国家资通安全研究院院长何全德日前以「新世代AI对资安治理的挑战与机遇」为题发表演说,深入探讨AI如何改变人类社会的治理模式与应用格局。他指出,AI就像人类脑袋植入的蒸汽机,不仅带来效率的提升,更推动了全方位的社会变革。
生成式AI的特点之一,是其应用场景的无限扩展性。这项技术突破传统人工智慧的限制,不仅可用于文字生成与语言处理,还涉及图像创作、决策支援以及医疗诊断等多方面应用。何全德进一步阐述,生成式AI正引领著数位化社会的快速发展,其潜在影响不仅限于技术领域,还深刻改变了社会结构与产业经济。他说:「我们从未见过一项技术能以如此快的速度渗透至每一个领域,影响范围之广令人震惊。」
生成式AI带来各种无限应用的潜力
AI技术的发展日新月异,从最初的聊天机器人到能够操控电脑的AI代理人(AI Agent),每一项突破都令人耳目一新。何全德强调,AI应用正处于快速成长阶段,未来将进一步带来超越想像的科技创新。例如,数位双生(Digital Twins)技术的普及,让西门子等公司得以开发虚拟数位心脏,为医疗保健与精准治疗注入新动能。
何全德引述史丹福大学AI专家李飞飞的研究,则再次印证了AI在医疗领域的广阔应用前景。从李飞飞的研究可以发现,透过AI技术可以做到即时监测医护人员的手部卫生,以及病患在加护病房中的活动度,有效提高医疗品质。
何全德指出,尽管目前生成式AI在医疗领域的应用尚处于早期阶段,但随著技术的不断迭代,未来必将迎来更多智慧医疗的创新应用,帮助医生作出更精准的诊断与决策。
AI的应用潜力还远不止于此。在制造业领域,数位双生的应用也使得工业生产流程更加透明化、精准化。例如,通过建立产品或系统的虚拟模型,企业可以模拟生产过程中的可能变数,实现预测性维护并最大化生产效率。同时,在环境监测领域,AI技术被用于分析大量的气象资料,也可以协助政府制定更为精准的应对气候变化策略。
数位与净零转型的双轨驱动
何全德进一步分析,「数位转型」与「净零转型」是全球未来发展的关键方向。他指出,生成式AI正迅速成为数位转型的重要推手,不仅提升产业效率,也有助于资源最佳化应用。数位转型是许多企业面对新时代竞争压力时的重要策略,「AI作为核心驱动力,正在彻底改变传统商业模式。」他说。
具体而言,生成式AI能够协助企业在生产过程中减少能源消耗与浪费,例如,一些大型企业已经开始利用AI技术进行供应链优化,将产品运输路线与储存方式进行精准规画,不仅节约物流成本,还降低了碳排放量。
净零转型则是更为宏大的全球挑战,目的就是希望通过技术创新的方式,以实现碳中和的目标。何全德提到,目前许多国家正积极推动AI技术进行净零转型中的应用,例如,利用生成式AI进行能源消耗的资料分析,协助企业改进工厂设计,进而降低对环境的负面影响。他指出,AI不仅是提高效率的工具,更是一种帮助全球实现可持续发展的关键技术。
AI发展的过程,对人类社会是矛也是盾
然而,AI的快速发展也引发人类对於潜在风险的担忧。何全德以蒸汽机时代为例,指出每一次科技革命都伴随著生存秩序的变化,并带来就业挑战与其他负面影响。他特别强调,生成式AI大型语言模型的核心在于资料的品质,如果模型训练使用了不准确的资料,可能导致错误的结果产生。因此,如何在享受AI带来的效率提升的同时,降低其风险,是当前必需解决的重要课题。
因此,他表示,对于AI潜在风险的防范与治理,已经是AI发展过程中,人类必须承担的必然责任。何全德特别引用2024年诺贝尔物理学奖得主约翰·霍普菲尔德(John Hopfield)与「深度学习之父」杰佛瑞·辛顿(Geoffrey Hinton)在类神经网路和人工智慧(AI)领域的研究论述,强调面对AI发展应该抱持审慎态度。
杰佛瑞·辛顿曾警告,「大多数人低估了人工智慧的潜在益处,就像他们低估其风险一样。」当AI系统的智能超越人类时,是否能有效控制这些系统仍是未知数。何全德则进一步指出,无论悲观或乐观的预测,AI风险与机遇并存,因此应以谨慎且务实的态度推动AI技术应用。
「生成式AI带来的风险与传统软体安全有显著不同。」何全德指出,大型语言模型压缩了全球数位化资料,其优势在于广泛应用,但风险也不容忽视。他警告,当模型被恶意资料「毒害」时,可能对关键决策造成不可挽回的影响。因此,企业与政府在应用AI时,必须关注核心模型的资料来源与准确性,确保技术的安全性与可信度。
因为AI技术发表标志著人类文明的新篇章,何全德呼吁政府与企业在推动AI发展时,应该同时注重风险防范与治理,确保AI技术的潜力能够被安全且高效地发挥。他强调,AI既是「矛」也是「盾」,关键在于如何找到平衡点,使其成为人类社会进步的助力而非阻碍。
应用AI应关注资安、伦理和治理风险
在生成式AI快速崛起的浪潮中,许多大型企业已经采取积极措施,应对不可预测的风险。何全德表示,这些企业内部普遍设立了多层次的防护措施,例如,进行红队演练(Red Team),或推行所谓的攻击性「提示多样性注入」(Prompt Diversity Injection)机制,借此预先引导并排除可能出现的风险。
他指出,红队的角色是模拟外部攻击者的行为,测试内部AI系统的防御能力;而「提示多样性注入」的测试则是检测生成式AI可能产生的不当或错误内容,以便在产品正式推出前排除潜在的问题。
此外,已经有企业成立了AI道德伦理委员会,专门负责制定AI开发与应用的相关规范,确保技术开发符合社会价值观。他认为,从提示式规则到资料安全训练的对抗,意味著应用AI的企业已经开始审视生成式AI带来的挑战,这也显示出企业对AI安全问题的高度重视。
何全德以其40年负责推动政府E化的公务员经验来看,生成式AI以前所未见的速度对全球产生影响,这种影响不仅限于科技领域,也波及经济、文化与政策制定。
像是生成式AI的出现,让自动化和效率提升至全新层次;其应用从内容生成、语言翻译、医疗诊断到产品设计各个方面,也迅速渗透到人类生活的各个层面。这不仅引发国际间的关注,也促使主要国家携手合作应对AI治理风险。
例如,英国与美国等国正共同进行跨国界合作,辨识AI风险,进行分类与分级治理。这种全球性的合作在过去科技发展中极为罕见,这也彰显出:生成式AI的潜在影响力非常巨大。
他认为,生成式AI的风险不仅限于使用或误用,其生成内容可能涉及侵权、资讯整合不当,甚至对环境带来负面影响。举例而言,随著生成式AI的需求激增,美国计划建设多座资料中心以应对日益增长的运算需求。这些资料中心虽然能提升技术能力,但也对能源供应和环境保护带来巨大挑战,包括增加碳排放和消耗大量水资源、电力等,因此,各国在推广生成式AI的同时,也需同步考量其对环境的长期影响。
AI技术风险与管理挑战
何全德表示,生成式AI的风险可分为三类:技术性风险、管理性风险与社会性风险。首先,技术性风险主要来自AI模型本身的漏洞与局限,例如生成不准确内容或受恶意利用进行攻击。
其次,管理性风险则涉及企业如何部署AI系统,包括如何确保资料安全、隐私保护以及模型的透明性和可解释性;第三,社会性风险则涵盖生成式AI对社会结构的影响,例如可能引发的职业替代与伦理争议。
他认为,AI幻觉现象则是目前技术性风险中的重要挑战之一。所谓AI幻觉,指的是AI系统生成看似合理,但实际上不正确或无意义的内容,根据麦肯锡的调查,导入AI的美国企业面临的两大挑战,分别为:AI的不准确性(Inaccuracy),以及智慧财产权(IPO)相关问题,其中,AI不准确性可能导致错误决策,而IPO问题则涉及AI生成内容的版权归属与使用权界定。
为了应对这些挑战,麦肯锡制定一系列指导原则,提出10项应对AI风险的考量,包括模型的有效性、安全性、可靠性、透明性等多个方面。麦肯锡强调,建立负责任的AI(Responsible AI)框架,是推动技术与社会协调发展的关键。
制定法规为AI发展奠基
美国与欧盟相继推出AI风险治理与应用评估标准,为全球树立了良好的范例。美国在国家层面加强对AI技术的监管,欧盟则透过《AI法案》(AI Act)提出一系列法规,涵盖高风险AI应用的审核机制和透明度要求。
台湾在这一波潮流中,数位发展部数位产业署则成立了「AI产品与系统评测中心」,致力于为本地AI产品提供评测服务。该中心则针对安全性(Safety)、可解释性(Explainability)、韧性(Resiliency)、公平性(Fairness)、准确性(Accuracy)等10个评测项目,建立标准化的评估体系,帮助企业提升技术竞争力。
此外,何全德表示,政府也推动《AI基本法草案》,希望可以为AI技术在台湾的发展提供法律依据,并应对生成式AI带来的资安与伦理挑战。例如,基本法中对AI技术的应用范畴与风险控制提出明确指导,为科技创新与社会利益之间的平衡奠定基础。
生成式AI被认为是资安攻击与防御的利器,其应用特点可分为以下几点特性。第一,攻击速度加快,防护难度提高:AI技术的发展使攻击更加精准且自动化,企业需投入更多资源应对这些新型威胁。例如,AI生成的深伪技术(Deepfake)可用于制造逼真的虚假影片与音频,对信息安全构成严重威胁。
第二,资安威胁情报的收集与预测分:AI可以快速分析大量资料,发现潜在威胁并进行预测。未来,AI化的资安监控中心(SOC)将成为主流,帮助企业在威胁发生前采取行动。
第三,安全产品生命周期的设计:安全设计思维(Security by Design)已成为产品开发的核心理念,这种方法要求开发者在产品设计阶段就考量安全性,而不是事后再进行补救。所以,产品开发者需要提供预设安全(Security by Default)的功能,使用者则需提出安全需求(Security by Demand),形成上下游的良性互动。
第四,AI安全的基础:资料可信度。因为安全可靠的资料是AI可信任的基础,传统程式依赖人工编写逻辑,而生成式AI则需要大规模资料支撑。这意味著,企业需建立完善的资料治理体系,确保资料的来源合法且品质可靠。
美国网路安全与基础设施安全局(CISA)局长Jen Easterly先前也提出「以安全为核心设计」(Secure-by-Design)的原则,就是强调在AI工具开发初期引入安全机制的重要性,以降低后期补救的成本与效率问题。
四个AI风险的应对策略
何全德也引述Jen Easterly所关注的AI风险四个关键面向(Velocity、Vulnerability、Veracity、Vigilance),希望可以作为台湾制定AI安全政策时的参考。
第一个V就是技术发展速度(Velocity):AI技术进步与威胁出现的速度加快,需事前防范策略。例如,AI技术的快速迭代可能导致企业难以及时更新其防御系统,从而暴露于新型威胁之下。
第二个V指涉系统脆弱性(Vulnerability):许多AI工具在设计阶段未充分考虑安全性,易受攻击。例如,AI生成的模型可能含有未被发现的漏洞,这些漏洞可被恶意利用进行资料窃取或服务瘫痪攻击。
第三个V强调资料真实性(Veracity):AI模型的输入资料品质对其结果有直接影响。为确保结果准确性,企业需建立资料来源审核机制,防止不良资料对决策造成影响。
最后一个V则是持续警觉性(Vigilance):政府与企业需保持高度警惕,建立快速侦测回应机制。例如,针对生成式AI可能引发的深伪技术滥用,需建立常态化的监控机制,以防范假消息对社会的影响。
AI技术的发展将改写资安游戏规则,不仅提升生产效率,也带来更多挑战。例如,在未来的智慧城市建设中,AI将负责大数据的分析与决策,若无妥善的安全机制,将面临巨大风险。因此,他认为,台湾应持续强化自身的AI安全政策,结合技术与管理双重手段,确保AI技术在安全与效率间取得最佳平衡,为未来科技的可持续发展铺平道路。
从开发阶段重视资安,并从骇客视角看资安防护
何全德指出,从Internet开始,许多资安的观念随著科技发展而不断进步。过去的资安技术以防火墙为主,后来演进到入侵检测系统(IDS)与入侵防御系统(IPS)。
然而,随著网路威胁日益多样化,他说,现在的资安理念已从信任的架构逐渐转变为零信任模式(Zero Trust)。这种转变反映出数位化时代资安挑战的复杂性与多样性,也要求企业从技术层面到管理架构进行全方位的改变。
何全德强调,我们必须从资安到韧性(Security to Resilience)进行全面升级,这不仅仅是技术革新,更是战略上的长期规画。他提到,韧性意味著组织在遭遇攻击或灾害时,能够迅速恢复营运的能力,并可减少损失影响。「这是一种对抗当前与未来资安威胁的必须能力。」他说。
此外,他提出了几个重要观点,包括:资安向左移动(Shift Left Security)的重要性。这一个主张,重点是将资安考量前置于软体开发的早期阶段,以避免事后补救的高昂成本。何全德表示,许多企业忽视了早期介入资安的重要性,导致产品上市后出现许多漏洞,不仅影响使用者体验,更可能对品牌信誉造成损害。
同时,他还建议应该从骇客视角强化资安策略,模拟潜在攻击者的行为,有助于企业能更准确地识别系统漏洞,并提前部署应对措施。这是一种更为主动的资安管理方式,尤其是在攻击手段日益多样化的今天,预测和防范比事后应对更加重要。
另一个不可忽视的重点是资料保护的重要性。他指出,系统故障可能重建,但资料的遗失却可能是无法挽回的。因此,企业不仅要关注资料的储存与备份、还原,还需对资料的传输、使用与存取设计都设计更全面性的安全机制。
生成式AI的应用与挑战
在生成式AI的浪潮中,何全德特别指出,这项技术为我们带来了前所未有的机遇与挑战。他强调,我们应以「睁大双眼的态度拥抱生成式AI」(Embrace Gen AI with eyes wide open)。这句话意味著:在接纳AI创新价值的同时,也必须保持高度警惕,深刻理解其可能带来的潜在风险。
他进一步分析了生成式AI应用的多方面挑战。首先,是算力需求的持续增长,这对于中小企业而言是个大门槛。其次,全球AI人才的短缺更是限制技术推广的重要因素。第三,他援引数据资料指出,目前中文资料在AI训练资料的占比仅为1.7%,其中正体中文更低于0.5%。这导致多数AI模型在处理正体中文的表现不佳,无法满足台湾本地市场的需求。
为应对这个训练模型的问题,国科会推动基于正体中文的大型语言模型「台德」(TAIDE,Trustworthy AI Dialogue Engine)。该模型目的在于:在打造符合台湾文化特性,并满足本地需求的AI技术平台。这不仅是台湾数位转型的重要一步,也为全球提供支持多元语言与文化的AI范例。
此外,他认为生成式AI的潜在风险还包括:资料安全与模型偏见。例如,AI生成的内容可能在无意间泄露机密资料,或者因训练资料的不平衡而导致偏颇的决策。要解决这些问题,就必须要求开发者在设计阶段,就纳入更高的安全与公平性标准。
另一个备受关注的议题是:AI技术在资安领域的双面性。他说,AI一方面可以用于快速检测与防御潜在威胁,例如通过分析巨量资料,识别异常行为;另一方面,AI也可能被恶意使用,开发更加精密的攻击工具。「因此,如何用AI对抗AI,成为当前资安策略中的重要一环。」他说。
何全德深信,AI技术将对台湾未来的社会与经济发展产生深远影响。他提到,AI不仅能提高生产效率,还能改善生活品质。例如,未来的视障人士将可能透过AI技术拦下计程车,或者使用AI协助日常生活中的复杂任务。这些应用场景不仅展现了AI的潜力,也让人类看到了技术与人性结合的美好前景。
他进一步提到,AI还将推动台湾的产业升级与提升国际竞争力。例如,在制造业中,AI可实现供应链的全方位优化;在医疗领域,AI能加速新药研发,并提升诊断的准确性。他认为,这些技术应用不仅能为企业带来经济效益,也能为社会创造更大的公共价值。
何全德引用法国作家马塞尔·普鲁斯特的名言:「真正的发现之旅,不在于寻找新的风景,而在于拥有新的眼光。」这句话强调了创新思维的重要性,他认为,尤其是在AI快速发展的时代,传统的观念与方法已无法应对新兴挑战,我们需要以全新的视角重新审视技术、治理与社会发展的关系。
最后,他呼吁台湾应从简单的风险管控开始,逐步适应并快速行动。他强调,未来的成功取决于我们如何用新的思维看待治理与技术运用,并为台湾的社会与经济发展注入新动能。
何全德说:「在AI时代,台湾应该善用自身的创新能力,打造具本地特色的应用场景,让AI成为促进社会公平、经济发展与技术进步的重要支柱。」
资安院院长何全德引述美国CISA局长Jen Easterly对AI风险关注的四个面向,并认为,未来政府在制定AI安全政策时,也可以将这四个面向作为参考。