国科会预告我国AI基本法草案,揭露隐私保护、资料安全、透明可解释及问责等7大原则

图片来源: 

国科会

赶上其他国家发展脚步,在搜集各方意见,参考国外立法内容后,国科会终于在今天(7/15)预告我国人工智慧基本法草案,作为我国发展与促进人工智慧应用的原则,该草案揭露我国AI发展的7大原则及4大推动重点,共计18条条文,预告60天,后续施行日将由行政院决定。

国科会表示,AI在气候变迁、环境、医疗、金融、交通、内政、农业、公共服务等各领域均对民众带来影响,对社会及经济带来效益的同时,也可能冲击及风险,因此各国研拟对AI的治理及方针,例如欧盟在2021年提出AI法案(Artificial Intelligence Act),并在2024年通过审议,美国也在2023年提出AI行政命令,目的为推动联邦部门使用安全且可信任的AI。

国科会从前任主委吴政忠开始,便跨部会讨论,并搜集外界意见,同时参考国外立法,研拟我国的AI基本法,原本国科会预期在今年10月提出草案,在各界期望下提前研拟草案,提出我国对AI研发及应用的基本原则,政府推动重点。

揭示永续、人权、隐私保护、问责等7大原则

AI基本法首先对AI定义为,以机器为基础的系统,该系统具备自主运行能力,透过输入或感测,经由机器学习及演算法,提供明确或隐含的实现目标的预测、内容、建议或决策,影响实体或虚拟环境的产出,有别于其他软体系统。

基本法的第3条主要提出我国发展AI技术及应用应遵循的7项基本原则,包括永续发展、人类自主、隐私保护及资料治理、资安与安全、透明与可解释、公平不歧视、问责。

首先是永续发展原则,AI研发及应用需兼顾社会公平、环境永续,通过适当的培训,降低AI带来数位落差的影响;另外,AI发展应尊重人类自主,例如自主权、人格权等基本人权与文化价值,并且可受人类监督,以人为本,法治及民主价值观。

在隐私保护及资料治理原则上,由于AI发展不可避免涉及资料搜集,需遵守隐私保护及资料治理,避免资料外泄风险、采用资料最小化原则,相对地,也促成非敏感资料开放及再利用。资安与安全的原则,要求在人工智慧研发及应用的过程,应建立资安防护措施,防范安全威胁及攻击,确保系统的稳健性及安全性。

透明与可解释原则,要求对AI产出的资讯内容作适当的资讯揭露或标记,以利评估可能的风险及影响,提升对AI的可信任度。公平不歧视原则要求AI研发及应用应应避免演算法产生偏差或歧视风险。最后的问责原则,要求承担相应的责任,包括内部治理及外部社会责任。

建立风险分级管理框架,由目的事业主管机关提供AI创新实验环境

此外,该草案也明示4大推动重点,包括创新合作及人才培育、风险管理及应用负责、权益保障及资料利用、法规调适及业务检视。

政府应在AI推动上扮演更积极的角色,鼓励AI研发、应用及基础建设、资源分配、产业辅助等等,并且依AI作法规调适。此外,参考欧盟AI法案鼓励会员国政府提供可受控制的AI实验沙盒制度,为鼓励创新及永续发展,我国AI基本法草案以政府鼓励创新,各目的事业主管机关提供AI研发及应用服务的创新实验环境。

政府应对AI应用带来的歧视、偏差风险,或对民众造成的生命、财产等损害提出建议或验证的工具或方法;另外,该草案也希望建立我国的AI风险管理框架,由数位部参考其他国家或经济体对AI提出的风险分级、管理框架,建立与国际对接的管理框架,让各目的事业主管机关得以风险分级框架就主管业务订定风险分级规范。

政府各机关或机构对其业务及服务使用人工智慧,建立风险评估及因应措施,应建立使用规范或内控管理机制。AI基本法草案其他条文也涵盖AI可能的冲击及政府的角色,包括劳工权益、建立民众的AI素养、个资保护、资料治理等等。