金管会正式发布金融业运用AI原则,放宽业者使用AI皆须人为判断的一致性规范

金管会10月17日正式发布金融业运用人工智慧之核心原则与相关推动政策,包含6项核心原则及8项配套政策,金管会综合规划处处长胡则华说明原则相较草案的部分修正处,包含,修改业者使用所有AI工具时,都须进行人为判断的原则,修正AI系统定义,和新增生成式AI定义。另外,8项配套政策并未进行修正。

这次发布的原则相较8月宣布的草案,共修正五处内容。草案中曾提及,金融机构如运用生成式AI协助进行决策,不宜将其产生的资讯作为判断或决策的唯一依据。这条原则曾造成外界误解,认为使用非生成式AI就可以作为判断或决策的唯一依据,因此将该句删除,改为金融机构使用AI应以风险为基础做出适当决策和监督。胡则华解释,由于金融业运用AI的案例不少,较为简单的AI工具,如客服机器人,未必需要进行最后的人为判断或决策,因此进行这项修正。

虽然不必在使用每个AI工具时,都进行最终人为判断,金管会仍认为,金融机构最初在设计AI工具时,就要放入相关管控机制,因此,原则也要求金融机构在处理生成式AI产出资讯时,要就风险进行管控。此外,考量金融机构非使用AI时,也未必都能达到公平,因此,正式原则也放宽使用AI系统时,要确保对所有人公平的规定,改为要求金融机构尽可能避免演算法的偏见造成不公平。

金管会这次发布也放宽了金融机构运用AI系统向客户提供金融服务时,应提供退出AI服务选项,或给予人工替代方案的规定,改为提醒客户是否有替代方案即可。此外,针对使用生成式AI办理业务时,应适当揭露的规定,胡则华说明,过往金管会制定这条规范,目的是让金融机构在提供金融服务时,客户能了解谈话对象是AI,而非真人,不过,有业者反映,部分使用AI的业务是面向内部员工,因此,金管会修正这项原则,改为金融机构使用AI与消费者直接互动时,才应适当揭露。

此外,金管会也修改了原则中对AI的定义,改以经济合作暨发展组织(OECD)的「AI系统」定义为准,并依据欧盟的人工智慧法草案,定义生成式AI为特别用以生成具有不同自主程度之文章、图像、音讯或影片等内容的AI系统。