Google新兴技术、竞争力暨永续发展政策资深总监David Weller专为Google提供AI治理、监管、永续发展等政策建议,也参与美国等多国政府AI公共政策建议。他认为,兼顾AI创新和风险的良好做法是找出现有监管机制的不足之处,并想办法补足,而不必急著订定AI专法。(摄影/王若朴)
生成式AI在2024年大放异彩,大型语言模型(LLM)不断更迭出新,催生出大量AI代理,比如Google前阵子发表的Gemini 2.0-Flash模型,延伸驱动了4款AI代理,有能理解手机萤幕和网页元素的行动装置代理、浏览器代理,还有研究专用代理和程式开发代理。这些代理具备多模态能力,不只懂文字、图片、影片和音讯,还知道怎么运用工具、API来自动完成复杂任务,比只懂单一模态的代理更厉害了。
但在这波AI浪潮中,企业要兼顾创新、业务效率和安全合规,就得仰赖良好的AI治理和监管策略。David Weller是Google新兴技术、竞争力暨永续发展政策资深总监,他专门为Google提供AI治理、监管、永续发展等政策建议,也与美国在内等多国政府合作,参与重大公共政策建议。
他先前到访台湾,接受iThome专访,分享了他对AI治理和监管议题的看法:
Q 能否简介你在Google的工作角色?
A 我在Google工作10多年,是公共政策团队的一员,负责AI政策、经济竞争力、贸易政策和永续发展政策的研究与建议。我们团队会整合这些领域的洞察,提出适当且有益的公共政策建议,供政府、企业和其他利害关系人参考,来推动科技进步,让经济和社会变得更好。
我的核心工作是思考AI公共政策框架,并帮助Google和政府了解相关议题。因为,很多的AI进步,都发生在私部门,比如许多生成式AI的基础,都来自于Google在2017年发布的Transformer论文。因此,美国政府制定AI责任等新规则时,往往会想了解企业的观点,我们会提出Google的建议方案,比如适当的AI护栏措施、兼顾AI创新且合理运用的方法,供政府参考。这就是我在Google的角色。
Q 就与政府机构沟通AI政策的经验中,你有哪些重要观察?
A 我们与世界各国政府密切合作,大家确实在努力解决AI监管、AI政策制定等问题。
先退一步来说,我认为,人们和政府正努力在AI的两种想法间保持平衡。一方面,他们想:哇!AI拥有巨大潜力,可以提高经济生产力,让社会更有竞争力,还能帮助解决棘手的挑战,如医疗健康、气候变迁等。
AI是一项非常强大的技术,它能帮我们做到以前做不到的事、获得新洞察。尽管经济学家对AI能提高多少生产力和GDP,给出了不同预测,但他们都一致认为,如果公私部门充分部署AI,将带来巨大好处。这是一个想法。
另一个想法是对周遭风险的担忧,这通常是因科幻电影和尚未遇到的情况而起,担忧科技接下来的发展方向。
我认为,许多政府正在考虑这两个课题,尤其去年,许多目光都聚焦在第二个课题,我相信台湾也有类似讨论。而大众关心哪一面,取决于政府的思考方式。
但只关注其中一种是危险的。假设只考虑风险,我们要做的是,防范未来的不利因素,但我们不确定这些不利因素是否会真的发生,反而断绝了运用AI技术的能力。
同理,当政策制定者只关注机会,认为AI能解决世界上所有问题,这也是危险的。政府得考虑特定风险,尤其AI是一项新技术,会出现新问题,所以政府必须兼顾AI发展与风险防范。就我观察,政府会透过不同方式,来实现这种平衡。
在Google,我们经常谈论,如何兼顾AI的大胆创新和负责任。我们非常相信,这两点是可以同时做到的,而不是只能择一。你必须兼顾两者。
Q 能否举例说明,政府如何兼顾AI机会与风险?
A 美国、新加坡政府已经取得了很好的平衡。首先,就风险来说,这两国政府清楚知道,现行的法律系统和现有的监管机构,普遍来说已经足够发展AI监管了。因为,我们有时会误解,没有一部规范AI的专法,AI就不受监管。
事实并非如此,AI是项底层技术,就像汽车引擎盖下的引擎;AI在各个产业中的角色,也是如此。因此,监管机构需要的是,被授权去监管各个产业。比如医材监管机构,得确保新医疗器材安全、经过适当测试,并正确告知消费者风险。这也是美国和新加坡政府的做法,与其急于制定全新的AI监管法规,不如评估现况、找出不足之处,并设法补足。我看到,这两国政府优先专注创新,并积极研究AI技术,同时制定软性指引, 来避免过早推出严格的监管措施、阻碍了AI发展。
再来,AI正快速发展,有许多潜在风险,美国和新加坡政府正以谦虚的态度面对这些问题。以美国为例,在制定新的重大监管限制或规范前,政府需要了解AI发展状态,因此颁布了白宫行政命令,要求企业在模型达到一定能力时,向美国政府回报,让政府理解最新的AI进展。新加坡也在2019年制定类似的指导方针。这让政府在采取硬性法律前,更了解事情的全貌。
另外,制定出各国政府认同的AI监管国际标准也很重要。如果各国政府没有协调,只制定出各自的法规,我们很快就会陷入一团糟。比如,台湾一家公司想将其AI产品部署到其他国家,就会遇到各国法规限制问题。
在机会方面,我也看到,美国和新加坡政府投资创新、以确保技术发展,台湾政府也在这方面投入许多。许多政府也正努力从教育著手,来让劳动力做好准备、因应AI对就业产生的影响。
Q 能否聊聊Google自己的AI治理做法?
A 当然。早在2018年,Google就提出了AI原则,就像是内部宪法一样,规定了我们将如何拥抱AI、哪些领域不得发展AI,并建立类似的指导原则。同时,我们也建立了内部治理框架,来在开发新产品和服务时,能符合AI原则和外部最佳实践。
举例来说,几年前,Google开发了一款可以读唇语的AI工具。当时的开发初衷是,让听障民众能理解别人在说什么,这是一个惊人的好处。但另一方面,读唇语技术可能会被滥用,比如用于大规模监视。
因此,我们以AI原则和道德规范来判断,这项专案该如何进展,最后决定将它部署在其他技术中,来帮助身障人士,而非单纯以开放API或开源等方式提供。
另一个例子是蛋白质结构资料库AlphaFold Protein Structure Database,全球将近200万名研究人员正在使用它,来开发新药或治疗方法。当Google DeepMind开发AlphaFold时,我们针对是否要公开这个资料库,进行了密集的讨论。我们请来外部生物医学伦理专家,以及Google内部的伦理专家,来考虑开放与否的利弊,最终采取了不同于读唇语技术的做法,开放给外界使用。
另一方面,就像我们2023年对白宫做出的承诺,我们在正式发布最先进的AI模型和系统前,都会先进行外部测试与红队演练。同时,我们也高度参与美国国家标准暨技术研究院(NIST) AI风险管理框架的开发,提供一个结构化的方法,帮助企业识别、评估和管理AI风险,这也和我们的内部管理流程相互呼应。
Q 你建议台湾企业如何推动AI治理?
A 虽然我比较熟悉公共政策建议,但我会给几个建议,一是建立非常明确的内部治理机制,二是与外部生态系进行对话,这非常重要。就好比AlphaFold资料库的例子,当企业遇到新问题,请与外部专家讨论。你不会希望只靠电脑科学家来解决问题,你需要特定领域的专家、伦理学家、哲学家,需要广泛的利害关系人参与讨论,而不是像在内部工作一样,独立作业。
另一方面,我也会建议企业,遵循NIST AI风险管理框架和ISO 42001人工智慧管理系统标准。这对企业建立自己的AI系统来说,是个非常好的起点。