微软
生成式AI 助理如ChatGPT用在写信、简述文章重点或许还不错,但牵涉政治的问题最好还是不要问它。一项研究发现,微软生成式AI助理Bing Copilot在回答欧洲国家选举的问题时,却给了不少错的答案。
微软、OpenAI及Google等业者前后发表AI聊天助理Bing Chat/ Copilot、ChatGPT、Bard后,因应大众对AI幻觉、假资讯、侵权或偏见等问题,赋予其搜寻即时网路内容、引述内容来源,也加入防护(safeguard)功能,不回应有偏见、或鼓励暴力、种族歧视、犯罪、毒品的提问。
非营利机构AI Forensics以及AlgorithmWatch在今年8月21日到10月2日期间,针对微软Bing Copilot或Bing Chat调查它对德国二个邦及瑞士选举的问题解答能力。今年10月该基金会第一次公布Bing Copilot的研究结果。上周又公布第二次报告。研究人员询问关于候选人、民调、投票的问题,也请它针对特定主题,如环保,建议该投给哪名候选人,最后分析Bing Copilot的答案。
首先,研究显示,Bing Copilot关于选举的问题,1/3(31%)有事实上的错误,包括投票日期错误、列出以前的候选人、还虚构特定候选人的丑闻,但英语版的正确度(30%)还高于法语(19%)及德语版(28%)。其次,虽然Bing Copilot设有防护功能,但并未均等应用于所有回应,导致40%的问题它拒绝回答,包括关于候选人的基本问题。虽然研究人员认为这现象其实是好事,因为是防止假资讯的机制,却也减损了AI聊天机器人作为可信资讯来源的价值。
图片来源_AlgorithmWatch
研究人员也发现,Bing Copilot给错误答案的问题,并非短期现象,而是长期、系统性的问题。从8月到9月,同样给错误答案的问题,还是会重复发生,正确率并未改善。此外,研究人员观察到,Bing Copilot甚至给错候选人的资讯,甚至编造出某候选人涉入丑闻,却还能提供知名媒体作为消息来源,包括Wikipedia、politico.edu、dawum.de等网站,同时伤害了候选人及新闻媒体名誉。
今年10月研发人员向微软通报这些问题,特别是牵涉特定候选人的错误资讯,微软虽承诺解决Copilot的问题,但一个月后,研究人员再次测试发现Bing Copilot的表现并未改善。
研究人员最后呼吁,随著Copilot 和其他AI工具广泛整合于科技产品,欧盟及各国政府应确保科技公司负责AI的资讯品质。