AI模型“生成不了白人”,谷歌高级副总裁道歉

据环球网援引美联社26日报道,对于用户反馈谷歌公司推出的人工智能(AI)模型Gemini在生成人物图像时出现疑似“反白人”的问题,谷歌高级副总裁普拉巴卡尔·拉加万日前进行了道歉。 | 相关阅读(极目新闻)

福荣

谷歌Gemini的图片生成功能因为过于“政治正确”,生成了很多严重偏离事实的图片,遭到网友吐槽,称其为“人工智能种族主义”,谷歌致歉,连夜下架Gemini文生图功能,现在谷歌高级副总裁也来道歉了,可见事态严重。

大家肯定会好奇为什么会出现这个问题呢?我在网上看到一位谷歌AI的前高管说法:谷歌可能在背后在用户提示词基础上添加了种族多样性术语。在这种情况下,像“士兵的肖像”这样的提示词可能会变成“土著士兵的肖像”。在这种情况下,可以随机选择附加术语,那么谷歌算法上的某种“政治正确”就很可能会更加优先地显示基于深色肤色生成的图像。比如说,如果 Gemini 为每个提示生成 10 张图像,谷歌会让系统分析图像中描绘的人的肤色,并将肤色较深的人的图像推到队列中的较高位置。因此,如果 Gemini 只显示前 4 张图,那么最有可能看到肤色较深的。这也就解释了为什么人们看到这些本应是白人形象的历史人物变成深肤色了。

我感觉这会是一个转折点事件。大家都知道互联网平台发布内容都是要进行内容审核。很显然这次Gemini没有进行审核,也很难审核,这是否意味着未来加强AIGC的监管会先从内容审核切入?让我们拭目以待吧。