Meta
Meta本周揭露,正在与合作伙伴共同开发用来辨识AI内容的通用技术标准,包括目前较为普及的AI图像辨识标准,以及相较之下较不普遍的AI影片及AI音讯辨识标准,以期在遭到大规模滥用之前先行一步保护使用者。Meta计划未来几个月就会基于相关标准,于脸书、Instagram及Threads上标注由AI生成的图像。
其实Meta已针对自家Meta AI功能所生成的图像,提供Imagined with AI标签以供使用者辨识,但此一标签仅限于来自Meta AI的图像,无法扩及其它工具或平台所生成的AI作品。于是Meta著手与Partnership on AI(PAI)等论坛合作,共同发展C2PA及IPTC等各种标准,以用来辨识来自Google、OpenAI、微软、Adobe、Midjourney与Shutterstock等采用不同技术的AI图像。
根据Meta的说明,来自Meta AI的生成式图像具备两种AI标记,一种是直接呈现于图像上的可见标记,另一种则是出现在图像档案中的元资料与不可见的浮水印,当中,不可见标记的作法刚好与PAI的最佳实作一致。
于是Meta开始与PAI及其它合作伙伴共同建置各种工具,以用来大规模辨识这些隐藏于AI作品中的不可见标记,因为上述的Google、OpenAI与微软等业者,也都在以它们工具所建置的AI图像中加入了元资料。
只不过,现阶段业者才开始将标记功能加到图像生成器中,尚未扩及影片与音讯生成器,使得Meta决定推出暂时性功能,让使用者在分享AI生成影片及音讯的内容时自行揭露,以便Meta将它们加上AI标签。倘若使用者不从,那么Meta可能会施以罚则,此外,Meta亦打算针对那些可能带来重大影响的AI内容上嵌入更明显的标签以示警告。
Meta指出,这可能是目前最先进的作法,只是还未能延伸至所有由AI生成的内容,而且人们还有许多可移除不可见标记的方法,使得该公司决定多管齐下,包括开发可自动侦测缺乏不可见标记之AI内容的分类器,或是寻找让人们更难移除或变更不可见浮水印的方法,以及打造一个名为Stable Signature的技术,可直接将浮水印功能整合到某些影像生成器的生成程序中,非常适用于开源模型。
Meta认为,AI既是剑也是盾牌,除了不肖份子利用它来创造虚假内容以欺骗使用者之外,该公司使用AI系统来侦测平台上的仇恨言论及其它有害内容,将仇恨言论的普及率调降至0.01-0.02%,等同于使用者每1万次的浏览,只会看到一、两个内容含有仇恨言论。
未来几个月,使用者在脸书、Instagram或Threads上所看的AI生成图像,不管它们是采用何种技术所生成,只要可被基于标准的指标所侦测到,都会出现标签。