10月20日消息:OpenAI 一直在就何时发布一款工具,用于确定一张图像是否由 DALL-E 3 生成,OpenAI 的生成式人工智能艺术模型,进行了广泛的「讨论和辩论」。但这家初创公司并不打算在短期内做出决定。
这是根据本周在电话采访中与 TechCrunch 交谈的 OpenAI 研究员 Sandhini Agarwal 的说法。她负责安全和政策,她表示,尽管分类器工具的准确性「非常好」——至少根据她的估计——但尚未达到 OpenAI 的质量门槛。
Agarwal 表示:「考虑到它做出的决定可能会严重影响照片,比如一件作品是否被视为由艺术家绘制,或者是否不真实且具有误导性,因此推出一个有点不可靠的工具是一个问题。」
OpenAI 对该工具的目标准确性似乎非常高。OpenAI 首席技术官 Mira Murati 在 WSJ 的 Tech Live 会议上表示,这款分类器在确定未经修改的照片是否是由 DALL-E 3 生成的方面是「99%」可靠的。也许目标是 100%;Agarwal 没有明确表示。
与 TechCrunch 分享的 OpenAI 博客草稿揭示了一个有趣的细节:
「[分类器] 在图像经历了常见类型的修改,如裁剪、调整大小、JPEG 压缩,或者在生成的图像的小部分上叠加文本或真实图像的剪贴时,仍然保持超过 95% 的准确性。」
OpenAI 的犹豫可能与围绕其先前的公共分类器工具的争议有关,该工具旨在检测不仅来自 OpenAI 模型,还来自第三方供应商发布的生成文本。OpenAI 撤回了 AI 编写的文本检测器,因为其「低准确率」受到广泛批评。
Agarwal 暗示 OpenAI 还关注人工智能生成图像到底由什么构成的哲学问题。显然,由 DALL-E 3 从头生成的艺术作品是符合条件的。但是,对于经过多轮编辑、与其他图像合并,然后经过几轮后处理滤镜的 DALL-E 3 生成的图像,应该如何划分就不太清楚了。
Agarwal 表示:「在那一点上,这个图像应该被视为 AI 生成的东西还是不是?现在,我们正在尝试解决这个问题,我们真的希望听到那些将受到这种分类器工具重大影响的艺术家和其他人的意见。」
不仅 OpenAI,许多组织正在研究为生成媒体水印和检测技术,因为人工智能深度伪造不断增加。
DeepMind 最近提出了一种规范,SynthID,用于标记以人眼看不见的方式生成的 AI 图像,但可以被专门的检测器发现。法国初创公司 Imatag,于 2020 年推出了一款声称不受调整大小、裁剪、编辑或压缩图像影响的水印工具,类似于 SynthID。另一家公司 Steg.AI 使用 AI 模型应用可以经受调整大小和其他编辑的水印。
问题在于,该行业尚未就单一的水印或检测标准达成共识。即使达成共识,也不能保证水印——以及检测器——不会被打败。
Agarwal 被问及 OpenAI 的图像分类器是否支持检测使用其他非 OpenAI 生成工具创建的图像。她不承诺这一点,但确实说过——这取决于目前存在的图像分类器工具的接受程度——这是 OpenAI 会考虑探索的一条途径。
Agarwal 表示:「目前 [分类器] 仅适用于 DALL-E 3,因为从技术上讲,这是一个更容易解决的问题。」她说:「[通用检测器] 并不是我们目前正在做的事情... 但根据 [分类器工具] 的发展,我不是说我们永远不会这样做。」