MIT研发“照片保护罩”,能阻止Stable Diffusion等AI模型修改原图

2023-08-03 13:46:32     来源:DeepTech

今年早些时候,当我意识到生成式人工智能能够轻松地篡改人们的图像时,我在社交媒体账户上把隐私设置调成了最严格的,并将我的 Facebook 和 Twitter 个人资料图片换成了自己的画像。

这一发现是在玩了基于 Stable Diffusion 的图像编辑软件和各种深度伪造应用程序之后发现的。通过从推特上随便选择一个人的头像,点几下鼠标并输入文字提示,我就可以生成关于那个人的深度伪造色情视频,并编辑照片中的衣服。作为一名女记者,我经历过不少的网络暴力。我想试试看,有了新的人工智能工具,情况会变得多么糟糕。

虽然深度伪造色情多年来一直被用来折磨女性,但最新一代的人工智能使其成为了一个更大的问题。这些系统比以前的深度伪造技术更容易使用,而且它们可以生成看起来完全令人信服的图像。


【资料图】

以图生图的人工智能系统允许人们使用生成式人工智能编辑现有图像,“可以是非常高质量的……因为它基本上基于现有的单一高分辨率图像,”美国芝加哥大学计算机科学教授本·赵( Ben Zhao )告诉我,“结果是同样的质量,同样的分辨率,同样的细节水平,因为通常(人工智能系统)只是在移动东西。”

你可以想象,当我了解到一种新工具可以帮助人们保护自己的图像免受人工智能操纵时,我松了一口气。PhotoGuard 是由麻省理工学院的研究人员创建的,它的作用就像照片的保护罩。它以我们无法察觉的方式改变了照片,但阻止了人工智能系统对它们进行修改。如果有人试图使用基于生成式人工智能模型(如 Stable Diffusion)的应用程序编辑 PhotoGuard“保护”的图像,结果将看起来不真实或扭曲。

另一个以类似方式工作的工具叫做 Glaze。但它并没有保护人们的照片,而是帮助艺术家防止他们受版权保护的作品和艺术风格被抓取到人工智能模型的训练数据集中。自从 Stable Diffusion 和 DALL-E2 等图像生成式人工智能模型出现以来,一些艺术家就一直在奋起反抗,认为科技公司窃取了他们的知识产权,并用来训练这些模型,但却没有给他们补偿。

Glaze 由赵和芝加哥大学的一组研究人员开发,帮助他们解决这个问题。Glaze 像是“斗篷”一样遮住图像,应用人类几乎看不到的细微变化,但能阻止人工智能模型学习定义特定艺术家风格的特征。

赵表示,Glaze 破坏了人工智能模型的图像生成过程,阻止他们生成无限多看起来像特定艺术家作品的图像。

(来源:AI 生成)

PhotoGuard 有一个与 Stable Diffusion 合作的在线演示,艺术家们很快就能使用 Glaze。赵和他的团队目前正在测试该系统,并将允许有限数量的艺术家在本周晚些时候注册使用。

但这些工具做不到完全保护。例如,你仍然可以拍摄受 PhotoGuard 保护的图像的截图,并使用人工智能系统进行编辑。尽管它们证明了人工智能图像编辑问题有巧妙的技术解决方案,但除非科技公司开始更广泛地采用类似的工具,否则它们本身毫无价值。现在,我们放在网上的图片对于任何想使用人工智能滥用或篡改它们的人来说都是容易得到的“猎物”。

阻止我们的图片被不良行为者篡改的最有效方法是社交媒体平台和人工智能公司为人们提供方法,使他们的图像免疫,并在每次人工智能模型更新的时候确保方法仍然奏效。

在向白宫作出的自愿承诺中,领先的人工智能公司承诺“开发”检测人工智能生成内容的方法。然而,他们没有承诺会使用它们。如果他们真的要保护用户免受生成人工智能的伤害,那可能是最关键的第一步。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

标签:

包装