首页 游戏资讯文章正文

这个工具可以防止在线图像被抓取来训练生成式人工智能

游戏资讯 2025年04月13日 16:52 8 admin

  

  

  这款名为Nightshade的软件于去年秋天发布,现在已经可以下载了,它能够“欺骗”目前用于自动图像生成的人工智能模型。这个想法是为了帮助艺术家防止他们的作品在他们不知情或不同意的情况下被滥用。

  除非被特别屏蔽,否则生成式人工智能模型现在可以在互联网上找到的任何内容上进行训练。这显然给那些不希望自己的作品被用作AI训练过程一部分的美工和内容创作者带来了许多问题。“欺骗”这些生成式AI模型的有效解决方案包括Nightshade。

  这个工具是由芝加哥大学的一组研究人员开发的,旨在使艺术家能够无形地改变代表他们作品的像素,以破坏人工智能模型,这些模型在学习过程中容易未经授权使用这些图像。它的创造者甚至将其描述为这些模型真正潜在的“毒丸”,如果这种活动变得普遍,严重的故障可能会影响训练数据,甚至使它们无法使用。

  这里提到的模型是Midjourney和DALL-E等最著名的图像生成人工智能所基于的模型。在实践中,这些图像将不再被正确解释,狗被误认为是猫,房子被误认为是蛋糕等等。

  最终,Nightshade的目标不是破坏人工智能模型,而是确保有一天,从它们的创造者那里获得授权的图像成为常态。该工具现在可以从大学网站上下载。

  Nightshade加入了之前由同一研究人员开发的另一种解决方案Glaze,该解决方案允许对图像进行操作,使其不会被人工智能训练过的模型获取。当然,只有当这些模型无法检测、识别和解码这些操纵时,这些工具才会有效。当人工智能强大到足以超越它们时,就需要找到其他解决方案。-法新社新闻

  ×

浪东网鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ:201825640