您的位置:首页 >企业新闻 >

人工智能经过训练可以从图像中汲取灵感

导读 众所周知,强大的新人工智能模型有时会出错——无论是产生幻觉虚假信息,还是记住别人的工作并将其作为自己的工作提供。为了解决后者,由德...

众所周知,强大的新人工智能模型有时会出错——无论是产生幻觉虚假信息,还是记住别人的工作并将其作为自己的工作提供。为了解决后者,由德克萨斯大学奥斯汀分校的一个团队领导的研究人员开发了一个框架,用于在无法识别的图像上训练人工智能模型。

DALL-E、Midjourney 和 Stable Diffusion 属于文本到图像扩散生成 AI 模型,可以将任意用户文本转换为高度逼真的图像。这三人现在都面临艺术家的诉讼,他们声称生成的样本复制了他们的作品。这些模型经过数十亿非公开的图像-文本对的训练,能够根据文本提示生成高质量的图像,但可能会利用随后复制的受版权保护的图像。

新提出的框架称为“环境扩散”,通过仅访问损坏的基于图像的数据来训练扩散模型,从而解决了这个问题。早期的努力表明,该框架能够继续生成高质量的样本,而无需看到任何可识别为原始源图像的内容。

环境扩散最初于 2023 年在机器学习会议 NeurIPS 上提出,此后经过调整和扩展。arXiv预印本服务器上提供的后续论文“Constant Diffusion Meets Tweedie”已被2024 年国际机器学习会议接收。该团队与麻省理工学院的 Constantinos Daskalakis 合作,扩展了该框架,以便在被其他类型噪声破坏的图像数据集上训练扩散模型,而不是简单地屏蔽像素,并在更大的数据集上训练扩散模型。

参与这项工作的计算机科学教授 Adam Klivans 表示:“该框架也可能对科学和医学应用有用。” “对于任何需要昂贵或不可能获得全套未损坏数据的研究来说,从黑洞成像到某些类型的核磁共振扫描,基本上都是如此。”

免责声明:本文由用户上传,如有侵权请联系删除!