发布于 : Oct 26, 2022
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。
了解更多
Oct 2022
评估
OpenAI 的 DALL·E 可以从文本提示创建图像,这吸引了所有人的注意。现在,Stable Diffusion 也可以提供相同的功能。更重要的是,它是开源的。任何可以使用性能强劲的显卡的人都可以对模型进行试验,而任何拥有足够计算资源的人都可以自己重新创建模型。结果很震撼,但也带来了重大的问题。例如,该模型使用互联网爬虫获得的图像-文本对进行训练,因此它带有社会偏见,这意味着它可能会产生非法、令人不安,或至少不受欢迎的内容。虽然 Stable Diffusion 现在有基于 AI 的安全分类器,但由于它是开源的,使用者可以禁用这一分类器。还有,艺术家们注意到,在特定的提示词下,模型可以模仿他们的艺术风格。因此引发了对于能够模仿艺术家的人工智能的伦理和法律影响的疑问。