昨天 nijijourney 在公告上发布了即将发布的 inpainting 功能的介绍和预览,今天早上的 midjourney 的周会上也提到了这个功能即将在本周发布。
inpainting 这个功能最早是在一年前 dalle2 首先发布的,一年了现在 PS 和 SD 也都已经配置了这个功能,早先我在 MJ 发布 outpainting 的时候总结过这几个工具的不同点,感兴趣的可以去看看:AI 扩图哪家强?midjourney,Photoshop,dalle2,stable diffusion 大比拼

有一说一 MJ 挺好用的,但是对于 AI 新功能的迭代上真的让我想起了那个古老的浏览器的梗图,没忍住做了张 AI 绘画工具的版本。
Midjourney 的 inpainting 珊珊来迟,按理说它们目前只用自己的模型,不支持第三方上传图片,应该更容易才对,但是今天的周会上 MJ 表示这个功能还不够完美。
MJ 之前一直在坚定普适性的 AI 绘画工具,所以对增加功能一直很克制,但是最近也熬不住了,现在 MJ 就只差 controlnet 了,SD 最近也发布了效果不输于 MJ 的通用大模型。AI 绘画的比赛已经进入到了下半场。
接下来我会附上 niji 发布的 inpainting 的介绍文章和今天早上 MJ 的会议纪要。
什么是 Inpainting?


根据我们选择的区域,我们可以以不同的方式修复结果。

修复并不仅限于纠正错误。我们可以要求 niji 添加额外的元素,比如他最好的朋友。

或者替换背景

利用 niji 制作的空教室作为背景,我们可以对角色进行修复绘制。

加上一个被转生的公主怎么样?

一个必不可少的运动服主角?

还有一个伪装成普通人的龙呢?

Inpainting 提供了一个很好的方式,可以将多个角色带入复杂的场景中。
或者,您还可以将其用于将复杂的场景变为空旷的场景:


--no humans, 真的没有人类!
您可以使用它为您的故事设计完美的时刻。


不再将失败的区域隐藏在文字气泡后面!不再在关键镜头上妥协!讲故事的人,这就是您一直在等待的功能!
生成式人工智能行业仍处于起步阶段。从文本到图像是一个入口接口:它让许多从未接触过图像编辑器的人将他们的想法变成了美丽的图像。
随着领域的成熟和用户在操作图像方面变得更加熟练,他们将希望对画布拥有更多控制权。虽然文本是最容易操作的界面,但它并不提供这些控制。
随着平移、缩放和即将推出的修复绘制功能的引入,我们正在探索在一个更具视觉感知的空间中操作生成的新方式。我对我们正在开发的新功能感到非常兴奋!
MJ 的 817 会议纪要
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
