以下是一些关于 2D 转 3D 的相关信息:
[title]问:图片生成3d建模工具图片生成3D建模工具是指利用人工智能技术,通过分析图片内容并将其转换成3D模型的软件或服务。以下是一些可用的工具:1.Tripo AI:Tripo AI是VAST发布的在线3D建模平台,它能够利用文本或图像在几秒钟内生成高质量且可立即使用的3D模型。该平台基于一个数十亿参数级别的3D大模型,能够实现快速的2D到3D转换,并提供AI驱动的精准度和细节。2.Meshy:Meshy是一个功能全面的工具,它不仅支持文本生成3D,还支持图片生成3D以及AI材质生成。用户可以通过上传图片并描述需要的材质和风格,来生成高质量的3D模型。3.CSM AI:CSM(Common Sense Machines)支持从视频和图像创建3D模型。它的Real-time Sketch to 3D功能支持通过手绘草图实时设计3D形象,再转换为3D模型。4.Sudo AI:Sudo AI支持通过文本和图像生成3D模型,特别适用于游戏领域的模型生成。用户可以上传图片或输入文本提示词来生成3D模型。5.VoxCraft:由生数科技推出的免费3D模型生成工具,能够将图像或文本快速转换成3D模型,并提供了图像到3D、文本到3D和文本到纹理等多种功能。这些工具通常具有用户友好的界面,允许用户通过简单的操作来生成3D模型,无需专业的3D建模技能。它们可以广泛应用于游戏开发、动画制作、3D打印、视觉艺术等领域。内容由AI大模型生成,请仔细甄别
当不跑真人,而是去跑2D和3D角色的时候,这就让我惊喜多了。Niji 6 + cref + sref的组合拳,是我认为目前的最优解。prompt写法也很简单,角色描述+角色动作+cref。比如我随手跑了一个人造人18但是换了衣服,再把提示词删了直接去用图片提示,可以看到角色一致性得到完美的保持,不管是面部、发型、颜色、衣服,甚至还有身材,都能完美还原...如果换成--cw 0,再写一个运动服。可以看到衣服全变了,但是面部和头发都不变,用吉川的话说:头发才是二次元的本体。再比如,用我之前的橙头发妹子,直接跑一个穿皮衣弹吉他的图,当然,除了弹吉他之外,她还可以做很多事情。而做3D角色也是同理,比如经典的泡泡玛特风格的IP。[heading1]三.动物[content]动物的一致性,比我想象的要好很多,因为我一直以为MJ的角色性,真就只有人物的,但是随手试了一下动物,居然意外的还不错。比如用坤哥的《山海奇镜》里面的狼当图片提示,让它来抓兔子。原图是这样的。让它去抓兔子以后,就意外的,非常好。比如用朋友的狗当prompt,也还原的差不多。还有怪物,也很Nice。这种精度,去做个绘本,肯定是没问题了~
[title]质朴发言:期待地搓手手:多模态大模型的GPT时刻|Z沙龙第6期[heading1]#一、多模态模型算法:模型架构和数据困境[heading2]1、多模态模型的技术架构技术分享3D模型、图像和视频可能会融合成一个统一的模态。举例来说,从一个截面观察杯子的移动,这可能是内容上的一个维度变化,从而形成一个空间维度的变化。视频编辑本质上是连续多帧的编辑,而这种编辑过程与3D模型的空间变化相似,因此我们可以推测这三种模态的未来可能是融合的,既能够生成视频,也可以生成3D。编者按:我们可以简单地理解:视频=二维图片+时间维度;3D =二维图片+深度维度在视频理解与生成以及三维模型生成这些领域,研究人员经常按照这个思路,将二维图像转换或提升到三维。目前,3D生成的主流两种技术路线是原生3D和2D升维,原生3D指的是使用3D数据集进行训练,从训练到推理都基于3D数据;2D升维指的是从二维图像出发,通过创建深度图、立体生成和未覆盖区域的重建等步骤,将二维图像转换为具有深度感的三维表现。插播一条预告:质朴发言Z研究分支的下期主题正是3D模态模型。3D模型的一个重要特性是视角不变性,这意味着无论从哪个角度观察一个三维对象,其基本结构和特征都保持不变。3D模型具有的强大先验性,即从不同角度看到的状态之间存在因果关系和一致性,使得物体的变化一致,而不像是视频更像是一种概率的推测。