顾名思义就是用一段文字生成3D模型,仅需1步[Tripo文生教程.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Qe0YbxHvNoGjQKxIUHkcHuHBnXc?allow_redirect=1)在「Create」界面底部的输入框中,可以输入自己的提示词(此处不支持中文哦)。不会写提示词的伙伴也不用担心,点击输入框左侧的</>按钮可以随机生成提示词并自动填入输出入框中。提示词填写好以后,点击右侧的「Create」来生成3D模型。每次会生成4个基础模型,如果不满意,可以点击最下方白色的「Retry」按钮,重新生成4个基础模型。如果有满意的模型,只需要点击单个模型下方黄色的「Refine」,就可以精修此模型了。在「My Models」中可以看到精修进度,一般5 min左右就可以完成。[heading1]四、图生3D模型[content]顾名思义就是用一张图片生成3D模型,仅需1步[Tripo图生教程.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/IBmxbag9Ho8zARxvcRWcKxRKnif?allow_redirect=1)点击输入框右侧的图标,可以上传图片来生成3D模型。图生3D一次只会生成一个基础模型,同样支持Retry重生成和Refine精修。至于效果嘛,自己体验吧。
输入文本后会文生图,不满意可重复生成图片,图片满意后即可点击GENERATING生成3D很快你会获得一个快速生成的粗模右上可以选择是否对称、是锋利边缘还是光滑边缘,是否简单几何模式选择后可以查看模型是否满意,不满意可以redo,满意后选择confirm进行下一步,这里可以先选择产出的面数(开始扣积分)完成后下一步是生成材质,可选材质的复杂度以及参考图片的影响生成后,可以在左边查看,满意点击confirm左侧预览区可以选择多种形式查看进行到这里,模型基本就完成了可以选择对应的格式规格下载即可,压缩包里会有以下文件(obj格式+PBR材质)也可以发布到sketchfab
在2D美术中,我们广泛地使用图像生成技术。AI生成图像领域中,生成模型和神经网络渲染是两个主要的技术分支。2022年主流生成式图像应用DALL-E 2.0、Stable Diffusion和Midjourney的诞生,使图像生成的精细化程度得到了有效的提升。提示对图像生成结果的控制能力得到了提高。在3D模型生成中,AI主要完成了对3D模型生成流程的“⼀步到位”。△图:3D美术工作流拆解,《AI游戏产业驱动力研究报告》工作流中的每⼀个环节几乎都需要⼀位或⼀组3D美术工程师来完成,而使用3D生成模型可以直接完成⼀个可调整的3D粗模,大大提升效率。△图:GAME BOT,超参数科技②测试与优化AI在游戏测试环节中存在3大模拟场景,分别是AI玩家模拟、AI NPC和AI游戏模型测试。在优化环节往往承担改善角色动画、编程&加速、自动化游戏测试等功能。通过生成文字、图片、视频、音乐来缩减时间和资源消耗,也能快速识别游戏开发过程中的基本问题,并提出改善方法。③故事情节与NPC游戏设计是整个游戏开发过程的核⼼,AI在角色与故事生成、游戏机制创新等方面,依托最基础的自然语言生成用法。生成式AI阶段,游戏开发者在决策式AI的基础上融合更多思维和方法用以训练智能NPC,通过针对性训练数据集,强化NPC模型的基础能力,如角色知识、对话能力、情节演绎和逻辑推理。目前,小型的智能NPC可以实现封包在游戏中本地运行。④音乐与音效