Navigate to WaytoAGI Wiki →
Home/All Questions
如何优化自己的prompt,提升AI结果输出的稳定性
以下是优化自己的 prompt 以提升 AI 结果输出稳定性的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在 prompt 中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最有针对性、最准确表达需求的描述方式。 5. 增加约束条件:在 prompt 中添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步添加细节和完善。 7. 参考优秀案例:研究 AI 社区流行的、有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同的 prompt 写法,并根据输出效果反馈持续优化完善,直至达到理想结果。 此外,如果提示词效果不符合预期,可以和 AI 再进行几轮对话来调整输出结果。最终通过询问 AI“怎么样修改现有的 Prompt,可以让你稳定输出当前的预期”来进行 prompt 的迭代。得到 prompt 后,可以新开一个 AI 对话,把 prompt 输入到对话中,开始验证其可用性和稳定性。例如输入 MECE 法则进行测试。
2025-01-24
音频驱动视频
以下是关于音频驱动视频的相关信息: INFP:字节二元交互的新型音频驱动头部动画生成技术 用户输入一段对话音频,可以自动驱动两个数字人头像自然对话,不需要手动区分对话。AI 可以动态地在说话和聆听状态之间交替,实现自然的口型同步和头部与面部表情动作。它适应多种画风图像,支持歌唱、采访、对话(可以实现多 Agent 实时对话)等场景环境。 地址:https://grisoon.github.io/INFP/ LTX Studio:Face Expression 控制角色表情 LTX Studio 的新功能 Face Expression 可轻松完全控制角色的面部表情。可以从预设情绪中快速选择,在几秒钟内调整角色的表情,也可以使用自定义控件微调眼睛、嘴巴或眉毛等特定特征,打造所需的确切情感。 【TecCreative】帮助手册中的相关内容 音频驱动多场景数字人:支持音频和场景数字人一键合成,快速生成数字人口播视频。操作指引:上传音频链接——选择数字人角色和场景——选择输出类型——点击开始生成。音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。 谷歌 Generating audio for video 为了生成更高质量的音频,并增加引导模型生成特定声音的能力,在训练过程中添加了更多信息,包括人工智能生成的注释,其中包含声音的详细描述和口语对话誊本。通过对视频、音频和附加注释进行训练,技术可以学会将特定音频事件与各种视觉场景联系起来,同时对注释或文本中提供的信息做出响应。
2025-01-24
预训练
以下是关于预训练的相关内容: Atom 系列模型的预训练: Atom 系列模型包含 Atom7B 和 Atom13B,基于 Llama2 做了中文能力的持续优化。Atom 大模型在 Llama2 的基础上,采用大规模的中文数据进行持续预训练,数据来源广泛,包括百科、书籍、博客、新闻、公告、小说、金融数据、法律数据、医疗数据、代码数据、专业论文数据、中文自然语言处理竞赛数据集等。同时对庞大的数据进行了过滤、打分、去重,筛选出超过 1T token 的高质量中文数据,持续不断加入训练迭代中。为了提高中文文本处理的效率,针对 Llama2 模型的词表进行了深度优化,扩展词库至 65,000 个单词,提高了中文编码/解码速度约 350%,还扩大了中文字符集的覆盖范围,包括所有 emoji 符号。Atom 大模型默认支持 4K 上下文,利用位置插值 PI 和 Neural Tangent Kernel(NTK)方法,经过微调可以将上下文长度扩增到 32K。 GPT 助手的预训练: 预训练阶段是 GPT 训练中计算工作基本发生的地方,占用了训练计算时间和浮点运算的 99%。在这个阶段,需要收集大量的数据,如 Common Crawl、C4、GitHub、维基百科、图书、ArXiv、StackExchange 等,并按照一定比例采样形成训练集。在实际训练前,需要进行预处理步骤 Tokenization(分词/标记化),将原始文本翻译成整数序列。 OpenAI o1 的预训练: GPT 4 等 LLM 模型训练一般由“预训练”和“后训练”两个阶段组成。“预训练”通过 Next Token Prediction 从海量数据吸收语言、世界知识、逻辑推理、代码等基础能力,模型规模越大、训练数据量越多,则模型能力越强。
2025-01-24
怎么搭建豆包模型
搭建豆包模型时,关于模型选择: 1. 没有强制必须用某个模型的说法,而是要根据自己的习惯、实测的响应速度、生成质量、调用费用进行综合选择。例如,Doubao Function Call 模型对于插件调用、Coze 内 json 格式输出比较擅长;MiniMax 处理文字速度很快;GLM 对于用户提示词的理解比较好。每个模型都有自己擅长的特点,并且各家模型都在不断迭代,所以模型的选用需要根据实测情况综合调整。 2. 一般可以选择豆包·function call 32k。“function call”代表有着更好的 Coze 的工具调用能力,“32k”代表模型的上下文窗口大小,即模型在处理文本时能够考虑的单词或标记的数量。如果输出和输入的类型不是纯文本,比如是 array、object 结构,请根据实测情况,考虑替换上豆包 function call 版本,其他的 LLM 可能会输出格式比较混乱。 此外,在飞书多维表格 AI 共学中,有王大仙演示中药材识别视频搭建过程,包括新建数据表、设置日期及附件字段,新建 AI 识别中药材列,自定义指令让 AI 识别中药材照片并按要求输出相关信息,最后强调要打开自动更新按钮实现工作效果。王大仙还测试了中药材照片识别结果及探讨产品打造配置,查看生成结果,以当归等中药材照片为例进行探讨,提到当归不太好识别,还谈及当归的使用方法、注意事项等,对结果表示满意,之后提到要用多维表格进一步配置打造产品,介绍豆包大模型能力已接入多维表格封装成 AI 字段,最后询问信息提取字段。同时,还有关于中药材信息提取及结构化标签生成的讨论,包括提取中药材名字,新建字段提取使用方法,提取价值和功效,提取使用注意事项等,还提到表结构需自己定义,可让豆包帮忙完成提取动作,还涉及用 AI 图片识别及提取字段拆解信息形成结构化标签。
2025-01-24
图片转漫画的国内AI工具
以下是一些国内的图片转漫画的 AI 工具: 1. 星流一站式 AI 设计工具: 可以使用图像控制功能,如空间关系、线稿、人物长相、姿势等,精准控制生成图像的内容和风格。 入门模式下有多种参考功能,包括原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割等。 2. Anifusion: 是一款基于人工智能的在线工具,用户输入文本描述,AI 就能将其转化为完整的漫画页面或动漫图像。 具有 AI 文本生成漫画、直观的布局工具、强大的画布编辑器、多种 AI 模型支持、商业使用权等功能。 适用于独立漫画创作、快速原型设计、教育内容创作、营销材料制作、粉丝艺术和同人志创作等场景。 优点是非艺术家也可轻松创作漫画,基于浏览器无需额外安装软件,具有快速迭代和原型设计能力,且拥有创作的全部商业权利。 更多相关工具您可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-01-24
图片转漫画
以下是关于图片转漫画的相关内容: SDXL Prompt Styler 插件可以把图片转化成近百种风格。转绘成折纸风时,若原始图像是手绘风格,最好不加入线稿边缘(canny)的 controlnet 控制或把其控制强度调到较小,因为手绘线条和折纸风格互斥。但转成漫画风格想较好保留人物外轮廓时,加入 canny 控制能更好还原人物造型。有时内置预设提示词组合不一定达到想要效果,需添加更多相关关键词。此工作流结合 Vid2Vid Style Transfer with IPA&Hotshot XL 工作流,可实现视频不同风格的稳定转绘。 利用大模型“Flat2D Animerge”和 lora“Chinese painting style”“Crayon drawing”的组合,能生成简笔水彩风格插画。将图片反推关键词后发送到“文生图”,在正向提示词末尾添加 lora 并设置权重,设置好尺寸、重绘幅度等参数,使用 controlnet 选择 tile 模型及控制权重,即可生成插画。 对于漫画趣味高中大学时期对比图,使用生成的提示词,通过 Dalle3 绘图分别绘制高中和大学时期的两幅四格漫画,再利用 Python 进行图片处理,包括添加文字、设置字体颜色和大小、创建空白背景区域等,最后将两张图片拼成一张,高中图片在左,大学图片在右,中间留 50px 空白区域。
2025-01-24
零基础学习ai
以下是为零基础学习 AI 提供的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,还有一个案例供您参考,二师兄来自上海,房地产行业从业二十年,计算机零基础。他在 2024 年的学习经历如下: 二月:在七彩虹的售后群中,因老哥分享用 AI 绘画的心得,要了 SD 秋叶安装包,下载了教学视频,迈出 AI 学习的第一步。 三月:啃完 SD 的所有教程,开始炼丹。 四月:与小伙伴探讨 AI 变现的途径,尝试用 GPT 和 SD 制作图文故事绘本、小说推文的项目。 五月:因工作变动,在无硬件支持的情况下,加入 Prompt battle 社群,开始 Midjourney 的学习。
2025-01-24
零基础学习ai
以下是为零基础学习 AI 提供的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 知识库提供了很多实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,还有一个案例供您参考:二师兄来自上海,是典型的 80 后,房地产行业从业二十年,计算机零基础。2024 年,他在七彩虹的售后群中接触到 AI 绘画,迈出了 AI 学习的第一步。他先后学习了 SD 的教程并进行炼丹,还参与了与小伙伴探讨 AI 变现的途径,加入 Prompt battle 社群学习 Midjourney 等。
2025-01-24
数字人工具
以下是一些制作数字人的工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。它运用深度学习算法生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等领域。 2. Synthesia:这是一个 AI 视频制作平台,允许用户创建虚拟角色并实现语音和口型同步。支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:这是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。 此外,还有适合小白用户的开源数字人工具,其特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS,模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用时需下载 8G+3G 语音模型包,启动模型即可。相关链接:GitHub: 。 请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。内容由 AI 大模型生成,请仔细甄别。
2025-01-24
图生视频
图生视频是指将一张图片通过输入相应的提示词或利用特定模型转变为视频画面的过程。以下是一些关于图生视频的知识和技巧: 工具方面:清影大模型可以实现图生视频。输入一张图片和提示词,模型会将图片转变为视频画面,也可以只输入图片,让模型自行发挥想象力生成有故事的视频。 技巧要点: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可使用分辨率提升工具。 提示词要简单清晰。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,可将照片发送到清言对话框进行识图,明确主体的描述。 案例展示: 桂大羊的案例中,先确立剧本中的人物形象和场景,生成静态图片,然后使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,设置运镜类型和生成速度。 离谱村的案例中,使用了多种工具如 pika、runway、Pixverse 进行图生视频的尝试,还找了技术指导用 SVD1.1 生成精美的视频。
2025-01-24