Navigate to WaytoAGI Wiki →
Home/All Questions
对话框架都有哪些
以下是一些常见的对话框架: 1. 智谱·AI 开源模型列表中的 Chat 模型框架: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景,上下文 token 数为 8K。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样训练数据、更充分训练步数和更合理训练策略,在 10B 以下基础模型中性能最强,上下文 token 数为 8K。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 基础上强化长文本理解能力,能处理最多 32K 长度上下文。 ChatGLM26B32k:第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 基础上进一步强化长文本理解能力,能处理最多 32K 长度上下文。 ChatGLM26B32kint4:ChatGLM26B32K 的 int4 版本。 ChatGLM6B:第一代 ChatGLM 对话模型,支持中英双语,基于 General Language Model架构,具有 62 亿参数,结合模型量化技术可在消费级显卡上本地部署,上下文 token 数为 2K。 2. COSTAR 框架: 定义:指明文本的整体风格,包括词汇选择、句式结构及可能的参照对象。 重要性:不同风格适合不同场合,如学术论文和社交媒体帖子。 示例:科学论文需正式语言和客观语气,博客文章可采用轻松、个人色彩写作风格。 Tone(语气) 定义:设定文本的情感基调,确保符合预期氛围。 重要性:正确语气可建立与读者联系,传达适当态度。 示例:商业计划书需正式、专业且有说服力语气,产品评测可采用轻松幽默语气。 Audience(受众) 定义:明确回答或文本的目标读者。 重要性:了解受众有助于调整语言复杂度、术语使用及整体信息传递方式。 示例:专业人士可用行业术语和复杂概念,大众需简化语言避免专业化术语。 Response(回复) 定义:指定最终输出的形式和结构。 重要性:正确格式使信息更易理解和消化。 示例:详细分析报告按标准报告格式组织,简单问答可直接列表呈现答案。
2025-01-14
可以直接用文章设置好脚本,生成视频的AI工具
以下是一些可以根据文章设置好脚本生成视频的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需要素并生成素材和文本框架,能快速实现从文字到画面的转化。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助用户从图像制作视频并规划内容。 5. Runway:能将文本转化为风格化视频内容,适用于多种场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 此外,还有以下文字生成视频的 AI 产品: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可在 Stable Diffusion 图片基础上直接生成视频。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 如果您想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 2. 生成角色与场景描述:用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:借助 AI 图像生成工具创建角色和场景图像。 4. 视频脚本制作:将关键点和生成的图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)转换语音,添加背景和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)合成。 7. 后期处理:剪辑、添加特效和转场以提高质量。 8. 审阅与调整:观看视频并根据需要调整。 9. 输出与分享:完成编辑后输出并分享。 请注意,具体操作步骤和所需工具可能因项目需求和个人偏好不同而有所差异,AI 工具的可用性和功能也可能变化,建议访问工具网址获取最新信息和指南。
2025-01-14
微信超级AI知识助手教学(下)
以下是关于微信超级 AI 知识助手教学(下)的相关信息: 时间:12 月 11 日 20:00 () 内容:个人助手的微信多模态接入教学 讲师:@张梦飞
2025-01-14
AI语音,变声器推荐
以下是为您推荐的一些 AI 语音变声器: :提供实时语音和口音转换流媒体服务。 :为高效在线会议提供的 AI 驱动软件解决方案。 :免费的实时语音变换器。 :为创作者、开发者和虚拟会议提供的降噪产品。 :其软件在复杂声学环境中提升语音的清晰度和可懂度。 :声称不制作音频,而是让音频更好。 :用于会议和音频的降噪。 :采用最先进的 AI 技术消除视频会议通话中的所有背景噪音。 :一套 AI 驱动的音频质量增强工具。 :将智能手机变成高级语音增强设备的应用程序。 :去除干扰性背景噪音的智能手机应用程序。 :用于音频和语音产品的智能音频解决方案。 :通过引入机器学习功能来革新麦克风。 :生成式 AI 音频增强。 此外,还有以下相关资源和工具: 实时变声的 sovits 一键包: 基于 sovits4.0 一键包 2.0 链接:https://share.weiyun.com/Afv83T5j 密码:INT16 链接:https://pan.baidu.com/s/1Vx0BnpkmPIRziQtORFvJg?pwd=INT8 提取码:INT8 不需要安装 python 和 cuda,双击运行 Hugging face 可以直接测试的模型:https://huggingface.co/spaces/akhaliq/RealTimeVoiceCloning 达摩院的产品,可以在线测试:https://modelscope.cn/studios/damo/personal_tts/summary 软件界面,支持加载各种 VC(它使用各种语音转换 AI(VC,Voice Conversion)为客户进行实时语音转换):https://github.com/wokada/voicechanger 语言声音 AI 模型相关: 使用 AI 的实时语音转换器(Trainer):https://github.com/isletennos/MMVC_Trainer AI 孙燕姿音色训练 svc:https://github.com/svcdevelopteam/sovitssvc 基于检索的语音转换 WebUI,一基为 VITS 简单易用的语言转换器(语音转换器)框架:https://github.com/liujing04/RetrievalbasedVoiceConversionWebUI 基于 DDSP(可微分数字信号处理)的实时端到端歌声转换系统:https://github.com/yxlllc/DDSPSVC 浅扩散模型(DDSP+DiffSVC 重构版)
2025-01-14
有哪些AI入门知识可以学习
以下是一些 AI 入门知识供您学习: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您可以找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,对于不会代码的您,还可以尝试了解以下作为基础的内容: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 微软也提供了为期 12 周、共 24 课时的 AI 初学者入门课程,您将深入学习符号人工智能、神经网络、计算机视觉、自然语言处理等内容。在课程中您将学到实现人工智能的不同方法、神经网络和深度学习、处理图像和文本的神经架构等,同时也会了解到课程不包括的内容。译者:Miranda,课程原网址 https://microsoft.github.io/AIForBeginners/ 。如果想提升学习效果,可以亲身实践课程内容、做随堂小测试或根据课程内容开展实验。这套课程是由专家设计的人工智能综合指南,它非常适合初学者,覆盖了 TensorFlow、PyTorch 及人工智能伦理原则。
2025-01-14
你可以生成PPT文档吗
以下是几种使用 AI 工具生成 PPT 的方法: 1. 闪击 网址:国内网站,不需要魔法。地址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 选择模版 输入大纲和要点:由于闪击的语法和准备的大纲内容有一些偏差,可以参考下官方使用指南:https://zhuanlan.zhihu.com/p/607583650 。将之前准备的大纲转换成适配闪击的语法。 生成 PPT:点击文本转 PPT,并且在提示框中选择确定。 在线编辑 导出:导出有一些限制,PPT 需要会员才能导出。 2. Process ON 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制,相对比较耗时间。 导入方式: 复制最终大纲的内容,到本地的 txt 文件后,将后缀改为.md。如果看不见后缀,可以自行搜索开启后缀。 打开 Xmind 软件,将 md 文件导入 Xmind 文件中。 Process ON 导入 Xmind 文件。以导入方式新建思维导图,选择准备好的 Xmind 文件,导入成功。 输入主题自动生成大纲和要求:新增思维导图,输入主题,点击 AI 帮我创作,生成结束。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版,再点击下载。如果喜欢用 Process ON 的小伙伴,没有会员,可以某宝买个一天会员。 3. 增强版 Bot 场景: 图片理解与生成:在对话框输入诉求,测试效果,生成常见的系统架构风格架构设计图,给出一张图片即可。也可以根据图片提取里面的关键知识内容。 PPT 一键生成:根据上下文,在对话框输入诉求,测试效果,帮生成一篇包含以上架构风格的完整 PPT,会生成幻灯片内容以及相关模板选择。 PDF 智能制作:根据上下文,在对话框输入诉求,测试效果,根据上面的架构风格,制作一篇常见系统架构风格的 PDF 文件,会生成相应的一些可选模板。 系统架构论文一键创作。 温馨提示:上述简单的案例让机器人助手上了一个新台阶,如何让 Bot 机器人更具人性化、智能化,需要不断去探索,当测试验证效果达到觉得 ok 的时候,就可以进行发布,通过在线地址就可以跟自己的机器人对话。
2025-01-14
你可以生成PPT文档吗
以下是几种使用 AI 工具生成 PPT 的方法: 1. 闪击: 网址:国内网站,不需要魔法。地址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 选择模版 输入大纲和要点:由于闪击的语法和准备的大纲内容有一些偏差,可以参考下官方使用指南:https://zhuanlan.zhihu.com/p/607583650。将之前准备的大纲转换成适配闪击的语法。 生成 PPT:点击文本转 PPT,并且在提示框中选择确定。 在线编辑 导出:导出有一些限制,PPT 需要会员才能导出。 2. Process ON: 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制,相对比较耗时间。 导入方式: 复制最终大纲的内容,到本地的 txt 文件后,将后缀改为.md。如果看不见后缀,可以自行搜索开启后缀。 打开 Xmind 软件,将 md 文件导入 Xmind 文件中。 Process ON 导入 Xmind 文件。以导入方式新建思维导图,选择准备好的 Xmind 文件,导入成功。 输入主题自动生成大纲和要求:新增思维导图,输入主题,点击 AI 帮我创作,生成结束。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版,再点击下载。如果喜欢用 Process ON 的小伙伴,没有会员,可以某宝买个一天会员。 3. 增强版 Bot: 场景: 图片理解与生成:在对话框输入诉求,测试效果。生成常见的系统架构风格架构设计图,给出一张图片即可。可以看到,通过简短的文本就可以让 Bot 生成相应的图片,这背后其实是文本到图片或视频等其他格式内容的映射关系,这在我们日常工作中使用起来相当便捷!当然,也可以根据图片提取里面的关键知识内容。 PPT 一键生成:根据上下文,在对话框输入诉求,测试效果。帮我生成一篇包含以上架构风格的完整 PPT。这里,给我们生成了幻灯片内容,以及相关模板选择。 PDF 智能制作:根据上下文,在对话框输入诉求,测试效果。根据上面的架构风格,制作一篇常见系统架构风格的 PDF 文件。 系统架构论文一键创作。 温馨提示:上述简单的案例让机器人助手上了一个新台阶,如何让 Bot 机器人更具人性化、智能化,需要不断去探索,当测试验证效果达到觉得 ok 的时候,就可以进行发布,通过在线地址就可以跟自己的机器人对话。
2025-01-14
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 此软件最大的作用是帮助快速高效生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,可加入 Redux 模型,强度不用太高,让提示词生效。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 高精度换装前的准备: 1. 将模特身上的衣服分割出来。 2. 拼接出来对应模特与衣服合并后图片的遮罩。 使用的是 Flux 的 fill 模型,提示词书写的格式为:这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型很难得到想要的蒙版,此时需要使用 GroundingDINO。 启用 GroundingDINO,AI 会自动下载模型,若无法下载可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分,并设置好蒙版。还可通过预览箱体得到眼睛编号,选择调整单一眼睛。 例如,只想调整左边眼睛,勾选 1 即可。选择想要修改的蒙版,上传到重绘蒙版当中,添加提示词“闭眼”并生成。还可给人物换背景,加载生成的背景蒙版,大模型选择 revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,还能给人物衣服添加国风元素。最后可到 PS 使用创成式填充修复头发。
2025-01-14
自媒体可以用哪些AI
自媒体可以使用的 AI 包括以下方面: AI 绘画:个体成为自媒体博主、个体商户应用、实体印刷(如 T 恤、杯子实物等)、AI 摄影、设计接单、AI 定制萌娃头像、电商商品、自媒体素材、AI 服装预售、AI 视频接单、培训老师等;公司方面可用于设计质量和效率提升、AI 绘画相关应用开发、CV 方面算法应用。 案例方面: 创作:社群的每日资讯、写科普内容等。 分发:内容分发。 沟通:小团队与甲方沟通。 创作:换脸应用。 语音:语音转文字,如 OpenAI 的 wishper。 创作:AI 博主素材,如 2023 年让你月赚 5w 的 48 个 AI 工具。
2025-01-14