Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

工作流怎么建立

Answer

建立工作流的方式有多种,以下为您分别介绍: 1. 【拔刀刘】自动总结公众号内容,定时推送到微信的工作流搭建: - 工作流全貌:双击画板可查看高清大图,结合后边具体细节反复查看。 - 开始节点:用户在开始节点输入 server 酱的 sendkey 和 rss 列表。其中,server 酱的 sendkey 获取方式参看文档「相关资源」部分;rss_list 没有的可以先白嫖提供的测试数据。 - 分割 RSS 列表:使用「文本处理」节点,处理输入的 rss 列表为一行一个,输出为数组,方便后边节点批处理。 - 读取 RSS 内容:在插件中找到链接读取节点,配置节点选择批处理,批处理输入参数选择「分割 rss 列表」的 output,下方输入参数中 url 选择当前节点中的 item1。 - 汇总 RSS 中所有文章内容:承接上一步所有文章内容,格式化输出。代码使用「代码」节点,左侧节点选择代码,输入项选择上一步中输出的 outputList,在 IDE 中编辑选择「Python」并输入相应代码。配置输出项类型选择「Array<Object>」,分别输出 title、url、author。 2. 智谱 BigModel 共学营第二期把微信变成超级 AI 助理的工作流搭建: - 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包的方式有新注册用户注册即送 2000 万 Tokens、充值/购买多种模型的低价福利资源包(直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM-4-Flash 语言模型/[100 万 GLM-4-Plus](https://open.bigmodel.cn/tokenspropay?productIds=product-056) ;多模态资源包:[5 元资源包:CogVideo 文生视频 100 次](https://open.bigmodel.cn/tokenspropay?productIds=product-070) ;多模态资源包:[9 元资源包:CogView-3-Plus 文生图 500 次](https://open.bigmodel.cn/tokenspropay?productIds=product-069) ;所有资源包购买地址:https://bigmodel.cn/finance/resourcepack ;共学营报名赠送资源包。 - 先去【财务台】左侧的【资源包管理】查看自己的资源包,本次项目会使用到的有 GLM-4、GLM-4V-Plus、CogVideoX、CogView-3-Plus 模型。 - 进入智能体中心-我的智能体,开始创建智能体。 3. 【ComfyUI】本地部署 ComfyUI 上手指南的工作流搭建: - 清空所有节点,从零开始。先加载一个模型选择器的节点,右键点击空白处选择【add node】,生成节点后可选择安装好的大模型,后面还有三个连接点可指向下一个模块。 - 按住 clip 后面的点进行拖拽,点击【CLIPTextEncode】,得到一个提示词输入框。同理,再加一个提示词框,形成正向提示词和负向提示的架构。 - 为方便管理,可右键给节点添加颜色,如正向提示词为绿色,负向提示词为红色。还可以添加一个组,组里的节点可一起移动。 - 使用采样器给提示词内容添加噪声,从提示词节点后面再次拉出一根线,选择【KSampler】,里面有熟悉的参数:种子数、迭代步数、CFG、采样器等。 - 设置输出图片尺寸,从【latent image】中拉出一个节点,选择【EmptyLatentImage】,在节点里填写想要输出的尺寸和一次性生成的数量。 - 使用 VAE 对之前的噪声进行解码,从【LATENT】中拉出一个节点,选择【VAEDecode】,建立好之后将最开始的 VAE 节点与之相连。
Content generated by AI large model, please carefully verify (powered by aily)

References

【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程)

双击画板可以查看高清大图,这个图很重要,可以结合后边的具体细节,反复查看。[heading3]2、开始节点[content]需要用户在开始节点输入server酱的sendkey和rss列表:key:server酱的sendkey,获取方式参看文档「相关资源」部分rss_list:rss列表,没有的可以先白嫖我的,复制这两条测试数据试试[heading3]3、分割RSS列表[content]使用「文本处理」节点,处理一下输入的rss列表,处理为一行一个,输出为数组,方便后边节点批处理。[heading3]4、读取RSS内容[content]读取用户输入的rss列表中的内容,在插件中找到链接读取节点配置节点:选择批处理批处理输入参数选择「分割rss列表」的output下方输入参数中url选择当前节点中的item1[heading3]5、汇总RSS中所有文章内容[content]上一步中每个rss订阅源(每个公众号)都会输出最近发过的文章内容,包括:作者信息、文章标题、文章链接,这一步主要是承接上一步所有文章内容,格式化输出。一个正常的公众号每天推送文章数量不会超过3篇,所以这里代码只抓取了每个公众号最近三篇的内容,提升整体工作流的运行效率。使用「代码」节点,左侧节点选择代码输入项选择上一步中输出的outputList点击「在IDE中编辑」,选择「Python」,输入如下代码:配置输出项:类型选择「Array<Object>」,点击右边的小加号,分别输出title、url、author

智谱BigModel共学营第二期:把你的微信变成超级AI助理

1.注册智谱Tokens智谱AI开放平台:https://bigmodel.cn/参与课程至少需要有token体验资源包,获取资源包的三种方式:1.1.新注册用户,注册即送2000万Tokens1.2.充值/购买多种模型的低价福利资源包直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay语言资源包:免费GLM-4-Flash语言模型/[100万GLM-4-Plus](https://open.bigmodel.cn/tokenspropay?productIds=product-056)多模态资源包:[5元资源包:CogVideo文生视频100次](https://open.bigmodel.cn/tokenspropay?productIds=product-070)多模态资源包:[9元资源包:CogView-3-Plus文生图500次](https://open.bigmodel.cn/tokenspropay?productIds=product-069)所有资源包购买地址:https://bigmodel.cn/finance/resourcepackc.共学营报名赠送资源包2.先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有GLM-4、GLM-4V-Plus、CogVideoX、CogView-3-Plus模型。1.进入智能体中心-我的智能体1.开始创建智能体。此流程,为了照顾初学者,会手把手进行编辑,完成一个简单智能体的搭建,此智能体完成以下功能:

【ComfyUI】本地部署ComfyUI上手指南,我就喜欢连连看

就可以生成这样一个节点,可以选择我们安装好的大模型,并且后面还有三个连接点,可以指向下一个模块。我们按住clip后面的点进行拖拽,点击【CLIPTextEncode】,得到一个提示词输入框。同理,我们可以再加一个提示词框,形成了一个正向提示词和一个负向提示的架构。为了后面更方便使用,我们还可以点击右键,给节点添加颜色。比如,正向提示词为绿色,负向提示词为红色。为了方便管理,我们可以再添加一个组,放在组里的节点可以一起移动,方便了我们后面做一些模组管理。接下来,我们需要使用采样器来给提示词内容添加噪声。从提示词节点后面再次拉出一根线,选择【KSampler】。这里面可以看到我们熟悉的参数:种子数、迭代步数、CFG、采样器等等。我就不做过多解释了,学过webUI的理解起来都很容易。这时,我们就可以将模型和负向提示词全部连上了。接下来,设置输出图片尺寸,从【latent image】中拉出一个节点,选择【EmptyLatentImage】。我们就可以在这个节点里面填写想要输出的尺寸,和一次性生成的数量。接下来,我们要使用VAE来对之前的噪声进行解码,从【LATENT】中拉出一个节点,选择【VAEDecode】。建立好之后,将最开始的VAE节点与之相连。

Others are asking
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何建立知识库
以下是建立知识库的详细步骤: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库。 3. 给知识库起一个易于分辨的名字。 4. 点击添加文件,建议使用 Markdown 格式的文件。 5. 等待 Flowith 对文件进行抽取等处理。 6. 处理完毕后,可在知识库管理页面测试检索。 另外,还可以通过以下方式创建知识库并上传表格数据: 1. 在页面顶部进入知识库页面,单击创建知识库。 2. 在弹出的页面配置知识库名称、描述,单击确认(团队内知识库名称需唯一)。 3. 在单元页面,单击新增单元。 4. 在弹出的页面,选择表格格式,然后选择本地文件或 API 的方式完成数据上传。 在 Coze 中创建知识库: 1. 来到个人空间,找到知识库导航栏,点击创建知识库。 2. 选择知识库的格式(目前支持文档、表格、图片),填写相关信息。 3. 可选择本地文档、自定义的文档切割等。 4. 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:
2025-04-08
用ai建立知识库和直接使用ai有什么区别、
用 AI 建立知识库和直接使用 AI 主要有以下区别: 直接使用 AI 时,AI 生成的内容可能较为笼统模糊,就像遇到只会说“很急,今天就要”却不提供具体指导的领导。若想让 AI 成为得力助手,需对复杂任务进行拆解,提供方法论和定义输出格式。 建立知识库就如同为 AI 准备了“教科书”。知识库灵活,但偶尔会出现查不到内容而“猜题”的情况。例如,将《梦想与颠覆》卡牌等相关内容导入作为 AI 可调用的知识库,后续在创作中激活知识库,AI 会根据场景自动匹配库内素材,使输出更具针对性。 相比之下,微调类似于让 AI“自己真的学会了整本书”,答题更快更准,但训练成本高。微调适合高精度、长期任务,而知识库更适合临时查找、快速问答。
2025-03-30
如何建立个人知识库
建立个人知识库可以通过以下方式: 1. 利用 GPT 打造个人知识库: 使用 embeddings:将文本转换成向量,节省空间,可理解为索引。把大文本拆分成小文本块并转换为 embeddings 向量,保存在向量储存库中。当用户提问时,将问题转换为向量并与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings:embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG:利用大模型能力搭建知识库是 RAG 技术的应用。在大模型训练数据截止后,通过检索外部数据并在生成步骤中传递给 LLM。RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文本加载器:将用户提供的文本加载到内存中,便于后续处理。
2025-03-28
如何从0到1建立dify
从 0 到 1 建立 Dify 的步骤如下: 1. 准备数据: 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集: 在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式: Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用: 将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化: 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 Dify 有以下两种使用方式: 1. 云服务版本。直接在官网 dify.ai 上注册账号使用。 2. 部署社区版。开源,可商用,但是不能作为多租户服务使用。对个人使用完全无限制。 部署前提条件:2 核 4G 云服务器一台(约 159 元)。 部署过程: 1. 参考 https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。 2. 这些命令在宝塔面板的终端安装。 3. 检查运行情况,如遇到问题(如 80 端口被占用),按照 AI 的方法解决。 4. 在浏览器输入公网 IP 进入,邮箱密码随便填,建立知识库并设置。 5. 选择模型,如智谱 AI,获取钥匙并复制保存。 6. 创建应用并测试发布。
2025-03-24
如何建立自己的知识库
建立自己的知识库可以参考以下几种方法: 1. 使用 flowith 指南: 拆解创作任务:将复杂任务拆解到合适颗粒度,提供方法论和定义输出格式。 建立定向知识库:将相关元知识导入 flowith 的知识花园,转化为文字上传,打开智能拆分模式,形成知识“种子”。激活知识库后,AI 会根据创作场景自动匹配库内素材,还可发布或分享知识库。 2. 基于 GPT 打造: 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT3.5 免费版交互容量有限。 理解 embeddings:embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 3. 用 Coze 免费打造微信 AI 机器人: 设计 AI 机器人,确定功能范围。 创建知识库:整理“关键字”与“AI 相关资料链接”的对应关系,支持多种文档类型,如本地文档、在线数据、飞书文档、Notion 等,可使用特殊分割符如“”便于自动切分数据。
2025-03-20
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14