直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
旧照片翻新用哪一款ai工具?
以下是一些可用于旧照片翻新的 AI 工具: 1. Stable Diffusion:可以用 AI 给老照片上色,但可能存在颜色提示词相互污染、背景不统一等问题。为解决这些问题,可启用 cutoff 插件进行控制。相关文章可参考。此外,还能将低像素照片变得更高清。 2. Dreamina 即梦: 网址:https://dreamina.jianying.com/aitool/home?subTab= 优点:不需要?,每天有免费额度。 注册:抖音号或手机号。 时间:5min。 3. Sora: 网址:https://openai.com/sora 优点:发布的成果好,集成在 openai 一套里可用。 限制:需要?,需要 gmail 注册,需要订阅后才能使用。 时间:30 60min。 价格:GPT 4 20$一个月。
2024-12-24
帮我找一个使用了coze 的事件触发器和工作流的案例
以下为一个使用了 Coze 的事件触发器和工作流的案例: 在为 Bot 设置触发器时,可选择定时触发或事件触发。事件触发会生成 Webhook URL,当服务端向该 URL 发送 HTTPS 请求时触发任务执行。触发任务的执行方式包括 Bot 提示词、调用插件和调用工作流。 例如,添加一个审批工作流作为触发器,当触发后执行工作流完成业务审批。在 Stuart:0 基础教学系列之 Coze“用户界面”创建初体验中,上传图片并点击“上传图”按钮,可触发把图片传递给右边的图片框这一事件。调用 workflow 时需要传入工作流需要的参数,可通过选择双向箭头找到要传递过来的数据。但传文件存在一些问题,目前好多浏览器(尤其是 safari)的事件触发工作流可能会失败,可换用 chrome 或 edge 浏览器。 使用限制方面,一个 Bot 内的触发器最多可添加 10 个,且触发器仅当 Bot 发布飞书时生效。
2024-12-24
如何用coze的触发器,让触发器接受到内容,发给到工作流
以下是关于如何用 Coze 的触发器让触发器接收到内容并发送到工作流的详细说明: Coze 的触发器可以在特定时间或接收到特定事件时自动执行任务。可配置的触发器类型有定时触发和事件触发。 定时触发能让 Bot 在指定时间执行任务,无需编写代码。事件触发会生成 Webhook URL,当服务端向该 URL 发送 HTTPS 请求时触发任务执行。 触发器触发时执行任务的方式包括 Bot 提示词、调用插件和调用工作流。 Bot 提示词:通过自然语言设置提示词,触发时提示词自动发送给 Bot,Bot 据此向用户发送提醒消息。 调用插件:为触发器添加插件,触发时 Bot 调用插件获取结果并发送给用户。 调用工作流:为触发器添加工作流,若工作流有输入参数需传入参数值。触发时 Bot 调用工作流获取结果并发送给用户。 此外,Coze 支持用户在与 Bot 聊天时设置定时任务,当用户在会话内点击推荐任务后,Bot 会确认并创建定时任务。 使用限制方面,一个 Bot 内的触发器最多可添加 10 个,且触发器仅当 Bot 发布飞书时生效。 具体操作如设置自动总结公众号内容并定时推送到微信: 1. 在 Bot 中绑定工作流,设置定时任务,然后发布到飞书渠道。 人设和回复逻辑:由于 Bot 主要依托工作流,设置提示词,直接调用工作流。 工作流:添加刚刚创建的工作流。 设置触发器:选择“定时触发”,选择触发时间,如希望每天 18 点收到微信推送,就选择 18 点。任务执行时选择工作流,输入 key 和 rss_list 等工作流中开始节点的输入参数。 2. 点击右上角“发布”,注意渠道选择飞书,因为目前 Coze 平台触发器只对飞书渠道生效。可以同时设置多个触发器,最多 10 个,可推送给不同的人或在不同时间段给自己推送不同内容。
2024-12-24
我面临退休,想使用ai开展第二职业,该如何规划实施?
以下是为您规划使用 AI 开展第二职业的一些建议: 1. 深入了解 AI 领域:明确自己的兴趣点,比如是对 AI 提示词、AI 绘画、AI 智能体还是其他方面感兴趣。 2. 评估自身技能:确定自己现有的技能与 AI 领域的结合点,以及还需要提升哪些技能。 3. 学习与提升:根据职业目标,获取个性化的学习建议和资源,提升在 AI 领域的专业技能。 4. 选择研究课题:有意识地选择有潜力和市场需求的研究方向。 5. 宣传工作成果:让更多人了解您在 AI 领域的工作和成果。 6. 合作与交流:与能力强且您钦佩的人合作,学习他们的研究品味和思考方式。 7. 关注行业趋势:了解 AI 领域的最新发展和未来方向,比如更事实性不会产生幻觉的语言模型、可以使用工具与世界进行交互的多模态模型等。 8. 制定职业规划:明确短期和长期的职业目标,制定详细的发展计划。 同时,您可以利用一些职业规划服务产品,比如: 1. 对于学生和应届毕业生,可以通过产品了解 AI 技术在不同职业中的应用,评估兴趣和技能,选择合适职业路径并制定规划,根据职业目标获取个性化学习建议和资源提升技能。 2. 对于职场新人和职业转换者,可根据自身职业目标和市场需求制定发展计划,明确短期和长期目标,获取职业转型支持和必要技能培训资源。 3. 对于企业,可利用产品评估应聘者 AI 技能水平,为现有员工提供职业发展规划和技能提升建议,培养内部 AI 人才。 4. 对于教育机构,可将产品作为学生职业指导一部分,帮助了解 AI 领域职业机会和发展路径,优化课程设置提供针对性培训。 5. 对于职业咨询师,可将产品作为辅助工具为客户提供更精准规划建议和技能评估,基于产品数据提供更全面前瞻性指导。
2024-12-24
我想使用ai开展第二职业,该如何规划实施?
以下是关于使用 AI 开展第二职业的规划实施建议: 1. 努力工作:不仅要增加工作时间,还要提升专注程度。可以有意识地与能力强且令人钦佩的人合作,学习他们的研究品味和思考方式。 2. 研究本身及周期:涉及研究课题的选择、研究工作的开展以及成果的宣传等所有部分。 3. 了解模型:深入了解 AI 模型的行为和局限性,以便更好地引导研究方向和做出正确决策。 4. 评估能力:明确语言模型在各种任务中的评价指标,这是研究人员需要优化的目标函数。 5. 针对自身情况: 学生和应届毕业生:通过产品了解 AI 技术在不同职业中的应用,评估兴趣和技能,选择合适职业路径并制定详细规划;根据职业目标获得个性化学习建议和资源,提升 AI 领域技能。 职场新人和职业转换者:职场新人根据自身职业目标和市场需求制定发展计划,明确短期和长期目标;职业转型者可获取详细转型路径和必要技能培训资源。 企业:利用产品评估应聘者 AI 技能水平,为现有员工制定个性化职业发展计划,提供持续指导和培训。 教育机构:将相关产品作为学生职业指导一部分,优化课程设置,提供针对性 AI 技能培训。 职业咨询师:使用产品为客户提供更精准规划建议和技能评估,基于市场数据和趋势分析提供全面前瞻性指导。
2024-12-24
stable difusion学习
以下是关于学习 Stable Diffusion 的相关内容: 学习 Stable Diffusion 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 学习 Stable Diffusion Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境:安装 Git 用于克隆源代码,安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项,安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码:打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本:进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境,等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面:复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作:了解 Web UI 的各种设置选项,如模型、采样器、采样步数等,尝试生成图像,观察不同参数对结果的影响,学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能:了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等,学习如何导入自定义模型、VAE、embedding 等文件,掌握图像管理、任务管理等技巧,提高工作效率。 Stable Diffusion 软件原理傻瓜级理解: Stable Diffusion 的工作原理可以这样理解:好比学习画画,比如学梵高的风格,要先看梵高的画并临摹。AI 绘画也是类似逻辑,人们把成千上万美术风格的作品练成一个模型放在 AI 里,AI 就能依照这个模型画出类似风格的作品。想要画出符合心意的作品,首先要选对合适的大模型。大模型的下载,可以去 C 站(https://civitai.com/),有真实系的、二次元的、游戏 CG 风的等等,但需要科学上网。
2024-12-24
stable difudion学习
以下是关于学习 Stable Diffusion 的相关内容: 学习 Stable Diffusion 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 Stable Diffusion 的 Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。 等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 安装 Stable Diffusion 的电脑配置要求: 1. 查看电脑配置: 对于 Windows 系统,可以查看专用 GPU 内存。 4GB:说明电脑勉强可以跑动 SD,出图的时间会比较长。 6GB:出一张图的时间是 20 50 秒,SD 的大部分功能都可以使用。 8GB:5 20 秒可以出一张图,基本上 SD 的所有功能都对你开放。 2. Mac 系统:可以参考下面的视频进行一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761
2024-12-24
最近一周AI在B端有什么新闻吗
以下是最近一周 AI 在 B 端的部分新闻: 一位投资人分享了其用于深化人工智能/机器学习知识的工具和资源,包括简报(如 TLDR AI、The Sequence 等)、播客(如 No Priors podcast 等)、会议(如工业界 World AI Cannes Festival)。 AIGC Weekly32 提到:Netflix 列出年薪 90 万美元的机器学习平台产品经理岗位;Shopify 的 AI 助手 Sidekick 上线;Artifact 推出自定义内容阅读语音功能;OpenAI、谷歌、微软和 Anthropic 组建前沿模型论坛;OpenAI 下线 ChatGPT 生成内容的检测器。 XiaoHu.AI 日报中:Hebbia 获得近 1 亿美元 B 轮融资,其 AI 技术能一次处理多达数百万份文档,主要面向金融服务公司等专业领域;Character AI 推出与 AI 角色通电话的新功能,支持多种语言且可在通话和短信间无缝切换;微软文本转语音虚拟数字人上线,支持 GPT4o 的集成。
2024-12-24
LLM
系统学习 LLM 开发是一个系统性的过程,涵盖以下方面: 1. 掌握深度学习和自然语言处理基础:包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理中的词向量、序列模型、注意力机制等。相关课程有吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理:熟悉 Transformer 模型架构及自注意力机制原理,掌握 BERT 的预训练和微调方法,阅读相关论文如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调:进行大规模文本语料预处理,使用 LLM 预训练框架如 PyTorch、TensorFlow 等,微调 LLM 模型进行特定任务迁移。相关资源有 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署:掌握模型压缩、蒸馏、并行等优化技术,进行模型评估和可解释性研究,实现模型服务化、在线推理、多语言支持等。相关开源工具有 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习:结合行业场景进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态:关注顶会最新论文、技术博客等资源。 以下是 2 月 19 日的 Xiaohu.AI 日报相关内容: 1. Large World Model探索:介绍了百万 Token 的通用世界大模型,旨在理解长视频和超长文本。LWM 在 100 万个令牌的上下文中超越 GPT4V 和 Gemini Pro 的检索精度,特色能力包括长视频理解、高精度事实检索和多格式内容生成。相关链接:https://largeworldmodel.github.io 、https://github.com/LargeWorldModel/LWM 、https://x.com/xiaohuggg/status/1759566391693504940?s=20 2. 世界上最快的大型语言模型:Mixtral 8X7B 输出速度为 500 token/s,Llama 2 7B 的速度是 750 tokens/s,速度快但准确性有待提高。相关链接:http://groq.com 、http://wow.groq.com 、https://x.com/xiaohuggg/status/1759457147962941852?s=20 3. Reddit 用户自制 GLIGEN GUI:由于缺少直观的 GUI,一个 Reddit 大佬自己动手制作了一个。用户可以自定义图像中对象的大小、位置和空间关系,强调了用户对生成图像细节的控制能力。相关链接:https://github.com/mutex/gligengui 、https://gligen.github.io 、https://x.com/xiaohuggg/status/1759431911951450437?s=20
2024-12-24
有哪些可以通过AI画3D图形的工具?
以下是一些可以通过 AI 画 3D 图形的工具: 1. CADtools 12:这是一个 Adobe Illustrator(AI)插件,为 AI 添加了 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:Autodesk 开发的一款集成了 AI 功能的云端 3D CAD/CAM 软件,能帮助用户创建复杂的几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可帮助用户创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,可根据用户输入的设计目标和约束条件自动产生多种设计方案。 此外,还有以下工具: 1. @CSM_ai:能将文本、图像或草图转换为 3D 素材,直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai 2. Move AI 推出的 Move API:从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。网址:https://move.ai/api 3. ComfyUI 3D Pack:能快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。网址:https://github.com/MrForExample/ComfyUI3DPack/tree/main 4. Medivis 的 SurgicalAR 手术应用:将 2D 医疗图像转化为 3D 互动视觉,提高手术精度,支持 3D 模型的放大、缩小、旋转,精确手术计划。网址:https://t.co/3tUvxB0L4I 5. MakeACharacter:一键生成 3D 数字人,可自定义面部特征,生成逼真 3D 角色,基于真实人类扫描数据,使用 Unreal Engine 渲染,支持中英文提示,兼容多个行业应用。网址:https://x.com/xiaohuggg/status/1743986486780076279?s=20 6. Rodin Gen1:3D 原生生成模型,拥有 1.5B 参数,可实现 3Dto3D 生成,生成 3D 模型及物理基础渲染材质,支持 3D LoRA 技术,类似于 Stable Diffusion。网址:https://x.com/xiaohuggg/status/1743638052097184102?s=20 7. Skybox AI 0.9 版本:可以从文本提示或草图生成 360 度 3D 世界,使用 NeRF 技术,增强图像的空间深度和真实感,提供不同分辨率的 3D 网格下载。网址:https://x.com/xiaohuggg/status/1739926702158225859?s=20 8. 扫描物体生成 3D 模型的 APP:使用 APP 扫描物体,完成 3D 全貌捕获,创建 AR QR 码,展示物体于任何地点。
2024-12-24