「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
qwen.chat
以下是关于 Qwen 的相关信息: 2023 年度中文大模型基准测评报告中提到了 Qwen 的相关模型,如 Qwen14BChat、Qwen72BChat。 1 月 28 日的 Xiaohu.AI 日报中,大年三十发布了 Qwen2.5Max 模型,这是通义千问推出的大型专家模型(MoE),通过 SFT 和 RLHF 策略后训练,性能与顶尖模型竞争,在多个基准测试中超越了 DeepSeek V3,引发了 AI 社区对大规模专家模型的高度关注。相关链接包括: Blog: Qwen Chat: (选择 Qwen2.5Max 模型) API: HF Demo: 1 月 28 日的 Xiaohu.AI 日报中还提到阿里云发布了 Qwen2.5VL:新一代视觉语言模型。
2025-02-21
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
AI编程的落地场景是什么
以下是 AI 编程的一些落地场景: 1. 智能体开发:从最初只有对话框的 chatbot 到具有更多交互方式的应用,低代码或零代码的工作流在某些场景表现较好。 2. 证件照应用:以前实现成本高,现在可通过相关智能体和交互满足客户端需求。 3. 辅助编程: 适合原型开发、架构稳定且模块独立的项目。 对于像翻译、数据提取等简单任务,可通过 AI 工具如 ChatGPT 或 Claude 解决,无需软件开发。 支持上传图片、文档,执行代码,甚至生成视频或报表,大幅扩展应用场景。 4. 自动化测试:在模块稳定后引入,模块变化频繁时需谨慎。 5. 快速迭代与发布 MVP:尽早发布产品,不追求完美,以天或周为单位快速迭代。 需要注意的是,AI 编程虽强,但目前适用于小场景和产品的第一个版本,在复杂应用中可能导致需求理解错误从而使产品出错。在进度不紧张时可先尝试新工具,成熟后再大规模应用。同时,压缩范围,定义清晰的 MVP(最小可行产品),先完成一个 1 个月内可交付的版本,再用 1 个月进行优化迭代。
2025-02-21
论文撰写的提示词
以下是关于论文撰写提示词的相关内容: 1. 通用原则: 目标明确:确保每一步的目标清晰,AI 需要明确指导以产生相关和有价值的输出。 逻辑性:在所有提示策略中,逻辑性是关键,清晰、结构化的提示有助于 AI 更有效地生成输出。 分步骤:无论是进行深度分析还是遵循特定结构,确保提示按清晰步骤进行至关重要。 考虑变量:在某些情境中尤为重要,需考虑可能影响结果的所有因素。 2. 实验示例: 运用 CoD 将文章做摘要的实验,通过 GPT 的五轮输出,以中英文两种方式撰写提示词,个人观点认为英文提示词加上中文输出的方式效果较好,密度等级 4 的结果较让人满意。 3. 学术场景数据处理: 论文内容总结:大模型结合有效的提示词可迅速总结概括文档,节省时间,如 GLM4Plus 结合良好的提示词能帮助学生快速总结论文内容。 论文内容翻译:大模型可弥补翻译软件的不足,帮助学生快速翻译论文内容,如 GLM 结合良好的提示词能提高论文阅读效率。 论文内容扩写润色:可将论文内容转化为社交媒体的科普内容,精心设计的润色提示词能根据特定场景调整,生成多样化润色结果,如针对小红书使用场景调整提示词。 4. PromptAgent 相关: 通过将 PromptAgent 应用于涵盖三个实用且不同领域的 12 个任务,能够发现有生产力的专家级提示词。PromptAgent 从初始人工编写的提示词和小组训练样本开始,不仅提高了初始人类提示词的性能,还超越了强大的 ChainofThought 和近期的提示词优化基线。大量定性结果突显了优化提示词的专家级方面,随着更强大 LLM 的出现,专家级的提示词引导将引领提示词工程的下一个时代,PromptAgent 站在了开创性的步骤上。
2025-02-21
不同ai模型的应用场景
以下是不同 AI 模型的应用场景: 基于开源模型: Civitai、海艺 AI、liblib 等为主流创作社区,提供平台让用户利用 AI 技术进行图像创作和分享,用户无需深入了解技术细节即可创作出较高质量的作品。 基于闭源模型: OpenAI 的 DALLE 系列: 发展历史:2021 年初发布 DALLE,2022 年推出 DALLE 2,2023 年发布 DALLE 3,不断提升图像质量、分辨率、准确性和创造性。 模型特点:基于变换器架构,采用稀疏注意力机制,DALLE 2 引入 CLIP 模型提高文本理解能力,DALLE 3 优化细节处理和创意表现。 落地场景:2C 方面可控性强于 Midjourney,但复杂场景和细节处理能力不如 Midjourney;2B 方面与 Midjourney 场景类似。 商业化现状:通过提供 API 服务,使企业和开发者能集成到应用和服务中,采取分层访问和定价策略。 伦理和合规性:加强对生成内容的审查,确保符合伦理和法律标准。 大模型: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:用于代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频内容生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 医疗和健康咨询:理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务门槛。 这些只是部分应用场景,随着技术进步和模型优化,AI 模型在未来可能会拓展到更多领域和场景。同时,也需注意其在隐私、安全和伦理方面的挑战。
2025-02-21
数字人
数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货,其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过视觉算法的进步使在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息以达不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,可创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音,合成逼真会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化。使用时请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。 以下是每个人都可以用 10 分钟轻松制作 AI 数字人视频的方法: 在显示区域,拖动背景图的一个角将图片放大到适合尺寸,比如覆盖视频窗口,并将数字人拖动到合适位置。增加字幕,点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。至此,数字人视频完成,点击右上角“导出”按钮导出视频以作备用。若希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2025-02-21
根据户型图生成图片
以下是根据您提供的户型图生成图片的相关方法: 使用 StableDiffusion(SD)生成图片: 1. 设置模型和提示词: 大模型:如 ghostmix_v20Bakedvae。 正向提示词:例如 1girl,solo,long hair,looking at viewer,jewelry,earrings,indoors,bangs,dress,blush,plant,multicolored hair,upper body,shelf,pink eyes,window,potted plant,flower,closed mouth,from side,wavy hair,bare shoulders,sleeveless,pink hair,kitchen,breasts,blue dress,white hair,<lora:Colorful portraits_20230715165729000018:1>。 负向提示词:如 EasyNegative,badhandsv5neg,Subtitles,word。 2. 一口气生成多张图,选择合适的一张,使用差异随机种子进行细节微调。 3. 将满意的图发送到图生图。 4. 使用 tile 和脚本放大。 使用 PS Beta 版本 Firefly lmage 3 模型生成图片: 1. 生成图像: 局部生成图像看起来较自然。 英文关键词生成的结果通常比中文好。 2. 参考图像: 产品外形还原效果一般,颜色还原较好。 3. 调整画笔:功能丰富实用。 4. 生成类似的内容:右侧变化可选择生成类似内容,效果尚可。 5. 生成背景: 有添加背景的 3 种方式,包括生成背景、导入背景和油漆桶。 生成背景效果一般,自动抠图并添加蒙版的功能在处理投影的透明区域时存在不足。 6. 增强细节:先生成一个蝴蝶,点击左上角的增强细节图标,效果有一定提升但不明显。 使用 SD 的 ControlNet 插件生成图片: 1. 以某张图为例,将其导入图生图界面。 2. 根据情况选择大模型,如卡通类选择“revAnimated”,真实类选择“Realistic Vision”,效果不好可尝试其他模型。 3. 图生图中重要参数设置: 缩放模式选择“缩放后填充空白”。 按需求调整尺寸。 单批数量可根据需求填写。 加大“重绘幅度”到 0.8 以上。 4. ControlNet 设置: 升级到最新版本,导入图片。 启用插件,控制类型选择“局部重绘”,预处理器选择“inpaint_only+lama”,控制模式选择“更倾向 Controlnet”,缩放模式选择“缩放后填充空白”。 为使风格统一,可增加 reference_only 通道。 5. 点击生成,选择满意的结果。 6. 试验其他图时,可通过反推提示词增加文本控制,新生成部分可能存在色差,需调整参数修正。 7. 以建筑图为例,使用真实系模型扩展,调整尺寸,将图片分别放入“图生图”和“ControlNet”中,点击生成即可。 请注意,不是每一次生成效果都能非常好,可能需要通过调整各项参数来获得理想的图片。
2025-02-21
coze
以下是关于 Coze 的相关信息: 重磅更新:Coze 可以接入抖音评论区,帮用户自动回复评论。若想快速上手,可参考视频。不知 Coze 是什么,可参考文章: 安装 Coze Scraper: 通过应用商店安装: 1. 打开 Chrome 浏览器。 2. 点击在 Chrome 应用商店中打开 Coze Scrapper 扩展程序。 3. 单击添加至 Chrome。 4. 在弹出的页面,单击添加扩展程序。 本地安装: 1. 单击下载安装包,然后解压下载的文件。 2. 打开 Chrome 浏览器。 3. 在浏览器中输入 chrome://extensions 打开扩展程序页面,确认开发者模式处于打开状态。 4. 点击加载已解压的扩展程序,选择已解压的文件夹。 Coze 记账管家: 什么是 COZE:字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent;目前 coze 可以白嫖海量的大模型免费使用,有丰富的插件生态。 什么是记账管家:基于 COZE 平台的能力搭建的一个记账应用;可以直接和 coze 说收入或支出情况,coze 会自动记账并计算账户余额,每一笔记账记录都不会丢失。点击以下卡片体验记账管家。
2025-02-21
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
AI音频与数字人
以下是关于 AI 音频与数字人的相关信息: 数字人口播配音: 操作指引:输入口播文案,选择期望生成的数字人形象及目标语言,选择输出类型,点击开始生成。 支持的数字人形象和语言多样,能让视频制作更高效。 图片换脸: 操作指引:上传原始图片和换脸图片,点击开始生成。 图片大小上限 5M,支持 JPG、PNG 格式。 视频换脸: 操作指引:上传原始视频和换脸图片,点击生成。 音频合成数字人: 操作指引:上传音频文件,选择数字人角色和输出类型,点击开始生成。 支持 MP3 和 WAV 格式的音频文件,文件大小上限 5M,工具支持使用 100+数字人模板,可解决无素材冷启问题。 AI 配音: 多语种(包含菲律宾语、印地语、马来语等小语种)智能配音,同时支持区分男声和女声。 操作指引:输入需配音文案,选择音色,点击立即生成。 注意输入的配音文案需和选择音色语种保持一致。 AI 字幕: 操作指引:点击上传视频,开始生成,字幕解析完成后下载 SRT 字幕。 支持 MP4 文件类型,大小上限为 50M。 在数字人语音合成方面,提到了声音克隆,有新的声音克隆且音质很不错。算法驱动的数字人相关开源代码仓库有: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可以使用 LangChain 的模块去做自定义(https://www.langchain.com/)。 TTS:微软的 edgetts(https://github.com/rany2/edgetts)、VITS(https://github.com/jaywalnut310/vits)、sovitssvc(https://github.com/svcdevelopteam/sovitssvc)。 构建简单数字人的方式包括通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型),但仍存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-02-21