直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
如何用AI作主图
以下是关于如何用 AI 作主图的相关内容: 一、底图的制作方法 1. 游戏内直接截图 要使 AI 出图和游戏调性匹配,使用游戏内截图作为图生图的底层素材是最优选择。 优点包括创意来源快,在游戏体验时保存觉得有意思的玩法截图即可;出图光照氛围准确,无需加工直接喂给 AI 即可。 为使底图更清晰、拍摄更自由,可在 UE4 引擎游戏中使用一些常用调整画质代码,如:画质调整 r.ViewDistanceScale 10、r.ForceLOD 0、foliage.LODDistanceScale 10;自由相机 ToggleDebugCamera;高品质截图 HighResShot 1920X1080(尺寸可调节)。 2. 使用 PS 添加内容,丰富画面 游戏内截图距离内容丰富、构成美观的画面仍有差距,可手动用 PS 添加一些信息。 如简单粗暴的背景贴人物合成,使用游戏截图和立绘均可;通过一些简单加工,更形象地帮助 AI 知道您想要什么。 甚至可以使用 PSbeta 版的 AI 工具生成一些小元素,修饰出图氛围感。 3. 结合 3D 软件定制内容 此流程一般用作 KV 图的参考 demo 后由画师手动修改,但受限于制作周期、成本及模型质量等,出图质量往往不够理想。 对于没有绑定的模型,推荐使用 ACCURIG(https://actorcore.reallusion.com/autorig)的一键绑定软件,其对身体权重的计算和对手指的绑定比 MIXAMO 识别更好,且可一键绑定标准的 UE 模型骨骼,方便后续进入引擎复用动作等。之后在 maya 中一键生成 adv 控制器,K 好动作。 二、肖像写真复刻 1. 如何使用即梦生成定制化人物肖像写真 打开即梦官网链接:https://jimeng.jianying.com/aitool/home/?utm_medium=baiduads 选择写实肖像。 选择心仪的模板,如人鱼风,点击“做同款”。 为生成定制肖像,一定要点击“导入参考图”。 点击“人物长相”,注意很多名人的脸无法使用生成。 点击立即生成,查看生成好的照片。如对结果不满意,可再点击生成一次,找出最满意的一张或几张。 2. 一些参数 生图模型选择最新的 2.0PRO,最有照片质感。 图片比例可改,有八种比例可选。 图片尺寸可自由选择。 3. 常用写真风格及其提示词 女人 1:氛围感+灯光+皮草写真 提示词:氛围感下的人像写实摄影,模糊剪影在磨砂玻璃后,低角度,可爱的中国美女,皮草大衣,发光手写汉字高速动态模糊,画面层次丰富,8K 画质,立体,半身像,身材高挑,高冷,大师摄影,虚影 女人 2:镜头自拍+人像+故事感 提示词:用自己镜头的自拍照,人像双重曝光,渐变磨砂质感,胶片,弥散光学,优雅,高级感,淡雅简约,故事感 (注意:这里主要取的是五官,所以选择了“参考人物肖像”)
2025-02-11
语音转文字
以下是关于语音转文字的相关信息: 推荐 OpenAI 的 wishper,相关链接:https://huggingface.co/openai/whisperlargev2 。一分钟搞定 23 分钟的音频,相关链接:https://huggingface.co/spaces/sanchitgandhi/whisperjax 。此项目在 JAX 上运行,后端支持 TPU v48,与 A100 GPU 上的 PyTorch 相比,快 70 多倍,是目前最快的 Whisper API。 在声控游戏《神谕》中,使用 GVoice 提供的语音录制和识别能力进行语音转文字,中文识别率优秀。语音识别的少量错误,可被 chatgpt 正常理解和纠错,衔接流畅。 免费的会议语音转文字工具大多有使用时间限制,超过免费时间需付费。推荐工具包括:飞书妙记(https://www.feishu.cn/product/minutes)、通义听悟(https://tingwu.aliyun.com/home)、讯飞听见(https://www.iflyrec.com/)、Otter AI(https://otter.ai/)。更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。
2025-02-11
我是小白,对大模型一窍不通,应该如何开始使用
以下是为您提供的大模型入门指南: 一、什么是大模型 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,进行文本生成、推理问答、对话、文档摘要等工作。 二、大模型的训练和使用过程类比 1. 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解Token之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在LLM中,Token被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词等,在将输入进行分词时,会对其进行数字化,形成一个词汇表。 三、本地大模型部署 以ComfyUI ollama为例: 1. 先下载ollama安装,安装好后可在电脑桌面右下角或隐藏图标里找到。 2. 下载对应的模型,选择模型并复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 下载的模型会保存到D:\\ollama\\blobs。 5. 进行docker安装,安装时会下载一些文件,安装后改下目录,不要放在C盘。 6. 进行Open webui安装,输入相应命令,安装成功后回到docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 7. 若出现端口占用等错误,运行相关命令可解决。 相关链接: 1. comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile 2. Ollama:https://ollama.com/ 3. docker:https://www.docker.com/ 4. Open webui:https://openwebui.com/ 四、小白快速上手Stable Diffusion 用stable diffusion可以把自己想象成一个画家,在起笔画画之前,要先确定画的风格,比如是二次元动漫、三次元的现实照片还是盲盒模型。确定照片风格后,就要切换大模型,不同的模型代表着不同的照片风格,也就是SD界面左上角的“Stable Diffusion模型”。假如想生成一个真人AI小姐姐,可选用chilloutmix的大模型。关于模型的获取和存放位置,后续会详细介绍。
2025-02-11
问答方式如何使用好大模型
以下是关于如何使用好大模型的一些指导: 1. 本地部署资讯问答机器人: 加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,可通过指定的 RSS 订阅 url 提取,如需多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成小块,并附带相关元数据,最终合并成列表用于后续处理。 为文档内容生成向量,使用文本向量模型 bgem3,从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效向量存储。 Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型,如修改温度参数等,同时提供 REST API 用于运行和管理模型及与其他应用集成,社区贡献丰富。需先安装,可通过 https://ollama.com/download/ 下载,安装后确保后台服务已启动。 2. 编写清晰的说明: 在 OpenAI 官方说明文档中提到的“官方最佳实践”为用户提供了若干策略。 策略一是编写清晰的说明,在询问中包含详细信息,多说一些内容,多提供一些信息,能有效提高大模型回复的质量和丰富性。通过多个具体例子展示了提供更多细节能得到更符合预期的回答。
2025-02-11
物流公司信息系统管理员给同事讲解大模型入门级使用,帮忙推荐一些经验
以下是为物流公司信息系统管理员推荐的大模型入门经验: 一、什么是大模型 通俗来讲,大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 可以用“上学参加工作”这件事来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与大模型可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 二、数字化与 Embedding 数字化便于计算机处理,但为了让计算机理解 Token 之间的联系,还需要把 Token 表示成稠密矩阵向量,这个过程称之为 embedding。常见的算法有: 1. 基于统计: Word2Vec,通过上下文统计信息学习词向量。 GloVe,基于词共现统计信息学习词向量。 2. 基于深度网络: CNN,使用卷积网络获得图像或文本向量。 RNN/LSTM,利用序列模型获得文本向量。 3. 基于神经网络: BERT,基于 Transformer 和掩码语言建模(Masked LM)进行词向量预训练。 Doc2Vec,使用神经网络获得文本序列的向量。 以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”,指的是用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。 参考:
2025-02-11
播客语音转文字的工具
以下是一些播客语音转文字的工具: 1. 飞书妙计:可以将音频转换为文字。 2. Notion 中文社区负责人 Linmi 和他的朋友们做的工具:离线语音转文字,杜绝隐私信息泄露,支持中、日、英、韩、德、法、西、葡、泰等九十种语言转换和翻译,导出支持字幕、Markdown 以及 Notion 等常见笔记工具。
2025-02-11
现在个人应用场景下最新的产品是什么
在个人应用场景下,最新的产品包括以下方面: 个人实操案例: 产品使用场景:为本篇文章配图,通过不同提示词生成搞笑图片等。 产品开发场景:搭建 AI 访谈 bot,以了解做 AI 朋友的访谈意愿和产出内容质量水平;对内容推荐机制感兴趣,希望 bot 具备内容推荐能力。实现方案有简单和复杂之分,复杂方案需考虑用户识别、记录存储入库可查看等问题,在扣子搭建 bot 时存在工作流触发不成功导致访谈记录未成功存储入库的情况。由于要发布到公众号作为订阅号助手,目前部署的是扣子版本,回复关键词【元器】可体验元器版本。 AIGC 落地应用: 筛选出 5 大应用场景、17 个细分方向、40+大模型案例。 使用场景分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向。 产品形态分为插件(Chat GPT/Chrome 等)、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-02-11
怎么把批量提取的信息自动写入表格
目前知识库中没有关于如何将批量提取的信息自动写入表格的相关内容。但一般来说,您可以使用编程语言如 Python 来实现这一功能。例如,使用 Python 的`pandas`库,它提供了丰富的方法来处理数据并写入表格。您需要先读取提取的信息,然后将其整理为合适的数据结构,再使用`pandas`的`to_excel`或`to_csv`等方法将数据写入表格。另外,一些办公软件如 Excel 本身也可能具有批量导入数据的功能,您可以查看相关的帮助文档来了解具体操作方法。
2025-02-11
AI写小说提示词
以下是关于 AI 写小说提示词的相关内容: 用 coze 写起点爆款小说《夜无疆》时,重要差别在第三步,即用大模型草拟大纲,包括标题、主旨、世界观、主要角色、小说背景、情节概要等。 写小说本身的提示词相对简单,搜索是一个值得学习的思路,将搜索结果结构化方便大模型理解。 关于提示词编写及 AI 应用的探讨中,提到理性决策提示词的编写方法,包括收集信息、重新定义问题、运用 Mini Max Regret 方法等步骤。示例是隐性的需求说明书,添加示例可让大模型更懂需求,但 few short 可能影响模型性能。自用和他用的提示词在稳定性、经济性、可维护性等方面有较大区别,工业化提示词需稳定、经济且易维护。 从 Deepseek R1 提示词过渡到小说写作,探讨了小说写作方式,如精心设计与凭直觉写作并不冲突,好文字能引起生理和情绪共鸣,用 Deepseek 写小说要考虑引起共鸣和关注人类共性。 围绕模型应用和创作展开讨论,对比了 Deepseek 和 cloud 3.5 文风等,还提及模型结合,探讨了写小说的控制篇幅方法,计划在腾讯频道分享作品,交流提示词及过往创作经验,并期待未来 AI 发展。 AJ 分享了诸多内容,包括用 R1 重写共创日历文字用于淘宝文案等,探讨规避 AI 常用词汇的方法,介绍腾讯频道“Deepseek 小说家”活动规则,还提到 AI 切磋大会,2 月 23 日线下举行,以 Deepseek 为核心,分享案例等,鼓励大家多整活,展示脑洞,积极参与活动。
2025-02-11
怎么把deepseek接入到飞书工作台
要将 DeepSeek 接入到飞书工作台,您可以参考以下步骤: 1. 访问 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek。 3. 认真阅读开场白之后,正式开始对话。 此外,还有以下相关内容供您参考: 1. 韦恩提供的联网版接入方式: 拥有扣子专业版账号,如果是普通账号,请自行升级或注册专业号后使用。 开通 DeepSeek R1 大模型:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze ,打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务,添加在线推理模型,添加后在扣子开发平台才能使用。 创建智能体:点击创建,先完成一个智能体的创建。 2. Yeadon 提供的环境配置指南: DeepSeek 平台设置:首先到 deepseek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。早期 deepseek 是有赠送额度,如果没有赠送的余额,可以选择去充值,支持美元和人民币两种结算方式,以及各种个性化的充值方式,创建一个 API key,注意,API key 只会出现一次请及时保存下来。 设置代码编辑器:下载 cursor(https://www.cursor.com/),或者 vscode(https://code.visualstudio.com/),以 cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline,安装完后,打开三角箭头,选中 RooCline,并点击齿轮,进入设置,依次设置。配置基本参数:API Provider 选择 DeepSeek,API Key 填入已创建的 key,模型选择 DeepSeekreasoner,语言偏好设置。记得把 HighRisk 选项都打开,最后做完所有不要忘记点击 Done 保存修改。在聊天框输入产品需求,输入需求后点击星星优化提示词。
2025-02-11