直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你是基于什么模型?

回答

我调用的是抖音集团的云雀大模型。

Gemini 模型是基于 Transformer 解码器构建的,对模型结构进行了优化,主要为大规模稳定训练及在 Google 的 TPU 上推理优化。它能适应与各种音频和视觉输入交织的文本输入,并生成文本和图像输出,经过训练支持 32k 的上下文长度,采用高效的注意机制。

麦橘超然 MajicFlus 是一款基于 flux.dev 微调融合的模型,专注于高质量人像生成,尤其擅长亚洲女性,有卓越人像生成能力、广泛适用性、简单易用等特点。多位社区成员基于模型制作的 LoRA 一同发布,扩展了功能与表现力,但它对社区大部分的 lora 不完美兼容,需降低权重至 0.5 以下。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:请问你是谁

[问:飞书怎么做一个FAQ的机器人?](https://waytoagi.feishu.cn/wiki/AT6Aw2xH6iL9A5kYivYcHCIRn7b)[飞书机器人搭建waytoAGI问答机器人实战分享](https://waytoagi.feishu.cn/wiki/Cn5Mw5AAOiO3p9kjAincKlg2nR1)[如何基于飞书能力来开发问答机器人](https://waytoagi.feishu.cn/wiki/CSBwwS7mJi58aUkBz58cZO7Cn9c)类似问题:你是谁?你能做什么?我怎么搭建一个类似的机器人?你是调用哪个模型?——我调用的是抖音集团的云雀大模型。

Gemini report 中文翻译

Gemini模型是基于Transformer解码器构建的(Vaswani等人),对模型结构进行了优化,模型优化主要是为了大规模的稳定训练,以及在Google的TPU上进行推理优化。它们经过训练以支持32k的上下文长度,采用高效的注意机制(例如,多查询注意力(Shazeer,2019))。我们的第一个版本Gemini 1.0包括三种主要尺寸,以支持广泛的应用,如表1所述。Gemini模型经过训练,可以适应与各种音频和视觉输入(如自然图像、图表、屏幕截图、PDF和视频)交织的文本输入,并且可以生成文本和图像输出(请参见图2)。Gemini模型的视觉编码受到我们自己对基础模型的启发,包括Flamingo(Alayrac等人,2022)、CoCa(Yu等人,2022a)和PaLI(Chen等人,2022年),重要的区别在于这些模型从一开始就是多模态的,并且可以使用离散的图像标记(discrete image token)自然的输出图像(Ramesh等人2021;Yu et al.,2022b).通过将视频编码为大上下文窗口中的一系列帧来实现视频理解。视频帧或图像可以自然地与文本或音频交错作为模型输入的一部分。这些模型可以处理可变的输入分辨率,以便在需要细粒度理解的任务上,进行更多的计算。并且,Gemini能够直接的插入音频信号,来自Universal Speech Model(USM)16khz的特征。当音频自然地映射到文本输入时,通常会丢失细微差别(例如,参见网站上的音频理解演示),这使得模型能够捕获这些细微差别。

麦橘flux模型生态-全球首发!

麦橘超然MajicFlus是一款基于flux.dev微调融合的模型,专注于高质量人像生成,尤其擅长表现亚洲女性的细腻与美感。模型以唯美、写实、易用为核心特色,能够通过简单的提示词生成优质效果,同时对复杂提示词也有出色的响应能力。[heading3]模型特点[content]卓越的人像生成能力:优化了在不同光影条件下的表现,确保人像在各种构图中的面部细节和肢体完整性。广泛的适用性:除了人像生成外,模型在生成非人生物和场景时也有显著改进,适应更多创作需求。简单易用:用户无需复杂的提示词即可生成高质量作品,同时支持更长提示词的精细控制。[heading3]社区适配[content]MajicFlus模型在发布的同时,多位社区成员基于模型制作的LoRA也将一同发布,进一步扩展了模型的功能与表现力。这些LoRA为用户提供了更多样化的创作可能性,使模型能够适应更多特定场景和风格需求。[heading3]弱点[content]MajicFlus并非为生成NSFW内容而设计。然而,如果有需要,可以使用相关LoRA来实现此类目的。MajicFlus的存在是为了解决国际社区中模型缺乏亚洲代表性的问题。如果您希望生成非亚洲种族的图像,请考虑使用其他高质量模型。由于该模型是个微调融合模型,对社区大部分的lora都是不完美兼容的,需要降低权重至0.5以下。推荐使用带有majicFlus标志的矩阵模型,搜索关键字majicflus就可以看到他们,认准标题和logo,现在已有超过50款风格各异的优质模型。

其他人在问
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14