直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型排名以及排名的评测标准维度是什么

回答

以下是一些常见的大模型排名及评测标准维度:

  • FlagEval(天秤)大模型评测体系及开放平台:
    • 地址:https://github.com/FlagOpen/FlagEval
    • 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力-任务-指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。
  • C-Eval:
    • 地址:https://github.com/SJTU-LIT/ceval
    • 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。
  • SuperCLUElyb:
    • 地址:https://github.com/CLUEbenchmark/SuperCLUElyb
    • 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。

斯坦福发布的大模型排行榜 AlpacaEval:

  • 项目链接:https://github.com/tatsu-lab/alpaca_eval
  • 排行榜链接:https://tatsu-lab.github.io/alpaca_eval/
    • 该研究团队选择了目前在开源社区很火的开源模型,还有 GPT-4、PaLM 2 等众多「闭源」模型,甚至还开设了一个「准中文」排行榜。
    • AlpacaEval 分为以 GPT-4 和 Claude 为元标注器的两个子榜单。
    • 在斯坦福的这个 GPT-4 评估榜单中:
      • GPT-4 稳居第一,胜率超过了 95%;胜率都在 80%以上的 Claude 和 ChatGPT 分别排名第二和第三,其中 Claude 以不到 3%的优势超越 ChatGPT。
      • 值得关注的是,获得第四名的是一位排位赛新人——微软华人团队发布的 WizardLM。在所有开源模型中,WizardLM 以仅 130 亿的参数版本排名第一,击败了 650 亿参数量的 Guanaco。
      • 而在开源模型中的佼佼者 Vicuna 发挥依然稳定,凭借着超过 70%的胜率排在第六,胜率紧追 Guanaco 65B。
      • 最近大火的 Falcon Instruct 40B 表现不佳,仅位居 12 名,略高于 Alpaca Farm 7B。

AlpacaEval 的技术细节:

  • 人类一致性:标注者与交叉标注集中人类多数票之间的一致性。
  • 价格:每 1000 个标注的平均价格。
  • 时间:计算 1000 个标注所需的平均时间。相对于人工标注,全自动化的 AlpacaEval 仅需花费约 1/22 的经济成本和 1/25 的时间成本。

AlpacaEval 评估模型的方式:

  • alpaca_eval:直接根据目标模型输出的响应来评估模型。
  • alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。 评测过程分为以下 3 步:
    1. 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。
    2. 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 text-davinci-003 的输出。
    3. 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

LLM开源中文大语言模型及数据集集合

FlagEval(天秤)大模型评测体系及开放平台地址:[https://github.com/FlagOpen/FlagEval](https://github.com/FlagOpen/FlagEval)简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用AI方法实现对主观评测的辅助,大幅提升评测的效率和客观性。FlagEval(天秤)创新构建了“能力-任务-指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。C-Eval:构造中文大模型的知识评估基准:地址:[https://github.com/SJTU-LIT/ceval](https://github.com/SJTU-LIT/ceval)简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共13948道题目的中文知识和推理型测试集。此外还给出了当前主流中文LLM的评测结果。SuperCLUElyb:SuperCLUE琅琊榜地址:[https://github.com/CLUEbenchmark/SuperCLUElyb](https://github.com/CLUEbenchmark/SuperCLUElyb)简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于Elo评级系统的排行榜。

斯坦福发布大模型排行榜AlpacaEval

来自斯坦福的团队,发布了一款LLM自动评测系统——AlpacaEval,以及对应的AlpacaEval Leaderboard。这个全新的大语言模型排行榜AlpacaEval,它是一种基于LLM的全自动评估基准,且更加快速、廉价和可靠。项目链接:https://github.com/tatsu-lab/alpaca_eval排行榜链接:https://tatsu-lab.github.io/alpaca_eval/该研究团队选择了目前在开源社区很火的开源模型,还有GPT-4、PaLM 2等众多「闭源」模型,甚至还开设了一个「准中文」排行榜。AlpacaEval分为以GPT-4和Claude为元标注器的两个子榜单。在斯坦福的这个GPT-4评估榜单中:GPT-4稳居第一,胜率超过了95%;胜率都在80%以上的Claude和ChatGPT分别排名第二和第三,其中Claude以不到3%的优势超越ChatGPT。值得关注的是,获得第四名的是一位排位赛新人——微软华人团队发布的WizardLM。在所有开源模型中,WizardLM以仅130亿的参数版本排名第一,击败了650亿参数量的Guanaco。而在开源模型中的佼佼者Vicuna发挥依然稳定,凭借着超过70%的胜率排在第六,胜率紧追Guanaco 65B。最近大火的Falcon Instruct 40B表现不佳,仅位居12名,略高于Alpaca Farm 7B。PART 01AlpacaEval技术细节01AlpacaEval评估效果

斯坦福发布大模型排行榜AlpacaEval

图注:人类一致性:标注者与交叉标注集中人类多数票之间的一致性。价格:每1000个标注的平均价格。时间:计算1000个标注所需的平均时间。相对于人工标注,全自动化的AlpacaEval仅需花费约1/22的经济成本和1/25的时间成本。另外,还有一个关键问题:什么评估数据可以最好地区分模型。团队从统计角度出发,在AlpacaEval的所有子集上检验这个问题。下图显示了AlpacaEval每个子集的80个实例上每对模型的配对t检验的p值。例如,我们看到Self-Instruct数据集产生的统计能力最小,这表明可以从评估集中删除该数据集。图注:不同基准评估数据集的质量02如何使用AlpacaEval评估模型AlpacaEval支持两种模式的模型评估方式:alpaca_eval:直接根据目标模型输出的响应来评估模型。alpaca_eval evaluate_from_model:根据HuggingFace已注册模型或这API提供商来端到端评测模型。评测过程分为以下3步:1.选择一个评估集,并计算指定为model_outputs的输出。默认情况下,我们使用来自AlpacaEval的805个示例。Copy1.计算golden输出reference_outputs。默认情况下,在AlpacaEval上使用text-davinci-003的输出。2.通过annotators_config选择指定的自动标注器,它将根据model_outputs和reference_outputs计算胜率。这里建议使用alpaca_eval_gpt4或claude。根据不同的标注器,使用者还需要在环境配置中设定API_KEY。

其他人在问
AI视频模型排名
以下是一些关于 AI 视频模型的排名信息: 腾讯混元视频生成模型:在开源 AI 视频中无可争议地处于 T0 级别,闭源模型中排在 T1 附近。其特点包括超强的真实质感、很强的语义理解和可以切换镜头。开源地址为:https://github.com/Tencent/HunyuanVideo 。普通用户可在腾讯元宝 APP 的 AI 应用中查看,可能需要申请资格,腾讯处理速度较快。 在 2025 年 2 月 24 日的 AI 视觉模型测评排行榜中: Pixverse 在文生视频方面获胜率达 70%,表现出色。 豆包在图生图方面效果良好,美感度较高,在中文模型中领先。 Request 模型在国外模型中表现出色,甚至超过 Midjourney。 Luma 模型是一匹黑马,在图生图方面表现不错。 Midjourney 常用,但在本次图生图的排行中未居前列。 此外,国内如混元、阶跃等模型开源,通义万象即将开源,开源有利于形成更好更强的生态。测评活动会联合多位小伙伴对 AI 模型进行测评,并根据结果了解模型的偏好和能力,榜单会在微信公众号发布且定期更新。
2025-04-14
AI生图模型排名
以下是一些常见的 AI 生图模型排名(从高到低): 1. Imagen 3:真实感满分,指令遵从强。 2. Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 3. Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 4. 快手可图:影视场景能用,风格化较差。 5. Flux.1.1:真实感强,需要搭配 Lora 使用。 6. 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 7. Luma:影视感强,但风格单一,糊。 8. 美图奇想 5.0:AI 油腻感重。 9. 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 10. SD 3.5 Large:崩。 此外,在相关的测评中: 豆包模型在图生图方面效果良好,美感度较高,在中文模型中遥遥领先。 Request 模型自某种风格出圈后很火,在国外模型中表现出色,甚至超过了 Midjourney。 Luma 在图生图方面表现不错,曾是第一个有出色转场效果的模型,在本次评测中是一匹黑马。 Pixverse 在文生视频的评测中获胜率达 70%,表现出乎意料。 Midjourney 常用,但在本次评测中图生图的排行未居前列。
2025-04-14
ai音频排名
以下是关于 AI 音频排名的相关信息: 生成式 AI 季度数据报告 2024 年 1 3 月: 音频大类: 2023 年 4 月: 月访问量为 3838.1 万,Eleven Labs 以 814 万的访问量位居第一,占赛道月总访问量的 21.2%。Speechify 和 Murf AI 分别以 681 万和 431 万的访问量位列二、三,分别占赛道月总访问量的 17.7%和 11.2%。 2024 年 3 月: 月访问量增长至 5016.3 万,Eleven Labs 以 1962 万的访问量继续保持第一,占赛道月总访问量的 39.1%。TTSMaker 和 Speechify 分别以 418 万和 706 万的访问量位列二、三,分别占赛道月总访问量的 8.3%和 14.1%。 文字转音频辅助榜单: 2023 年 4 月访问量 Top10 可通过 aiwatch.ai 查看。 2023 年 4 月 2024 年 3 月月访问量增量 Top10 可通过 aiwatch.ai 查看。 音频编辑辅助榜单: 2023 年 4 月:月访问量为 1374 万,Adobe Podcast 以 595 万的访问量位居第一,占赛道月总访问量的 43.3%。Lalal.ai 和 The New Riverside 分别以 204 万和 198 万的访问量位列二、三,分别占赛道月总访问量的 14.8%和 14.4%。 2024 年 3 月:月访问量增长至 2136.8 万,Adobe Podcast 以 467 万的访问量继续保持第一,占赛道月总访问量的 21.9%。The New Riverside 和 Moises 分别以 357 万和 267 万的访问量位列二、三,分别占赛道月总访问量的 16.7%和 12.5%。近一年单月访问量增加了 762.8 万,年增长率为 55.5%。Adobe Podcast 的访问量减少了 128 万,而 The New Riverside 的访问量增长了 159 万。The New Riverside 的增长可能源于其提供的高质量音频编辑功能。 2023 年 4 月 2024 年 3 月月访问量减量 Top5 可通过 aiwatch.ai 查看。 赛道天花板潜力:77 亿$,对标公司:Notion、微软。总体趋势为快速增长,月平均增速 120 万,原生产品占比高。 赛博月刊@25 年 2 月:AI 行业大事记:AI 音频在去年跨越了真假难辨的临界点,成为继图像领域之后,第二条被资本看好的 AI 赛道。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
目前国内各大ai有排名么
目前国内各大 AI 的排名情况如下: 从用户规模、新增速度、用户活跃和用户粘性等角度进行数据统计,在 APP 端,截至 2024 年 10 月,共 56 款产品的历史下载量超百万,8 款产品历史下载量超千万,夸克和豆包的历史总下载量已过亿。夸克、豆包和 Kimi 智能助手月增长可达到千万级,DAU 方面,夸克 DAU 超过 2600 万,豆包、Kimi、天天跳绳和文小言 DAU 超百万;用户粘性方面,夸克和叨叨三日留存率超过 30%。 在 Web 端,AI 智能助手赛道外的所有赛道都基本处于停滞状态。用户规模方面,月总访问量超千万的共 7 款产品,包括夸克、腾讯文档、百度文库、Kimi 智能助手、文心一言、豆包和通义。在用户活跃度上,共 3 款产品——夸克、Notion 和百度文库的 MAU 超过千万,19 款产品 MAU 超过百万。仅有 14 款产品人均每月访问超过 5 次,13 款产品平均访问时长超过 10 分钟。 “量子位智库 AI 100”通过综合 100 和原生 100 两张榜单提名了国内优秀的 AI 产品。 需要注意的是,中国国内的大模型排名可能在短时间内会有变化。要获取最新的排名,您可以查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台。在通往 AGI 之路的知识库里,在会定期更新相关的排名报告,可以供您查阅。
2025-04-12
目前国内各大ai有排名么
目前国内各大 AI 的排名情况如下: 从用户规模、新增速度、用户活跃和用户粘性等角度进行数据统计,在 APP 端,截至 2024 年 10 月,共 56 款产品的历史下载量超百万,8 款产品历史下载量超千万,夸克和豆包的历史总下载量已过亿。夸克、豆包和 Kimi 智能助手月增长可达到千万级,DAU 方面,夸克 DAU 超过 2600 万,豆包、Kimi、天天跳绳和文小言 DAU 超百万;用户粘性方面,夸克和叨叨三日留存率超过 30%。 在 Web 端,AI 智能助手赛道外的所有赛道都基本处于停滞状态。用户规模方面,月总访问量超千万的共 7 款产品,包括夸克、腾讯文档、百度文库、Kimi 智能助手、文心一言、豆包和通义。在用户活跃度上,共 3 款产品——夸克、Notion 和百度文库的 MAU 超过千万,19 款产品 MAU 超过百万。仅有 14 款产品人均每月访问超过 5 次,13 款产品平均访问时长超过 10 分钟。 “量子位智库 AI 100”通过综合 100 和原生 100 两张榜单提名了国内优秀的 AI 产品。 需要注意的是,中国国内的大模型排名可能在短时间内会有变化。要获取最新的排名,您可以查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台。在通往 AGI 之路的知识库里,在会定期更新相关的排名报告,可以供您查阅。
2025-04-12
对程序员在 AI 能力上不同维度的分析
以下是对程序员在 AI 能力上不同维度的分析: AI 对程序员工作的影响: AI 可代替的部分:代码生成、补全、分析问题和数据提取、辅助架构设计文档等。 AI 无法代替的部分:需求分析、复杂项目拆分、线上问题排查、调试及安全性保障。 企业考察候选人 AI 能力的要点: 基础 AI 应用能力:包括提示词工程,会用合适的方式提问以引导 AI 输出高质量答案;内容评估能力,能够判断 AI 生成的内容是否靠谱并加以优化;熟练使用 AI 工具,能快速上手各类 AI 工具,如 DeepSeek、Cursor、Midjourney 等。 高级 AI 应用能力:任务拆解能力,知道哪些工作适合用 AI,哪些环节需要人工把控;业务场景应用能力,能在实际工作中灵活运用 AI 提高效率。 加分项:快速学习能力,能跟上 AI 技术的快速迭代,主动学习新工具、新方法。 不同领域考察 AI 能力的方式:因领域而异。 程序员与 AI 编程助手: 约 2/3 的 730 名程序员已在使用 AI 编程助手(如 ChatGPT、GitHub Copilot、Cursor 等),原因包括对新技术的敏感性、尝试后获得效率红利、习惯养成。 使用比例远超预期,AI 编程助手迅速渗透开发者日常,好奇心驱动和效率反馈形成正向循环,AI 的使用逐渐成为程序员的“标配能力”。 AI 对编程行业的影响: 不止于“效率提升”,还带来岗位结构、心理预期、安全风险等深层变化。 技能退化与岗位压缩令人焦虑,使用 AI 成为职场新基本素养,心理压力、合规风险需同步应对。 积极影响与未来趋势:人机协作成为主流,AI 释放开发者创造力;门槛降低促使创新频率提升;持续学习与能力更新成为行业新常态。
2025-04-09
分析程序员在AI能力上的不同维度,比如AI框架,AIPrompt等
以下是对程序员在 AI 能力上不同维度的分析,包括 AI 框架和 AI Prompt 等方面: AI 框架: PromptPal:专为 AI 领域中的初创公司和个人开发者设计的提示管理工具,是一个集中化平台,便于在 AI 项目中管理提示,实现协作和工作流程优化。具有本地部署和云原生、简易设置、数据库支持、SDK 支持、提示跟踪与分析、协作工具等特点。开发指向: ChainForge:开源的可视化编程环境,专门用于测试大型语言模型(LLMs)的提示。允许用户进行快速而有效的提示想法测试和变化,具有多模型测试、响应质量比较、评估指标设置、多对话管理等特点。开发指向: AI Prompt: Promptknit:为 AI Prompts 测试提供服务的平台,可能提供工具和资源来帮助用户设计、测试和优化 AI 模型的提示。网站: 对于律师等法律人写好 Prompt 的建议: 明确 Prompt 是给人工智能(AI)系统提供的信息或问题,用来引导其产生特定回答或执行特定任务。 建议框架及格式:CRISPE 包括 Capacity and Role(能力与角色)、Insight(洞察)、Statement(陈述)、Personality(个性)、Experiment(举例)。例如,在处理合同纠纷案件时,为 AI 赋予角色和能力,提供背景信息和上下文,明确期望其完成的任务,设定回答风格等。
2025-04-09
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的? 结合以上需求,我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架
很抱歉,目前飞书知识库中没有关于您所描述的这种特定需求下应选定哪种 prompt 框架的相关内容。但一般来说,构建这样的企业每日利润表分析与汇报助手的 prompt 框架可以考虑以下几个方面: 1. 明确数据来源和格式:清晰描述数据来自 Excel 或 MySQL 数据库,以及包含的具体字段。 2. 定义分析维度和指标:如按板块、国家等维度汇总数据,关注利润相关的指标。 3. 设定时间范围:明确分析近一周的数据变化。 4. 描述图表要求:指定以柱状图展示数据。 5. 解释变化原因:阐明导致数据变化或波动的关键因素。 您可以根据实际情况进一步细化和完善这个框架。
2025-02-15
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的?
要创建这样一个智能体助手来分析您提供的数据,以下是一些建议的步骤: 1. 数据获取与预处理: 从 Excel 或 MySQL 数据库中读取数据。 对数据进行清洗和预处理,例如处理缺失值、异常值等。 2. 数据分析与计算: 按照用户需求的维度(如板块、国家、品牌等)对数据进行分组和汇总计算。 计算近一周的数据变化情况。 3. 图表生成: 使用合适的图表库(如 matplotlib、Seaborn 等)将汇总后的数据以柱状图的形式展示。 4. 变化原因分析: 通过比较不同维度的数据,找出导致变化或波动的关键因素。 在技术实现方面,您可以使用 Python 编程语言来完成上述任务。例如,使用 Pandas 库进行数据处理和分析,使用 Matplotlib 库生成图表。希望这些建议对您有所帮助,如果您在实现过程中遇到具体的技术问题,欢迎随时向我咨询。
2025-02-15
AI换衣API推荐, 并多维度对比,选择最适合的API推荐给我
以下为您推荐的 AI 换衣相关的 API 并进行多维度对比: Comfyui_Object_Migration: 特点:可高精度迁移服装样式到目标人物图像,保持高一致性和细节完整性,支持从卡通到写实的风格互相转换,甚至可将平面角色图像转换为可 3D 打印的模型。 应用场景:虚拟角色服装设计迁移到真实照片、为动画角色添加写实服装、微调权重生成独特服装设计。 详细介绍及教程: GitHub: 在选择适合的 AI 大模型 API 服务时,需要考虑以下因素: 对于像开发 AI Share Card 插件这类情况,如果将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能,那么对模型的要求就不会过高。 选型要求包括:较长的上下文窗口,因为内容总结类任务需要较大的上下文长度;响应速度要快、并发支持要高,以在多人使用插件时保持良好性能;免费或尽量低价,以减少模型 token 费用。例如,AI Share Card 选用的是 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。
2025-01-08
图生图时,如何多维度多参数进行生图
以下是关于图生图时多维度多参数进行生图的方法: 1. 设置文生图提示词: 大模型:majicmixRealistic_v6.safetensors 正向提示词:,auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,,lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w 2. 设置参数: 迭代步数:50 采样方法:DPM++ 2M Karras 尺寸:1328×800px 3. 除了文本提词框,图生图功能还有图片框输入口,可通过图片给与 AI 创作灵感。 例如随便照一张照片拖入,文本输入框旁有两个反推提示词的按钮:CLIP 可通过图片反推出完整含义的句子;DeepBooru 可反推出关键词组。 两种反推方式生成的提示词可能有瑕疵,需手动补充提示词信息。 写好提示词后,调整宽度和高度使红框刚好匹配图片。 注意两个重要参数:提示词相关性和重绘幅度。
2024-12-03
大模型怎么进行评测的
大模型的评测方式多种多样,以下为您介绍一些常见的评测方法和相关示例: 1. 斯坦福发布的大模型排行榜 AlpacaEval: 相对于人工标注,全自动化的 AlpacaEval 仅需花费约 1/22 的经济成本和 1/25 的时间成本。 从统计角度出发,检验什么评估数据可以最好地区分模型。 支持两种模式的模型评估方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。 评测过程分为以下 3 步: 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。 2. 小七姐的测评: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:分为复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等多轮,每轮都有不同的任务和模型测试次数。 3. LLM 开源中文大语言模型及数据集集合中的评测: FlagEval(天秤)大模型评测体系及开放平台:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。
2025-03-13
生图评测
以下是关于生图评测的相关内容: 评价维度: 提示词响应程度:包括语义理解,是否准确理解提示词含义并完整呈现内容;细节遵循,在细节上是否遵循提示词要求,如颜色、数量、位置等。 真实感与逼真度:物理规律是否符合,如光照、重力等;人体结构是否准确,无明显错误。 风格化能力:风格理解,是否准确理解提示词所要求的风格;风格多样性,能否生成不同风格的图片。 创意性与艺术性:美感是否符合美学原则,如构图、色彩搭配等;想象力是否能给出出乎意料的作品。 图像质量:清晰度与细节,图片是否清晰、细节是否丰富,有无模糊、噪点等影响观感的瑕疵;分辨率是否足够,是否适合不同应用场景。 案例分析: 阿强的功夫熊猫版如来神掌的 Midjourney 词力测试:目的是测词,看模型是否将功夫熊猫训练进去,并测试其角色、风格的一致性情况。不同的提示词组合产生了不同的效果,如“DreamWorks Animation,A Po Panda”词力强,动作可控;“Po Panda”有 1/4 概率出阿宝,动作自然可控等。在写绘画 prompt 时,遵循“若无必要,勿增实体”的理念,提前测试“词力”,用迭代思维写 prompt 有助于提高生图效率。 Midjourney 与 Google Imagen3 的对比测试:在画面控制力上,通过复杂的人物主体和画面要求进行测试。Imagen3 在某些场景(如充满神秘感的图书馆中女性取书的细节)的表现令人震惊,能完整还原画面内容、服饰、姿势,并兼顾构图。而 Midjourney 在多主体人物和描述词下,画面质量下降明显,如女性身材比例被压缩,某些细节未出现。
2025-03-08
大模型评测
以下是关于大模型评测的相关信息: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造中文大模型的知识评估基准: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:SuperCLUE 琅琊榜 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 此外,还有小七姐对文心一言 4.0、智谱清言、KimiChat 的小样本测评,测评机制包括: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:第一轮是复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试;第二轮是推理能力(CoT 表现);第三轮是文本生成能力(写作要求执行);第四轮是提示词设计能力(让模型设计提示词);第五轮是长文本归纳总结能力(论文阅读)。 测试大模型质量好坏时,常用的问题包括检索和归纳、推理性、有日期相关历史事件等。以下是几个专业做模型测评的网站:
2025-02-17
模型评测
以下是关于模型评测的相关内容: Llama2 模型评测:为了解其中文问答能力,筛选了具有代表性的中文问题进行提问,测试了 Meta 公开的 Llama27BChat 和 Llama213BChat 两个版本,未做任何微调和训练。测试问题涵盖通用知识、语言理解等八个类别,使用特定 Prompt,测试结果见相应文档。通过测试发现,该模型对于中文问答的对齐效果一般,基于中文数据的训练和微调十分必要。 LORA 模型训练超入门级教程中的模型测试:最后从炼丹炉内取最小值的模型为最佳,在 Output 文件夹下取出模型。可用 Stable Diffusion 的 xyz 图表脚本来测试不同权重下 Lora 的表现,包括选择 x 轴、y 轴类型等操作。 斯坦福发布大模型排行榜 AlpacaEval:相对于人工标注,全自动化的 AlpacaEval 经济成本和时间成本低。还探讨了什么评估数据能最好地区分模型,以及 AlpacaEval 支持两种模式的模型评估方式,评测过程分为三步,包括选择评估集、计算输出等,并建议使用特定的自动标注器。
2025-02-11
大模型评测
以下是关于大模型评测的相关信息: 招聘信息:有大模型算法工程师/产品经理(实习)岗位在北京,工作包括大模型效果评测,要求研究生及以上学历,相关专业优先,有相关实习经验、代码能力强等。 开源评测体系及平台: FlagEval(天秤):旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架。 CEval:构造了覆盖多学科的中文知识和推理型测试集,并给出主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,发布了初步结果和基于 Elo 评级系统的排行榜。 测评示例:小七姐对文心一言 4.0、智谱清言、KimiChat 进行小样本测评,包括测评机制、目标、能力考量和多轮测评任务,如复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等,每轮测评都有不同的任务和模型参与。
2025-01-14
superclue 在国内的评测里面什么地位,国外对标的评测是什么
在国内的评测中,SuperCLUE 是大模型时代 CLUE 基准的发展和延续,聚焦于通用大模型的综合性测评。在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右。国内外的平均水平差距在缩小,11 月差距在 10 分左右。 SuperCLUE 是中文语言理解测评基准 CLUE 的发展,发起于 2019 年,陆续推出了多种广为引用的测评基准。它根据多年的测评经验,构建了多层次、多维度的综合性测评基准。SuperCLUE 始终秉持中立、客观的第三方测评理念,采用自动化方式的客观评估,降低评测过程中的人为评估的不确定性。 国外对标的评测没有明确提及。
2025-01-07
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14