Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型评测标准

Answer

大模型的评测标准通常包括以下方面:

  1. 多维度、多视角的综合性测评方案:
    • 如中文大模型基准测评 2023 年度报告中,采用了由多轮开放问题 SuperCLUE-OPEN 和三大能力客观题 SuperCLUE-OPT 组成的评测集,共 4273 题,包括 1060 道多轮简答题(OPEN)和 3213 道客观选择题(OPT)。
    • 在确定的评估标准指导下,OPEN 基准使用超级模型作为评判官,对比待评估模型与基准模型,计算胜和率作为 OPEN 得分,最终 SuperCLUE 总分由 0.7OPEN 分+0.3OPT 分计算得出,且经过人工校验。
    • OPT 主要测评选择题,包括基础能力、中文特性、专业与学术能力,构造统一 prompt 供模型使用,要求选取唯一选项。多轮简答题 OPEN 更能反映模型真实能力,故权重设置较高。
  2. 特定的评测体系及开放平台:
    • FlagEval(天秤)大模型评测体系及开放平台,旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力-任务-指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。
    • C-Eval 构造了一个覆盖多个方向和学科,共 13948 道题目的中文知识和推理型测试集,并给出了当前主流中文 LLM 的评测结果。
    • SuperCLUElyb 是中文通用大模型匿名对战评价基准,以众包方式提供匿名、随机的对战,并发布了初步结果和基于 Elo 评级系统的排行榜。
  3. 基于业务目标和特定场景的测评:
    • 例如在开发基于 LangChain Chatchat 框架的产品时,基于业务目标和政策咨询场景,对回答的内容生成质量进行测评,主要包括是否理解问题、是否匹配正确政策原文、基于政策原文的回答是否准确全面、是否生成政策原文以外的内容、回答是否可靠以及不同轮次回答是否差异大、是否支持追问等方面。
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

为更真实反应大模型能力,本次测评采用多维度、多视角的综合性测评方案,由多轮开放问题SuperCLUE-OPEN和三大能力客观题SuperCLUE-OPT两持续扩充C L U E测评组OPEN在一个确定的评估标准指导下,OPEN基准使用超级模型作为评判官,使用一个待评估模型与一个基准模型进行对比,让超级模型选出A模型好,B模型好,或平局。进而计算胜和率作为OPEN得分。部分测评结果组成。评测集共4273题,其中1060道多轮简答题(OPEN),3213道客观选择题(OPT),以下为评测集与测评方法简述。评测反馈10万+题库被测模型A(如文心一言)VS多轮基线模型B(如GPT3.5)SuperCLUE总分不重复抽样裁判模型(如GPT4-Turbo)胜(3分)、和(1分)、负(0分)=5000原始评测集OPEN分=胜和率0.7*OPEN分+0.3*OPT分人工校验4273道评测题OPTOPT主要测评选择题,包括基础能力、中文特性、专业与学术能力。构造了统一的prompt供模型使用,要求模型选取ABCD中唯一的选项。注:多轮简答题OPEN更能反应模型真实能力,故权重设置提高。• 1060道多轮简答题(OPEN)被测模型A选择题库单选ABCD• 3213道客观选择题(OPT)OPT分=准确率

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading3][heading4]4.EvaluationFlagEval(天秤)大模型评测体系及开放平台地址:[https://github.com/FlagOpen/FlagEval](https://github.com/FlagOpen/FlagEval)简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用AI方法实现对主观评测的辅助,大幅提升评测的效率和客观性。FlagEval(天秤)创新构建了“能力-任务-指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。C-Eval:构造中文大模型的知识评估基准:地址:[https://github.com/SJTU-LIT/ceval](https://github.com/SJTU-LIT/ceval)简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共13948道题目的中文知识和推理型测试集。此外还给出了当前主流中文LLM的评测结果。SuperCLUElyb:SuperCLUE琅琊榜地址:[https://github.com/CLUEbenchmark/SuperCLUElyb](https://github.com/CLUEbenchmark/SuperCLUElyb)简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于Elo评级系统的排行榜。

开发:产品视角的大模型 RAG 应用

在开发基于LangChain Chatchat框架完成部署后,终于进入了激动人心的评测环节。大模型+知识库的组合,是否真的可以解决政策智能问答的顽疾,达到一个比较可用的效果呢?是骡子是马拉出来遛遛才知道。首先确定测评标准,基于业务目标和政策咨询的场景,对回答的内容生成质量进行测评,构建了一个测试集,并确定了评分标准,具体会在后面的文章中说明,这里先不做过多展开。主要包括以下方面:是否可以理解问题是否可以匹配正确的政策原文基于政策原文的回答是否准确基于政策原文的回答是否全面回答里是否生成了政策原文以外的内容回答是否可靠,不同轮次的回答是否差异大是否支持追问

Others are asking
大模型怎么进行评测的
大模型的评测方式多种多样,以下为您介绍一些常见的评测方法和相关示例: 1. 斯坦福发布的大模型排行榜 AlpacaEval: 相对于人工标注,全自动化的 AlpacaEval 仅需花费约 1/22 的经济成本和 1/25 的时间成本。 从统计角度出发,检验什么评估数据可以最好地区分模型。 支持两种模式的模型评估方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。 评测过程分为以下 3 步: 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。 2. 小七姐的测评: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:分为复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等多轮,每轮都有不同的任务和模型测试次数。 3. LLM 开源中文大语言模型及数据集集合中的评测: FlagEval(天秤)大模型评测体系及开放平台:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。
2025-03-13
生图评测
以下是关于生图评测的相关内容: 评价维度: 提示词响应程度:包括语义理解,是否准确理解提示词含义并完整呈现内容;细节遵循,在细节上是否遵循提示词要求,如颜色、数量、位置等。 真实感与逼真度:物理规律是否符合,如光照、重力等;人体结构是否准确,无明显错误。 风格化能力:风格理解,是否准确理解提示词所要求的风格;风格多样性,能否生成不同风格的图片。 创意性与艺术性:美感是否符合美学原则,如构图、色彩搭配等;想象力是否能给出出乎意料的作品。 图像质量:清晰度与细节,图片是否清晰、细节是否丰富,有无模糊、噪点等影响观感的瑕疵;分辨率是否足够,是否适合不同应用场景。 案例分析: 阿强的功夫熊猫版如来神掌的 Midjourney 词力测试:目的是测词,看模型是否将功夫熊猫训练进去,并测试其角色、风格的一致性情况。不同的提示词组合产生了不同的效果,如“DreamWorks Animation,A Po Panda”词力强,动作可控;“Po Panda”有 1/4 概率出阿宝,动作自然可控等。在写绘画 prompt 时,遵循“若无必要,勿增实体”的理念,提前测试“词力”,用迭代思维写 prompt 有助于提高生图效率。 Midjourney 与 Google Imagen3 的对比测试:在画面控制力上,通过复杂的人物主体和画面要求进行测试。Imagen3 在某些场景(如充满神秘感的图书馆中女性取书的细节)的表现令人震惊,能完整还原画面内容、服饰、姿势,并兼顾构图。而 Midjourney 在多主体人物和描述词下,画面质量下降明显,如女性身材比例被压缩,某些细节未出现。
2025-03-08
大模型评测
以下是关于大模型评测的相关信息: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval:构造中文大模型的知识评估基准: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb:SuperCLUE 琅琊榜 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 此外,还有小七姐对文心一言 4.0、智谱清言、KimiChat 的小样本测评,测评机制包括: 测评目标:测评三家国产大模型,以同组提示词下 ChatGPT 4.0 生成的内容做对标参照。 能力考量:复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:第一轮是复杂提示词理解和执行,包括 Markdown+英文 title 提示词测试、Markdown+中文 title 提示词测试、中文 title+自然段落提示词测试;第二轮是推理能力(CoT 表现);第三轮是文本生成能力(写作要求执行);第四轮是提示词设计能力(让模型设计提示词);第五轮是长文本归纳总结能力(论文阅读)。 测试大模型质量好坏时,常用的问题包括检索和归纳、推理性、有日期相关历史事件等。以下是几个专业做模型测评的网站:
2025-02-17
模型评测
以下是关于模型评测的相关内容: Llama2 模型评测:为了解其中文问答能力,筛选了具有代表性的中文问题进行提问,测试了 Meta 公开的 Llama27BChat 和 Llama213BChat 两个版本,未做任何微调和训练。测试问题涵盖通用知识、语言理解等八个类别,使用特定 Prompt,测试结果见相应文档。通过测试发现,该模型对于中文问答的对齐效果一般,基于中文数据的训练和微调十分必要。 LORA 模型训练超入门级教程中的模型测试:最后从炼丹炉内取最小值的模型为最佳,在 Output 文件夹下取出模型。可用 Stable Diffusion 的 xyz 图表脚本来测试不同权重下 Lora 的表现,包括选择 x 轴、y 轴类型等操作。 斯坦福发布大模型排行榜 AlpacaEval:相对于人工标注,全自动化的 AlpacaEval 经济成本和时间成本低。还探讨了什么评估数据能最好地区分模型,以及 AlpacaEval 支持两种模式的模型评估方式,评测过程分为三步,包括选择评估集、计算输出等,并建议使用特定的自动标注器。
2025-02-11
大模型评测
以下是关于大模型评测的相关信息: 招聘信息:有大模型算法工程师/产品经理(实习)岗位在北京,工作包括大模型效果评测,要求研究生及以上学历,相关专业优先,有相关实习经验、代码能力强等。 开源评测体系及平台: FlagEval(天秤):旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架。 CEval:构造了覆盖多学科的中文知识和推理型测试集,并给出主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,发布了初步结果和基于 Elo 评级系统的排行榜。 测评示例:小七姐对文心一言 4.0、智谱清言、KimiChat 进行小样本测评,包括测评机制、目标、能力考量和多轮测评任务,如复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等,每轮测评都有不同的任务和模型参与。
2025-01-14
superclue 在国内的评测里面什么地位,国外对标的评测是什么
在国内的评测中,SuperCLUE 是大模型时代 CLUE 基准的发展和延续,聚焦于通用大模型的综合性测评。在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右。国内外的平均水平差距在缩小,11 月差距在 10 分左右。 SuperCLUE 是中文语言理解测评基准 CLUE 的发展,发起于 2019 年,陆续推出了多种广为引用的测评基准。它根据多年的测评经验,构建了多层次、多维度的综合性测评基准。SuperCLUE 始终秉持中立、客观的第三方测评理念,采用自动化方式的客观评估,降低评测过程中的人为评估的不确定性。 国外对标的评测没有明确提及。
2025-01-07
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
怎么用AI标准化批量生产内容
以下是关于如何用 AI 标准化批量生产内容的详细指导: 一、需求分析 在批量制作单词卡片时,为降低人工成本和节约时间,选用搞定设计来批量产图。因为其对新手友好,且借助 AI 加成模板容易制作。 二、提示词编写测试 1. 完整提示词:核心是生成符合要求的单词卡内容并将其填入 Excel 文件中,需给出基本示例和规则限制。 2. 测试结果:一次输入多个单词可同时解析,虽效果有差异但大体格式符合要求,部分设定有改变,可通过复制粘贴调整。 三、批量产出 1. 准备压缩格式的文件(如 zip、rar、7z),内含放置内容的 Excel 文档,格式固定。 2. 利用 ChatGPT 生成单词内容并整理填入 Excel。 3. 上传压缩文件,完成套版,获得符合要求的单词卡片。 此外,在测试 AI 视频产品模型 txt2vid、img2vid 能力时,撰写提示词通常基于特定结构,也可让 Claude 等大模型协助,参考“我正在测试 Runway、Luma 等视频生成产品对文本的语义理解能力和视频生成效果,现在需要你帮我写几段提示词。提示词需要满足:主体物+场景+运动内容+相机视角+氛围描述的基本内容描写,请分别给出中英文提示词内容。”今年 AI 技术进步迅速,图像、视频生成主要解决素材生产问题,各产品在数据集、模型能力等方面竞争,AI 功能的打磨需要团队多方面精心投入,对使用者综合能力要求高。
2025-04-09
我需要ai帮助我根据我的大纲生成一篇标准的论文
以下是为您根据大纲生成标准论文的一些建议和参考: 首先,确定论文大纲目录。您可以参考老师提供的示例报告,或者通过手机识别相关截图来获取。 其次,明确整体的语言风格和特色。调研报告通常要求“逻辑清晰、层层递进、条理分明”,您可以将范文提供给类似 Claude 2 的工具来总结语言风格,但注意不要过度限制 AI 的生成,以免影响效果。 然后,让 GPT4 按照目录逐步生成章节内容。可以在 workflow 中设置循环结构,在其生成一段章节内容后,您确认同意再进行下一章节,否则重新生成。在生成内容前,让 GPT4 判断某章节是否需要调用 webpolit 插件查询相关信息。对于需要搜索网络信息的章节,可以打上标签,让 GPT4 自主搜索信息后生成内容。 在写作过程中,您还可以利用以下常见的文章润色 AI 工具来提高论文质量: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,帮助优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 总之,生成论文需要综合运用各种方法和工具,根据自身需求选择合适的方式,不断优化和完善,以达到标准论文的要求。
2025-03-29
有没有软件开发过程中辅助标准开发的AI
以下是一些在软件开发过程中辅助标准开发的 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,帮助提高编写代码的效率。 2. 通义灵码:阿里巴巴团队推出,基于通义大模型,提供多种编程辅助能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,可实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,能快速生成代码。 5. Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队推出的免费 AI 代码助手,基于自研的基础大模型进行微调。 7. Codeium:一个由 AI 驱动的编程助手工具,通过提供代码建议等帮助提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。每个工具的功能和适用场景可能不同,您可以根据自身需求选择最适合的工具。 在面试时,可以通过以下 AI 相关问题快速判断候选人是否真正懂 AI: 1. “你遇到过 AI 给出明显错误答案的情况吗?你是怎么处理的?” 2. “最近有没有新出的 AI 工具或功能是你学习并实际应用的?能举个例子吗?” 3. “如果 AI 生成的内容和你的预期不符,你会怎么优化它?” 4. “你觉得 AI 目前有哪些无法解决的业务难题?遇到这些问题你会怎么做?” 未来软件开发人员的角色可能会发生变化,需要掌握跨学科的技能,不仅要知道构建什么,也要评估 AI 生成的代码,从主要的代码编写者转变为主要的任务委托者和代码审查者。同时,模型和模型基础设施需要更好地从代码库和代码审查中学习,以生成更符合公司代码规范的代码。
2025-03-20
我希望通过ai做好我企业内部的智能巡检。巡检内容主要是针对企业的门店的招牌门头是否合规给出意见。主要合规性检查包括:Logo是否符合公司的设计标准;门头的颜色搭配、尺寸是否符合标准(还要提醒褪色),请问大体应该是各什么思路?
很抱歉,飞书知识库中没有与您关于通过 AI 做好企业内部门店招牌门头智能巡检思路的直接相关内容。但一般来说,您可以考虑以下思路: 1. 数据采集:使用图像采集设备获取门店招牌门头的图像数据。 2. 图像识别技术:运用 AI 的图像识别能力,对采集到的图像进行分析,识别 Logo、颜色、尺寸等元素。 3. 建立标准模型:根据公司设计的标准,建立合规性的模型,以便与采集到的图像进行对比。 4. 智能判断:通过算法判断门头的各项元素是否符合标准,包括 Logo 是否与标准一致,颜色搭配、尺寸是否在规定范围内,以及是否存在褪色等问题。 5. 生成报告和提醒:根据判断结果生成详细的报告,并及时提醒相关人员进行整改。
2025-02-25
关于Deepseek计费模式和标准是怎样的
DeepSeek 的计费模式和标准如下: DeepSeek 暂停了 API 充值服务,已充值金额可继续使用。 DeepSeekchat 模型优惠期至 2025 年 2 月 8 日 24:00,之后按每百万输入 tokens 2 元,每百万输出 tokens 8 元计费。 Deepseekreasoner 模型上线即按每百万输入 tokens 4 元,每百万输出 tokens 16 元计费。 相关链接:
2025-02-24
给我提供一份标准的 DeepSeek R1大模型的 prompt 提示词模板
以下是一份关于 DeepSeek R1 大模型的 prompt 提示词模板: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口,换算成汉字是 8000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 2. 系统响应机制 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 二、基础指令框架 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 3. 多模态输出 此外,还有关于创建 DeepSeek 联网版工作流的相关内容: 1. 创建工作流 创建一个对话流,命名为 r1_with_net 开始节点,直接使用默认的 大模型分析关键词设置 模型:豆包通用模型lite 输入:直接使用开始节点的 USER_INPUT 作为大模型的输入 系统提示词:你是关键词提炼专家 用户提示词:根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索 bingWebSearch搜索 插件:BingWebSearch 参数:使用上一个节点,大模型分析输出的关键词作为 query 的参数 结果:data 下的 webPages 是网页搜索结果,将在下一个节点使用 大模型R1 参考搜索结果回答 这里需要在输入区域开启“对话历史” 模型:韦恩 AI 专用 DeepSeek 输入:搜索结果,选择搜索节点 data 下的 webPages;选择开始节点的 USER_INPUT;开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮 系统提示词:这里不需要输入 用户提示词: 结束节点设置 输出变量选择大模型R1 参考搜索结果回答的输出 回答内容里直接输出:{{output}} 测试并发布工作流 输入你的测试问题,测试完成后,直接发布工作流 关于 HiDeepSeek 的相关内容: 1. 效果对比 用 Coze 做了个小测试,大家可以对比看看 2. 如何使用? Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 3. 设计思路 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 4. 完整提示词 v 1.3 5. 特别鸣谢 李继刚:【思考的七把武器】在前期为我提供了很多思考方向 Thinking Claude:这个项目是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源 Claude 3.5 Sonnet:最得力的助手
2025-02-16