裁判模型的 prompt 相关内容如下:
OPT主要测评选择题,包括基础能力、中文特性、专业与学术能力。构造了统一的prompt供模型使用,要求模型选取ABCD中唯一的选项。注:多轮简答题OPEN更能反应模型真实能力,故权重设置提高。•1060道多轮简答题(OPEN)•3213道客观选择题(OPT)被测模型A选择题库单选ABCDOPT分=准确率测评方法-示例1(生成与创作)问题及模型回答超级模型(裁判)A:文心一言4.0B:gpt3.5-turbo模型A的回答创造性地扩展了原有的文案,加入了家庭安全方面的应用,如老人摔倒检测和入侵检测,并维持了主题一致的“魔法”元素,这样的文案能够有效吸引用户的注意,并且关注点转移到家庭安全这一增加的功能上。模型B在回答中也有效地扩充了关于家庭安全功能的描述,保持了与原文案相似的格式,成功地整合了入侵检测和摔倒监测的新信息,让用户了解到产品的新应用场景。两个模型都做到了准确地回答了问题并且保持了高度的相关性,同时也都扩展了文案来包括新的家庭安全特性,提供了实用性的信息。在这个基础上,模型A的创意元素—用“魔法”寓意来打动用户,和模型B的实用性—强调产品带来的平安感,都各有卖点。
ok,在我们对于两个重要的基础模型,llm大语言模型和多模态模型的原理有了基础的认知后,我们可以再进一步,去理解下一些大模型领域常见的些术语名词,究竟是在干些什么,以及都能干什么。[heading3]1.prompt[content]prompt这个词很多人都听到过,甚至一度还出现过prompt优化师这样的角色。那么prompt是做什么的呢?prompt其实是给到大模型输入的一段原始的输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。对于prompt,比如可以设定“假设你是一位医生,给出针对这种症状的建议”,然后你与大模型后续的对话中,都会按照这个原始设定来展开。这里有个比较有意思的玩法,就是我们可以在prompt的设定中,要求模型按照一定的思路逻辑去回答。比如最近比较火的cot,也就是思维链,也是在prompt这个环节,对于模型的输出进行指导。这里的玩法很多,比如我们还可以让模型按照特定格式的json输出等,这样模型真的就可以变成了一个输出器来使用。
一、把prompt输入到Claude2.0后,欢迎语按照prompt的指示输出。要求当事人提供要质证的证据清单。二、输入了4份简单的证据,输出了一份质证意见书。三、对四份证据质证意见如下:1、格式上:符合prompt输出格式。2、内容上:(1)真实性:真实性的质证,不认可或者待核实;(2)合法性:合法性的质证,不认可或待核实,能够按照合法性的要求进行质证;(3)关联性:关联性的质证,主要是与证明事实是否相关;(4)证明力:证明力较弱,无法证明或者与其他证据印证、佐证;(5)总结:5.5分四、结束语,没问题,很到位。五、没有提示签署委托代理协议,我提示了它,回复一点问题没有,很棒。[heading3]文心一言3.5[content]一、把prompt输入到文心一言后,欢迎语按照prompt的指示输出。文心一言非常有优势,无论是专业对接,还是后续的对客户的引导,都非常棒。二、输入了4份简单的证据,它对证据进行了分析,非常专业。三、提示它,按照提示输出质证意见,四份证据质证意见如下:1、格式上:符合prompt输出格式。2、内容上:(1)真实性:真实性的质证,非常专业,提示很好;(2)合法性:合法性的的质证,非常专业,提示很好;(3)关联性:关联性的的质证,非常专业,提示很好;(4)证明力:证明力的质证,非常专业,提示很好;(5)总结:8分四、结束语,没问题,很好。五、没有提示签署委托代理协议,我提示了它,回复一点问题没有,很棒。