以下是关于如何使用好大模型的一些指导:
加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG
1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/安装完之后,确保ollama后台服务已启动(在mac上启动ollama应用程序即可,在linux上可以通过ollama serve启动)。我们可以通过ollama list进行确认,当我们还没下载模型的时候,正常会显示空:可以通过ollama命令下载模型,目前,我下载了4个模型:几个模型简介如下:
作者:小七姐可以在以下地址关注她:[小七姐的prompt学习社群](https://t.zsxq.com/15KhQ0RE7)[heading1]01学习地图|编写清晰的说明-多说两句,提供细节[content]在OpenAI官方的说明文档(Documentation-[GPT best practices](https://platform.openai.com/docs/guides/gpt-best-practices/gpt-best-practices)),也就是我们常常提到的“官方最佳实践”中,为用户提供了若干项策略,以帮助用户更好的使用ChatGPT。[heading2]策略一:编写清晰的说明[content]在询问中包含详细信息,以获得更多相关答复。这是因为,大模型不是我们肚子里的蛔虫,它无法在有限的信息中“猜测”我们的意图,所以,在问问题的时候,不要惜字如金,多说一些内容,多提供一些信息,这样可以很有效的提高大模型回复的质量和丰富性。我们来看一个例子:当我们想要大模型为我们提供一些思维模型时,本能的问法可能是:“给我列几个思维模型”。于是很常见下面这样的对话:当我们愿意给出更多信息,比如我们为什么需要这个模型,希望ChatGPT列举三个模型,以及是否有我们已知的模型作为参考时,ChatGPT可以提供更加符合我们预期的回答:我们再来看一个例子,假设我们想请ChatGPT帮助我们记忆一个比较抽象的概念,我们可能会脱口而出这样的问题:但如果我们停下来思考一下,深想一步,提供更多细节,就能得到更符合期望的回答了:最后,我们想通过ChatGPT来了解提示词,这是一个坏例子:让我们给出特定的情景和进一步思考的问题: