|名称|欢迎词(含示例)|详细Prompt|实例|附件|一句话描述用途|<br>|-|-|-|-|-|-|<br>|向代码添加注释|?请输入你要添加注释的{代码段}|请查看以下代码片段并为每一行代码提供注释,解释其目的和功能。检查完代码后,请重新生成带有添加注释的代码段。||||<br>|比较两段代码|?请输入你要比较的两个{代码段1}、{代码段2},最好{描述你在建构的内容和目的}|我正在开发一个{描述你正在构建的}并且想评估和<br>将{第一个比较项}与{第二个比较项}进行比较。请提出基本{您正在构建的内容}的要求,并创建两个满足这些要求的代码库-一个使用{第一个比较项},另一个使用{第二个比较项}。请提供在我的本地计算机上运行这两个应用程序的明确说明。||||<br>|生成正则表达式|?请创建一个正则表达式匹配<br>{你想匹配的模式}|请创建一个正则表达式匹配<br>{你想匹配的模式}||||
然后,把这两段代码分别复制进去,并运行。先复制第一段:!pip install beautifulsoup4 requests运行后得到下图到这里的pip,就是之前提到的「给未来商店打电话」,用来获取工具接下来,点击左上方「+代码」按钮,新建一个新的代码块最后,复制后面的代码,并运行,获得下面的结果:?恭喜你,爬虫写好了?
为了更好地理解LCEL语法的优势,我们可以将它与传统的编程语言进行对比,看看如果不使用LCEL语法,我们需要做哪些额外的工作。我们仍以上述笑话的生成链为例。这段代码非常简洁和清晰,只需要几行就可以实现我们想要的功能。而且,这段代码还具有很高的可扩展性和灵活性,例如:如果我们想要以流式的方式获取笑话,我们只需要改变调用方法,使用stream代替invoke:调用笑话对象,传入一个主题字符串,得到一个笑话字符串的流joke.stream("dog")如果我们想要同时处理多个主题,我们只需要改变调用方法,使用batch代替invoke:调用笑话对象,传入一个主题字符串的列表,得到一个笑话字符串的列表joke.batch(["dog","cat","banana"])如果我们想让请求异步执行只需要模型的变更也十分简单,只需要变更modal变量的定义即可prompt = BasePromptTemplate("tell me a short joke about{topic}")改用gpt-3.5-turbo的llm model = OpenAI(model="gpt-3.5-turbo")output_parser = StrOutputParser()joke =({"topic":RunnablePassthrough()}| prompt | model | output_parser)