以下是一些最新的开源的关于大语言模型的书籍和资源:
Awesome Totally Open Chatgpt:地址:[https://github.com/nichtdax/awesome-totally-open-chatgpt](https://github.com/nichtdax/awesome-totally-open-chatgpt)简介:This repo record a list of totally open alternatives to ChatGPT.Awesome-LLM:地址:[https://github.com/Hannibal046/Awesome-LLM](https://github.com/Hannibal046/Awesome-LLM)简介:This repo is a curated list of papers about large language models,especially relating to ChatGPT.It also contains frameworks for LLM training,tools to deploy LLM,courses and tutorials about LLM and all publicly available LLM checkpoints and APIs.DecryptPrompt:地址:[https://github.com/DSXiangLi/DecryptPrompt](https://github.com/DSXiangLi/DecryptPrompt)简介:总结了Prompt&LLM论文,开源数据&模型,AIGC应用。Awesome Pretrained Chinese NLP Models:地址:[https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models](https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models)简介:收集了目前网上公开的一些高质量中文预训练模型。
腾讯非常系统的Stable Diffusion介绍文章,量大管饱。使用入门指南包括硬件需求、安装Python和Git、装配模型,以及如何使用该模型进行图像生成。同时可以通过安装插件等个性化配置,对生成过程进行优化。[heading2][AIGC之我见-马丁的面包屑](https://whjlnspmd6.feishu.cn/wik[content]产品经理、独立开发者马丁整理的自己关于AIGC的一些碎片化思考,很多观点想的很清楚,非常值得一看。[heading2][多邻国创始人Luis von Ahn专访](https://www.newyorker.com/m[content]介绍了Luis von Ahn创建多邻国的过程和对AI的一些思考,特别是AI对教育的影响,他认为AI能以极低的成本产出匹配人类教师教学水平的内容,可以极大的促进教育平权。[heading2][自监督学习CookBook-Mate](https://ai.facebook.com/blog/[content]Meta AI发布了一本“自监督学习烹饪书”,为AI研究人员和从业者提供了使用SSL方法的实用指南。SSL是最近AI突破的关键因素之一,能够在多个领域推动深度学习的边界,从而使模型在自然语言(例如翻译和大语言模型)、音频(例如data2vec)以及计算机视觉模型等模态上实现灵活。本指南提供了一个SSL基础和其食谱,以易于研究人员使用的方式描述了方法的方法家族以及连接其目标的理论线程。研究人员可以使用此烹饪书来学习SSL的基本技术和词汇。[heading2][大语言模型发展历程](https://briefgpt.xyz/lm)[content][Rick Yu](https://twitter.com/cosmtrek)的论文工具增加了一个页面回顾了大语言模型的发展历程,介绍了历代先驱者的研究成果,从N-gram、神经语言模型到现在的GPT系列等。
[GPT-4 technical report](https://arxiv.org/abs/2303.08774)(2023年):来自OpenAI的最新和最伟大的论文,最为人所知的是它揭示的信息之少!([博客文章](https://openai.com/research/gpt-4))。[GPT-4系统卡片](https://cdn.openai.com/papers/gpt-4-system-card.pdf)揭示了OpenAI如何处理幻觉、隐私、安全性和其他问题。。[LLaMA:Open and efficient foundation language models](https://arxiv.org/abs/2302.13971)(2023):来自Meta的模型(几乎)开始了一个开源LLM革命。与许多最好的闭源模型竞争,但只对研究人员开放了有限制的许可。([博客文章](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/))[Alpaca:A strong,replicable instruction-following model](https://crfm.stanford.edu/2023/03/13/alpaca.html)(2023年):来自斯坦福大学的这种模型展示了指令调整的力量,特别是在较小的开源模型中,相比于纯粹的规模。