以下是一些学习 ChatGPT 的方法:
推特博主的英语老师制作了一个GPT工作流,基于每个人的日常需求生成定制素材。博主用了一段时间,简直超级棒,有外国同事问他周末是不是报了商务英语课哈哈。。。现在分享给大家具体使用方法:先把下面整段prompt喂给ChatGPT(建议开一个新的对话专门用来学习英文)然后ChatGPT会扮演你的美国好朋友,每当你输入英文和中文表达,ChatGPT都会返回更地道的表达,并且对其中的俚语部分加粗,更容易帮助你学习和记忆(将App提交到应用商店,我用了send out,chatgpt改成了push)同时针对你发送的话题,ChatGPT会举一反三,结合欧美流行的内容给出更多例子,帮助你更好理解和记忆(ChatGPT提供了一个美剧更新的例子,教会我一个新表达buzz)当你输入"Hey GPT,run the end of day task.",ChatGPT会输出今天的对话回顾,进行复习,并建议3个推荐的任务,以强化记忆1️⃣建议使用方式,开一个窗口,复制prompt2️⃣然后手机端打开这条历史记录3️⃣点右上角的?耳机图标,开始打电话4️⃣打电话又能练口语又能练听力。5️⃣结束之后看回顾,可以帮助阅读
从反馈中学习是构建LLM系统的核心环节。例如,风靡全球的ChatGPT就是通过人类反馈的强化学习(RLHF)(RLHF)来调整模型,使其成为一个通用的聊天机器人。Midjourney之所以能够不断进步,很大程度上也是得益于它所建立的反馈循环机制。从反馈中学习的基本原理很直观。如果你能够收集到关于模型预测表现的反馈,无论是什么形式,你就可以根据这些反馈来优化模型,使其产生更多类似的、更好的结果。如果你能够持续地进行这一过程,你的模型就能够随着时间的推移不断地学习和提升。虽然完全自动化的持续学习可能还未完全实现,但大多数专家都认同收集反馈的重要性。
使用现代GPU硬件,可以并行计算数千个示例的结果。但是,当涉及实际更新神经网络中的权重时,目前的方法基本上要求一次一批地执行此操作。(是的,这可能是实际的大脑将计算和内存元素相结合的优势。)即使在我们之前讨论过的学习数值函数的看似简单的情况下,我们发现通常需要使用数百万个示例才能成功训练网络,至少是从头开始。那么,为了训练一个“类人类语言”的模型,需要多少示例呢?理论上似乎没有任何根本的方式可以知道。但是在实践中,ChatGPT成功地从数百万亿字的文本中进行了训练。一些文本会被重复使用多次,而其他文本只会使用一次。但是,它以某种方式从看到的文本中“得到了它所需的”。但是,考虑到这么多的文本进行训练,需要多大的网络才能“很好地学习它”呢?同样,我们还没有根本的理论。最终——正如我们将在下面进一步讨论的——人类语言及其典型使用可能存在一定的“算法”。但是,下一个问题是,神经网络在实现基于该算法内容的模型时有多么高效;我们还不知道,尽管ChatGPT的成功表明它相当有效。