以下是关于 GPT 的使用方法:
推特博主的英语老师制作了一个GPT工作流,基于每个人的日常需求生成定制素材。博主用了一段时间,简直超级棒,有外国同事问他周末是不是报了商务英语课哈哈。。。现在分享给大家具体使用方法:先把下面整段prompt喂给ChatGPT(建议开一个新的对话专门用来学习英文)然后ChatGPT会扮演你的美国好朋友,每当你输入英文和中文表达,ChatGPT都会返回更地道的表达,并且对其中的俚语部分加粗,更容易帮助你学习和记忆(将App提交到应用商店,我用了send out,chatgpt改成了push)同时针对你发送的话题,ChatGPT会举一反三,结合欧美流行的内容给出更多例子,帮助你更好理解和记忆(ChatGPT提供了一个美剧更新的例子,教会我一个新表达buzz)当你输入"Hey GPT,run the end of day task.",ChatGPT会输出今天的对话回顾,进行复习,并建议3个推荐的任务,以强化记忆1️⃣建议使用方式,开一个窗口,复制prompt2️⃣然后手机端打开这条历史记录3️⃣点右上角的?耳机图标,开始打电话4️⃣打电话又能练口语又能练听力。5️⃣结束之后看回顾,可以帮助阅读群友也写了一个类似的版本,并放在讯飞上做了尝试,效果不错
在完成第一步的原SQL输入后,GPT已经对需求有了初步的理解,这里我再将真实的业务需求场景以及现在的问题输入给GPT:这一步的作用是帮助GPT更好的理解旧代码背后的真实业务需求,同时结合旧代码运行的问题,让GPT能进一步给出针对性的优化建议,输出更符合需求的代码。这里其实有好几轮的输入输出(可以理解为讨论),不断的强化GPT对真实需求的认知。注:SQL查询代码本身不包含涉密信息,可以放心在ChatGPT中使用[heading3]Step3:根据优化结果不断调试[content]在输入完旧代码、需求和问题之后,GPT模型给出了一些新的代码。我需要不断地根据GPT的结果进行调试和优化,直到生成满足需求的新代码,这一步比较繁琐,但惊喜也是在这一步发现的。按照原SQL的思路,是每天更新近30天的数据,并存储到一个结果表,由于指标很多且数据量大,所以耗时很长,但其实大部分的语句都是反复的读同一个表,资源浪费比较严重。所以在跟GPT反复沟通多次后,GPT提出了3点比较重要的优化建议:每次更新1天而不是30天的数据;不直接统计全量指标数据,而是创建一个中间结果表,将所有非二次计算的数据存储到该表,需要二次计算的指标直接通过该表再查询(例如:中间结果表统计了昨日总数和今日总数,变化值、环比等则通过中间表再进行二次查询统计);利用CASE WHEN合并查询约束条件基本相同的指标,这个方式大大减少了重复读表的次数,也极大的精简了SQL代码内容。前两点是GPT直接提出的,第三点是我从GPT给出的优化代码中发现的,基于这三个核心优化思路,结合我的半吊子SQL水平,花费了半天多的时间将完整的代码优化完成,并分模块在系统中测试了一下,结果完全一致。当然整个过程还是比较繁琐的,包括查资料、报错、纠正GPT、不断补充需求细节等等,需要有一定的耐心。
GPT是“生成式预训练变换器”(Generative Pre-trained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个GPT由OpenAI于2018年推出。GPT模型是基于Transformer模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至2023年,大多数LLM都具备这些特征,并广泛被称为GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到2017年Google推出了Transformer模型,我们才见到了如BERT(2018年发布)和XLNet(2019年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018年,OpenAI发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT-1”。[heading1]问题六、大模型是什么东西?[content]所谓的大模型,简而言之,就是那些拥有庞大参数数量的模型。它们通过处理和理解海量数据,能够胜任一系列复杂的任务。那么,为何将这些模型称作“大”模型呢?原因在于它们的规模之大,通常包含从数十亿到数千亿的参数。这些庞大的参数集合赋予了模型强大的学习和记忆能力,使其在处理各种任务时表现出色。我们可以从两个方面来进一步解读大模型的特点:1.大模型之所以强大,一个重要原因在于它们庞大的参数数量。这些参数,或者说“权重”,是模型在学习过程中不断调整的核心,它们帮助模型更深入地理解和生成数据。2.大模型的训练离不开大量的数据。无论是文本、图像还是音频数据,都是大模型学习的基础。通过对这些数据的深入学习,模型能够掌握丰富的知识和技能。