以下是关于训练 AI 使其更好地理解您的指令的一些建议:
总之,训练 AI 理解指令需要您在表达意图、提供上下文、任务拆分和选择合适解决方案等方面下功夫。
指令就是那些技巧之外的,你需要让AI能真正理解你意图,并且精确控制AI按照你的意图去完成任务的部分。其实这部分才是提示工程的核心部分,而且并不容易做好,因为它有很多难点:如何清楚的表达自己的意图表达清楚自己的意图其实很难,如果不能表达清楚,不管是AI还是人类,都很难懂你或者帮到你。比如说“五彩斑斓的黑”是什么颜色?如何让AI明白所有相关的上下文人和人沟通的时候,一个常见的错误就是一方假定对方明白自己知道的所有上下文,然后造成很多误解。跟AI也一样,但是如何让AI明白我们所处的上下文环境也是很有必要并且很难的事情:要如何交代清楚上下文,要交代多少上下文?如何将复杂的任务拆分成简单的任务我刚大学毕业那会,HR会给员工推荐一本书,叫《把信送给加西亚》,本来挺好的故事,但是被老板们用来教育员工:员工收到老板的指令,就应该像书中的安德鲁·罗文那样,没有任何推诿,不讲任何条件,历尽艰险,徒步走过危机四伏的国家,以其绝对的忠诚、责任感和创造奇迹的主动性完成“不可能的任务”,把信交给了加西亚。后来自己去管人了才知道,好的管理者要善于帮助员工将复杂的任务拆分成简单的任务,并且在过程中提供帮助和引导,而不是给一个指令就等着结果。让AI做事也是类似的,由于上下文的不完整,或者任务的复杂性,合格的提示工程师需要将复杂的任务拆分成几个简单的任务让AI去完成,甚至于需要组建一个完整的工作流,让多个AI智能体协同完成复杂的任务。如何精确的控制AI做事
OpenAI在2021年据说已经把能找到的人类的知识文本都用完了,因为人类一共就写了1亿本书,那么多杂志期刊论文,只要数字化都可以穷尽。最后想了个方法,他们把YouTube上的视频下载了100万个小时,这原来我也预言过,就是用视频来做学习,他把里边的音轨导出来,把音轨转成文字,用这个文字来做对GPT做训练。所以这个让我们中国人工智能发展又看到了新的机会。因为过去老有人自我讽刺,老有人妄自菲薄,看不起我们国内的这些从业者,说世界上搞人工智能,他们在搞智能,我们在搞人工。但这个段子到今天有了正解,没有人工哪来的智能啊?我们将来发挥我们人口红利,培养很多的人工智能训练师,我们大量的产生像百度“弱智吧”这样的内容,这样可以给我们的人工智能做更好的训练。百度“弱智吧”里边充满了双关语,充满了深刻的逻辑和各种各样的梗,它对大模型提高逻辑能力、提升回答技能能力是非常显著的。多模态的发展,文生图的发展,ToC会继续涌现杀手级应用。知识工程成为大模型落地的决定性要素。无论做通用大模型还是做专有大模型,知识成为决定性,没有知识的大模型就是个傻子。Agent架构,最近吴恩达——著名的人工智能世界级科学家,讲了好几次Agent的课。他反复讲到Agent架构对大模型至关重要,这是我今天一个讲课的重点。还有人形具身智能机器人产业获得十倍速的发展。Figure AI跟GPT合作做的机器人进步很快,最近斯坦福那个机械臂当它操作不对的时候,能听懂人的指令。比如说把一个海绵塞到口袋里,海绵掉在地上,然后人就说把口袋撑大一点,那它就能够照着人的指令完成这个任务。
在许多情况下,我们只需给AI下达明确的命令来完成一次性任务,例如制作一个简单的Chrome插件、编写脚本、或创建Python爬虫。但当AI满足了我们简单的需求,并让我们获得正反馈之后,我们的期待也会不断提高,希望能进一步从繁琐的日常任务中解脱出来。这个时候,我们需要了解AI编程的边界和限制。[heading2]3.1 AI编程准则第一条:能不编,尽量不编[content]随着IT技术的发展,各种基础设施和工具越来越多,大多数需求都能找到现成的软件解决方案,只需权衡投入产出,进行评估即可。[搜索技巧的逆袭:在AI统治的世界中寻找价值](https://iaiuse.com/posts/af894b2a)成熟产品优先找线上工具:例如制作白底图等功能,如果线上有现成的工具那最好。其次找插件:基于现有系统找合适的插件。最后是本地应用:当线上工具和插件都不满足需求时,再考虑本地应用。API功能先找现成的开源工具,GitHub上很多。然后考虑付费服务。如果都找不到现成的方案,才考虑自己编程。毕竟,人生苦短,何必为难自己呢?如果真的需要动手编写,也要以终为始,抛开技术障碍,聚焦于目标。