以下是一些支持语音的外语对话 AI:
功能:Google Assistant支持多种语言,可以用来进行日常对话练习和词汇学习。使用方法:设置目标语言,通过语音命令或文本输入与助手进行互动,练习日常用语。
功能:ChatGPT可以用来模拟对话练习,帮助你提高语言交流能力。使用方法:在聊天界面选择目标语言,与AI进行对话练习。可以询问语法、词汇等问题,甚至模拟实际交流场景。
OpenAI直接用prompt让GPT-4调用bio这个工具记录需要记忆的内容(「to=xxx」是调用内部工具的语法,比如"to=python"是GPT调用code interpreter的方式)。然后每次新的对话开始时,在prompt的最后直接加上所有之前的记录的内容(## Model Set Context)。就是这么简单粗暴。GPTs怎么做的?其实很大程度就是OpenAI的Assistant API加个简单得有点简陋的前端。(PS:现在有了OpenAI Assistant API后,你发现加个UI就可以很轻松的复刻OpenAI上线的大部分功能。)那么语音对话呢?你会发现就是换了一个prompt,告诉GPT尽量生成短的内容,不要轻易生成列表和代码。语音合成用TTS API,识别用whisper API(可能有针对上下文的优化),结束。这些选择看上去非常暴力,而且会给OpenAI增加开销(长的prompt会明显增大开销),但是OpenAI仍然选择这么做,因为这让OpenAI将大部分精力都花在模型本身的研发上,同时这也是OpenAI的方法论的极致体现,我们下面会提到。这种方法论让OpenAI追求一个大的通用的模型,避免一切定制和特化,就像最近Sam说的一样,希望GPT-5的出现能让模型微调失去意义;这样OpenAI就变成了完完全全的SaaS服务。