Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

语音克隆

Answer

GPT-SoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用步骤:

特点:

  1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。
  2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。
  3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。
  4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。
  5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。
  6. 提供预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。

使用步骤:

  1. 前置数据获取处理:
    • 选择音频,开启切割。
    • 有噪音时,进行降噪处理。
    • 降噪处理完成,开启离线 ASR。
  2. GPT-Sowits-TTS:
    • 训练集格式化:开启一键三连,耐心等待。
    • 微调训练:开启 SoVITS 训练和 GPT 训练。
    • 推理:开始推理 - 刷新模型 - 选择微调后的模型 - yoyo。
  3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。

相关资源:

  • GitHub:https://github.com/RVC-Boss/GPT-SoVITS
  • 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/
  • 注册 colab 并启动准备:点击进入按照步骤注册即可 https://colab.research.google.com/#scrollTo=Wf5KrEb6vrkR&uniqifier=2 ,新建笔记本,运行脚本启动 GPT-So VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行;运行过程包括克隆项目代码库、进入项目目录、安装 Python 依赖包、安装系统依赖、下载 NLTK 资源、启动 Web UI,运行成功后出现 public URL。

实践样本:

Content generated by AI large model, please carefully verify (powered by aily)

References

GPT-SoVITS实现声音克隆

GPT-SoVITS:只需1分钟语音即可训练一个自己的TTS模型。GPT-SoVITS是一个声音克隆和文本到语音转换的开源Python RAG框架。5秒数据就能模仿你,1分钟的声音数据就能训练出一个高质量的TTS模型,完美克隆你的声音!根据演示来看完美适配中文,应该是目前中文支持比较好的模型。界面也易用。主要特点:1、零样本TTS:输入5秒的声音样本即可体验即时的文本到语音转换。2、少量样本训练:只需1分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。3、易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和GPT/SoVITS模型。4、适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括Windows。5、预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。GitHub:[https://github.com/RVC-Boss/GPT-SoVITS](https://t.co/BpHX4SlsO3)[…](https://t.co/BpHX4SlsO3)视频教程:[https://bilibili.com/video/BV12g4y1m7Uw/](https://t.co/Uo7WtSSUGO)[…](https://t.co/Uo7WtSSUGO)[[twi]@小互(@_twi(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RymsbKdweody4Cxwtsqc7Yuenxd?allow_redirect=1)使用:

GPT-SoVITS-实现 AIyoyo 声音克隆

[heading4]有噪音时,进行降噪处理[content][heading4]降噪处理完成,开启离线ASR[content][heading3]三、GPT-Sowits-TTS[heading4]训练集格式化:开启一键三连,耐心等待即可[content]1.[heading4]微调训练[content]1.开启SoVITS训练,&开启GPT训练[heading4]推理[content]1.开始推理-刷新模型-选择微调后的模型-yoyo[heading4]成功[content]出现新的URL,说明你自己的声音微调完毕,然后可以进行啦[heading3]四、声音复刻[heading4]开启声音复刻之旅吧[content]1.实现跨多语种语言的声音,不是梦[heading4]实践的样本[content]AIyoyo普通话-满江红[满江红普通话。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwbkbzYu0AQ8AbQYrAGo)AIyoyo粤语版-满江红[满江红粤语。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwsRaRfHrAQ8AbQYrAGo)

GPT-SoVITS-实现 AIyoyo 声音克隆

?一键启动GPT-SoVITS让声音克隆变得简单至极,只需轻触,即启动个性化声音之旅。?创意无限AI技术不仅简化了声音克隆过程,更拓展了声音应用的边界,激发无限想象。?让AI成为你声音的画笔,绘制出独一无二的声音艺术作品。接下来一起,探索声音克隆的无限可能!开源项目:https://github.com/RVC-Boss/GPT-SoVITS[heading3]一、注册colab,启动准备[content]点击进入按照步骤注册即可[https://colab.research.google.com/#scrollTo=Wf5KrEb6vrkR&uniqifier=2](https://colab.research.google.com/#scrollTo=Wf5KrEb6vrkR&uniqifier=2)[heading4]新建笔记本[content][heading4]运行脚本启动GPT-So VITS[content]整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段段运行;[https://colab.research.google.com/drive/1Z4p4NTR7GYlQTn_MdMen9Xgul-V0CHza?usp=sharing](https://colab.research.google.com/drive/1Z4p4NTR7GYlQTn_MdMen9Xgul-V0CHza?usp=sharing)运行过程克隆项目代码库进入项目目录安装Python依赖包安装系统依赖下载NLTK资源启动Web UI[heading4]运行成功后出现public URL[content][heading4]训练音频准备与上传[content]

Others are asking
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 跨语言支持:支持英语、日语和中文等不同语言的推理。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,方便初学者创建训练数据集和模型。 适用于不同操作系统:可在包括 Windows 在内的多种操作系统上安装和运行。 提供预训练模型:可直接下载使用。 使用: 开源数字人组合方案: 第一步:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或 GPTSoVITS 克隆声音,做出文案的音频。 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。 GPTSoVITS 实现 AIyoyo 声音克隆: 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR 。 GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo 。成功后会出现新的 URL ,表示声音微调完毕。 声音复刻:可实现跨多语种语言的声音,如 AIyoyo 普通话 满江红 。 GitHub 地址: 。
2025-04-18
coze 语音克隆
以下是关于语音克隆的相关信息: 有一款适合小白用户的开源数字人工具,具有以下特点和功能: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G + 3G 语音模型包,启动模型即可。 GitHub 链接: 官网链接: 另外,CosyVoice 声音克隆仅需几秒音频样本,无需额外训练数据,可控制情绪情感、语速、音高。 详细内容:https://xiaohu.ai/p/10954 项目地址:https://funaudiollm.github.io 在线演示:https://modelscope.cn/studios/iic/CosyVoice300M
2025-04-12
我想找一个克隆声音的网站
以下是一些可以克隆声音的网站: Elevenlabs.io speechify.com https://klingai.kuaishou.com/ Fish Audio:https://fish.audio/zhCN/train/newmodel/ (操作步骤:准备一段需要克隆的音频,打开网站上传音频,按照指引完成声音克隆,进入声音库选择需要使用的声音,输入文案生成音频文件并下载备用)
2025-03-31
比较适合语音克隆的有哪些AI
以下是一些适合语音克隆的 AI: :能将书面内容转化为引人入胜的音频,并实现无缝分发。 :提供专业音频、语音、声音和音乐的扩展服务。 (被 Spotify 收购):提供完全表达的 AI 生成语音,带来引人入胜的逼真表演。 :利用合成媒体生成和检测,带来无限可能。 :一键使您的内容多语言化,触及更多人群。 :生成听起来真实的 AI 声音。 :为游戏、电影和元宇宙提供 AI 语音演员。 :为内容创作者提供语音克隆服务。 :超逼真的文本转语音引擎。 :使用单一 AI 驱动的 API 进行音频转录和理解。 :听起来像真人的新声音。 :从真实人的声音创建逼真的合成语音的文本转语音技术。 :生成听起来完全像你的音频内容。 此外,还有以下相关信息: DubbingX2.0.3 中的海螺 AI 配音可以进行语音克隆,操作时需上传语音、命名声音、选择语言,原音频若有背景音乐最好在剪影中去除以保证生成的音色模型效果好且纯净。去除原音频背景杂音可通过打开剪映,按以下步骤操作:打开剪映,点击开始创作,导入原始音频或视频。 StepAudio:130B 语音文本多模态模型开源,集成语音识别、语义理解、对话生成、语音克隆、音频编辑、语音合成等功能,成本低质量高的语音克隆,支持“蒸馏”技术简化为更轻量版。
2025-03-31
克隆声音
以下是关于克隆声音的相关内容: 开源的数字人组合方案中,克隆声音的步骤如下: 1. 先剪出音频,可使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits(https://waytoagi.feishu.cn/wiki/SVyUwotn7itV1wkawZCc7FEEnGg )克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。产品可参考 https://synclabs.so/ 。 在剪映中克隆声音的步骤: 1. 打开剪映,点击左上角菜单——文本,从默认文本开始,在右边文本框输入文字。 2. 输入文字后,点击上面的菜单栏——朗读,会看到克隆音色和文本朗读两个按钮。 3. 克隆音色步骤:点击克隆音色——点击克隆。如果使用电脑版演示,未检测到麦克风时无法录制,手机版可直接点击下面的按钮开始录制。 4. 文本朗读:直接把输入的文本转换成剪映系统自带的各种成品音色,选择合适的音色,点击开始朗读即可生成。 5. 最后,删除输入的文本。 另外,还有配音工具 DubbingX 也可用于配音。
2025-03-31
想要生成克隆某个人的声音,然后做成视频,怎么做
要生成克隆某个人的声音并做成视频,您可以按照以下步骤进行操作: 声音克隆: 1. 准备一段需要克隆的音频(可以是类似屈原的古风声音,或自行录制一段)。 2. 打开网站:https://fish.audio/zhCN/train/newmodel/ 。 3. 上传准备好的音频,按照指引完成声音克隆。 4. 进入声音库选择需要使用的声音,将第一步生成的文案输入,使用克隆好的声音生成对应的音频文件。 5. 下载生成的音频文件备用。 视频合成: 1. 在网上下载“回答我”的原视频。 2. 打开 Viggle.ai 网站,登录后进入视频合成功能:https://viggle.ai/createmix 。 3. 上传“回答我”原视频和第二步生成的人物形象图,生成新版本的“回答我”视频。 4. 预览效果,满意后下载合成好的新视频。 视频剪辑: 1. 打开剪映软件(手机或电脑版均可)。 2. 导入第二步合成好的新视频和第一步生成的音频文件。 3. 将音频与视频时间轴对齐,确保声音和画面同步,添加字幕等。 4. 如需叠加特殊背景,可以导入自己的背景图(如楚国风景)。 5. 预览整个视频,检查效果,微调后导出最终视频(建议 MP4 格式)。 此外,您还可以参考以下工具: 数字人工具:开源且适合小白用户,特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS。模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤:下载 8G+3G 语音模型包,启动模型即可。GitHub:https://github.com/modstartlib/aigcpanel 官网:https://aigcpanel.com 。 希望这些信息对您有所帮助。
2025-03-30
文字转语音
以下是关于文字转语音的相关内容: DubbingX2.0.3: 界面与国内版相同,使用了沉浸式翻译功能,可能看起来较乱。 第一个选项是文字转语音,与国内版相同,不做重复演示。 重点介绍第二项“创建您的语音克隆”: 上传语音(想克隆的声音原始文件)。 给声音命名,方便以后配音选择。 选择语言。 勾选相关选项,点击转变即可生成。 注意:原音频若有背景音乐,最好在剪影中去除,以使生成的音色模型效果更好、更纯净。 Hedra: 可以直接文字转语音,目前有 6 个语音。 也可以直接上传音频。
2025-04-11
语音转文字
以下是关于语音转文字的相关信息: 推荐使用 OpenAI 的 wishper 进行语音转文字,相关链接:https://huggingface.co/openai/whisperlargev2 。一分钟搞定 23 分钟的音频,相关链接:https://huggingface.co/spaces/sanchitgandhi/whisperjax 。此项目在 JAX 上运行,后端支持 TPU v48,与 A100 GPU 上的 PyTorch 相比,快 70 多倍,是目前最快的 Whisper API 。 语音转文本(Speech to text): 介绍:语音转文本 API 提供转录和翻译两个端点,基于开源大型v2 Whisper 模型。可用于将音频转录为任何语言,将音频翻译并转录成英语。目前文件上传限制为 25MB,支持 mp3、mp4、mpeg、mpga、m4a、wav 和 webm 等输入文件类型。 快速入门: 转录:转录 API 的输入是要转录的音频文件及所需输出格式的音频文字稿,默认响应类型为包含原始文本的 JSON,可添加更多带有相关选项的form 行设置其他参数。 翻译:翻译 API 输入任何支持语言的音频文件,必要时转录成英语,目前仅支持英语翻译。 更长输入:默认 Whisper API 仅支持小于 25MB 的文件,若音频文件更长,需分成小于 25MB 的块或使用压缩后格式,可使用 PyDub 开源 Python 软件包拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。 提示:可使用提示提高 Whisper API 生成的转录质量,如改善特定单词或缩略语的识别、保留分段文件的上下文、避免标点符号的省略、保留填充词汇、处理不同书写风格等。
2025-04-08
实时翻译视频语音
以下是为您整理的相关信息: 实时翻译视频语音的工具: StreamSpeech:这是一个实时语言翻译模型,能够实现流媒体语音输入的实时翻译,输出目标语音和文本,具有同步翻译、低延迟的特点,还能展示实时语音识别结果。 给视频配音效的 AI 工具: 支持 50 多种语言的配音,音质自然流畅,提供实时配音功能,适用于直播和演讲,能将语音转录为文本,方便后期字幕制作和编辑。 Vidnoz AI:支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,提供面向个人和企业的经济实惠的定价方案。 在选择视频配音工具时,请考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-04-07
文本转语音
以下是关于文本转语音的相关信息: 在线 TTS 工具推荐: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 Voicemaker:https://voicemaker.in/ ,可将文本转换为各种区域语言的语音,并允许创建自定义语音模型,易于使用,适合为视频制作画外音或帮助视障人士。 语音合成技术原理: 传统的语音合成技术一般会经过以下三个步骤: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后一次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 OpenAI 新一代音频模型: OpenAI 于 2025 年 3 月 20 日推出了全新的音频模型,包括改进的语音转文本和文本转语音功能。 语音转文本模型在单词错误率和语言识别准确性方面相较于原有的 Whisper 模型有显著提升,能更好地捕捉语音细节,减少误识别,在多语言评估基准上表现优异。 文本转语音模型具备更高的可定制性,支持个性化语音风格,目前支持人工预设的语音样式,并通过监控确保语音与合成预设一致。 测试地址:https://www.openai.fm/ 直播回放:https://www.youtube.com/watch?v=lXb0L16ISAc 说明文档:https://openai.com/index/introducingournextgenerationaudiomodels/ 内容由 AI 大模型生成,请仔细甄别。
2025-04-01