# pytvzhen **Repository Path**: kin_professor/pytvzhen ## Basic Information - **Project Name**: pytvzhen - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2024-05-05 - **Last Updated**: 2024-05-05 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

Pytvzhen

最快的英文视频转中文方案

[![演示视频](https://img.shields.io/badge/点击观看-演示视频-red?style=for-the-badge&logo=bilibili)](https://www.bilibili.com/video/BV1JZ421E71G/) [![Bilibili](https://img.shields.io/badge/Bilibili-蓝色硫酸铜-FF69B4?style=flat&logo=bilibili)](https://space.bilibili.com/278134) ![Windows Supported](https://img.shields.io/badge/Windows-Supported-brightgreen) ![Linux Supported](https://img.shields.io/badge/Linux-Supported-brightgreen)
--- # 说明 本项目能够快速地将英文视频转换为中文视频,本项目的特点在于其速度快体现在整个运作流程之上,而不是某一单一节点。以往的其他方案文本翻译质量很差,90%的时间都消耗在人工文本校对和重新翻译之上。本方案的特点在于文本翻译质量极高,需要校对的时间特别少,因此能够快速出视频。
本方案优势: - 文本翻译质量高,节约了其他方案中占比约90%的人工文本校对和翻译时间。 - 可以从任意步骤开始,因为每一步骤都生成文件且串行执行,下一步就依赖于上一步骤执行的文件。 - 正如上一步所说的串行执行优点代码结构清晰,可以摘取任意一段为己所用。

Flowchart


本方案缺陷: - 作者比较懒,没有时间做易用性调整。所以一些自定义的修改功能需要去源码里面查找。 - 你需要一张英伟达显卡。通过修改源码可以实现在CPU上跑。 # 目录 - [依赖](#依赖) - [流程说明](#流程说明) - [流程列表](#流程列表) - [json全参数说明](#json全参数说明) - [工作流程](#工作流程) # 依赖 (整合包用户可以忽略环境依赖,直接运行run.bat即可。如果想直接运行exe,仅需安装ffmpeg并添加环境变量) 首先,你需要一张英伟达显卡,因为作者比较懒只做了cuda的兼容。 安装依赖需要:requirements.txt中的各种依赖,pythorch库,ffmpeg(可选)。本工程Python 3.9.19上验证。另外如果你想体验完整的工作流程,推荐下载一个字幕文件编辑器,尽管本程序用不到,但是在转换视频的工作中,你一定用得到,我使用Aegisub。 1、各种基本库安装 `` pip install -r requirements.txt `` 2、ffmpeg安装 ffmpeg按照后添加到环境变量中,自行搜索安装ffmpeg。 3、pytorch安装 在[点击这里](https://pytorch.org/get-started/locally/),选择合适的安装版本,**必须要选择gpu版!!!!** 原因是作者偷懒没有做cpu方案,其实如果你愿意,改几行源码实现在CPU上跑应该也不难。 4、其他依赖 因为本项目依赖[faster-whisper](https://github.com/SYSTRAN/faster-whisper/),所以下载模型的时候国内可能会比较慢,甚至无法下载!!可执行文件版本在`faster-whisper_models`目录自带模型(应该吧)。另外本项目的release会提供模型压缩包,源码用户可以解压在faster-whisper_models目录中,使得目录结构为: ``` faster-whisper_models |-models--Systran--faster-whisper-base.en |-models--Systran--faster-whisper-medium |-... ``` # 快速使用 由于作者偷懒,根本没有做什么易用性,所以这个快速使用也不会有多快。 1. 找到example里面的paramDict.json,拷贝一份。 2. "proxy"选择为自己的代理ip+端口,没有的话就留空。 3. "video Id"选择为油管视频id。 4. "work path"工作目录 5. "audio remove model path"选择去背景音模型。models目录下提供了一个基本可用的模型baseline.pth 6. (可选)将"srt merge translate tool"指定为deepl,并在"srt merge translate key"中输入deepl的api key。强烈推荐!!deepl的翻译准确度很高,可以为你节省很多时间。 7. 可执行文件打包版本运行:pytvzhen。源码版本运行:`python work_space.py`运行脚本,并输入你刚刚修改的脚本 ## 重要产物 - [video id]_zh.wav 视频的中文音频。 - [video id]_zh_merge.srt 生成中文配音的源文件。 - [video id]_preview.mp4 预览视频。 - [video id]_zh.srt 中文视频的字幕。 - [video id].mp4 下载的原始视频文件。 - diagnosis.log 诊断日志。 - [video id]_zh_merge.srt文件是配音生成的基础,字幕的时间戳对应配音的时间戳,字幕的长度对应配音的长度。[video id]_zh.srt是生成完整的中文语音之后,再通过AI识别出的字幕。 execute_xxx.log 可以检查每一步的执行情况。 diagnosis.log 诊断日志,主要反映视频生成中文语音过程中,内容上疑似有问题的地方。 ## 快速使用常见问题 抱错: [WORK x] Error: Program blocked while transcribing audio from.....pass 'local_files_only=False' as input. 处理: 这是因为国内faster-whisper下载模型受阻导致的,修复这一问题有散个选择:1、下载release中的模型,放置在faster-whisper_models目录下。2、自己科学上网下载,放置在faster-whisper_models目录。3、科学上网,让程序自动下载。 # 流程说明 本项目流程串行执行后面的流程,依赖前面流程输出的文件。通过配置输入的Json文件,可以开关相应的流程。 ## 流程列表 下面几乎所有的流程都会依赖这"video Id"和"work path"参数,所以在参数依赖说明中就省略了。 以下使用“[video id]”代替油管视频ID ### 下载视频 - 流程开关:"download video" - 依赖参数:"proxy" - 输入文件:无 - 输出文件:[video id].mp4 顾名思义从从管上下载视频。本流程将会选择一个清晰度最高且具有音频的视频流,该视频通常为720p。"proxy"参数选择带给路径。 ### 下载高清视频 - 流程开关:"download fhd video" - 依赖参数:"proxy" - 输入文件:无 - 输出文件:[video id]_fhd.mp4 油管下载下来的720以上视频是不带音频的,为此专门提供了一个步骤单独下载1080p的视频,以此方便最终的视频合成,此视频文件不会被其他流程所使用到。 ### 音频提取 - 流程开关:"extract audio" - 依赖参数:无 - 输入文件:[video id].mp4 - 输出文件:[video id].wav 单独提取视频的音频轨道。 ### 人声分离 - 流程开关:"audio remove" - 依赖参数:"audio remove model path" - 输入文件:[video id].wav - 输出文件:[video id]_voice.wav,[video id]_insturment.wav 将人声与背景音乐分离。"audio remove model path"参数选择模型路径.为了方便广大用户,在models路径下有一个初步能用的模型。 ### 英文语音转字幕 - 流程开关:"audio transcribe" - 依赖参数:"audio transcribe model" - 输入文件:[video id]_voice.wav - 输出文件:[video id]_en.srt 使用stable-ts(whisper的一个改进)将英文语音转换为字幕文件。这里选择的模型实际上是whisper的模型名称,可选"tiny.en","tiny","base.en","base","small.en","small","medium.en","medium","large","large-v2","large-v3"。 需要说明的是点en结尾的为纯英文模型,只能识别英文,这类模型在英语转字幕中具有优势。如果不差显存不差时间,推荐"medium.en"。英文推荐使用"base.en",中文推荐使用"medium"。大于"base.en"的英文模型可能会出现无法识别部分英文的问题。 ### 英文字幕合并 - 流程开关:"srt merge" - 依赖参数:无 - 输入文件:[video id]_en.srt - 输出文件:[video id]_en_merge.srt 这一步骤中将英文字幕合并成句子,使得字幕文件的每一行都代表一整个英文句子。这一步正是此方案中翻译准确率高的关键。 ### 英文合并字幕转文字 - 流程开关:"srt merge en to text" - 依赖参数:无 - 输入文件:[video id]_en_merge.srt - 输出文件:[video id]_en_merge.txt 这是一个没啥用的流程,只是为了方便大家看英文原文而已。 ### 字幕翻译 - 流程开关:"srt merge translate" - 依赖参数:"proxy","srt merge translate tool","srt merge translate key" - 输入文件:[video id]_en_merge.srt - 输出文件:[video id]_zh_merge.srt 将字幕文件送给谷歌或者Deepl进行翻译,取决于"srt merge translate tool"。至于为什么不选其他的翻译软件?我试过了效果都不好。强烈推荐Deepl!!!虽然Deepl需要"srt merge translate key",但是准确率高,可以减少人工介入。这一步骤生成的文件特别重要,不出意外,你校对完成之后修改的就是[video id]_zh_merge.srt,然后从[video id]_zh_merge.srt步开始重新生成语音的。 ### 中文合并字幕转文字 - 流程开关:"srt merge zh to text" - 依赖参数:无 - 输入文件:[video id]_zh_merge.srt - 输出文件:[video id]_zh_merge.txt 这是一个没啥用的流程,只是为了方便大家看中文译文而已。 ### 中文合并字幕转语音 - 流程开关:"srt to voice srouce" - 依赖参数:"TTS","TTS param" - 输入文件:[video id]_zh_merge.txt - 输出文件:[video id]_zh_source目录 这是一部是通过字幕文件转换成语音片段,可以选择"GPT-SoVITS"或者"edge"。 edge模式下,"TTS param"为角色名称,不填则使用默认角色。 GPT-SoVITS模式下,"TTS param"为GPT-SoVITS服务地址,具体参考[GPT-SoVITS](https://github.com/RVC-Boss/GPT-SoVITS)项目。 推荐使用edge-TTS。GPT-SoVIT这个方案我虽然做了,但是根据实用来看并不是很实用,就当前这个时间点而言,其输出的音频并不是特别稳定,有时候还需要抽卡,至少我经常收到没有声音的音频。而这种自动化的流程无法判别你输出的音频质量是否符合视频要求。 ### 语音片段合并 - 流程开关:"voice connect" - 依赖参数:无 - 输入文件:[video id]_zh_source目录 - 输出文件:[video id]_zh.wav 将语音片段合成为完整的语音。需要注意的是,该过程会根据“[video id]_zh_source目录/voiceMap.srt”字幕文件中原语句出现的位置放置语音。也就是说其语音开始播放的位置与字幕开始的时间相同。这同时也会导致一个问题,如果最后一句的字幕长度不足,则语音的最后一句可能会被截断。 #### 中文语音转字幕 - 流程开关:"audio zh transcribe" - 依赖参数:"audio zh transcribe model" - 输入文件:[video id]_zh.wav - 输出文件:[video id]_zh.srt 需要这一步骤的主要原因是之前的中文字幕文件都是以一句一句作为分割,作为字幕来讲可能太长了,所以这里重新生成一份字幕文件。模型推荐使用"medium"。 #### 视频预览 - 流程开关:"video zh preview" - 依赖参数:无 - 输入文件:[video id].mp4 [video id]_zh.wav [video id]_insturment.wav - 输出文件:[video id]_preview.mp4 这一部是生成一个简易预览视频,方便查看最终效果。需要注意的是,程序默认优先使用高清视频进行合成,如果想优先使用低清视频,可以修改代码。 # json全参数说明 参考paramDictTemplate的注释即可 ```python paramDictTemplate = { "proxy": "127.0.0.1:7890", # 代理地址,留空则不使用代理 "video Id": "VIDEO_ID", # 油管视频ID "work path": "WORK_PATH", # 工作目录 "download video": True, # [工作流程开关]下载视频 "download fhd video": True, # [工作流程开关]下载1080p视频 "extract audio": True, # [工作流程开关]提取音频 "audio remove": True, # [工作流程开关]去除音乐 "audio remove model path": "/path/to/your/audio_remove_model", # 去音乐模型路径 "audio transcribe": True, # [工作流程开关]语音转文字 "audio transcribe model": "base.en", # [工作流程开关]英文语音转文字模型名称 "srt merge": True, # [工作流程开关]字幕合并 "srt merge en to text": True, # [工作流程开关]英文字幕转文字 "srt merge translate": True, # [工作流程开关]字幕翻译 "srt merge translate tool": "google", # 翻译工具,目前支持google和deepl "srt merge translate key": "", # 翻译工具的key "srt merge zh to text": True, # [工作流程开关]中文字幕转文字 "srt to voice srouce": True, # [工作流程开关]字幕转语音 "TTS": "edge", # [工作流程开关]合成语音,目前支持edge和GPT-SoVITS "TTS param": "", # TTS参数,GPT-SoVITS为地址,edge为角色。edge模式下可以不填,建议不要用GPT-SoVITS。 "voice connect": True, # [工作流程开关]语音合并 "audio zh transcribe": True, # [工作流程开关]合成后的语音转文字 "audio zh transcribe model": "medium", # 中文语音转文字模型名称 "video zh preview": True # [工作流程开关]视频预览 } ``` ## 需要特别说明的参数 "proxy" 如果留空则不使用代理。 "download fhd video" 我们总是希望自己转换出来的视频,高清又好看,但是油管下载下来的720以上视频是不带音频的,为此专门提供了一个步骤单独下载1080p的视频。这个步骤特别容易出现问题,比如说视频本身没有1080p。但是好在这个下载下来的全高清视频并不会参与之后的工作流程,只会影响到你最后人工视频合成那一步有没有好看的素材。 "audio remove model path" models目录下提供了一个基本可用的模型baseline.pth "GPT-SoVITS url" 留空使用dege-TTS。输入GPT-SoVIT项目的服务器地址,则使用[GPT-SoVIT](https://github.com/RVC-Boss/GPT-SoVITS)项目进行文字转语音配音。这个方案我虽然做了,但是根据实用来看并不是很实用,就当前这个时间点而言,其输出的音频并不是特别稳定,有时候还需要抽卡,至少我经常收到没有声音的音频。而这种自动化的流程无法判别你输出的音频质量是否符合视频要求。 # 工作流程 你应该也看到了,在一个example目录下,我们还提供1.json和1.json,这两个是我常用的。一般转换一个视频,我通过以下几个步骤就完成了。以下使用“[video id]”代替油管视频ID 1. 使用1.json下载视频并完成转换。 2. [video id]_zh.srt+[video id].wav+[video id].mp4(或者[video id]_fhd.mp4)初步完成视频并校对。 3. 校对发现问题则修改:[video id]_zh_merge.srt。校对过程几乎一定会发现问题。 4. 使用2.json再次生成音频。 5. [video id]_zh.srt+[video id].wav+[video id].mp4(或者[video id]_fhd.mp4)+[video id]_insturment.wav合成视频。 # 主要上游开源项目 - [pytube](https://github.com/pytube/pytube) - [ffmpeg](https://ffmpeg.org/) - [faster-whisper](https://github.com/SYSTRAN/faster-whisper) - [whisper](https://github.com/openai/whisper) - [vocal-remover](https://github.com/tsurumeso/vocal-remover/releases) - [srt](https://srt.readthedocs.io/en/latest/api.html) - [pygtrans](https://github.com/foyoux/pygtrans) - [edge-tts](https://github.com/hasscc/hass-edge-tts) - [GPT-SoVITS](https://github.com/RVC-Boss/GPT-SoVITS) - [moviepy](https://github.com/Zulko/moviepy) - [pywavfile](https://github.com/chummersone/pywavfile/)