# LiveInterviewAIBack
**Repository Path**: Oliver131/live-interview-ai-back
## Basic Information
- **Project Name**: LiveInterviewAIBack
- **Description**: LiveInterviewAI的后端实现
- **Primary Language**: Unknown
- **License**: MIT
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 1
- **Forks**: 1
- **Created**: 2026-04-01
- **Last Updated**: 2026-04-08
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
---
## 📦 项目结构
本仓库包含以下三个后端模块:
- **ASR**:语音识别服务(SenseVoice)
- **TTS**:语音合成服务(CosyVoice)
- **COMP**:数字人驱动 / 推理服务(SoulX-FlashHead)
---
## 🌟 前端项目地址
[LiveInterviewAI前端开源地址](https://gitee.com/Oliver131/live-interview-ai)
---
## 🖥️ 硬件环境要求
> 推荐在 **Ubuntu** 环境下运行,Windows 可用但兼容性与略逊。
| 项目 | 配置 |
|------|------|
| 操作系统 | Ubuntu / Windows |
| 推荐系统 | Ubuntu |
| 显卡 | RTX 4090 |
| CUDA | 12.8+ |
---
## 🚀 快速开始
建议分别为三个模块创建独立的 Python 虚拟环境,避免依赖冲突。
---
## 1️⃣ ASR 后端部署(SenseVoice)
### 进入目录
```bash
cd SenseVoice
```
### 创建虚拟环境
```bash
conda create -n sensevoice python=3.10 -y
conda activate sensevoice
pip install -r requirements.txt
```
### 启动服务
初次启动需要下载模型,需要等待较长时间
```bash
python server.py
```
---
## 2️⃣ TTS 后端部署(CosyVoice)
### 进入目录
```bash
cd CosyVoice
```
### 创建虚拟环境
```bash
conda create -n cosyvoice python=3.10 -y
conda activate cosyvoice
pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com
pip uninstall setuptools
pip install "setuptools<82"
pip install openai-whisper==20231117
```
### 安装系统依赖(Ubuntu)
```bash
sudo apt-get install sox libsox-dev
```
### 下载模型
执行以下 Python 代码下载模型:
```python
from modelscope import snapshot_download
snapshot_download(
'FunAudioLLM/Fun-CosyVoice3-0.5B-2512',
local_dir='pretrained_models/Fun-CosyVoice3-0.5B'
)
```
### 启动服务
```bash
python server.py
```
---
## 3️⃣ COMP 后端部署(SoulX-FlashHead)
### 进入目录
```bash
cd SoulX-FlashHead
```
### 创建虚拟环境
```bash
conda create -n flashhead python=3.10 -y
conda activate flashhead
pip install torch==2.7.1 torchvision==0.22.1 --index-url https://download.pytorch.org/whl/cu128
pip install -r requirements.txt
pip install ninja
```
### 安装 FlashAttention
```bash
pip install flash_attn==2.8.0.post2 --no-build-isolation
```
如果下载速度较慢,可以直接下载已编译好的 whl 文件后手动安装:
[FlashAttention v2.8.0.post2 Releases](https://github.com/Dao-AILab/flash-attention/releases/tag/v2.8.0.post2)
### 安装 FFmpeg
```bash
# Ubuntu / Debian
apt-get install ffmpeg
# CentOS / RHEL
yum install ffmpeg ffmpeg-devel
```
### 启动服务
初次启动需要下载模型,需要等待较长时间
```bash
python server.py
```
---
## 🧩 模块说明
| 模块 | 目录 | 说明 |
|------|------|------|
| ASR | `SenseVoice` | 负责语音识别 |
| TTS | `CosyVoice` | 负责语音合成 |
| COMP | `SoulX-FlashHead` | 负责数字人生成与驱动 |
---
## 📌 部署建议
- 推荐使用 **Conda** 为每个模块维护独立环境
- 建议优先在 **Ubuntu + CUDA 12.8+** 环境下运行
- `COMP` 模块对 GPU、CUDA、PyTorch、FlashAttention 版本较为敏感,建议严格按照说明安装
- 若出现依赖冲突,请优先检查 Python、Torch、CUDA 是否匹配
---
## 🙏 Acknowledgements
本项目基于以下优秀开源项目构建,感谢相关作者与社区的贡献:
- [SenseVoice](https://github.com/FunAudioLLM/SenseVoice)
- [CosyVoice](https://github.com/FunAudioLLM/CosyVoice)
- [SoulX-FlashHead](https://github.com/Soul-AILab/SoulX-FlashHead?tab=readme-ov-file)
---