当前仓库属于暂停状态,部分功能使用受限,详情请查阅 仓库状态说明
41 Star 395 Fork 244

GVPAscend/MindSpeed-MM
暂停

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
.gitee
.本项目已经正式迁移至 Gitcode 平台
checkpoint
ci
docs
examples
JanusPro
cogvideox
dancegrpo
deepseekvl2
diffusers
glm4.1v
hunyuanvideo
internvl2.5
internvl2
internvl3
llava1.5
lumina/mgpt2
mindspore
ming
opensora1.0
opensora1.2
opensora2.0
opensoraplan1.2
opensoraplan1.3
opensoraplan1.5
qihoo_t2x
qwen2.5omni
README.md
data_7b.json
finetune_qwen2_5_omni_7b.sh
model_7b.json
qwen2.5vl
qwen2vl
qwen3vl_dev
rl
stepvideo
vae
verl_plugin
videoalign
wan2.1
whisper
mindspeed_mm
sources
tests
.gitignore
LICENSE
MANIFEST.in
OWNERS
README.md
Third-Party Open Source Software Notice.txt
evaluate_gen.py
evaluate_vlm.py
inference_qihoo.py
inference_sora.py
inference_videoalign.py
inference_vlm.py
posttrain_flux_dancegrpo.py
posttrain_qwen2vl_dpo.py
posttrain_sora_dpo.py
posttrain_vlm_dapo.py
posttrain_vlm_grpo.py
pretrain_ae.py
pretrain_deepseekvl.py
pretrain_internvl.py
pretrain_llava.py
pretrain_lumina.py
pretrain_qwen2vl.py
pretrain_sora.py
pretrain_videoalign.py
pretrain_vlm.py
pretrain_whisper.py
pyproject.toml
克隆/下载
贡献代码
同步代码
Loading...
README

Qwen2_5_Omni 使用指南

目录

版本说明

参考实现

url=https://github.com/hiyouga/LLaMA-Factory.git
commit_id=52f2565
# transformers版本
url=https://github.com/huggingface/transformers.git
commit_id=7bb619d

变更记录

2025.06.05: 首次支持Qwen2.5-Omni模型


模型介绍

Qwen 2.5-Omni是一个端到端的多模态大语言模型,旨在感知包括文本、图像、音频和视频在内的多种模态,同时以流式的方式生成文本和自然语音响应。

参考实现

https://github.com/hiyouga/LLaMA-Factory
commit id: 52f25651a2016ddede2283be17cf40c2c1b906ed

环境安装

1. 环境准备

【模型开发时推荐使用配套的环境版本】

请参考安装指南,完成昇腾软件安装。

2. 环境搭建

git clone https://gitee.com/ascend/MindSpeed-MM.git
git clone https://github.com/NVIDIA/Megatron-LM.git
cd Megatron-LM
git checkout core_v0.12.1
cp -r megatron ../MindSpeed-MM/
cd ..
cd MindSpeed-MM
mkdir logs data ckpt
# 安装加速库
git clone https://gitee.com/ascend/MindSpeed.git
cd MindSpeed
# checkout commit from MindSpeed core_r0.12.1
git checkout 5176c6f5f133111e55a404d82bd2dc14a809a6ab
# 安装mindspeed及依赖
pip install -e .
cd ..
# 安装mindspeed mm及依赖
pip install -e .
# 安装librosa,用于音频解析
pip install librosa


权重下载及转换

1. 权重下载

从Huggingface库下载对应的模型权重:

将下载的模型权重保存到本地的ckpt/hf_path/Qwen2.5-Omni-7B目录下。

2. 权重转换(hf2mm)

MindSpeed-MM修改了部分原始网络的结构名称,使用mm-convert工具对原始预训练权重进行转换。该工具实现了huggingface权重和MindSpeed-MM权重的互相转换以及PP(Pipeline Parallel)权重的重切分。参考权重转换工具

  
# 7b
mm-convert  Qwen2_5_OmniConverter hf_to_mm \
  --cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
  --cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
  --cfg.parallel_config.llm_pp_layers [[11,17]] \
  --cfg.parallel_config.vit_pp_layers [[32,0]] \
  --cfg.parallel_config.audio_pp_layers [[32,0]] \
  --cfg.parallel_config.tp_size 1

# 其中:
# mm_dir: 转换后保存目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: tp并行数量,注意要和微调启动脚本中的配置一致

3. 权重转换(mm2hf)

MindSpeed MM修改了部分原始网络的结构名称,在微调后,如果需要将权重转回huggingface格式,可使用mm-convert权重转换工具对微调后的权重进行转换,将权重名称修改为与原始网络一致。

mm-convert  Qwen2_5_OmniConverter mm_to_hf \
  --cfg.save_hf_dir "ckpt/mm_to_hf/Qwen2.5-Omni-7B" \
  --cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
  --cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
  --cfg.parallel_config.llm_pp_layers [11,17] \
  --cfg.parallel_config.vit_pp_layers [32,0] \
  --cfg.parallel_config.audio_pp_layers [32,0] \
  --cfg.parallel_config.tp_size 1
# 其中:
# save_hf_dir: mm微调后转换回hf模型格式的目录
# mm_dir: 微调后保存的权重目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: tp并行数量,注意要和微调启动脚本中的配置一致

如果需要用转换后模型训练的话,同步修改examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh中的LOAD_PATH参数,该路径为转换后或者切分后的权重,注意与原始权重 ckpt/hf_path/Qwen2.5-Omni-7B进行区分。

LOAD_PATH="ckpt/mm_path/Qwen2.5-Omni-7B"

数据集准备及处理

1. 数据集下载(以coco2017数据集为例)

(1)用户需要自行下载COCO2017数据集COCO2017,并解压到项目目录下的./data/COCO2017文件夹中

(2)获取图片数据集的描述文件(LLaVA-Instruct-150K),下载至./data/路径下;

(3)运行数据转换脚本python examples/qwen2vl/llava_instruct_2_mllm_demo_format.py;

$playground
├── data
    ├── COCO2017
        ├── train2017

    ├── llava_instruct_150k.json
    ├── mllm_format_llava_instruct_data.json
    ...

当前支持读取多个以,(注意不要加空格)分隔的数据集,配置方式为data.json中 dataset_param->basic_parameters->dataset 从"./data/mllm_format_llava_instruct_data.json"修改为"./data/mllm_format_llava_instruct_data.json,./data/mllm_format_llava_instruct_data2.json"

同时注意data.jsondataset_param->basic_parameters->max_samples的配置,会限制数据只读max_samples条,这样可以快速验证功能。如果正式训练时,可以把该参数去掉则读取全部的数据。

2.纯文本或有图无图混合训练数据(以LLaVA-Instruct-150K为例)

现在本框架已经支持纯文本/混合数据(有图像和无图像数据混合训练)。

在数据构造时,对于包含图片的数据,需要保留image这个键值。

{
  "id": your_id,
  "image": your_image_path,
  "conversations": [
      {"from": "human", "value": your_query},
      {"from": "gpt", "value": your_response},
  ],
}

在数据构造时,对于纯文本数据,可以去除image这个键值。

{
  "id": your_id,
  "conversations": [
      {"from": "human", "value": your_query},
      {"from": "gpt", "value": your_response},
  ],
}

3.视频音频数据集

1)加载视频数据集

数据集中的视频数据集取自llamafactory,https://github.com/hiyouga/LLaMA-Factory/tree/main/data

视频取自mllm_video_demo,使用时需要将该数据放到自己的data文件夹中去,同时将llamafactory上的mllm_video_audio_demo.json也放到自己的data文件中

之后根据实际情况修改 data.json 中的数据集路径,包括 model_name_or_pathdataset_dirdataset 字段,并修改"attr"中 imagesvideos 字段,修改结果参考下图。

{
    "dataset_param": {
        "dataset_type": "huggingface",
        "preprocess_parameters": {
            "model_name_or_path": "./Qwen2.5-Omni-7B",
            ...
        },
        "basic_parameters": {
            ...
            "dataset_dir": "./data",
            "dataset": "./data/mllm_video_audio_demo.json",
            "cache_dir": "./data/cache_dir",
            ...
        },
        ...
        "attr": {
            "system": null,
            "images": null,
            "videos": "videos",
            "audios": "audios",
            ...
        },
    },
    ...
}
2)修改模型配置

在model_xxx.json中,修改img_context_token_id为下图所示:

"img_context_token_id": 151656

注意, image_token_idimg_context_token_id两个参数作用不一样。前者是固定的,是标识图片的 token ID,在qwen2_5_omni_get_rope_index中用于计算图文输入情况下序列中的图片数量。后者是标识视觉内容的 token ID,用于在forward中标记视觉token的位置,所以需要根据输入做相应修改。

微调

1. 准备工作

配置脚本前需要完成前置准备工作,包括:环境安装权重下载及转换数据集准备及处理,详情可查看对应章节。

2. 配置参数

【数据目录配置】

根据实际情况修改data.json中的数据集路径,包括model_name_or_pathdataset_dirdataset等字段。

以Qwen2.5Omni-7B为例,data.json进行以下修改,注意model_name_or_path的权重路径为转换前的权重路径。

注意cache_dir在多机上不要配置同一个挂载目录避免写入同一个文件导致冲突

{
    "dataset_param": {
        "dataset_type": "huggingface",
        "preprocess_parameters": {
            "model_name_or_path": "./ckpt/hf_path/Qwen2.5-Omni-7B",
            ...
        },
        "basic_parameters": {
            ...
            "dataset_dir": "./data",
            "dataset": "./data/mllm_format_llava_instruct_data.json",
            "cache_dir": "./data/cache_dir",
            ...
        },
        ...
    },
    ...
}

【模型保存加载及日志信息配置】

根据实际情况配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh的参数,包括加载、保存路径以及保存间隔--save-interval(注意:分布式优化器保存文件较大耗时较长,请谨慎设置保存间隔)

...
# 加载路径
LOAD_PATH="ckpt/mm_path/Qwen2.5-Omni-7B"
# 保存路径
SAVE_PATH="save_dir"
...
GPT_ARGS="
    ...
    --no-load-optim \  # 不加载优化器状态,若需加载请移除
    --no-load-rng \  # 不加载随机数状态,若需加载请移除
    --no-save-optim \  # 不保存优化器状态,若需保存请移除
    --no-save-rng \  # 不保存随机数状态,若需保存请移除
    ...
"
...
OUTPUT_ARGS="
    --log-interval 1 \  # 日志间隔
    --save-interval 5000 \  # 保存间隔
    ...
    --log-tps \  # 增加此参数可使能在训练中打印每步语言模块的平均序列长度,并在训练结束后计算每秒吞吐tokens量。
"

若需要加载指定迭代次数的权重、优化器等状态,需将加载路径LOAD_PATH设置为保存文件夹路径LOAD_PATH="save_dir",并修改latest_checkpointed_iteration.txt文件内容为指定迭代次数 (此功能coming soon)

$save_dir
   ├── latest_checkpointed_iteration.txt
   ├── ...

【单机运行配置】

配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh参数如下

# 根据实际情况修改 ascend-toolkit 路径
source /usr/local/Ascend/ascend-toolkit/set_env.sh
NPUS_PER_NODE=8
MASTER_ADDR=localhost
MASTER_PORT=29501
NNODES=1
NODE_RANK=0
WORLD_SIZE=$(($NPUS_PER_NODE * $NNODES))

注意,当开启PP时,model.json中配置的vision_encodertext_decoderpipeline_num_layer参数控制了各自的PP切分策略。对于流水线并行,要先处理vision_encoder再处理text_decoder。 比如7b默认的值[32,0,0,0][1,10,10,7],其含义为PP域内第一张卡先放32层vision_encoder再放1层text_decoder、第二张卡放text_decoder接着的10层、第三张卡放text_decoder接着的10层、第四张卡放text_decoder接着的7层,vision_encoder没有放完时不能先放text_decoder(比如[30,2,0,0][1,10,10,7]的配置是错的)

同时注意,如果某张卡上的参数全部冻结时会导致没有梯度(比如vision_encoder冻结时PP配置[30,2,0,0][0,11,10,7]),需要在finetune_qwen2_5_omni_7b.shGPT_ARGS参数中增加--enable-dummy-optimizer,参考dummy_optimizer特性文档

【重计算配置(可选)】 若要开启vit重计算,需在model.json中的vision_encoder部分添加下面三个重计算相关参数

{
  "model_id": "qwen2_5vl",
  "img_context_token_id": 151655,
  "vision_start_token_id": 151652,
  "image_encoder": {
    "vision_encoder": {
      "recompute_granularity": "full",
      "recompute_method": "uniform",
      "recompute_num_layers": 1
    }
  }
}

3. 启动微调

以Qwen2.5Omni-7B为例,启动微调训练任务。

bash examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh

异构并行微调

1. 准备工作

配置脚本前需要完成前置准备工作,包括:环境安装权重下载及转换数据集准备及处理,详情可查看对应章节。

其中“权重转换”需要根据设定的异构并行配置进行修改(当前仅支持DP和TP的异构并行),例如Vit模块和Audio模块不切分,llm模块按TP4进行切分时,权重转换脚本命令如下:

# 7b
mm-convert  Qwen2_5_OmniConverter hf_to_mm \
  --cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
  --cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
  --cfg.parallel_config.llm_pp_layers [[28]] \
  --cfg.parallel_config.vit_pp_layers [[32]] \
  --cfg.parallel_config.audio_pp_layers [[32]] \
  --cfg.parallel_config.tp_size 4 \
  --cfg.parallel_config.vit_tp_size 1 \
  --cfg.parallel_config.audio_tp_layers 1

# 其中:
# mm_dir: 转换后保存目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: 默认tp并行数量,注意要和微调启动脚本中的配置一致
# vit_tp_size: vit的tp并行数量,不配置时vit使用默认的tp并行数量
# audio_tp_layers: audio的tp并行数量,不配置时vit使用默认的tp并行数量

2. 配置参数

参考微调章节进行数据目录配置和模型保存加载等配置,需要注意的是在配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh时要增加--hetero-parallel开启异构并行训练;

注意llm的并行配置在finetune_qwen2_5_omni_7b.sh文件中定义,vit和audio的并行配置在model_7b.json文件中定义,vit和audio以及llm三者的gbs是一致的,需要关注llm的MBS配置; 例如vit和audio模块不切分,而llm采用tp4切分时,llm的MBS必须是自身TP的整数倍,以确保vit和audio的DP域能够均匀分配到整数的MBS值;

TP=4
PP=1
CP=1
MBS=4
...
GPT_ARGS="
    ...
    --hetero-parallel \  # 开启异构并行训练
    ...
"

【模型异构并行配置】

如需修改vit或audio的并行配置,需在model_7b.json中的image_encoder和audio_encoder部分修改对应的并行参数

{
    "image_encoder": {
        "vision_encoder": {},
        "vision_projector": {},
        "tp":1,
        "pp":1,
        "cp":1
    },
    "audio_encoder": {
        "audio_encoder": {},
        "tp":1,
        "pp":1,
        "cp":1
    }
}

3. 启动异构并行微调

以Qwen2.5Omni-7B为例,启动异构并行微调训练任务。

bash examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh

特性使用介绍

lora微调

LoRA为框架通用能力,当前功能已支持,可参考LoRA特性文档

环境变量声明

ASCEND_SLOG_PRINT_TO_STDOUT: 是否开启日志打印, 0:关闭日志打屏,1:开启日志打屏
ASCEND_GLOBAL_LOG_LEVEL: 设置应用类日志的日志级别及各模块日志级别,仅支持调试日志。0:对应DEBUG级别,1:对应INFO级别,2:对应WARNING级别,3:对应ERROR级别,4:对应NULL级别,不输出日志
TASK_QUEUE_ENABLE: 用于控制开启task_queue算子下发队列优化的等级,0:关闭,1:开启Level 1优化,2:开启Level 2优化
COMBINED_ENABLE: 设置combined标志。设置为0表示关闭此功能;设置为1表示开启,用于优化非连续两个算子组合类场景
CPU_AFFINITY_CONF: 控制CPU端算子任务的处理器亲和性,即设定任务绑核,设置0或未设置:表示不启用绑核功能, 1:表示开启粗粒度绑核, 2:表示开启细粒度绑核
HCCL_CONNECT_TIMEOUT: 用于限制不同设备之间socket建链过程的超时等待时间,需要配置为整数,取值范围[120,7200],默认值为120,单位s
NPU_ASD_ENABLE: 控制是否开启Ascend Extension for PyTorch的特征值检测功能,未设置或0:关闭特征值检测,1:表示开启特征值检测,只打印异常日志,不告警,2:开启特征值检测,并告警,3:开启特征值检测,并告警,同时会在device侧info级别日志中记录过程数据
ASCEND_LAUNCH_BLOCKING: 控制算子执行时是否启动同步模式,0:采用异步方式执行,1:强制算子采用同步模式运行
ACLNN_CACHE_LIMIT: 配置单算子执行API在Host侧缓存的算子信息条目个数 PYTORCH_NPU_ALLOC_CONF: 控制缓存分配器行为 NPUS_PER_NODE: 配置一个计算节点上使用的NPU数量


注意事项

  1. finetune_xx.sh里,与模型结构相关的参数并不生效,以examples/qwen2.5omni/model_xb.json里同名参数配置为准,非模型结构的训练相关参数在 finetune_xx.sh修改。
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/ascend/MindSpeed-MM.git
git@gitee.com:ascend/MindSpeed-MM.git
ascend
MindSpeed-MM
MindSpeed-MM
master

搜索帮助