url=https://github.com/hiyouga/LLaMA-Factory.git
commit_id=52f2565
# transformers版本
url=https://github.com/huggingface/transformers.git
commit_id=7bb619d
2025.06.05: 首次支持Qwen2.5-Omni模型
Qwen 2.5-Omni是一个端到端的多模态大语言模型,旨在感知包括文本、图像、音频和视频在内的多种模态,同时以流式的方式生成文本和自然语音响应。
参考实现
https://github.com/hiyouga/LLaMA-Factory
commit id: 52f25651a2016ddede2283be17cf40c2c1b906ed
【模型开发时推荐使用配套的环境版本】
请参考安装指南,完成昇腾软件安装。
git clone https://gitee.com/ascend/MindSpeed-MM.git
git clone https://github.com/NVIDIA/Megatron-LM.git
cd Megatron-LM
git checkout core_v0.12.1
cp -r megatron ../MindSpeed-MM/
cd ..
cd MindSpeed-MM
mkdir logs data ckpt
# 安装加速库
git clone https://gitee.com/ascend/MindSpeed.git
cd MindSpeed
# checkout commit from MindSpeed core_r0.12.1
git checkout 5176c6f5f133111e55a404d82bd2dc14a809a6ab
# 安装mindspeed及依赖
pip install -e .
cd ..
# 安装mindspeed mm及依赖
pip install -e .
# 安装librosa,用于音频解析
pip install librosa
从Huggingface库下载对应的模型权重:
将下载的模型权重保存到本地的ckpt/hf_path/Qwen2.5-Omni-7B
目录下。
MindSpeed-MM修改了部分原始网络的结构名称,使用mm-convert
工具对原始预训练权重进行转换。该工具实现了huggingface权重和MindSpeed-MM权重的互相转换以及PP(Pipeline Parallel)权重的重切分。参考权重转换工具
# 7b
mm-convert Qwen2_5_OmniConverter hf_to_mm \
--cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
--cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
--cfg.parallel_config.llm_pp_layers [[11,17]] \
--cfg.parallel_config.vit_pp_layers [[32,0]] \
--cfg.parallel_config.audio_pp_layers [[32,0]] \
--cfg.parallel_config.tp_size 1
# 其中:
# mm_dir: 转换后保存目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: tp并行数量,注意要和微调启动脚本中的配置一致
MindSpeed MM修改了部分原始网络的结构名称,在微调后,如果需要将权重转回huggingface格式,可使用mm-convert
权重转换工具对微调后的权重进行转换,将权重名称修改为与原始网络一致。
mm-convert Qwen2_5_OmniConverter mm_to_hf \
--cfg.save_hf_dir "ckpt/mm_to_hf/Qwen2.5-Omni-7B" \
--cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
--cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
--cfg.parallel_config.llm_pp_layers [11,17] \
--cfg.parallel_config.vit_pp_layers [32,0] \
--cfg.parallel_config.audio_pp_layers [32,0] \
--cfg.parallel_config.tp_size 1
# 其中:
# save_hf_dir: mm微调后转换回hf模型格式的目录
# mm_dir: 微调后保存的权重目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: tp并行数量,注意要和微调启动脚本中的配置一致
如果需要用转换后模型训练的话,同步修改examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
中的LOAD_PATH
参数,该路径为转换后或者切分后的权重,注意与原始权重 ckpt/hf_path/Qwen2.5-Omni-7B
进行区分。
LOAD_PATH="ckpt/mm_path/Qwen2.5-Omni-7B"
(1)用户需要自行下载COCO2017数据集COCO2017,并解压到项目目录下的./data/COCO2017文件夹中
(2)获取图片数据集的描述文件(LLaVA-Instruct-150K),下载至./data/路径下;
(3)运行数据转换脚本python examples/qwen2vl/llava_instruct_2_mllm_demo_format.py;
$playground
├── data
├── COCO2017
├── train2017
├── llava_instruct_150k.json
├── mllm_format_llava_instruct_data.json
...
当前支持读取多个以,
(注意不要加空格)分隔的数据集,配置方式为data.json
中
dataset_param->basic_parameters->dataset
从"./data/mllm_format_llava_instruct_data.json"修改为"./data/mllm_format_llava_instruct_data.json,./data/mllm_format_llava_instruct_data2.json"
同时注意data.json
中dataset_param->basic_parameters->max_samples
的配置,会限制数据只读max_samples
条,这样可以快速验证功能。如果正式训练时,可以把该参数去掉则读取全部的数据。
现在本框架已经支持纯文本/混合数据(有图像和无图像数据混合训练)。
在数据构造时,对于包含图片的数据,需要保留image
这个键值。
{
"id": your_id,
"image": your_image_path,
"conversations": [
{"from": "human", "value": your_query},
{"from": "gpt", "value": your_response},
],
}
在数据构造时,对于纯文本数据,可以去除image
这个键值。
{
"id": your_id,
"conversations": [
{"from": "human", "value": your_query},
{"from": "gpt", "value": your_response},
],
}
数据集中的视频数据集取自llamafactory,https://github.com/hiyouga/LLaMA-Factory/tree/main/data
视频取自mllm_video_demo,使用时需要将该数据放到自己的data文件夹中去,同时将llamafactory上的mllm_video_audio_demo.json也放到自己的data文件中
之后根据实际情况修改 data.json
中的数据集路径,包括 model_name_or_path
、 dataset_dir
、 dataset
字段,并修改"attr"中 images
、 videos
字段,修改结果参考下图。
{
"dataset_param": {
"dataset_type": "huggingface",
"preprocess_parameters": {
"model_name_or_path": "./Qwen2.5-Omni-7B",
...
},
"basic_parameters": {
...
"dataset_dir": "./data",
"dataset": "./data/mllm_video_audio_demo.json",
"cache_dir": "./data/cache_dir",
...
},
...
"attr": {
"system": null,
"images": null,
"videos": "videos",
"audios": "audios",
...
},
},
...
}
在model_xxx.json中,修改img_context_token_id
为下图所示:
"img_context_token_id": 151656
注意, image_token_id
和 img_context_token_id
两个参数作用不一样。前者是固定的,是标识图片的 token ID,在qwen2_5_omni_get_rope_index中用于计算图文输入情况下序列中的图片数量。后者是标识视觉内容的 token ID,用于在forward中标记视觉token的位置,所以需要根据输入做相应修改。
配置脚本前需要完成前置准备工作,包括:环境安装、权重下载及转换、数据集准备及处理,详情可查看对应章节。
【数据目录配置】
根据实际情况修改data.json
中的数据集路径,包括model_name_or_path
、dataset_dir
、dataset
等字段。
以Qwen2.5Omni-7B为例,data.json
进行以下修改,注意model_name_or_path
的权重路径为转换前的权重路径。
注意cache_dir
在多机上不要配置同一个挂载目录避免写入同一个文件导致冲突。
{
"dataset_param": {
"dataset_type": "huggingface",
"preprocess_parameters": {
"model_name_or_path": "./ckpt/hf_path/Qwen2.5-Omni-7B",
...
},
"basic_parameters": {
...
"dataset_dir": "./data",
"dataset": "./data/mllm_format_llava_instruct_data.json",
"cache_dir": "./data/cache_dir",
...
},
...
},
...
}
【模型保存加载及日志信息配置】
根据实际情况配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
的参数,包括加载、保存路径以及保存间隔--save-interval
(注意:分布式优化器保存文件较大耗时较长,请谨慎设置保存间隔)
...
# 加载路径
LOAD_PATH="ckpt/mm_path/Qwen2.5-Omni-7B"
# 保存路径
SAVE_PATH="save_dir"
...
GPT_ARGS="
...
--no-load-optim \ # 不加载优化器状态,若需加载请移除
--no-load-rng \ # 不加载随机数状态,若需加载请移除
--no-save-optim \ # 不保存优化器状态,若需保存请移除
--no-save-rng \ # 不保存随机数状态,若需保存请移除
...
"
...
OUTPUT_ARGS="
--log-interval 1 \ # 日志间隔
--save-interval 5000 \ # 保存间隔
...
--log-tps \ # 增加此参数可使能在训练中打印每步语言模块的平均序列长度,并在训练结束后计算每秒吞吐tokens量。
"
若需要加载指定迭代次数的权重、优化器等状态,需将加载路径LOAD_PATH
设置为保存文件夹路径LOAD_PATH="save_dir"
,并修改latest_checkpointed_iteration.txt
文件内容为指定迭代次数
(此功能coming soon)
$save_dir
├── latest_checkpointed_iteration.txt
├── ...
【单机运行配置】
配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
参数如下
# 根据实际情况修改 ascend-toolkit 路径
source /usr/local/Ascend/ascend-toolkit/set_env.sh
NPUS_PER_NODE=8
MASTER_ADDR=localhost
MASTER_PORT=29501
NNODES=1
NODE_RANK=0
WORLD_SIZE=$(($NPUS_PER_NODE * $NNODES))
注意,当开启PP时,model.json
中配置的vision_encoder
和text_decoder
的pipeline_num_layer
参数控制了各自的PP切分策略。对于流水线并行,要先处理vision_encoder
再处理text_decoder
。
比如7b默认的值[32,0,0,0]
、[1,10,10,7]
,其含义为PP域内第一张卡先放32层vision_encoder
再放1层text_decoder
、第二张卡放text_decoder
接着的10层、第三张卡放text_decoder
接着的10层、第四张卡放text_decoder
接着的7层,vision_encoder
没有放完时不能先放text_decoder
(比如[30,2,0,0]
、[1,10,10,7]
的配置是错的)
同时注意,如果某张卡上的参数全部冻结时会导致没有梯度(比如vision_encoder
冻结时PP配置[30,2,0,0]
、[0,11,10,7]
),需要在finetune_qwen2_5_omni_7b.sh
中GPT_ARGS
参数中增加--enable-dummy-optimizer
,参考dummy_optimizer特性文档。
【重计算配置(可选)】 若要开启vit重计算,需在model.json中的vision_encoder部分添加下面三个重计算相关参数
{
"model_id": "qwen2_5vl",
"img_context_token_id": 151655,
"vision_start_token_id": 151652,
"image_encoder": {
"vision_encoder": {
"recompute_granularity": "full",
"recompute_method": "uniform",
"recompute_num_layers": 1
}
}
}
以Qwen2.5Omni-7B为例,启动微调训练任务。
bash examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
配置脚本前需要完成前置准备工作,包括:环境安装、权重下载及转换、数据集准备及处理,详情可查看对应章节。
其中“权重转换”需要根据设定的异构并行配置进行修改(当前仅支持DP和TP的异构并行),例如Vit模块和Audio模块不切分,llm模块按TP4进行切分时,权重转换脚本命令如下:
# 7b
mm-convert Qwen2_5_OmniConverter hf_to_mm \
--cfg.mm_dir "ckpt/mm_path/Qwen2.5-Omni-7B" \
--cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-Omni-7B" \
--cfg.parallel_config.llm_pp_layers [[28]] \
--cfg.parallel_config.vit_pp_layers [[32]] \
--cfg.parallel_config.audio_pp_layers [[32]] \
--cfg.parallel_config.tp_size 4 \
--cfg.parallel_config.vit_tp_size 1 \
--cfg.parallel_config.audio_tp_layers 1
# 其中:
# mm_dir: 转换后保存目录
# hf_dir: huggingface权重目录
# llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# audio_pp_layers: audio在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致
# tp_size: 默认tp并行数量,注意要和微调启动脚本中的配置一致
# vit_tp_size: vit的tp并行数量,不配置时vit使用默认的tp并行数量
# audio_tp_layers: audio的tp并行数量,不配置时vit使用默认的tp并行数量
参考微调章节进行数据目录配置和模型保存加载等配置,需要注意的是在配置examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
时要增加--hetero-parallel
开启异构并行训练;
注意llm的并行配置在finetune_qwen2_5_omni_7b.sh文件中定义,vit和audio的并行配置在model_7b.json文件中定义,vit和audio以及llm三者的gbs是一致的,需要关注llm的MBS配置; 例如vit和audio模块不切分,而llm采用tp4切分时,llm的MBS必须是自身TP的整数倍,以确保vit和audio的DP域能够均匀分配到整数的MBS值;
TP=4
PP=1
CP=1
MBS=4
...
GPT_ARGS="
...
--hetero-parallel \ # 开启异构并行训练
...
"
【模型异构并行配置】
如需修改vit或audio的并行配置,需在model_7b.json中的image_encoder和audio_encoder部分修改对应的并行参数
{
"image_encoder": {
"vision_encoder": {},
"vision_projector": {},
"tp":1,
"pp":1,
"cp":1
},
"audio_encoder": {
"audio_encoder": {},
"tp":1,
"pp":1,
"cp":1
}
}
以Qwen2.5Omni-7B为例,启动异构并行微调训练任务。
bash examples/qwen2.5omni/finetune_qwen2_5_omni_7b.sh
LoRA为框架通用能力,当前功能已支持,可参考LoRA特性文档。
ASCEND_SLOG_PRINT_TO_STDOUT: 是否开启日志打印, 0:关闭日志打屏,1:开启日志打屏
ASCEND_GLOBAL_LOG_LEVEL: 设置应用类日志的日志级别及各模块日志级别,仅支持调试日志。0:对应DEBUG级别,1:对应INFO级别,2:对应WARNING级别,3:对应ERROR级别,4:对应NULL级别,不输出日志
TASK_QUEUE_ENABLE: 用于控制开启task_queue算子下发队列优化的等级,0:关闭,1:开启Level 1优化,2:开启Level 2优化
COMBINED_ENABLE: 设置combined标志。设置为0表示关闭此功能;设置为1表示开启,用于优化非连续两个算子组合类场景
CPU_AFFINITY_CONF: 控制CPU端算子任务的处理器亲和性,即设定任务绑核,设置0或未设置:表示不启用绑核功能, 1:表示开启粗粒度绑核, 2:表示开启细粒度绑核
HCCL_CONNECT_TIMEOUT: 用于限制不同设备之间socket建链过程的超时等待时间,需要配置为整数,取值范围[120,7200],默认值为120,单位s
NPU_ASD_ENABLE: 控制是否开启Ascend Extension for PyTorch的特征值检测功能,未设置或0:关闭特征值检测,1:表示开启特征值检测,只打印异常日志,不告警,2:开启特征值检测,并告警,3:开启特征值检测,并告警,同时会在device侧info级别日志中记录过程数据
ASCEND_LAUNCH_BLOCKING: 控制算子执行时是否启动同步模式,0:采用异步方式执行,1:强制算子采用同步模式运行
ACLNN_CACHE_LIMIT: 配置单算子执行API在Host侧缓存的算子信息条目个数
PYTORCH_NPU_ALLOC_CONF: 控制缓存分配器行为
NPUS_PER_NODE: 配置一个计算节点上使用的NPU数量
finetune_xx.sh
里,与模型结构相关的参数并不生效,以examples/qwen2.5omni/model_xb.json
里同名参数配置为准,非模型结构的训练相关参数在 finetune_xx.sh
修改。此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。