DeepSeek是深度求索公司出品的模型,目前主要产品为DeepSeek-V3和DeepSeek-R1。
Linux系统可尝试直接pip安装,命令如下:
pip install ftllm
若安装失败则参考源码安装
ftllm run fastllm/DeepSeek-V3-0324-INT4
ftllm webui fastllm/DeepSeek-V3-0324-INT4
ftllm server fastllm/DeepSeek-V3-0324-INT4
若想使用单NUMA节点,建议用numactl绑定numa节点
可以设定环境变量来激活多NUMA节点加速(PIP版本可直接激活,源码安装时需要在编译时加入-DUSE_NUMA=ON选项)
export FASTLLM_USE_NUMA=ON
# export FASTLLM_NUMA_THREADS=27 # 选用,这个变量用于设定每个numa节点开启的线程数
可以启动本地下载好的模型(支持原始模型,AWQ模型,FASTLLM模型),假设本地模型路径为 /mnt/DeepSeek-R1
则可以用如下命令启动(webui, server类似)
ftllm run /mnt/DeepSeek-R1
如果记不住模型名,可以输入大概的模型名(不保证能匹配成功) 例如:
ftllm run deepseek-v3-0324-int4 # 这条命令会直接运行deepseek-v3-0324版本的int4量化模型
如果不想使用默认的缓存目录,可以通过环境变量 FASTLLM_CACHEDIR
来设置缓存目录,例如在Linux下:
export FASTLLM_CACHEDIR=/mnt/
目前推荐使用的一些模型:
以下是运行 ftllm
模块时常用的参数说明:
-t
或 --threads
:
-t 27
--dtype
:
int4
或其他支持的数据类型。--dtype int4
--device
:
cpu
或 cuda
或numa
--device cpu
或 --device cuda
--moe_device
:
cpu
或 cuda
或numa
--moe_device cpu
--moe_experts
:
--moe_experts 6
--port
:
--port 8080
以上demo均可使用参数 --help 查看详细参数,详细参数说明可参考 参数说明
可以使用如下命令将模型下载到本地
ftllm download deepseek-ai/DeepSeek-R1
如果使用量化加载模型(如--dtype int4
),那么每次读取模型时会在线量化,读取速度较慢。
ftllm.export 是一个用于导出和转换模型权重的工具。它支持将模型权重转换为不同的数据类型。以下是如何使用 ftllm.export 的详细说明。
python3 -m ftllm.export -p <模型路径> -o <输出路径> --dtype <数据类型> -t <线程数>
python3 -m ftllm.export -p /mnt/DeepSeek-V3 -o /mnt/DeepSeek-V3-INT4 --dtype int4 -t 16
导出后的模型使用方法和原始模型类似,使用导出模型时--dtype
参数将被忽略
例如
ftllm run /mnt/DeepSeek-V3-INT4/
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。