感谢IT之家网友 一昂、有鲫雪狐、Autumn_Dream 的线索投递!
2 月 5 日,据华为官方公众号,2 月 4 日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro 正式上线昇腾社区,支持一键获取 DeepSeek 系列模型,支持昇腾硬件平台上开箱即用,推理快速部署。IT之家附模型调用方式如下:权重转换GPU:git clone https://github.com/deepseek-ai/DeepSeek-V3.git
cd DeepSeek-V3/inference/
python fp8_cast_bf16.py –input-fp8-hf-path /path/to/DeepSeek-V3 –output-bf16-hf-path /path/to/deepseek-v3-bf16NPU:git clone https://modelers.cn/MindIE/deepseekv3.git
cd NPU_inference/
python fp8_cast_bf16.py –input-fp8-hf-path /path/to/DeepSeek-V3 –output-bf16-hf-path /path/to/deepseek-v3-bf16加载镜像在昇腾社区 / 开发资源下载适配 DeepSeek-V3 的镜像包:mindie:1.0.T71-800I-A2-py311-ubuntu22.04-arm64完成之后,请使用 docker images 命令确认查找具体镜像名称与标签。docker load -i mindie:1.0.T71-800I-A2-py311-ubuntu22.04-arm64(下载的镜像名称与标签)容器启动提供的 MindIE 镜像预置了 DeepSeek-V3 模型推理脚本,从您信任的来源自行获取权重后,放置在从上述下载的模型代码的主目录下,修改模型文件夹属组为 1001,执行权限为 750,启动容器。chown -R 1001:1001 /path-to-weights/deepseekv3
chowd -R 750 /path-to-weights/deepseekv3服务化测试配置服务化环境变量,expandable_segments-使能内存池扩展段功能,即虚拟内存特性。export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True修改服务化参数cd /usr/local/Ascend/mindie/latest/mindie-service/
vim conf/config.json拉起服务化#设置显存比
export NPU_MEMORY_FRACTION=0.95
#拉起服务化
cd /usr/local/Ascend/mindie/latest/mindie-service/
./bin/mindieservice_daemon出现“Daemon start success!”,则认为服务成功启动。

评论 ( 0 )