DeepSeek模型权重下载太慢?快来魔乐体验加速丝滑下载,和“龟速”说拜拜
兴冲冲准备好了部署DeepSeek, 开始下模型权重了。结果...What!下载速度慢到崩溃,有的才1-2MB/s,还多次中断!!! 下载稍大一点的模型怎么办?
别担心,魔乐社区来帮你!带你体验超100MB/s的下载加速度。
更全更快地获取DeepSeek模型
魔乐社区现已上线HuggingFace同款DeepSeek系列模型的原始权重,涵盖DeepSeek-V3, DeepSeek-R1,Janus-Pro和各个蒸馏模型。
为了让大家更直观地感受魔乐社区的下载速度,我们测试了社区中各个DeepSeek模型权重的下载速度。通过社区工具openMind Hub并行下载DeepSeek系列模型权重时,Deepseek-V3和Deepseek-R1的下载速度超130MB/s,部分模型如Janus-Pro-7B下载速度可达约140MB/s;使用git下载时,各模型下载速度也表现良好。这些数据表明,在魔乐社区下载模型权重可有效提升下载和开发效率。
以下是实测数据:
➡️ 机器规格:4u16G,带宽:1000M,地区:上海
| 模型权重 | 通过工具openMind Hub下载 | 通过git下载 |
|---|---|---|
| DeepSeek-V3 | 并行下载,总速度约131MB/s | 127MB/s |
| DeepSeek-V3-w8a8 | 并行下载,总速度约132MB/s | 129MB/s |
| Deepseek-R1 | 并行下载,总速度约138MB/s | 130MB/s |
| Deepseek-R1-Zero | 并行下载,总速度约135MB/s | 129MB/s |
| DeepSeek-R1-bf16-w8a8 | 并行下载,总速度约135MB/s | 126MB/s |
| DeepSeek-R1-Distill-Llama-8B | 并行下载,总速度约138MB/s | 126MB/s |
| DeepSeek-R1-Distill-Llama-70B | 并行下载,总速度约132MB/s | 126MB/s |
| DeepSeek-R1-Distill-Qwen-1.5B | 单个权重,79MB/s | 79MB/s |
| DeepSeek-R1-Distill-Qwen-7B | 并行下载,总速度约132MB/s | 125MB/s |
| DeepSeek-R1-Distill-Qwen-14B | 并行下载,总速度约135MB/s | 125MB/s |
| DeepSeek-R1-Distill-Qwen-32B | 并行下载,总速度约130MB/s | 133MB/s |
| Janus-Pro-1B | 单个权重,132MB/s | 128MB/s |
| Janus-Pro-7B | 并行下载,总速度约140MB/s | 125MB/s |
如何下载
登录魔乐社区的DeepSeek模型专区 https://modelers.cn/topics/deepseek ,下拉页面找到模型权重板块直达模型页面。
或从下面表格中获取权重链接。
接下来,以DeepSeek-R1为例,教你如何在魔乐社区下载模型权重。
打开DeepSeek-R1的模型权重链接:https://modelers.cn/models/State_Cloud/DeepSeek-R1-origin
点击"下载模型"。可以看到多种下载方式。

选择openmind_hub或者git,只需一行命令即刻体验下载加速度。
除了原始模型的下载加速,魔乐社区还提供了DeepSeek的量化权重下载,多个版本的DeepSeek系列模型,包括昇腾版、昇思MindSpore适配版,全方位满足不同开发环境与需求。此外,为助力模型高效推理,社区还提供用于MindIE的镜像。一站式备齐开发训练所需的全部资源,即刻开启国产模型、国产工具与国产算力完美融合的创新之旅!
➡️ MindIE镜像:https://modelers.cn/images/MindIE
我们会持续迭代优化,欢迎大家关注新镜像!