"Hugging Face Transformers v4.50.3 刚刚迎来重磅更新!本次最大亮点是正式集成*DeepSeek-V3(又称DeepSeek R1)——一个总参数6710亿的混合专家(MoE)模型,性能直接对标GPT-4,而训练成本仅为278万H800 GPU小时。开源社区再次迎来'屠榜级'神器!"*
pip install git+https://github.com/huggingface/transformers@v4.50.3-DeepSeek-3
一键安装。from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("deepseek-r1", torch_dtype=torch.bfloat16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("deepseek-r1")
outputs = model.generate(**tokenizer("你好,DeepSeek-V3!", return_tensors="pt").to(model.device))
print(tokenizer.decode(outputs[0]))
效果示例:
用户输入:"解释量子计算的基本原理"
模型输出:"量子计算利用量子比特的叠加和纠缠特性,相比经典比特能并行处理更多信息..."
场景:用2节点×8块H100运行
torchrun --nproc_per_node=8 --nnodes=2 --rdzv-backend c10d --rdzv-endpoint <MASTER_IP>:<PORT> run_deepseek_r1.py
常见报错解决:
ncclInternalError: no socket interface found
→ 安装NCCL并检查网络配置: apt install libnccl2 libnccl-dev
export NCCL_SOCKET_IFNAME=eth0 # 替换为实际网卡名
DeepSeek团队呼吁开发者参与优化:
get_packed_weights
提升效率。"Transformers v4.50.3+DeepSeek-V3的组合,标志着开源模型在性能、成本、易用性上已全面逼近闭源商业产品。无论你是研究者、开发者还是AI创业者,这都是一个不容错过的机会!🔥
·