DeepSeek私有化部署微调需要多少算力? 热门官方
回答:取决于模型规模和微调方法,7B模型全参数微调需多卡A100集群,LoRA可在单卡或少量卡上完成。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读