作为一个深度学习的小白,最近在搞 llm 微调。
用过 colab ,gpu 云服务部署过模型,但感觉都不是很方便
想拥有一台自己的深度学习工作站。但对硬件配置不是很懂
例如是选择专业卡还是消费卡。是 v100 ,还是 4090 ,还是 3090
如果要微调 70b 往上的模型,单卡显存不够的,具体怎么配置还请有经验的大佬指教一下
预算: 2w-3w+ (个人学习预算) 上限: 8w (公司预算)
要求: 1.能微调 7b~100b+ 2.尽可能便宜