A卡本地部署的痛点不是这个,ollama+r1模型+chatbox本地随便部署(只要下载正常能下载,下载顺序也按这个即可)A卡本地部署的痛点是中低端卡不能GPU加速模型运算不在显存而是在内存,运算的核心是CPU而不是GPU
我这边还好,还是送到家门口,快递员现在熟到送家门口连电话也懒得打了
差不了太多了。。
关注数量超出限制,请先删除部分内容再尝试