使用docker ps查看你的machine learning容器的id 然后使用docker inspect 刚才的id。里面的mouts 里有/cache的挂载的宿主机上的目录路径。
如果网络允许的话,你在设置里输入支持的模型名字,他会自动下载的。如果要自己放的话,应该是在machine learning那个容器的cache文件夹内的clip文件夹里放入你的模型文件夹,进入这个clip文件夹你还会看到之前用的模型的文件夹,比如 ViT-B-32__openai 文件夹。至于这个cache目录对应到宿主机的什么目录需要找一下。或者用docker命令直接拷贝进容器的 /cache/clip/目录里面,也许也行。
关注数量超出限制,
请先删除部分内容再尝试