不需要nvme转sata,一般的pciex1转2SATA就够了。对于群晖,不认盘序的,板载+扩展 6+2 =8,和LSI 单卡8,一样的。 为啥,因为有限的pcie口,要留给万兆卡,还有nvme cache,甚至nvme 存储盘用
另外如果exsi,目的就是为了有4-6个盘位直通虚拟黑裙,可以插个Asm1061的pciex1 sata卡,上面装exsi 宿主系统,板载sata控制器直通黑裙VM啊,这样就不用lsi卡了。或者你的asus B250M plus,可以把exsi 宿主机装个小nvme ssd 上啊。 何必被这么大块的LSI 9211折磨
m.2转pciex4,🈶️一块板转到卡的,我实测能用,我都7x24 了快2年了。你这个先m.2 转槽,再有软排线转方向,转接太多信号质量不行了
有关直通硬盘,我的办法是把ITX 主板的wifi 卡拆了,插一块m.2 Akey的sata 卡,在这卡上搞个128G 的SATA ssd装PVE 的系统并启动。 这样主板的SATA 控制器可以直通给虚拟机。M.2 Mkey 我是要留给nvme 直通的,这样虚拟黑裙还可以有nvme缓存
说下我最后的解决方案: 我试了XPENLOGY最新的扩展驱动, 也是一样毛病。 我也在win下把AQC-108的固件升级到最新了, 没用。
所以, PVE下我就放弃了VT-d pcie passthrough了。 而是改用VirtIO 虚拟网卡,比较下来, E1000E,vmnet3, VirtIO 3种虚拟网卡方式, VirtIO是CPU占用最低, 实际速度最快的 我这张AQC-108 5G网卡可以跑到520MB/s, 另一张Mellanox 万兆用VirtIO可以跑到1GB/s, vmnet3 只能到800多M/s。 当然, 前提是你的黑裙启动盘要打包了VirtIO 驱动
SSH登录, sudo -i 拿到root权限, 然后确定你存储空间和md的关系, 比如volume1 对应md2 。然后停掉所有APP, docker, 虚拟机, 计划任务。 mdadm --stop /dev/md2 停了逻辑磁盘, 再umount --lazy /volume1 去掉存储空间。 重启,看看存储空间是不是又重新装上了并且数据还在
关注数量超出限制,
请先删除部分内容再尝试