欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

威联通(qnap)nas存储阵列失败,研究和学习

程序员文章站 2022-05-31 08:46:45
...

威联通(qnap)nas存储阵列失败,研究和学习
经过找了很多资料去国外也看了一下,发现大量的威联通nas断电后导致superblock数据块失效的问题,所以我没有经验第一次碰到,我自己尝试了很多操作不知道现在阵列是否还能恢复了。
所以以后碰到这个问题一定要!
复制磁盘,减少重构,以uuid-sub序号为准记录盘序,。

机器配置和存储池的信息

1、机器为qnap的TS-1635AX
2、阵列信息为12块8T盘组成的raid6
3、

存储阵列失败原因

因为异常断电,在开机后说存储池出现异常问题,保修威联通客服后,检查阵列失效,然后无法将raid阵列加入到lvm的pv里面去,导致失败,将raid重构依然无法加入,最后,客服让我寻找数据恢复的。

存储阵列问题汇总

以重构很多次,也尝试加入lvm中,但是无法加入,经过这么长时间的摸索,发现了几个问题。
问题如下:
1、如果不正常关机会导致如下问题,磁盘序号错乱、磁盘的UUID_SUB未改变,阵列中盘序与上一次不符。
2、加入pv时提示512k区域存储空间不符,无法加入pv。
3、找个大神将文件系统挂载后,但是挂载的目录下没有文件,也就是文件系统还是有问题。
4、将分区刻录成镜像,但是无法组合,因为可能有两个盘是重复的盘位,进行数据恢复的时候只恢复了几张照片。流媒体均是错误的。还需要进一步的进行分析。
由以上问题,可能判断现在盘序已经不正确了,重构和重组并不会影响盘的数据问题,但是重构会让盘的数据位置不正确导致数据是碎片,需要找到争取的盘序重组一下,然后在用数据恢复软件恢复,是我目前的流程。

进行磁盘阵列的恢复实验

准备了3个小盘raid5 基本制式和坏掉的一样

这个是创建raid6的时候用的稍微改了一下
mdadm -CfR /dev/md5 --assume-clean -e 1.0 --bitmap=none --level=6 --chunk=512 --raid-devices=12 /dev/sdh3 /dev/sdg3 /dev/sdf3 /dev/sde3 /dev/sdd3 /dev/sdn3 /dev/sdi3 /dev/sdc3 /dev/sdm3  /dev/sdl3 /dev/sdk3 /dev/sdj3
用下边的创建raid
mdadm -CfR /dev/md5 --assume-clean -e 1.0 --bitmap=none --level=5 --chunk=512 --raid-devices=3 /dev/sdb2 /dev/sdc2 /dev/sdd2
一样pv-vg-lv

做实验时需要将真累卸载,但是又不能影响lvm,强制卸载

先把盘下掉
mdadm /dev/md5 --fail /dev/sdb2 --remove /dev/sdb2
mdadm /dev/md5 --fail /dev/sdc2 --remove /dev/sdc2
mdadm /dev/md5 --fail /dev/sdd2 --remove /dev/sdd2
在停止阵列
mdadm -S /dev/md5  

开始试验:

实验一 删掉512k区域的文件

清空为0
dd if=/dev/zero of=/dev/sd[bcd]2 bs=512K count=1

并不影响文件系统,从新生成的阵列用

pvscan  --cache

即可恢复没有影响,不知道为什么是不是我的太少了

试验二 阵列乱序从组

将原来的盘序打乱,重组
然后将打乱的磁盘倒成镜像文件
用windos进行组装查看文件

DiskInternals\RaidRecovery
R-Studio

用这两个软件分别进行测试
发现RaidRecovery真的厉害直接加进去需要分配盘序扫描了一会儿找到文件目录和所有文件,但是R就不行了,需要你自己调整阵列次序恢复了70%的文件参数众多真心不会玩儿啊。及时乱序也可以的当然我对乱序进行repair的操作。

试验3 进行乱序重组后加入lvm

无法加入,报错误,跟威联通加入阵列的时候报错一样,怀疑是次序错误无法识别导致的,由此推断,威联通的不正常关机会导致盘序错误,引起阵列池的错误。
也算是找到威联通的问题。

实验四 重组重建对数据的影响

文件太少,没有发现影响。