HW raid. gpart показывает, что диски по отдельности corrupt.

Phoenix

Не сделал ли я глупость, доверившись аппаратному рейду от Intel? UPD мне объяснили, что он не совсем аппаратный, но биос о нём знает.
ar0 - Это RAID1(ad4,ad6)
Насколько я понимаю, эти диски уже нельзя будет переставить куда-нибудь без дополнительных ухищрений.
Как-то я наивно полагал, что будет честное зеркалирование, поэтому ожидал увидеть state: OK, а не CORRUPT.
Или это интел позаботилась и специально немного подпортило таблицу, чтобы операционка случайно не загрузилась только с одного харда?
 
 
#gpart list
Geom name: ad4
modified: false
state: CORRUPT
fwheads: 16
fwsectors: 63
last: 1951170526
first: 34
entries: 128
scheme: GPT
Providers:
1. Name: ad4p1
Mediasize: 65536 (64K)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 17408
Mode: r0w0e0
rawuuid: 1ace2107-f064-11e0-acab-001e671cf448
rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
label: (null)
length: 65536
offset: 17408
type: freebsd-boot
index: 1
end: 161
start: 34
2. Name: ad4p2
Mediasize: 51539607552 (48G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r1w1e1
rawuuid: 1acf4ab4-f064-11e0-acab-001e671cf448
rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 51539607552
offset: 82944
type: freebsd-swap
index: 2
end: 100663457
start: 162
3. Name: ad4p3
Mediasize: 947459619328 (882G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r1w1e2
rawuuid: 1adb648c-f064-11e0-acab-001e671cf448
rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 947459619328
offset: 51539690496
type: freebsd-zfs
index: 3
end: 1951170526
start: 100663458
Consumers:
1. Name: ad4
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r2w2e5

Geom name: ad6
modified: false
state: CORRUPT
fwheads: 16
fwsectors: 63
last: 1951170526
first: 34
entries: 128
scheme: GPT
Providers:
1. Name: ad6p1
Mediasize: 65536 (64K)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 17408
Mode: r0w0e0
rawuuid: 1ace2107-f064-11e0-acab-001e671cf448
rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
label: (null)
length: 65536
offset: 17408
type: freebsd-boot
index: 1
end: 161
start: 34
2. Name: ad6p2
Mediasize: 51539607552 (48G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: 1acf4ab4-f064-11e0-acab-001e671cf448
rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 51539607552
offset: 82944
type: freebsd-swap
index: 2
end: 100663457
start: 162
3. Name: ad6p3
Mediasize: 947459619328 (882G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: 1adb648c-f064-11e0-acab-001e671cf448
rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 947459619328
offset: 51539690496
type: freebsd-zfs
index: 3
end: 1951170526
start: 100663458
Consumers:
1. Name: ad6
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r0w0e0

Geom name: ar0
modified: false
state: OK
fwheads: 255
fwsectors: 63
last: 1951170526
first: 34
entries: 128
scheme: GPT
Providers:
1. Name: ar0p1
Mediasize: 65536 (64K)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 17408
Mode: r0w0e0
rawuuid: 1ace2107-f064-11e0-acab-001e671cf448
rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
label: (null)
length: 65536
offset: 17408
type: freebsd-boot
index: 1
end: 161
start: 34
2. Name: ar0p2
Mediasize: 51539607552 (48G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: 1acf4ab4-f064-11e0-acab-001e671cf448
rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 51539607552
offset: 82944
type: freebsd-swap
index: 2
end: 100663457
start: 162
3. Name: ar0p3
Mediasize: 947459619328 (882G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: 1adb648c-f064-11e0-acab-001e671cf448
rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 947459619328
offset: 51539690496
type: freebsd-zfs
index: 3
end: 1951170526
start: 100663458
Consumers:
1. Name: ar0
Mediasize: 998999326720 (930G)
Sectorsize: 512
Mode: r0w0e0

Filan

Не сделал ли я глупость, доверившись аппаратному рейду от Intel?
ar0 - Это RAID1(ad4,ad6)
Это не аппаратный RAID, и да - ты сделал глупость.
IMHO, слей данные и подними mirror на ZFS.

Phoenix

а что это такое?

Filan

а что это такое?
Вопрос об Intel RAID ar я надеюсь, а не о ZFS и mirror? :-D
Это большей частью софтварный RAID - его функции практически полностью реализуются драйверами. На уровне контроллера поддерживается только возможность загрузки с RAID и всё. Остальное выполяет драйвер в операционке, используя для вычислений CPU.

Phoenix

да, про него. подстава. Сервак уже на площадке.
Какие будут мысли?
1) отцепить от ar0 один из винтов(ad4)
2) разбить ad4, подцепить его в zfs-mirror
3) то же самое проделать с ad6.
 
  
# atacontrol status ar0
ar0: ATA RAID1 status: READY
subdisks:
0 ad4 ONLINE
1 ad6 ONLINE

Такой вопрос. Если один из них грохнется и это будет тот, с которого грузится система, в каком случае можно надеяться на то, что ОС стартанёт?

Phoenix

поржал над комментарием http://www.opennet.ru/tips/info/896.shtml

2.22, rodriguez, 12:14, 09/01/2009 [^] [ответить] [смотреть все] [показать ветку] +/–
11:07am /home/user# atacontrol status ar0
ar0: ATA RAID1 status: READY
subdisks:
0 ad6 ONLINE
1 ad4 ONLINE
Все работает :)
вырезка из fstab
# Device Mountpoint FStype Options Dump Pass#
/dev/ar0s1b none swap sw 0 0
/dev/ar0s1a / ufs rw 1 1
/dev/ar0s1e /tmp ufs rw 2 2
/dev/ar0s1f /usr ufs rw 2 2
/dev/ar0s1d /var ufs rw 2 2
/dev/md0 /tmp mfs rw,noatime,async,-s128m
/dev/acd0 /cdrom cd9660 ro,noauto 0 0

Кстати, расскажите плз как эту хрень теперь разобрать без опасения потерять данные, ибо дисковая подсистема с мускулем тормозит нещадно :)

Filan

да, про него. подстава. Сервак уже на площадке.
Какие будут мысли?
Его нельзя на долго отключать?
Я бы сделал так:
1. забэкапил данные
2. отключил "RAID"
3. заново установил операционку, при этом устанавливал бы сразу на GPT+ZFS mirror - мануалы по этому поводу гуглятся легко, к тому же в скоровыходящей девятке это всё в стандартном инсталлере есть
4. в биосе обязательно проставил, чтобы пробовал грузиться с обоих винтов подряд, если с одного не получилось
5. установил нужное ПО, возможно пересобрал мир и ядро с оптимизацией под проц, восстановил данные из бэкапа
Но это несколько часов простоя сервера и делать удалённо можно только через IP-KVM или Serial-Console на соседнюю машинку. Да ещё и заботиться о том, с чего грузить интсалляшку - по сети или попросить обезьянку вставить флешку в сервак.

Filan

/dev/ar0s1e /tmp ufs rw 2 2
/dev/ar0s1f /usr ufs rw 2 2
/dev/ar0s1d /var ufs rw 2 2
/dev/md0 /tmp mfs rw,noatime,async,-s128m
O_o

Phoenix

вот тут вроде алгоритм при сбое. http://www.freebsd.org/doc/ru/books/handbook/raid.html
Или он не всегда работает?
Если один хард помрёт (или частично читаться не будет) даже данные увидеть не получится?

Phoenix

:grin:
наверно, чтобы враги не догадались или опечатался.

Filan

вот тут вроде алгоритм при сбое. http://www.freebsd.org/doc/ru/books/handbook/raid.html
 
That's not a true hardware RAID controller. It's a software RAID/pseudo-RAID controller, where all the RAID stuff happens in the driver. That's why you see both drives in the OS.
On a controller like that, you would be better off disabling all the RAID features on the card, using it like a normal SATA controller, and then using software RAID (gmirror/gstrip/graid).

 
ccd and vinum are deprecated in FreeBSD 5+ in favour of GEOM. Use the GEOM tools for software raid: gstripe for RAID0, gmirror for RAID1, graid3 for RAID3, graid5 for RAID5 (although this isn't fully production-ready). Or use ZFS.

(c) http://forums.bsdnexus.com/viewtopic.php?id=2147
Хотя бы поэтому я бы не стал изучать вопрос надёжности ar, а просто перешёл бы на ZFS.

Phoenix

был неприятный опыт с gmirror. Когда там что-то сломалось, потом загрузилось, потом что-то с чем-то посинхронизировалось,
в результате, на целом харде были кривые данные.
Нормальные данные были на полудохлом харде,

Phoenix

оо! Я тут нашёл ещё один сервак. Там есть KVM. Там тоже ar0. правда там не zfs+gpt, а обычные ar0s1abcde.
Собственно, если оставить за скобками, что gmirror лучше ar-raid,
Видится более надёжной схема, когда зеркалится не весь винт, а только ad2p3, которая отдаётся в zfs-mirror, чем gmirror на весь хард?
возможные риски: с одним винтом произшло что-то от полного отказа до сбоя некоторых секторов.
pS. там в выводе не было ничего про OK/CORRUPT
 
 # gpart list
Geom name: ad4
fwheads: 16
fwsectors: 63
last: 1953525167
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ad4s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ad4
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r0w0e0

Geom name: ad4s1
fwheads: 16
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ad4s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ad4s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ad4s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ad4s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ad4s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ad4s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ad4s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0

Geom name: ad6
fwheads: 16
fwsectors: 63
last: 1953525167
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ad6s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ad6
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r0w0e0

Geom name: ad6s1
fwheads: 16
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ad6s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ad6s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ad6s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ad6s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ad6s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ad6s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ad6s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0

Geom name: ar0
fwheads: 255
fwsectors: 63
last: 1953519560
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ar0s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r6w6e11
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ar0
Mediasize: 1000202043392 (932G)
Sectorsize: 512
Mode: r6w6e17

Geom name: ar0s1
fwheads: 255
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ar0s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ar0s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r1w1e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ar0s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ar0s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ar0s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ar0s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ar0s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r6w6e11

otvertka07

у меня винда грузилась с одного диска из Raid1 интеловского
Оставить комментарий
Имя или ник:
Комментарий: