HW raid. gpart показывает, что диски по отдельности corrupt.
Не сделал ли я глупость, доверившись аппаратному рейду от Intel?Это не аппаратный RAID, и да - ты сделал глупость.
ar0 - Это RAID1(ad4,ad6)
IMHO, слей данные и подними mirror на ZFS.
а что это такое?
а что это такое?Вопрос об Intel RAID ar я надеюсь, а не о ZFS и mirror? :-D
Это большей частью софтварный RAID - его функции практически полностью реализуются драйверами. На уровне контроллера поддерживается только возможность загрузки с RAID и всё. Остальное выполяет драйвер в операционке, используя для вычислений CPU.
Какие будут мысли?
1) отцепить от ar0 один из винтов(ad4)
2) разбить ad4, подцепить его в zfs-mirror
3) то же самое проделать с ad6.
# atacontrol status ar0
ar0: ATA RAID1 status: READY
subdisks:
0 ad4 ONLINE
1 ad6 ONLINE
Такой вопрос. Если один из них грохнется и это будет тот, с которого грузится система, в каком случае можно надеяться на то, что ОС стартанёт?
http://www.opennet.ru/tips/info/896.shtml
поржал над комментарием
2.22, rodriguez, 12:14, 09/01/2009 [^] [ответить] [смотреть все] [показать ветку] +/–
11:07am /home/user# atacontrol status ar0
ar0: ATA RAID1 status: READY
subdisks:
0 ad6 ONLINE
1 ad4 ONLINE
Все работает
вырезка из fstab
# Device Mountpoint FStype Options Dump Pass#
/dev/ar0s1b none swap sw 0 0
/dev/ar0s1a / ufs rw 1 1
/dev/ar0s1e /tmp ufs rw 2 2
/dev/ar0s1f /usr ufs rw 2 2
/dev/ar0s1d /var ufs rw 2 2
/dev/md0 /tmp mfs rw,noatime,async,-s128m
/dev/acd0 /cdrom cd9660 ro,noauto 0 0
Кстати, расскажите плз как эту хрень теперь разобрать без опасения потерять данные, ибо дисковая подсистема с мускулем тормозит нещадно
да, про него. подстава. Сервак уже на площадке.Его нельзя на долго отключать?
Какие будут мысли?
Я бы сделал так:
1. забэкапил данные
2. отключил "RAID"
3. заново установил операционку, при этом устанавливал бы сразу на GPT+ZFS mirror - мануалы по этому поводу гуглятся легко, к тому же в скоровыходящей девятке это всё в стандартном инсталлере есть
4. в биосе обязательно проставил, чтобы пробовал грузиться с обоих винтов подряд, если с одного не получилось
5. установил нужное ПО, возможно пересобрал мир и ядро с оптимизацией под проц, восстановил данные из бэкапа
Но это несколько часов простоя сервера и делать удалённо можно только через IP-KVM или Serial-Console на соседнюю машинку. Да ещё и заботиться о том, с чего грузить интсалляшку - по сети или попросить обезьянку вставить флешку в сервак.
/dev/ar0s1e /tmp ufs rw 2 2O_o
/dev/ar0s1f /usr ufs rw 2 2
/dev/ar0s1d /var ufs rw 2 2
/dev/md0 /tmp mfs rw,noatime,async,-s128m
http://www.freebsd.org/doc/ru/books/handbook/raid.html
Или он не всегда работает?
Если один хард помрёт (или частично читаться не будет) даже данные увидеть не получится?
вот тут вроде алгоритм при сбое. Или он не всегда работает?
Если один хард помрёт (или частично читаться не будет) даже данные увидеть не получится?
наверно, чтобы враги не догадались или опечатался.
вот тут вроде алгоритм при сбое. http://www.freebsd.org/doc/ru/books/handbook/raid.html
That's not a true hardware RAID controller. It's a software RAID/pseudo-RAID controller, where all the RAID stuff happens in the driver. That's why you see both drives in the OS.
On a controller like that, you would be better off disabling all the RAID features on the card, using it like a normal SATA controller, and then using software RAID (gmirror/gstrip/graid).
ccd and vinum are deprecated in FreeBSD 5+ in favour of GEOM. Use the GEOM tools for software raid: gstripe for RAID0, gmirror for RAID1, graid3 for RAID3, graid5 for RAID5 (although this isn't fully production-ready). Or use ZFS.
(c) http://forums.bsdnexus.com/viewtopic.php?id=2147
Хотя бы поэтому я бы не стал изучать вопрос надёжности ar, а просто перешёл бы на ZFS.
в результате, на целом харде были кривые данные.
Нормальные данные были на полудохлом харде,
Собственно, если оставить за скобками, что gmirror лучше ar-raid,
Видится более надёжной схема, когда зеркалится не весь винт, а только ad2p3, которая отдаётся в zfs-mirror, чем gmirror на весь хард?
возможные риски: с одним винтом произшло что-то от полного отказа до сбоя некоторых секторов.
pS. там в выводе не было ничего про OK/CORRUPT
# gpart list
Geom name: ad4
fwheads: 16
fwsectors: 63
last: 1953525167
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ad4s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ad4
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r0w0e0
Geom name: ad4s1
fwheads: 16
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ad4s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ad4s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ad4s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ad4s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ad4s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ad4s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ad4s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
Geom name: ad6
fwheads: 16
fwsectors: 63
last: 1953525167
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ad6s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ad6
Mediasize: 1000204886016 (932G)
Sectorsize: 512
Mode: r0w0e0
Geom name: ad6s1
fwheads: 16
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ad6s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ad6s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ad6s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ad6s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ad6s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ad6s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r0w0e0
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ad6s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r0w0e0
Geom name: ar0
fwheads: 255
fwsectors: 63
last: 1953519560
first: 63
entries: 4
scheme: MBR
Providers:
1. Name: ar0s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r6w6e11
attrib: active
rawtype: 165
length: 1000194015744
offset: 32256
type: freebsd
index: 1
end: 1953503999
start: 63
Consumers:
1. Name: ar0
Mediasize: 1000202043392 (932G)
Sectorsize: 512
Mode: r6w6e17
Geom name: ar0s1
fwheads: 255
fwsectors: 63
last: 1953503936
first: 0
entries: 8
scheme: BSD
Providers:
1. Name: ar0s1a
Mediasize: 6442450944 (6.0G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 6442450944
offset: 0
type: freebsd-ufs
index: 1
end: 12582911
start: 0
2. Name: ar0s1b
Mediasize: 12884901888 (12G)
Sectorsize: 512
Mode: r1w1e0
rawtype: 1
length: 12884901888
offset: 6442450944
type: freebsd-swap
index: 2
end: 37748735
start: 12582912
3. Name: ar0s1d
Mediasize: 21474836480 (20G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 21474836480
offset: 19327352832
type: freebsd-ufs
index: 4
end: 79691775
start: 37748736
4. Name: ar0s1e
Mediasize: 32212254720 (30G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 32212254720
offset: 40802189312
type: freebsd-ufs
index: 5
end: 142606335
start: 79691776
5. Name: ar0s1f
Mediasize: 5368709120 (5.0G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 5368709120
offset: 73014444032
type: freebsd-ufs
index: 6
end: 153092095
start: 142606336
6. Name: ar0s1g
Mediasize: 921810862592 (859G)
Sectorsize: 512
Mode: r1w1e1
rawtype: 7
length: 921810862592
offset: 78383153152
type: freebsd-ufs
index: 7
end: 1953503936
start: 153092096
Consumers:
1. Name: ar0s1
Mediasize: 1000194015744 (932G)
Sectorsize: 512
Mode: r6w6e11
у меня винда грузилась с одного диска из Raid1 интеловского
Оставить комментарий
Phoenix
Не сделал ли я глупость, доверившись аппаратному рейду от Intel? UPD мне объяснили, что он не совсем аппаратный, но биос о нём знает.ar0 - Это RAID1(ad4,ad6)
Насколько я понимаю, эти диски уже нельзя будет переставить куда-нибудь без дополнительных ухищрений.
Как-то я наивно полагал, что будет честное зеркалирование, поэтому ожидал увидеть state: OK, а не CORRUPT.
Или это интел позаботилась и специально немного подпортило таблицу, чтобы операционка случайно не загрузилась только с одного харда?