The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]



"Тематический каталог: Восстановление массива RAID5 после сбо..."
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Тематический каталог: Восстановление массива RAID5 после сбо..."  +/
Сообщение от auto_topic (ok), 08-Апр-09, 21:23 
Обсуждение статьи тематического каталога: Восстановление массива RAID5 после сбоя двух дисков. (raid recover sync crash disk mdadm)

Ссылка на текст статьи: https://www.opennet.ru/base/sys/raid5_sync.txt.html

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. Сообщение от Elenium (ok), 08-Апр-09, 21:23   +/
У меня такая же история была, мне тоже повезло (постучал по голове) :)) А вообще после таких вот танцев с бубнами я рад что собирал изначально массивы бюджетные именно на linux-raid(mdadm) а не на fake-raid (дешевые контроллеры).
От себя посоветую очень внимательно отнеситесь к sata шнурочкам, в идеале есть шнурки с защелкой, тк бывает заденешь рукой и голову потом ломай почему у тебя райд развалился. :))
Ответить | Правка | Наверх | Cообщить модератору

2. Сообщение от Аноним (-), 08-Апр-09, 22:33   +/
О ужас.. В какое состояние могли придти данные после этого лучше и не думать (кто сказал, что на втором вылетевшем диске данные более адекватные?). Только zfs, однозначно.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #3, #4

3. Сообщение от Static (?), 08-Апр-09, 22:47   +/
>О ужас.. В какое состояние могли придти данные после этого лучше и
>не думать (кто сказал, что на втором вылетевшем диске данные более
>адекватные?). Только zfs, однозначно.

+1024, аналогично, только ZFS.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #2

4. Сообщение от Автор (?), 08-Апр-09, 23:03   +/
>О ужас.. В какое состояние могли придти данные после этого лучше и
>не думать (кто сказал, что на втором вылетевшем диске данные более
>адекватные?).

Более адекватные чем что? Первый вылетевший уже отформатирован. Без второго массив не работал, то есть рассинхронизации данных на дисках нет.
Основная опасность для данных в этом случае - выдергивание из-под XFS раздела на лету. Плюс потери в тех блоках, которые прочитать не удалось.
В данном конкретном случае повредилась БД, в которую постоянно данные помногу пишутся. Восстановили из дампа отдельно. Больше потерь не замечено.

Ужас, но не "Ужас! Ужас!"


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #2

5. Сообщение от dammeremail (?), 09-Апр-09, 00:01   +/
А что за винчестеры использовались?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #6

6. Сообщение от Автор (?), 09-Апр-09, 00:42   +/
WDC WD5000AAKS-00YGA0

А зачем это Вам?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #5 Ответы: #8

7. Сообщение от i (??), 09-Апр-09, 14:10   +/
а в чем смысл использовать разделы?
почему не делать рейд сразу из девайсов ?
типо:
md0 : active raid5 sdc[0] sdb[4] sdd[3] sdf[2] sde[1]
      1953545728 blocks level 5, 128k chunk, algorithm 2 [5/5] [UUUUU]
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #9

8. Сообщение от Planner (?), 09-Апр-09, 16:33   +/
годами использую WDC.

Работает пол сотни SATA'шных WDxxxxABYS (AYYS, теперь и FBYS -- RAID Edition).
С прошлых лет осталось пару десятков IDE'шных WDxxxxAAJB (остальные проданы).

С 2001-го года был один раз заводской брак на WВ4001ABYS (винт приехал нерабочий) и один раз после двух месяцев експлуатации сдох акселерометр на таком же накопителе - выражалось характерным свистом головок над внешними дорожками и необходимостью перепозиционирования их на начало диска и обратно для считывания данных (TLER и ZFS помогли).

То есть, за неполные восемь лет пользования топовыми сериями (a.k.a Enterprise-class) накопителей WDC на нескольких десятках серверов данные не терял ни разу.

В то же время Seagate, IBM, Fujitsu - дохли десятками.
На Samsung'и трёх-четырехлетней давности жалоб нет, но их у меня гораздо меньше (WD'шек же добрая сотня).

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6

9. Сообщение от Автор (?), 09-Апр-09, 23:22   +/
Можно и так.
А если хочется несколько разделов на RAID массиве, то можно собрать несколько RAID из разделов или один RAID из целых дисков разбить на разделы.
Кому что больше нравится.
В описаном случае, благодаря тому, что разделов было несколько, не пришлось грузиться с внешних носителей. И даже почтовый сервер работал все то немалое время, пока восстанавливался битый массив.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #7

10. Сообщение от cvsup (ok), 10-Апр-09, 07:44   +/
Повторю вечную истину:
"Обжегшись на молоке, на воду не дуют".
Статью следовало озаглавить "бекап/рестор" и переписать. Мои ИМХО.
P.S. боюсь думать, сколько протянет этот RAID после таких измывательств =-O
Ничего, после второго крупного попадалова на $ иногда люди учатся, но есть исключения.
Ответить | Правка | Наверх | Cообщить модератору

12. Сообщение от Serg (??), 13-Апр-09, 18:21   +/
НИКОГДА не делайте так, как описано.
Можно было избежать выделения значительной части адреналина, если бы автор следовал простому правилу - всегда перед реконфигурацией массива делать полный дамп данных, даже если массив находится в "degraded" режиме. Без одного винта данные бы прочитались, хотя и медленнее. А вот потом уже удалять/добавлять диски, проверять их и т.д. Ситуация с вылетом второго диска в массиве при попытке что-либо с ним сделать настолько стандартная, что ее даже к Мэрфи не отнесешь...
Ответить | Правка | Наверх | Cообщить модератору


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Спонсоры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2022 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру