The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..., opennews (ok), 03-Май-20, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


247. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +1 +/
Сообщение от пох. (?), 04-Май-20, 20:44 
про 8 ожидаемо говорить, что будет МЕДЛЕННЕЕ чем с 16 (кстати, тебе данных вообще, походу, не жаль) - тебе надо переписать 1/8 данных, а не 1/16, причем источник 7x, а не 15x (что может и не сказаться, но скорее всего таки скажется)

А тут mirror, надо переписать вообще весь объем, причем читая с единственного уцелевшего (и там есть throttle, потому что мы не хотим его тоже убить)- читать его придется долго.

Ответить | Правка | Наверх | Cообщить модератору

256. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Михрютка (ok), 05-Май-20, 00:15 
ну да, в рейд5 нам придется переписывать на спар не весь объем.

и дергать при этом не один диск, а все уцелевшие разом, это же гораздо полезней для здоровья.

Ответить | Правка | Наверх | Cообщить модератору

284. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от пох. (?), 05-Май-20, 14:48 
> ну да, в рейд5 нам придется переписывать на спар не весь объем.

естественно не весь.
Чем больше дисков в группе - тем меньше "весь". А тут у анонима вообще громадные 8 и 16 группы. (другой вопрос что я бы не рискнул такие эксплуатировать с пятым рейдом, даже с дисками по пол-терабайта)

> и дергать при этом не один диск, а все уцелевшие разом, это
> же гораздо полезней для здоровья.

разумеется, распределенная нагрузка гораздо полезнее для их здоровья, чем пиковая на единственный уцелевший привод.

Собственно, для зеркала из более двух дисков все то же самое, но ты, наверное, не хочешь 3+way-mirror.

Ответить | Правка | Наверх | Cообщить модератору

290. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Михрютка (ok), 05-Май-20, 19:56 
>> ну да, в рейд5 нам придется переписывать на спар не весь объем.
> естественно не весь.
> Чем больше дисков в группе - тем меньше "весь". А тут у
> анонима вообще громадные 8 и 16 группы. (другой вопрос что я
> бы не рискнул такие эксплуатировать с пятым рейдом, даже с дисками
> по пол-терабайта)
> разумеется, распределенная нагрузка гораздо полезнее для их здоровья, чем пиковая на единственный
> уцелевший привод.

эм, секунду. для ввода спара в рейд5 вам придется для каждого записываемого на спар страйпа прочитать все диски.

я пытаюсь понять, где здесь распределение нагрузки в рейд5 и где ускорение времени работы для 8 против 16 дисков, о которой вы сказали, но пока не понимаю. амплификацию чтения в рейд5 я вижу, а выгоды рейд5 против зеркала не вижу. пиковой нагрузки обычно тоже, для этого есть приоритет, если потребуется.

> Собственно, для зеркала из более двух дисков все то же самое, но
> ты, наверное, не хочешь 3+way-mirror.

в некоторых местах хочу, но денег не дают. собсно, массивы на 16 и более шпинделей по той же причине.

>>>громадные 8 и 16 группы.

NETAPP: Hold my beer

Ответить | Правка | Наверх | Cообщить модератору

293. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от пох. (?), 05-Май-20, 22:58 
> эм, секунду. для ввода спара в рейд5 вам придется для каждого записываемого на спар страйпа
> прочитать все диски.

да, а теперь вопрос - сколько этих страйпов в процентах от существующих придется прочитать, для замены одного диска в 16x raid5 - и сравните это с mirror, где придется прочитать ровно ВСЕ данные. Тоже со "всех" дисков - их всего один.

> я пытаюсь понять, где здесь распределение нагрузки в рейд5 и где ускорение времени работы
> для 8 против 16 дисков

в raidz1 (это не совсем 5, но в данном случае неважно) блоки раскидываются равномерно на всю группу. Вот есть у тебя файлик, предположим он большой - он лег по одному блоку на каждый из твоих 16 (один из них лишний, но нам это неважно). Один диск сдох - ради этого файлика надо перезаписать ровно один блок.
В группе из 8 - ради этого же точно файлика надо перезаписать уже ДВА блока - потому что он теперь занимает вдвое больше места на каждом из оставшихся дисков. Так доходит?
Причем первый раз мы читали с 15 дисков одновременно - а во втором читаем с семи, вдвое больший объем с каждого. Какая операция быстрее?

> NETAPP: Hold my beer

никого еще не уволили за то, что в конторе использовали netapp. Нехай его инженеры и расхлебывают (но вообще-то там местный аналог raidz2)

В случае же zfs, за который могут и уволить - я придерживаюсь старинного правила "число дисков в raidN группе не стоит делать заметно больше чем N+2", и еще более старинного "старайся же, чтобы число их было - нечетно"
При этом число vdev в пуле - всегда можно нарастить.

Ответить | Правка | Наверх | Cообщить модератору

294. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Михрютка (ok), 06-Май-20, 00:32 
>> эм, секунду. для ввода спара в рейд5 вам придется для каждого записываемого на спар страйпа
>> прочитать все диски.
> да, а теперь вопрос - сколько этих страйпов в процентах от существующих
> придется прочитать, для замены одного диска в 16x raid5 - и

100%

>[оверквотинг удален]
> раскидываются равномерно на всю группу. Вот есть у тебя файлик, предположим
> он большой - он лег по одному блоку на каждый из
> твоих 16 (один из них лишний, но нам это неважно). Один
> диск сдох - ради этого файлика надо перезаписать ровно один блок.
> В группе из 8 - ради этого же точно файлика надо перезаписать
> уже ДВА блока - потому что он теперь занимает вдвое больше
> места на каждом из оставшихся дисков. Так доходит?
> Причем первый раз мы читали с 15 дисков одновременно - а во
> втором читаем с семи, вдвое больший объем с каждого. Какая операция
> быстрее?

они одинаково быстрые. в массиве умер диск. все страйпы, лежавшие на этом диске деградировали. для ребилда придется прочитать все страйпы. я чего-то не понимаю, а?

>> NETAPP: Hold my beer
> никого еще не уволили за то, что в конторе использовали netapp. Нехай
> его инженеры и расхлебывают (но вообще-то там местный аналог raidz2)
> В случае же zfs, за который могут и уволить - я придерживаюсь
> старинного правила "число дисков в raidN группе не стоит делать заметно
> больше чем N+2", и еще более старинного "старайся же, чтобы число
> их было - нечетно"
> При этом число vdev в пуле - всегда можно нарастить.

ну вот нетапп не мелочится, у них в ontap системах 8 дисков это минимум рекомендованный, а так до 20 то ли до тридцати, сейчас уже не помню. а что там у них за вафля внутри, и про raid-dp с raid-tec (который местный аналог raidz3) я немножко в курсе.

Ответить | Правка | Наверх | Cообщить модератору

299. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от пох. (?), 06-Май-20, 11:04 
> они одинаково быстрые. в массиве умер диск. все страйпы, лежавшие на этом
> диске деградировали. для ребилда придется прочитать все страйпы. я чего-то не
> понимаю, а?

разницу между 1/16 и 1/8 похоже.
ФИЗИЧЕСКИ,блин не влезет туда столько.
Избыточность 16дискового массива - вдвое меньше. Поэтому и копировать при том же объеме - меньше.
В случае raidz еще и читать - поскольку там не гарантировано намазывание на диски ровным слоем, а гарантировано наличие избыточности для любого блока, насколько я их понял.

> ну вот нетапп не мелочится, у них в ontap системах 8 дисков
> это минимум рекомендованный, а так до 20 то ли до тридцати,
> сейчас уже не помню. а что там у них за вафля
> внутри, и про raid-dp с raid-tec (который местный аналог raidz3) я

ну так z3 и по моему правилу - начинается от девяти. Но и там я бы не хотел видеть неразборный пул на 30 штук даже с z3 - если в случае чего спросят с меня, а не с нетаппа, который в крайнем случае - ну извинится.
2x15 несколько менее ужасен, а потери из-за двух лишних дисков вообще не заметны на таком количестве.

Причем диски у них малоемкие, соответственно, и копировать в случае чего не так много как в васян-сборке из аж ВОСЬМИ на 50T как нам тут презентуют некоторые граждане.

Ответить | Правка | Наверх | Cообщить модератору

302. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Михрютка (ok), 06-Май-20, 15:37 
> разницу между 1/16 и 1/8 похоже.
> ФИЗИЧЕСКИ,блин не влезет туда столько.
> Избыточность 16дискового массива - вдвое меньше. Поэтому и копировать при том же
> объеме - меньше.
> В случае raidz еще и читать - поскольку там не гарантировано намазывание
> на диски ровным слоем, а гарантировано наличие избыточности для любого блока,
> насколько я их понял.

вы зачем мне картину мира рушите? в случае raidz1 избыточность что 16-, что 8-дискового массива одинакова. это один физический диск. не полдиска, и не полтора. оверхед на четность, может, вы имели в виду? так в zfs, насколько я помню, это не только от количества дисков в vdev зависит.

на пальцах, если у вас на 1/16 лежит файл размером 15*recordsize, он вместе с четностью займет 16*recordsize, и для его восстановления потребуется 15 чтений. на 1/8 этот же файл с четностью займет 18*recordsize, и для его восстановления потребуется 14 или 15 чтений. я не вижу здесь "копировать меньше".

поправьте меня, если я ошибаюсь.

Ответить | Правка | Наверх | Cообщить модератору

307. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Аноним (-), 07-Май-20, 14:28 
> А тут у анонима вообще громадные 8 и 16 группы. (другой вопрос что я бы не рискнул такие эксплуатировать с пятым рейдом,

А кто что говорил про именно 5?
Кроме raidz1 есть же raidz2 (читай RAID6) и даже raidz3 (читай RAID7, хотя последнее это ИМХО перебор).

Ответить | Правка | К родителю #284 | Наверх | Cообщить модератору

263. "Выявлена несовместимость SMR-дисков WD с ZFS, которая может ..."  +/
Сообщение от Аноним (236), 05-Май-20, 04:02 
> А тут mirror, надо переписать вообще весь объем,

к своему стыду должен признаться, что не стыкался со сбоями дисков больших обьёмов в простых mirror'aх. Самое большее что видел, как ребилдилось в простом RAID1 - это 2Тб диск. Нормально было по времени. В RAID10 видал крахи и по-больше, но там и скорость отличается.

Ответить | Правка | К родителю #247 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру