> Возможно, про "одного" несколько перегнул. См. ниже.
> Но касаемо приведённых замеров, хотелось бы увидеть методику тестирования.сорри, пропустил в свое время. Да, методика тестирования незнамочего там - причудливенькая.
На некоторые вещи, тем не менее, ответ напрашивается:
> 1. Умеем читать оба диска в зеркале по очереди?
очевидно что наоборот - умеем читать параллельно. А писать - не умеем. (логичненько)
> 2. Тестировали примерно на 50% объёма одного НЖМД. Отсюда подскок выше 100%
причем бы тут объем? Зеркало и должно выдавать 2x на чтение - поскольку блоки читаются параллельно (при нормальной реализации, а не как у linux md)
>> 3x 4TB, mirror (raid1), 3.7 TB, w=106MB/s , rw=49MB/s , r=589MB/s
> 3. Чтение таки не совсем линейное. На 3-х шпинделях попадает хуже. (Или
2x3 = 6, что тут не так?
> 5. Гоп,стоп. Это что же, 200М/с = скорость *одного* диска? А что
да.
> тогда надо сделать, чтобы в *два* раза просадить запись?
писать на mirror - двойной объем.
> 6. Но даже так не сходится. Ладно, "raid5", 3 диска. *Два* читаем,
raidz из трех дисков при чтении первращается в страйп на три диска. _три_ читаем, это не дедушкин raid3 с выделенным диском контрольных сумм, который только тупит и тормозит, здесь чтение (при нормальной реализации) идет сразу с трех, поскольку блоки данных равномерно перемешаны с контрольными.
> bonnie++ -u nobody -d /home/test/ -s 51200 -r 8000 -n 0 -b
фаак, мои глазоньки.. ну есть же ж pastebin, не корежащий форматирование...
> Последние 2 замера позволяют примерно оценить вклад zfs в "порчу характеристик".
цифры latency - прямо скажем, странные.
Я бы заподозрил что в первом из этих двух последних работал кэш zfs.