The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux , opennews (??), 14-Июн-14, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


24. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –1 +/
Сообщение от barmaglotemail (??), 14-Июн-14, 11:27 
>> brtfs настолько сырая и кривая, что польоваться ею, - бред
> Обоснуй.

Дисковый формат они стабилизировали. Это да факт. Однако:

https://btrfs.wiki.kernel.org/index.php/Main_Page

The Btrfs code base is under heavy development. Every effort is being made to keep it stable and fast. Due to the fast development speed, the state of development of the filesystem improves noticeably with every new Linux version, so it's recommended to run the most modern kernel possible.

Нужны самые современные ядра, они очень много и быстро разрабатывают. Будем говорить о качестве ? В каждом новом ядре исправления. Так вот в "ынтырпрайзе" новых ядер просто нет. Есть стабильные. И спрашивается, я что постоянно должен заниматься гемороем под названием brtfs, что-бы система стабильно работала и данные не пропадали ? brtfs стали продвигать в продуктоив года полтора-два как, и сразу куча проблем вылезла, - включая потери данных. Просто на список багов посмотрите.

Вот свежачок кстати:

60666     File Sys     btrfs     josef     NEW     ---     3.10.3     kernel BUG at fs/btrfs/ctree.c:3000     2014-05-25
62371     File Sys     btrfs     josef     NEW     ---     3.11.1     brtfs crash under memory pressure     2013-09-30
72151     File Sys     btrfs     josef     NEW     ---     3.13     Btrfs is corrupted and "brtfs check" craches during recovery     2014-03-15
3 bugs found.

Ответить | Правка | Наверх | Cообщить модератору

57. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +/
Сообщение от Аноним (-), 14-Июн-14, 20:00 
> Так вот в "ынтырпрайзе" новых ядер просто нет. Есть стабильные.

Прохладная былина, чувачок. Особенно если вспомнить про бэкпорты.

Ответить | Правка | Наверх | Cообщить модератору

66. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +/
Сообщение от barmaglot1 (ok), 14-Июн-14, 22:18 
>> Так вот в "ынтырпрайзе" новых ядер просто нет. Есть стабильные.
> Прохладная былина, чувачок. Особенно если вспомнить про бэкпорты.

В бэкпорты никто новый функционал не добавляет. А если и добавляет, то он урод которого расстреливать нужно. В стабильных ветках ядра должны быть фиксы багов и безопасности, нового функционала быть не должно. диверсантов типа Поцтеринга,  нужно расстреливать.

Ответить | Правка | Наверх | Cообщить модератору

70. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –2 +/
Сообщение от Аноним (-), 14-Июн-14, 22:26 
> Поцтеринга,  нужно расстреливать.

Загвоздка в том что гарри поттер провернул немного своей уличной магии и расстреливать в результате будут другие, кулсисопов типа тебя, не способных к освоению изделий гарри поттера. Its magic, чувак.

Ответить | Правка | Наверх | Cообщить модератору

59. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –2 +/
Сообщение от Аноним (-), 14-Июн-14, 21:57 
> Вот свежачок кстати:
>  3.11.1  brtfs crash under memory pressure  2013-09-30

Свежак, и правда. Еще и года не прошло. Да чтоб ты продукты в магазине так покупал.

> 3 bugs found.

Если это все что вы нашли - btrfs в намного более хорошем состоянии чем предполагалось. Но да, его лучше использовать с свежими ядрами/утилитами, некромансия не пройдет. И RAID5/6 пока сырые нафигЪ. А это ...для симметрии посмотреть на остальные ФС - не, не надо? А то там тоже много интересного можно в коммитах, багтрекерах и списках рассылки найти. Ну разве что кроме случаев неуловимого Джо и совсем примитивных дизайнов типа FAT.

Ответить | Правка | К родителю #24 | Наверх | Cообщить модератору

64. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +1 +/
Сообщение от Аноним (-), 14-Июн-14, 22:15 
Как за долбало бить пионэров по башке на работе, вроде вас.
Ответить | Правка | Наверх | Cообщить модератору

72. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –3 +/
Сообщение от Аноним (-), 14-Июн-14, 22:32 
> Как за долбало бить пионэров по башке на работе, вроде вас.

Какое компетентное и технически аргументированное мнение. "Я еще только пять минут как из-за парты, но как же я вас, нубье, уже ненавижу!!!111".

Ответить | Правка | Наверх | Cообщить модератору

65. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +2 +/
Сообщение от barmaglot1 (ok), 14-Июн-14, 22:16 
>[оверквотинг удален]
> Свежак, и правда. Еще и года не прошло. Да чтоб ты продукты
> в магазине так покупал.
>> 3 bugs found.
> Если это все что вы нашли - btrfs в намного более хорошем
> состоянии чем предполагалось. Но да, его лучше использовать с свежими ядрами/утилитами,
> некромансия не пройдет. И RAID5/6 пока сырые нафигЪ. А это ...для
> симметрии посмотреть на остальные ФС - не, не надо? А то
> там тоже много интересного можно в коммитах, багтрекерах и списках рассылки
> найти. Ну разве что кроме случаев неуловимого Джо и совсем примитивных
> дизайнов типа FAT.

А красавчег. Из 3-х багов 2 этого года. И все не закрытые. И это гуано в продуктив  ? На домашний комп себе поставь.

В ZFS RAID-5/6 (Z/Z2)  и даже с тройной чётностью работают без проблем уже много лет ... Почему я должен использовать brtfs ?

Из религиозных побуждений ? В жопу религиозных фанатиков !

Ответить | Правка | К родителю #59 | Наверх | Cообщить модератору

73. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +/
Сообщение от Аноним (-), 14-Июн-14, 22:48 
> А красавчег. Из 3-х багов 2 этого года.

Как специалист по качеству кода могу заметить что 3 бага за год в проекте такого масштаба - это очень хороший результат. А так я и предлагаю: что если посмотреть на другие ФС и вообще развиваемый код? Там тоже баги будут ведь. А куда они денутся? Чудес не бывает - проект такого масштаба неизбежно содержит баги.

> И все не закрытые.

Баги случившиеся "1 раз на всю планету" довольно сложно закрывать. Underlying причина, например создание структур с ошибкой - может быть починена год назад, но про это скорее всего никто не сможет вспомнить в рамках нового бага. А то что оно еще год работало, а потом все-таки упало - ну да, бывает и вот так.

> И это гуано в продуктив  ? На домашний комп себе поставь.

А у меня есть пара томов с btrfs, приколись? И оно даже работает, если извращениями не заниматься. Правда, у меня везже весьма свежие ядра. Потому что я в отличие от - читаю каменты к коммитам и поэтому догадываюсь зачем ядра апдейтить :).

> В ZFS RAID-5/6 (Z/Z2)  и даже с тройной чётностью работают без
> проблем уже много лет ...

Понятие о "без проблем" у всех разное. Кого-то может и устроит тормозливый дизайн без экстентов, ручное управление кэшом и невозможность отобрать память гарантированно, клещинг с БД, сложности с изъятием дисков из пула и прочие прелести. А как по мне - в 2014 можно и получше CoW отбабахать, без таких проблем. И так, на уровне дизайна btrfs может например разложить  вот этот файл как mirror, а вон тот - как stripe. А для вон того файла можно CoW отключить. С вон того диска можно без особых сложностей и быстро данные подвинуть на соседние и в результате корректно изъять диск из пула. С сокращением свободного места, ага. И гибкость в размещении структур такова что оно даже ранее лежавший ext4 может оформить как "а это у нас тут начальный снапшот, типа". И так далее. ИМХО очень перспективные задатки. И их нельзя просто пойти и привинтить сбоку, такие вещи требуют продумывания на фазе начального дизайна. В btrfs вот продумали, в отличие от.

> Почему я должен использовать brtfs ?

Никому вы ничего не должны, если не занимали.

> Из религиозных побуждений ? В жoпу религиозных фанатиков !

Вот я и говорю - саночные кулсисопы могут отправляться в жoпу со своим полурелигиозным маркетинговым булшитом типа рассказов о том как CoW не надо дефрагер. Ибо любой у кого мозг покрупнее куриного и кто понимает как работает CoW понимает что там фрагмент на фрагменте и фрагментом погоняет. А рассказывать про ненyжность дефрага могут только лицемеры и фанаты.

Ответить | Правка | Наверх | Cообщить модератору

117. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –1 +/
Сообщение от linux must _RIP__ (?), 16-Июн-14, 20:27 
вопрос - зачем там экстенты - если там переменный размер блока?
По сути это тот же экстент - только называется иначе, и наш профайлинг говорит что с него реально добиться скоростей 2-4 GB/s на чтении, и  порядка 2GB/s на запись. Приколись.
Чуть хуже ext4 + raid6, но бонусы архитектуры перекрывают минусы.

А сколько дает ваша btrs ?

Ответить | Правка | Наверх | Cообщить модератору

121. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +1 +/
Сообщение от Аноним (-), 17-Июн-14, 02:51 
> вопрос - зачем там экстенты - если там переменный размер блока?

Затем, что экстент позволяет помечать одним махом БОЛЬШОЙ регион. Это снижает оверхед по метаданным в ряде нагрузок. И в большинстве нагрузок это работает лучше. Поэтому большинство новых дизайнов взяли на вооружение эту технику. Правда просто? :)

> По сути это тот же экстент - только называется иначе,

Только максимальный размер сильно ниже. Стало быть оверхед на работу с метаданными - больше. Получилось истинно в духе санок: ни два, ни полтора. То-есть, дизайн уже усложнился, а вот хороших параметров из этого недоразумения никто так и не увидит. Вот и приходится подпирать гигазами буферов. Ну а хренли, рамдиски - они быстрые. Только это не заслуга структур разложенных на диске, мягко говоря.

> и наш профайлинг говорит что с него реально добиться скоростей 2-4 GB/s на
> чтении, и  порядка 2GB/s на запись. Приколись.

А приколись, "в среднем по больнице" экстенты будут при прочих равных в одной и той же конфиге эффективнее подобных недомерков под большинством нагрузок. Хуже от них как правило не становится, за исключением всяких клинических случаев "Шишкин-стайл" (когда некто поставил себе задачу нагнуть механику конкретной ФС).

> Чуть хуже ext4 + raid6,

А чуть - это сколько в граммах? И, конечно же, это было тестировано на свежем и пустом пуле, с нулевым временем эксплуатации, правда же? Ну так, чтобы не сталкиваться с всякой там фрагментацией от CoW и тем фактом что "дефрагера нету, б...ь!". Красиво втирать очки утырки из сана умеют, факт. А вот на неудобные вопросы - увиливают от ответа. А вот это мне уже не нравится, т.к. в результате "под капотом" обнаруживаются далеко не самые приятные сюрпризы, а снимая маркетинговую лапшу с ушей как-то лоховато себя ощущаешь.

> но бонусы архитектуры перекрывают минусы.

И какие там "бонусы архитектуры"? Я в основном увидел массу саночного маркетингового булшита. Но это плохой, негодный бонус. А так - первый блин комом. Ну вот и первый CoW-based дизайн который стал сколь-нибудь массовый - как-то так же.

> А сколько дает ваша btrs ?

Да без понятия - вы даже конфиг не указали, не говоря о том что шансы что у меня "совершенно случайно" окажется "рояль в кустах" в виде точно такого же конфига - достаточно скромные. Тем не менее, помнится btrfs вставлял ZFSу в бенчах даже когда был молодой и зеленый. А с тех пор его оптимизили к тому же. И еще вагон места для оптимизаций остался.

Ответить | Правка | Наверх | Cообщить модератору

128. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +/
Сообщение от linux must _RIP__ (?), 17-Июн-14, 07:56 
> Затем, что экстент позволяет помечать одним махом БОЛЬШОЙ регион. Это снижает оверхед по метаданным в ряде нагрузок. И в большинстве нагрузок это работает лучше. Поэтому большинство новых дизайнов взяли на вооружение эту технику. Правда просто? :)

А теперь сравните с переменным размером блока. Блок может быть как 512 байт, а следующий блок может быть 2 мегабайта - что позволяет одном логическим блоком накрыть произвольный регион в файле. И чем это отличается от extent? ведь правда просто.

> Затем, что экстент позволяет помечать одним махом БОЛЬШОЙ регион. Это снижает оверхед по метаданным в ряде нагрузок. И в большинстве нагрузок это работает лучше. Поэтому большинство новых дизайнов взяли на вооружение эту технику. Правда просто? :)

Большой это сколько? в zfs размер блока может быть несколько мегабайтов. в ext4 extent примерно того же размера (просто организация fs такая что не выделишь неделимый кусок больше чем группа позволит).
Поймите же наконец - extent не панацея - ту же функциональность можно реализовать другими средствами.
что в zfs и сделали. Зато COW в случае блочной организации делается проще. Правда просто?

> А приколись, "в среднем по больнице" экстенты будут при прочих равных в одной и той же конфиге эффективнее подобных недомерков под большинством нагрузок. Хуже от них как правило не становится, за исключением всяких клинических случаев "Шишкин-стайл" (когда некто поставил себе задачу нагнуть механику конкретной ФС).

Перестань курить траву и начинай думать. От того что переменный размер блока назвали extent - разницы не получается. Поверь у меня данных о том как ведут себя разные FS под большой нагрузкой - на порядок больше.
Большой - это реально большой - а не домашний NAS.
Не веришь - спроси Шигорина :) он таки догадывается из какой я конторы и чем занимаюсь.

> но бонусы архитектуры перекрывают минусы.
> И какие там "бонусы архитектуры"

Возможность без проблем выделить zvol в отдельный модуль и не иметь всякого POSIX overhead поверх тривиального контейнера с транзакциями. Хотя бы этот.
Ленивые транзации - сильно ленивые - что позволяют сильно агрегировать блоки в случае поточной записи. cache - что позволяет обходиться без подпорок типа flashcache/bcache и тому подобных, перемещая нужные данные на ssd для быстрого доступа.
raid-z сильно интересен, ибо близок к parity declustered raid, а не подпорки типа raid5/6.
чем это лучше - почитай в интернетах.

Мало?

> Чуть хуже ext4 + raid6,
> А чуть - это сколько в граммах?

около 10% если я правильно помню документ. А за ним лесть лениво.

> Да без понятия - вы даже конфиг не указали, не говоря о том что шансы что у меня "совершенно случайно" окажется "рояль в кустах" в виде точно такого же конфига - достаточно скромные. Тем не менее, помнится btrfs вставлял ZFSу в бенчах даже когда был молодой и зеленый. А с тех пор его оптимизили к тому же. И еще вагон места для оптимизаций остался.

Дисковая полка от CS9000. 5U84 в 2х raid-z. SAS, PCIe v3, LSI чип. Винты какие-то WD.
тюнинг не помню. Да и не я делал. Я лишь видел документы.

Ответить | Правка | Наверх | Cообщить модератору

132. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +1 +/
Сообщение от Аноним (-), 17-Июн-14, 19:12 
> А теперь сравните с переменным размером блока. Блок может быть как 512
> байт, а следующий блок может быть 2 мегабайта -

А в EXT4 например экстент может быть 128Мб за 1 присест. Некая разница с 2Мб, да?

> что позволяет одном логическим блоком накрыть произвольный регион в файле.

Не "произвольный" а "до 2 мегабайтов". Спору нет, это лучше чем пипеткой по 512 байтов и даже 4Кб. Но смотрится полумерами на фоне нормальных экстентов.

> И чем это отличается от extent? ведь правда просто.

Размером. Ну и количеством операций с метаданными в результате. Потому и будет сдристывать в бенчмарках и дальше.

> Большой это сколько?

У EXT4 например до 128Мб. В btrfs честно говоря с ходу не помню какие лимиты, но весь пойнт экстентов - в том чтобы за 1 присест метить *большие* регионы. Чем больше - тем лучше. В плане оверхеда по метаданным. Потому что хранить размер экстента где-то и как-то все это адресовать - придется, а если экстентов много и мелких - это будет не сильно лучше более дубовых техник. А в клиническом случае (много мелких экстентов) - может оказаться даже хуже. Т.к. оверхед на работу с метаданными будет конский.

Эталонный пример покладания экстентной механики - скачать мелкоблочный и многогигабайтный торрент без преаллокации. Получится туева хуча экстентов и вы узнаете как выглядит оверхед при работе с метаданными.

> в ext4 extent примерно того же размера

Да, всего 128Мб. Вместо 2. В какие-то 64 раза отличие. Всего-то :).

> (просто организация fs такая что не выделишь неделимый кусок больше
> чем группа позволит).

Ну да. Поэтому есть лимиты. Но 128Мб - это все-таки не 2. Это уже приличный кусок. В то что почти все записи умещаются в 128Мб - я еще поверю. В то что все записи лезут в 2Мб - да ЩАЗЗЗ.

> Поймите же наконец - extent не панацея - ту же функциональность можно
> реализовать другими средствами.

Экстенты не панацея а средство снижения оверхеда по метаданным при файловых операциях и ускорения этих операций. И нет, блок в 2Мб не аналог экстента в 128Мб а дешевый китайский пластиковый эрзац в лучшем случае. Потому что в 64 раза меньше. Значит на одну запись 128Мб оно дернется 64 раза. А ext4 - один раз. "Небольшая" такая разница по оверхеду.

> что в zfs и сделали.

Там сделали как обычно в духе саней: оверинженеринг с хреновыми параметрами на выходе и громким маркетинговым булшитом вытягивающим инженерные ляпы.

> Зато COW в случае блочной организации делается проще.

Не очень понятно чем стало так уж сильно проще. Блоки переменного размера как верно замечено не очень отличаются от экстентов в плане того что кластерфак с вычислением размещения и хранением подобных сведений - уже появляется. И величина вида "100 блоков" уже не является чем-то определенным, так что многие возможные упрощения вычислений отваливаются. А вот эффективность характерная для экстентов - она где?! Сделать в 64 раза больше операций чем EXT4 на записи 128Мб куска - это не "эффективность". Это фэйл. У экстентных дизайнов сроду нет таких мизерных лимитов на размер.

> Правда просто?

Да, у саней так вообще любят - забить на сложные проблемы, получить нечто заурядное, а потом силами маркетоидов вытягивать это инженерное решение, выпячивая сильные стороны и запинав под ковер недостатки. Которые, однако, никуда не деваются. Просто потом будут неприятные сюрпризы о которых маркетоиды рассказать забудут. А я не люблю неприятные сюрпризы и предпочитаю честное понимание свойств. Какой мне смысл самого себя обманывать? Ну маркетологам то понятно какой - они продажи соляры толкали. А вот идея надувать самого себя мне кажется довольно спорной.

>> А приколись, "в среднем по больнице" экстенты будут при прочих равных в одной и той же конфиге эффективнее подобных недомерков под большинством нагрузок. Хуже от них как правило не становится, за исключением всяких клинических случаев "Шишкин-стайл" (когда некто поставил себе задачу нагнуть механику конкретной ФС).
> Перестань курить траву и начинай думать. От того что переменный размер блока
> назвали extent - разницы не получается.

А разница в максимальном размере. Два мега - жалкая пародия на экстенты. В плане overhead по метаданным и числу операций.

> том как ведут себя разные FS под большой нагрузкой - на
> порядок больше.

Никак не отменяет здравый смысл. И результаты бенчей с ним почему-то согласуются.

> Большой - это реально большой - а не домашний NAS.

А большая нагрузка - это работа со скоростями близкими к скорости линейного доступа накопителя. Если в терминах ФС. Работа с 100500 дисков в рамках одной ФС - это вообще отдельный случай, у вас оно кажется уже начинает становиться из разряда клиники. Если у вас задача вида "160Tb одним куском" - есть нехилый шанс что гнать надо архитекта такой системы, ссаными тряпками и сpaной метлой. А не геройствовать, фикся bottleneck-и в 1 системе, по принципу "ничего не знаю, после оптимизации даже кит и слон у нас полетят". Кэп намекает что 10 серверов с 16Тб дисков каждый имеют все основания работать лучше чем 1 сервак с 160Гб переросточным диском. Меньше мест для bottleneck-ов.

> Не веришь - спроси Шигорина :) он таки догадывается из какой я
> конторы и чем занимаюсь.

По моим наблюдениям ты занимаешься болтологией, поливанием линя помоями и выгораживанием задницы саней и их технологий. При том я упорно не вижу ничего такого замечательного в этих сановских технологиях. В лучшем случае нечто достаточно заурядное и средненькое оказывается. А маркетинговых соплей зато - как для панацеи прямо.

> Возможность без проблем выделить zvol в отдельный модуль и не иметь всякого
> POSIX overhead поверх тривиального контейнера с транзакциями.

Это очень нишевой "плюс архитектуры", нужный немногим. Обычно всем нужна прежде всего файловая система все-таки. И вот как файловая система ZFS выглядит переростком с довольно заурядными параметрами и рядом бестолковых ляпов.

> Хотя бы этот.

Не вижу чего ради оно должно считаться жирным плюсом "само по себе". Не, ну я понимаю что соляра - как вигвам, ничего нет. Поэтому в ZFS сани впихнули вообще все чего не хватало в соляре. Но в других осях и до ZFS уже был и менеджмент томов и управление кэшом. И поэтому за плюс впихон всего этого в ФС может считаться только с большими оговорками. Лишь когда дает что-то особенное, чего иначе не получается или получается плохо. В btrfs например RAID как минимум чисто техничечки может то, чего не может RAID блочного уровня: рулить уровнями RAID пообъектно. Ну ок, это мне понятно - достаточно интересный маневр, основанный на том факте что ФС сама рулит томами, знает на каких девайсах и сколько места и решает куда и сколько раскидать. И в нужный момент может принять решение "а как раскидывать по девайсам, собственно". Раскидав так как попросил юзер, если конечно это технически возможно (aka достаточно места на разных девайсах для реализации запрошенного варианта хранения). В этом случае мне такая архитектура еще понятна. А "сферический ZVOL в вакууме" конечно замечательно, но чего такого уникального и кому оно дает? Или может быть от того факта что "это ZVOL" что-то станет работать в 2 раза лучше чем было?

> Ленивые транзации - сильно ленивые - что позволяют сильно агрегировать блоки в
> случае поточной записи.

С хрена ли оно плюс, если так или иначе объединять блоки умеют все современные ФС?

> cache - что позволяет обходиться без подпорок типа flashcache/bcache и тому подобных,

Опять же - см. выше. Подпорки или не подпорки - вопрос эстетики и на результат в конечном итоге влияет слабо. Что нового эта технология привносит? Или что начинает работать лучше чем было? Иначе какой же это козырь относительно других?

> перемещая нужные данные на ssd для быстрого доступа.

Спору нет - фича полезная. Но опять же - такое и btrfs чисто технически может.

> raid-z сильно интересен, ибо близок к parity declustered raid, а не подпорки
> типа raid5/6.

Ок, сам по себе raid-z не самая плохая штука. Как RAID. Как считается parity в RAID5/6 мне не особо нравится, недостаточно generic схемы. Тем не менее, в RAIDовых вопросах btrfs интересен тем, что технически он может рулить уровнем RAID-а пообъектно. Так что ценные файлы можно хранить с бОльшим расходом места, а барахло можно например по скорости оптимизировать, а если продолбается - "еще раз закачают, не развалятся". Ну там отчеты бухов - они более важны чем видео с корпоративного бухалова. Ну или мои программы мне нужнее чем допустим мувик с торентов. Ибо переписывать пол-проги при крахе обидно, а мувик с торента я еще раз перекачаю, если оно того вообще стоит.

> Мало?

Да вроде не дофига.

> около 10% если я правильно помню документ. А за ним лесть лениво.

Сдается мне что этот процент весьма варьируется в зависимости от ворклоада, конфиги и прочая. И далеко не всегда 10%. Кстати насколько всем надо 169Тб тома - видно хотя-бы потому что поддержку всего этого в EXT4 и тулсы запилили относительно недавно, хотя дисковый формат как бы не возражал против этого достаточно давно.

> Дисковая полка от CS9000. 5U84 в 2х raid-z. SAS, PCIe v3, LSI
> чип. Винты какие-то WD тюнинг не помню. Да и не я делал. Я лишь видел документы.

Там еще поди роялит CPU, память и прочее. А в чем пойнт спрашивать "сколько на этом выжмет ZFS"? Думаешь, я побегу собирать такую конфигу и измерять? Специально для тебя?

Ответить | Правка | Наверх | Cообщить модератору

135. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  –1 +/
Сообщение от linux must _RIP__ (?), 17-Июн-14, 19:40 
> А в EXT4 например экстент может быть 128Мб за 1 присест. Некая разница с 2Мб, да?

Хотите скажу страшную тайну - реальных таких размеров не бывает. Да и размер группы не позволит это сделать.
и mballoc не позволит выделить такой размер - ну не умеет он как не старайся. Не затачивали его под это.
Так что не надо рассказывать сказки.  То что теоритически так можно сделать - то это не значит что так сработает.

> А большая нагрузка - это работа со скоростями близкими к скорости линейного доступа накопителя.

Большая нагрузка это когда SAS шина не успевает за дисковой полкой. а потом ложится PCI-e. А диски еще позволяют дальше качать.

> Кэп намекает что 10 серверов с 16Тб дисков каждый имеют все основания работать лучше чем 1 сервак с 160Гб переросточным диском. Меньше мест для bottleneck-ов.

Кэп намекает что 10 серверов с таким количеством дисков жрут сильно больше электричества требуют в 10 раз больше площащи под датацентр. Понимаешь в чем дело... у нас объемы измеряются Pb, а не Тb.. ну там хранилище на 10Pb, или 60Pb.. сколько серверов потребуются с 16T дисками? а сколько с 160T?


> Это очень нишевой "плюс архитектуры", нужный немногим. Обычно всем нужна прежде всего файловая система все-таки.

А нам не нужна - представляете? даже вредна. Отказ от posix уровня дает +30% производительности.
зачем это надо.. Да хотя бы для Swift хранилищь или чего другого object storage или для HPC.

> Не вижу чего ради оно должно считаться жирным плюсом "само по себе"

Остальной бред поскипан. Райд по объектам весьма частный случай parity declustering. Который опять же придуман был не сотрудниками btrfs.


> С хрена ли оно плюс, если так или иначе объединять блоки умеют все современные ФС?

Знаете ли есть разница объединить за 1с или за 200с. это разные интервалы. я не зря сказал очень ленивые.

> перемещая нужные данные на ssd для быстрого доступа.
> Спору нет - фича полезная. Но опять же - такое и btrfs чисто технически может.

Технически это может любая FS, а в рабочем состоянии есть только в zfs.

> Опять же - см. выше. Подпорки или не подпорки - вопрос эстетики и на результат в конечном итоге влияет слабо.

так вы определитесь - возможность встроить кэш в FS это полезная штука или на результат не влияет? а то вы уже запутались :)

Вот к примеру свеже убитый ext4 том - из-за raid mirror на котором лежал журнал этой FS. из-за того что ext4 зачем-то пихает в журнал все директории с которыми работает при lookup - даже при no_atime - получили кашу.
а всего-то raid начал синкать диски в момент journal replay. Итог убитый диск и 2 дня на написание инструментария по выколупывания данных.

> Кстати насколько всем надо 169Тб тома - видно хотя-бы потому что поддержку всего этого в EXT4 и тулсы запилили относительно недавно, хотя дисковый формат как бы не возражал против этого достаточно давно.

Поддержку 128Т запилили. причем около года назад - до этого e2fsck корежил файлы за пределами 32T. Режим over 128T пока не тестирован в e2fsprogs и ext4. честно. Причем я знаю до сих пор места в e2fsprogs которые могут выстрелить при работе с дисками в 128Т и данные будут частично поехерены.;
Так что на свой страх и риск..

Ответить | Правка | Наверх | Cообщить модератору

147. "Новый выпуск ZFSonLinux 0.6.3, реализации ZFS для ядра Linux..."  +1 +/
Сообщение от Аноним (-), 19-Июн-14, 01:18 
> Хотите скажу страшную тайну - реальных таких размеров не бывает.

С фига ли? Потому что вам с вашим ZFS так неудобно?

> Да и размер группы не позволит это сделать.

Не позволит сделать ... что? Экстент 128 метров? IIRC группы вроде обычно крупнее 128Мб.

> Так что не надо рассказывать сказки.  То что теоритически так можно
> сделать - то это не значит что так сработает.

Тем не менее, я полагаю что верхний лимит здорово больше чем 2Мб. Так себя обрубить при техническом лимите в 128 было бы глупо.

> Большая нагрузка это когда SAS шина не успевает за дисковой полкой. а
> потом ложится PCI-e. А диски еще позволяют дальше качать.

Скорее это дурной переросток с дурными bottleneck-ами. Надо же какое открытие - оказывается PCI-E тоже можно тормознуть! Если сильно постараться.

> Кэп намекает что 10 серверов с таким количеством дисков жрут сильно больше
> электричества требуют в 10 раз больше площащи под датацентр.

А также работают быстрее. За счет отсутствия кучи дурных bottleneck. Хотя тут еще зависит от того что сервак с этой кучей данных делает.

> там хранилище на 10Pb, или 60Pb.. сколько серверов потребуются с 16T
> дисками? а сколько с 160T?

Ну ок, убедил, у вас и правда дохрена данных. Так понятнее зачем вам такие странные конфиги.

> А нам не нужна - представляете? даже вредна. Отказ от posix уровня
> дает +30% производительности.

А если всю операционку переписать на хардкорном асме, оптимизнув под проц который в вон той машине - будет совсем крутота. Правда, рулить ОС и развивать ее будет неудобно. По каким-то таким причинам оси на асме целиком и не пишут. И использовать конструкции без ФС нынче желанием не особо горят, невзирая на меньший оверхед. Админить неудобно. Не, я видал экспонаты и покруче, но это была узконишевая специализированная хрень, абсолютно не гибкая. И поэтому у тебя ее никогда не будет, несмотря на то что мысль лить с диска в сеть 10Гбит железкой кушающей несколько ваттов, мизерного размера, вместо здоровенного сервера - смотрится круто. На первый взгляд. А на второй оказывается что оно из-за предельной оптимизации не гибкое.

> зачем это надо.. Да хотя бы для Swift хранилищь или чего другого
> object storage или для HPC.

На практике я вижу уход от использования подобных технологий в сторону нормальных файловых систем. И вероятно nodatacow был привинчен ораклем как раз чтобы ФС превратилась в относительно тонкий слой, когда она не очень мешается БД (особенно своим CoW), но все-таки является для админа ФСом, с работающими на ней позиксными тулзами.

> Остальной бред поскипан. Райд по объектам весьма частный случай parity declustering.

Тем не менее, достаточно логично сделано, имхо.

> Который опять же придуман был не сотрудниками btrfs.

Нынче придумано много чего. Вопрос в том кто и как это скомпонует и как это работать будет

> Знаете ли есть разница объединить за 1с или за 200с. это разные
> интервалы. я не зря сказал очень ленивые.

IIRC такие вещи в ряде ФС настраиваются. У бтрфс даже вроде есть нужные рукоятки. Я правда не собираюсь продалбывать 200 секунд данных в случае краха/слета питания/чтотамеще, поэтому в такие дебри не лез. Но помню что видел рукоятки для этого у несколких ФС. По поводу чего не допираю почему это преподносится как эксклюзивный плюс, опять же.

> Технически это может любая FS, а в рабочем состоянии есть только в zfs.

Это при том что ты сам кивал на системы перемещения/кеширования? Вот это я понимаю, лицемерие во весь рост.

> так вы определитесь - возможность встроить кэш в FS это полезная штука
> или на результат не влияет? а то вы уже запутались :)

Смотря какой кэш и что это даст. Если кэш в RAM и с управлением памятью как в ZFS - себе такое "счастье" оставьте, имхо. А в целом я не заклинен на тех или иных концепциях. В пингвине стандартная практика - делать так как лучше работает, а не так как расово верно. Поэтому если где-то кэш в ФС лучше работает - пусть в ФС будет, мне не жалко. Но тогда пусть нормально с ядром дружит на предмет возможности этот кэш урезать при необходимости выделить память программам. Иначе - нафиг нужно такое счастье. Управление памятью - прерогатива ядра. И если ФС не хочет нормально дружить с ядром по этому поводу - пусть идет в пень.

> а всего-то raid начал синкать диски в момент journal replay. Итог убитый
> диск и 2 дня на написание инструментария по выколупывания данных.

Бывают в жизни огорчения. Правда звучит как-то странно - а зачем что-то делать с журналом при noatime и только чтении?

> Поддержку 128Т запилили. причем около года назад - до этого e2fsck корежил
> файлы за пределами 32T. Режим over 128T пока не тестирован в
> e2fsprogs и ext4. честно.

Да потому что такие переростки используются полутора человеками на всю планету. Ну вот они и будут все грабли на свой лоб собирать. Чем менее популярная конфига - тем выше вероятность что будут какие-то проблемы которые вы первыми на планете обнаружили.

> Так что на свой страх и риск..

Да кто бы сомневался. А вон у бздюков ZFS вис из-за нереализованного sendfile в свое время, что не помешало этим упырям заявить что оно "стабильное". И историю заката солнца вручную на лисяре можно найти. При том ок, конкретно тот случай они в утилиты втрамбовали. А еще 100500 вариантов того как оно порушится при вылезании бэдсектора?

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру