The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров, opennews (??), 17-Фев-16, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


13. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  +1 +/
Сообщение от Celcion (ok), 18-Фев-16, 00:42 
От дедупликации есть нехилые тормоза. В зависимости от типа винтов и мощности сервера, упасть производительность может буквально в разы. Профит примерно такой же, как и от сжатия, редко когда сильно больше, но сжатие, как правило, далеко не так сильно снижает скорость и не требует настолько много памяти, как дедупликация.
Если сливать туда уже сжатые образы, то профита может не получиться совсем.
Ответить | Правка | К родителю #4 | Наверх | Cообщить модератору

40. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –1 +/
Сообщение от Чаёвник (?), 18-Фев-16, 12:23 
Вот тут человек подписался в полном незнании того, как это работает.

Chunks of data are remembered in a table of some sort that maps the data's checksum to its storage location and reference count. When you store another copy of existing data, instead of allocating new space on disk, the dedup code just increments the reference count on the existing data. When data is highly replicated, which is typical of backup servers, virtual machine images, and source code repositories, deduplication can reduce space consumption not just by percentages, but by multiples.

Профит может быть такой как от сжатия, если входные данные - разношёрстный зоопарк. И в разы лучше, если это например ежедневные бекапы компании за последний год.

...

Most dedup solutions only work on a limited amount of data -- a handful of terabytes -- because they require their dedup tables to be resident in memory.

ZFS places no restrictions on your ability to dedup. You can dedup a petabyte if you're so inclined. The performace of ZFS dedup will follow the obvious trajectory: it will be fastest when the DDTs (dedup tables) fit in memory, a little slower when they spill over into the L2ARC, and much slower when they have to be read from disk. The topic of dedup performance could easily fill many blog entries -- and it will over time -- but the point I want to emphasize here is that there are no limits in ZFS dedup. ZFS dedup scales to any capacity on any platform, even a laptop; it just goes faster as you give it more hardware.

Расходы - на посчитать чексум, найти копию в таблице (при условии что таблица не вытеснена из ОЗУ - копейки), сделать запись о дубле - сами дублируемые данные при этом не пишутся (если конечно ты сам не настроил делать несколько копий блоков, чтобы исключить bad blocks - что не есть хорошо, для этого лучше делать зеркало средствами ZFS на другой винт)

Ответить | Правка | Наверх | Cообщить модератору

49. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –1 +/
Сообщение от Elhana (ok), 18-Фев-16, 14:17 
Надо считать размер DDT и влезет ли она в память. Если не влезет, то лучше dedup не включать. Расчет памяти есть в интернетах.
Ответить | Правка | Наверх | Cообщить модератору

55. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –1 +/
Сообщение от Чаёвник (?), 18-Фев-16, 17:08 
Если перфоманс бекапов поднимаемых раз в году для вас важнее износа и экономии места, то можно и позаморачиваться. Хотя если уж на то пошло - ОЗУ нынче стоит сравнительно дёшево, особенно если искать не антиквариат типа DDR1/DDR2 для старых серверов. Кэш можно вынести на SSD, опять же.
Ответить | Правка | Наверх | Cообщить модератору

87. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –1 +/
Сообщение от Elhana (ok), 20-Фев-16, 02:39 
> Если перфоманс бекапов поднимаемых раз в году для вас важнее износа и
> экономии места, то можно и позаморачиваться. Хотя если уж на то
> пошло - ОЗУ нынче стоит сравнительно дёшево, особенно если искать не
> антиквариат типа DDR1/DDR2 для старых серверов. Кэш можно вынести на SSD,
> опять же.

Да, только если бакапов много, а перфоманс падает настолько, что бакапится/восстанавливаться начинает по пол дня - это уже никуда не годится.

И расчет памяти DDT:
http://constantin.glez.de/blog/2011/07/zfs-dedupe-or-not-dedupe

На каждый TB данных нужно 5 GB памяти под DDT, если предположить что средний размер блока 64K. В целом это означает что вам потребуется 20GB* памяти на TB данных, если вы хотите уместить DDT и метаданные, плюс память для самой ОС и приложений.
(* 20 потому что DDT не может занимать более 1/4 памяти выделенной под ARC.)

Если столько нет, то есть вариант с L2ARC на SSD, но оно уже медленнее, хотя для бакапов сойдет. Без SSD все может быть совсем печально.

Другими словами, если вы запускаете анализ (zdb -S tank) и оно говорит вам, что экономия будет от 20%, можно задуматься о dedup c SSD. Реальная экономия начинается когда дедупликация позволяет экономить место более чем двукратно. Если предположить что у вас куча контейнеров и они все почти одинаковые, при этом они обычно небольшие, то экономия может быть очень существенная - в этом и есть план canonical.

Ответить | Правка | Наверх | Cообщить модератору

68. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –2 +/
Сообщение от Celcion (ok), 18-Фев-16, 20:31 
> Вот тут человек подписался в полном незнании того, как это работает.

Неуважаемый, а слабо высказывать точку зрения, не пытаясь аппелировать к чьим-то знаниям? Ведь откуда ты знаешь что я знаю, а что я не знаю?
Да будет тебе известно, дедупликацию я именно для бэкапов использовал еще на заре внедрения этой технологии, еще Avamar от EMC крутил. Как говорится, когда дедупликация еще не была мэйнстримом.
И говорил я об общем случае, а не частных, которых может быть вагон и маленькая тележка, с теми, или иными условиями и результатами. Человек спросил про ZFS - я ответил про ZFS, тем более учтя комментарий про то, что на сторадж выкладываются уже сжатые файлы.
Но зачем нам читать и понимать написанное? Поумничать-то - оно завсегда важнее и первостепеннее.

Дедупликация до сих пор не получила широкого распространения, потому что эта технология идеальна лишь на бумаге, а на практике имеет весьма немало минусов и подводных камней, главным из которых как было, так и остается огромное потребление ресурсов и весьма ограниченное количество сценариев с реально высокой эффективностью. Плюс, есть немало способов добиться схожего эффекта при куда меньших затратах. Например, те же снапшоты, про которые выше упоминалось.

Ответить | Правка | К родителю #40 | Наверх | Cообщить модератору

73. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  +/
Сообщение от QuAzI (ok), 19-Фев-16, 00:04 
А что ты знаешь? Как у Avamar сделана дедупликация? Что там внутри? Дай хоть один повод усомнится, что твой опыт - это твой опыт не говорящий о самой технологии ничего? Вот когда человек пишет "Надо считать размер DDT и влезет ли она в память" - видно, что человек понимает, как это работает и о чём он говорит. А когда "ну хз, мне не нравица" - это как-то не очень объективно, не очень аргументировано и ни слова по делу о реальном опыте не предоставляет.
Пользовал ZFS с 2008-го года - вполне нормально шуршит, если понимать, что происходит и немного читать. Странно например включать сжатие, дедупликацию и ещё стопицот фич и надеяться, что всё это влезет в каких-нибудь 256Мб какой-нибудь эмбеддовки для винта забитого мелким файлом на 8Тб.
Ответить | Правка | Наверх | Cообщить модератору

88. "В Ubuntu 16.04 будет добавлена поддержка ZFS для контейнеров"  –1 +/
Сообщение от Celcion (ok), 20-Фев-16, 07:54 
> Дай хоть один повод усомнится, что твой опыт - это твой
> опыт не говорящий о самой технологии ничего?

Почему ты решил, что я должен тебе что-то доказывать? Более-менее близко я с этим работал отнюдь не вчера, поэтому деталей уже банально не помню. Помню общее впечатление, которое и озвучил.

> Пользовал ZFS с 2008-го года - вполне нормально шуршит, если понимать, что
> происходит и немного читать. Странно например включать сжатие, дедупликацию и ещё
> стопицот фич и надеяться, что всё это влезет в каких-нибудь 256Мб
> какой-нибудь эмбеддовки для винта забитого мелким файлом на 8Тб.

Это понятно. Включали на Sun Fire X4500. Можешь загуглить и "почитать", как ты любишь, поняв какой мощности эта железка, что там отнюдь не 256MB памяти и примерно как давно это было.
Если учесть, что изначальная версия ZFS, которая сейчас с минорными доработками используется в Linux, взята примерно из того времени, пока Solaris еще имел открытые исходники, то едва ли там с тех пор что-то кардинально поменялось как в производительности, так и в потребляемых ресурсах.

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру