The OpenNET Project / Index page

[ новости/++ | форум | wiki | теги | ]

Непрерывная репликация ZFS во FreeBSD
Введение

С самого начала появления ZFS, я записался в ряды ее поклонников, и до сих пор
ни разу не пожалел об этом. И на страницах opennet.ru я уже успел поделиться
приятными моментами ее использования на OS FreeBSD.

Сегодня речь пойдет о возможностях непрерывной репликации ZFS между хостами FreeBSD.

Цели

Лично мне это стало не просто полезным, а необходимым, как только возникла
задача использования виртуальных окружений, и в рамках одного физического
сервера создавалась группа виртуальных серверов.

Первоначальная задумка выглядела следующим образом:


* Основной сервер виртуализации
* Сервер горячей замены (по своим характеристикам близкий, но не идентичный основному)
* Коммерческое ПО для виртуализации, не предполагалось, только OpenSource.

Задача абсолютной бесперебойной работы не ставилась, основной критерий -
быстрое (в пределах  5 минут) время восстановления IT сервисов в случае отказа
основного сервера, с минимальной потерей пользовательских данных. Другими
словами, если основной сервер выходит из строя, то все данные пользователей,
сохраненные за несколько минут до отказа, не должны быть утеряны.

Вариант с общим NAS, разделяемый между серверами виртуализации, по ряду причин,
в том числе и финансовых, так же не рассматривался.

Таким образом, данную конфигурацию можно кратко охарактеризовать, как среда
виртуализации начального уровня с элементами отказоустойчивости.


Средства

В качестве хост системы выступает FreeBSD 8.1 с гипервизором VirtualBox OSS.

Я не буду подробно останавливаться на процессе установки и настройки
VirtualBox, скажу только то, что оба сервера и основной и резервный имеют
идентичное ПО, а все конфигурации и образы виртуальных серверов расположены
внутри ZFS с точкой монтирования /var/IMAGES.

В таком виде, задача обеспечения отказоустойчивости сводится к синхронизации
содержимого /var/IMAGES с основного сервера на резервный, чтобы в случае
отказа, оставалась возможность запуска всех серверов на резервном сервере из
актуальных образов.

Очевидным является тот факт, что чем чаще происходит синхронизация, тем лучше.
Так же очевидно что rsync, не смотря на все его прелести, не способен
обеспечить синхронизацию заданными выше временными рамками.
Беглый поиск выявляет упоминания о коммерческих реализациях zfs репликации а
так же стандартных возможностях ZFS создания,  и что самое важное, обмена ими
между хостами посредством zfs send/receive. Об этом упоминалось, в том числе и на
страницах opennet.

Именно zfs send/receive будет использован для непрерывной репликации в режиме
близкому к реальному времени.

Репликацией должен заниматься скрипт, запускаемый из cron, интервал запуска 1 минута.

Скрипт запускается на резервном сервере и должен:

* Создать новый снапшот на основном сервере.
* Все снапшоты, задействованные в процессе репликации, должны иметь некую
отличительную особенность (префикс в своем имени).
* Выявить самый свежий общий снапшот, относительно которого, можно провести
инкрементальную репликацию. В случае его отсутствия провести полную репликации.
* Провести репликацию через send/receive
* Удалить неиспользуемые снапшоты.
* Запротоколировать все свои действия.

Как видно из краткого плана мероприятий, резервному серверу придется запускать
команды на основном. SSH замечательно справиться с этим, но нужно иметь ввиду что:

* запускать через скрипт команды на удаленном сервере от имени рута ( а значит
хранить или пароль или ключ рута) не слишком хорошая идея.
* ZFS на FreeBSD до сих пор не дружит с ZFS Delegated Administration

Учитывая эти два факта, следует завести на основном сервере на
привилегированного пользователя и выполнять команды zfs через sudo , разрешив
ему необходимый минимум.

В файле /usr/local/etc/sudoers.d/zfs_replication определяем для пользователя следующие разрешения

   synczfs      ALL = NOPASSWD : /sbin/zfs snapshot *, /sbin/zfs send *,/sbin/zfs list *,/sbin/zfs destroy *

А теперь непосредственно скрипт /root/zfs-nrt-replication.sh

   #!/bin/sh
   REMOTE_HOST="master.local"
   FS="/var/IMAGES"
   REMOTE_POOL="tank0"
   LOCAL_POOL="tank0"
   SNAPSHOTMARK="SYNC-"


   SSHKEY="/root/syncimages_id"
   SSHFLAGS="-i $SSHKEY -o CheckHostIP=no -o StrictHostKeyChecking=no \
   -o IdentitiesOnly=yes -o BatchMode=yes -o  GlobalKnownHostsFile=/dev/null -l synczfs"
   SSHCMD="/usr/bin/ssh $SSHFLAGS $REMOTE_HOST sudo "
   INCREMENTAL=""

   (

   echo "Snapshoting remote FS"

   $SSHCMD "zfs snapshot -r $REMOTE_POOL$FS@$SNAPSHOTMARK`uuidgen`"

   RECENT_COMMON_SNAPSHOT=""

   for R in `$SSHCMD zfs list -H -o name -s creation -t snapshot -r $REMOTE_POOL$FS | grep $REMOTE_POOL$FS@`
   do
      for L in `zfs list -H -o name -s creation -t snapshot -r $LOCAL_POOL$FS | grep $LOCAL_POOL$FS@`
      do
          if [ "${R##*@}" = "${L##*@}" ]; then
             RECENT_COMMON_SNAPSHOT=${R##*@}
             INCREMENTAL="-I $REMOTE_POOL$FS@$RECENT_COMMON_SNAPSHOT"
          fi
      done
      REMOTE_LATEST_SNAPSHOT=${R##*@}
   done

   echo "Syncronizing remote FS to local"

   echo "zfs send -R $INCREMENTAL $REMOTE_POOL$FS@$REMOTE_LATEST_SNAPSHOT"

   $SSHCMD "zfs send -R $INCREMENTAL $REMOTE_POOL$FS@$REMOTE_LATEST_SNAPSHOT" | \
   /usr/local/bin/pipemeter --autooff --blocksize 16M --interval 60 --log | zfs receive -dF $LOCAL_POOL

   if [ $? -eq 0 ]; then
      echo "Cleaning useless remote snapshots"
      $SSHCMD "zfs list -r -t snapshot -o name -H $REMOTE_POOL$FS  | grep \"$SNAPSHOTMARK\" | \
      egrep -v  \"@($RECENT_COMMON_SNAPSHOT|$REMOTE_LATEST_SNAPSHOT)\" | xargs -I% sudo zfs destroy %"
   fi

   echo "Done."
   ) 2>&1 | logger -s -p ftp.info -t SYNCZFS

Сам скрипт запускается на резервном сервере из cron следующим образом

   */1 * * * * root  /usr/sbin/daemon -p /var/run/zfs-sync.pid -f /root/zfs-nrt-replication.sh > /dev/null

Итак, на резервном сервере скрипт запускается каждую минуту, но если он еще не
закончил свое выполнение с прошлого запуска, то попытка пропускается.  Весь
вывод скрипта направляется в лог-файл /var/log/xferlog. Для более наглядной
оценки скорости используется дополнительное ПО pipemeter, в результате чего
в лог файл, с минутным интервалом, добавляется информация об объеме
передаваемых данных, а так же скорости обмена.

Дополнительно, можно настроить автоматический снапшотинг, чтобы иметь версии
виртуальных машин различной степени давности (часовой, дневной, недельной и
т.д.). Эти версии так же будут реплицироваться на резервный сервер.

И теперь, в случае обнаружения отказа в работе основного сервера,
администратору остается запустить виртуальную машину на резервном сервере, но и
этот процесс так же можно автоматизировать, но это материал еще для одной
статьи :)
 
14.12.2010 , Автор: Алексей Волков
Ключи: freebsd, zfs, replication / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Кластерные технологии

Обсуждение [ Линейный режим | Показать все | RSS ]
 
  • 1.1, universite (ok), 00:48, 14/12/2010 [ответить] [показать ветку] [···]    [к модератору]
  • +/
    zfSnap более удобен для автоматического бэкапа.
    Может, вам стоит донастроить HAST ?
    Да и секьюрность не мешало бы прикрутить получше...
     
     
  • 2.3, Алексей Волков (?), 08:47, 14/12/2010 [^] [ответить]    [к модератору]
  • +/
    HAST это замечательно, но на сколько мне известно, он пока не умеет больше чем два хоста (мастер, слейв), и это еще не production quality. Данный вариант работает в том числе и в режиме multiple slave.

    Для истории самих снапшотов, на сервере настроен http://people.freebsd.org/~rse/snapshot/ (аналог zfSnap)

     
  • 1.2, ffirefox (?), 06:17, 14/12/2010 [ответить] [показать ветку] [···]    [к модератору]
  • +/
    Может Я плохо смотрю, но кэширование (очень агрессивное) самого VirtualBox как-то учитывается?
    Боюсь, что в таком варианте, велика вероятность, что образы будут битые. (Особенно, если там какой-нибудь сервер базы данных крутится, или win контролер домена)
     
     
  • 2.4, Алексей Волков (?), 08:48, 14/12/2010 [^] [ответить]    [к модератору]
  • +/
    Мне каджется, что Вы плохо понимаете суть репликации снимков фс. То о чем Вы говорите свойственно rsync.
     
     
  • 3.10, Одмин (?), 20:55, 14/12/2010 [^] [ответить]    [к модератору]
  • +/
    снапшот может сделаться во время того как virtualbox на диск писать будет.
     
  • 3.13, redixin (?), 16:31, 15/12/2010 [^] [ответить]    [к модератору]  
  • +/
    Образы будут битые 100%. Это как отключить от машины винт на ходу, а потом воткнуть его в другую.
     
     
  • 4.14, bahus (?), 21:11, 15/12/2010 [^] [ответить]    [к модератору]  
  • +/
    абсолютно голословное утверждение, может стоит хотя бы попробовать, прежде чем марать форумы такими паническими заявлениями.
     
     
  • 5.20, тень (?), 23:26, 20/12/2010 [^] [ответить]    [к модератору]  
  • +/
    Ну, я пробовал.
    Образ файловой системы виртуальной машины консистентным не является. Консистентным может быть только совокупный образ диска и памяти виртуальной машины.
    Все нормальные системы бэкапа виртуалок либо штатно гасят машину перед снятием образа, либо при помощи специального агента заставляет виртуалку сбросить все кэши и буферы, и ставит снапшот сразу после окончания этой транзакции.
     
  • 1.5, gluk (?), 10:05, 14/12/2010 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    Скажите а вы рассматривали возможность реализации такого же функционала на opensolaris-134 или openindiana-147? В них ZFS работает отменно, более свежая версия, 28 в отличие от максимум 15-й на FreeBSD, VirtualBox - более родной нежели на FreeBSD и не так давно, вроде бы, я там увидел xvm, т.е. xen dom0, версии 3.4.2, кот. сейчас входит в Enterprise решения того же Oracle.
     
     
  • 2.6, Алексей Волков (?), 10:38, 14/12/2010 [^] [ответить]    [к модератору]  
  • +/
    OpenSolaris не использовал. Но не вижу препятсвий тому чтобы данный скрипт не заработал и тем. Более того, вместо sudo целесообразнее настроить ZFS Administration delegation для тех фс, по которым пойдет репликация.

    VirtualBox, это частный случай, а уж что и как там крутится поверх фс, не так и важно.

    Можно создавать и zfs voluems внутри фс, они тоже будут реплицироваться , т.к. снапшоты включают в себя ВСЕ (как на уровне данных, так и на уровне метаданных).

     
  • 2.7, ubique (?), 11:16, 14/12/2010 [^] [ответить]    [к модератору]  
  • +/
    В рассылке hackers@ или current@ сегодня пробегал обновленный патч для поддержки zfs 28. Так что в 9 уже скорее всего он будет.
     
     
  • 3.17, Денис Юсупов (?), 22:52, 16/12/2010 [^] [ответить]    [к модератору]  
  • +/
    Он пробегал уже существенно раньше ;)
    http://lists.freebsd.org/pipermail/freebsd-current/2010-August/019541.html
     
  • 2.8, Suntechneg (?), 12:36, 14/12/2010 [^] [ответить]    [к модератору]  
  • +/
    В самом OpenSolaris есть auto-snapshot сервис. Делает все то же самое. Там есть свои ограничения, но работает четко. Плюс интегрировано с SMF. Так что если что-то в репликации "упало", то сразу сервис в maintenance состоянии получается и можно это ловить через некую систему мониторинга. Документации конечно там немного, с разных источников искать надо. :( Начать можно вот с этого поста разработчика - http://timsfoster.wordpress.com/2009/11/17/new-zfs-auto-snapshot-implementati

    Ну и как принято в серьезных местах ;) - да у меня вся репликация а продакшене на этом основана!!! :)

     
  • 1.9, gluk (?), 12:58, 14/12/2010 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    я собрал себе SAN на ОСоле-134 его функционал удовлетворяет меня процентов на 85. У меня есть старенький NAS на фряхе, но после знакомства с ОСолом для меня стало очевидным и однозначным на чем надо собирать NAS-ы и SAN-ы, но это лично мое мнение и я не собираюсь доказывать истинность моих умозаключений. Фряха у меня стоит и на шлюзе и на NAS-е (как доконфигурю полностью перейду на SAN), и в качестве десктопов для терминальных клиентов. Причем все это работает где-то с 2002 - 2003 г. Но на данный момент я считаю, что для NAS-ов и SAN-ов альтернативы ОСолу пока, что нету. Но это опять таки мое личное мнение. И с ZFS-ом в ОСоле работать как-то спокойней, родное всетаки. Т.к. большинство саночников оракл разогнал и они теперь ваяют каждый отдельно свои проекты, есть неплохие шансы что во фре ZFS допилят до ОСоловского состояния не только по работе в принципе, но и с таким же функционалом и удобством администрирования.
     
     
  • 2.11, ананим (?), 02:28, 15/12/2010 [^] [ответить]    [к модератору]  
  • +/
    а можно поподробнее на каком именно железе и как именно вы собрали себе san?
    а то как-то про san не особо вериться. всё-таки это железячное решение и при чём тут ослы - не понятно.
     
     
  • 3.15, Suntechneg (?), 09:59, 16/12/2010 [^] [ответить]    [к модератору]  
  • +/
    А про Comstar в OSol слыхали?
     
     
  • 4.18, ананим (?), 06:16, 18/12/2010 [^] [ответить]    [к модератору]  
  • +/
    слыхали.
    а также про iSCSI, Fibre Channel over Ethernet, ATA over Ethernet, drbd,.....

    ps:
    >COMSTAR: Common Multiprotocol SCSI Target

    а это нифига не san.
    поэтому когда пальцы кидаете, смотрите по сторонам. а то или в дверь не пройдёте, или посторонних заденете.

     
  • 3.23, gluk (?), 12:18, 11/01/2011 [^] [ответить]    [к модератору]  
  • +/
    для сборки SAN-a брал самое обычное железо, не бренд-овское, мамка asus m2n-sli deluxe, SAN принципиально от NAS-a ничем не отличается. SAN просто раздает дисковые ресурсы по iSCSI, что вообщем мне и надо было. Comstart, классная штука, но пока до нее руки "не дошли". Пока использую для iSCSI старый Соляркин таржет, но он тоже работает стабильно. Гонки по скорости не устараивал, не люблю я этого, хотя для тюнинга zfs есть достаточно возможностей. Comstar буду пробовать уже на OpenIndian-e.
     
  • 1.16, sashka_ua (?), 11:46, 16/12/2010 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    "с элементами отказоустойчивости"

    "Именно zfs send/receive будет использован для непрерывной репликации в режиме
    близкому к реальному времени.

    Репликацией должен заниматься скрипт, запускаемый из cron, интервал запуска 1 минута."

    "И теперь, в случае обнаружения отказа в работе основного сервера,
    администратору остается запустить виртуальную машину на резервном сервере"

    Смишно.

     
  • 1.19, anon_krsk (?), 17:26, 20/12/2010 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    2 сашка_уа
    Болтать мы все умеем. Поясните конкретно, что лучшее есть. Всё равно вам понты в карму не зачтутся.
     
     
  • 2.22, sashka_ua (?), 19:54, 23/12/2010 [^] [ответить]    [к модератору]  
  • +/
    Статья смишна и это очевидно.

    xen+drbd+pacemaker - первое что пришло в голову для такой конфигурации. Минимальный конфиг с минимальными усилиями при максимуме результата.

    Для труЪ xen с live migration.

     
  • 1.21, moralez (?), 08:23, 22/12/2010 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    А если грохнется не master-server с FreeBSD, а содержимое виртуалки? И будет оно среплицировано через минуту на рабов и что дальше? %-\
     
     
  • 2.24, Vadim (??), 16:24, 21/08/2012 [^] [ответить]    [к модератору]  
  • +/
    Тут поможет автоматический снапшотинг
     

    Ваш комментарий
    Имя:         
    E-Mail:      
    Заголовок:
    Текст:



      Закладки на сайте
      Проследить за страницей
    Created 1996-2018 by Maxim Chirkov  
    ДобавитьПоддержатьВебмастеруГИД  
    Hosting by Ihor