The OpenNET Project / Index page

[ новости/++ | форум | wiki | теги ]

Непрерывная репликация ZFS во FreeBSD
Введение

С самого начала появления ZFS, я записался в ряды ее поклонников, и до сих пор
ни разу не пожалел об этом. И на страницах opennet.ru я уже успел поделиться
приятными моментами ее использования на OS FreeBSD.

Сегодня речь пойдет о возможностях непрерывной репликации ZFS между хостами FreeBSD.

Цели

Лично мне это стало не просто полезным, а необходимым, как только возникла
задача использования виртуальных окружений, и в рамках одного физического
сервера создавалась группа виртуальных серверов.

Первоначальная задумка выглядела следующим образом:


* Основной сервер виртуализации
* Сервер горячей замены (по своим характеристикам близкий, но не идентичный основному)
* Коммерческое ПО для виртуализации, не предполагалось, только OpenSource.

Задача абсолютной бесперебойной работы не ставилась, основной критерий -
быстрое (в пределах  5 минут) время восстановления IT сервисов в случае отказа
основного сервера, с минимальной потерей пользовательских данных. Другими
словами, если основной сервер выходит из строя, то все данные пользователей,
сохраненные за несколько минут до отказа, не должны быть утеряны.

Вариант с общим NAS, разделяемый между серверами виртуализации, по ряду причин,
в том числе и финансовых, так же не рассматривался.

Таким образом, данную конфигурацию можно кратко охарактеризовать, как среда
виртуализации начального уровня с элементами отказоустойчивости.


Средства

В качестве хост системы выступает FreeBSD 8.1 с гипервизором VirtualBox OSS.

Я не буду подробно останавливаться на процессе установки и настройки
VirtualBox, скажу только то, что оба сервера и основной и резервный имеют
идентичное ПО, а все конфигурации и образы виртуальных серверов расположены
внутри ZFS с точкой монтирования /var/IMAGES.

В таком виде, задача обеспечения отказоустойчивости сводится к синхронизации
содержимого /var/IMAGES с основного сервера на резервный, чтобы в случае
отказа, оставалась возможность запуска всех серверов на резервном сервере из
актуальных образов.

Очевидным является тот факт, что чем чаще происходит синхронизация, тем лучше.
Так же очевидно что rsync, не смотря на все его прелести, не способен
обеспечить синхронизацию заданными выше временными рамками.
Беглый поиск выявляет упоминания о коммерческих реализациях zfs репликации а
так же стандартных возможностях ZFS создания,  и что самое важное, обмена ими
между хостами посредством zfs send/receive. Об этом упоминалось, в том числе и на
страницах opennet.

Именно zfs send/receive будет использован для непрерывной репликации в режиме
близкому к реальному времени.

Репликацией должен заниматься скрипт, запускаемый из cron, интервал запуска 1 минута.

Скрипт запускается на резервном сервере и должен:

* Создать новый снапшот на основном сервере.
* Все снапшоты, задействованные в процессе репликации, должны иметь некую
отличительную особенность (префикс в своем имени).
* Выявить самый свежий общий снапшот, относительно которого, можно провести
инкрементальную репликацию. В случае его отсутствия провести полную репликации.
* Провести репликацию через send/receive
* Удалить неиспользуемые снапшоты.
* Запротоколировать все свои действия.

Как видно из краткого плана мероприятий, резервному серверу придется запускать
команды на основном. SSH замечательно справиться с этим, но нужно иметь ввиду что:

* запускать через скрипт команды на удаленном сервере от имени рута ( а значит
хранить или пароль или ключ рута) не слишком хорошая идея.
* ZFS на FreeBSD до сих пор не дружит с ZFS Delegated Administration

Учитывая эти два факта, следует завести на основном сервере на
привилегированного пользователя и выполнять команды zfs через sudo , разрешив
ему необходимый минимум.

В файле /usr/local/etc/sudoers.d/zfs_replication определяем для пользователя следующие разрешения

   synczfs      ALL = NOPASSWD : /sbin/zfs snapshot *, /sbin/zfs send *,/sbin/zfs list *,/sbin/zfs destroy *

А теперь непосредственно скрипт /root/zfs-nrt-replication.sh

   #!/bin/sh
   REMOTE_HOST="master.local"
   FS="/var/IMAGES"
   REMOTE_POOL="tank0"
   LOCAL_POOL="tank0"
   SNAPSHOTMARK="SYNC-"


   SSHKEY="/root/syncimages_id"
   SSHFLAGS="-i $SSHKEY -o CheckHostIP=no -o StrictHostKeyChecking=no \
   -o IdentitiesOnly=yes -o BatchMode=yes -o  GlobalKnownHostsFile=/dev/null -l synczfs"
   SSHCMD="/usr/bin/ssh $SSHFLAGS $REMOTE_HOST sudo "
   INCREMENTAL=""

   (

   echo "Snapshoting remote FS"

   $SSHCMD "zfs snapshot -r $REMOTE_POOL$FS@$SNAPSHOTMARK`uuidgen`"

   RECENT_COMMON_SNAPSHOT=""

   for R in `$SSHCMD zfs list -H -o name -s creation -t snapshot -r $REMOTE_POOL$FS | grep $REMOTE_POOL$FS@`
   do
      for L in `zfs list -H -o name -s creation -t snapshot -r $LOCAL_POOL$FS | grep $LOCAL_POOL$FS@`
      do
          if [ "${R##*@}" = "${L##*@}" ]; then
             RECENT_COMMON_SNAPSHOT=${R##*@}
             INCREMENTAL="-I $REMOTE_POOL$FS@$RECENT_COMMON_SNAPSHOT"
          fi
      done
      REMOTE_LATEST_SNAPSHOT=${R##*@}
   done

   echo "Syncronizing remote FS to local"

   echo "zfs send -R $INCREMENTAL $REMOTE_POOL$FS@$REMOTE_LATEST_SNAPSHOT"

   $SSHCMD "zfs send -R $INCREMENTAL $REMOTE_POOL$FS@$REMOTE_LATEST_SNAPSHOT" | \
   /usr/local/bin/pipemeter --autooff --blocksize 16M --interval 60 --log | zfs receive -dF $LOCAL_POOL

   if [ $? -eq 0 ]; then
      echo "Cleaning useless remote snapshots"
      $SSHCMD "zfs list -r -t snapshot -o name -H $REMOTE_POOL$FS  | grep \"$SNAPSHOTMARK\" | \
      egrep -v  \"@($RECENT_COMMON_SNAPSHOT|$REMOTE_LATEST_SNAPSHOT)\" | xargs -I% sudo zfs destroy %"
   fi

   echo "Done."
   ) 2>&1 | logger -s -p ftp.info -t SYNCZFS

Сам скрипт запускается на резервном сервере из cron следующим образом

   */1 * * * * root  /usr/sbin/daemon -p /var/run/zfs-sync.pid -f /root/zfs-nrt-replication.sh > /dev/null

Итак, на резервном сервере скрипт запускается каждую минуту, но если он еще не
закончил свое выполнение с прошлого запуска, то попытка пропускается.  Весь
вывод скрипта направляется в лог-файл /var/log/xferlog. Для более наглядной
оценки скорости используется дополнительное ПО pipemeter, в результате чего
в лог файл, с минутным интервалом, добавляется информация об объеме
передаваемых данных, а так же скорости обмена.

Дополнительно, можно настроить автоматический снапшотинг, чтобы иметь версии
виртуальных машин различной степени давности (часовой, дневной, недельной и
т.д.). Эти версии так же будут реплицироваться на резервный сервер.

И теперь, в случае обнаружения отказа в работе основного сервера,
администратору остается запустить виртуальную машину на резервном сервере, но и
этот процесс так же можно автоматизировать, но это материал еще для одной
статьи :)
 
14.12.2010 , Автор: Алексей Волков
Ключи: freebsd, zfs, replication / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Кластерные технологии

Обсуждение [ Линейный режим | Показать все | RSS ]
 
  • 1.1, universite, 00:48, 14/12/2010 [ответить] [смотреть все]
  • +/
    zfSnap более удобен для автоматического бэкапа.
    Может, вам стоит донастроить HAST ?
    Да и секьюрность не мешало бы прикрутить получше...
     
     
  • 2.3, Алексей Волков, 08:47, 14/12/2010 [^] [ответить] [смотреть все] [показать ветку]
  • +/
    HAST это замечательно, но на сколько мне известно, он пока не умеет больше чем д... весь текст скрыт [показать] [показать ветку]
     
  • 1.2, ffirefox, 06:17, 14/12/2010 [ответить] [смотреть все]  
  • +/
    Может Я плохо смотрю, но кэширование (очень агрессивное) самого VirtualBox как-то учитывается?
    Боюсь, что в таком варианте, велика вероятность, что образы будут битые. (Особенно, если там какой-нибудь сервер базы данных крутится, или win контролер домена)
     
     
  • 2.4, Алексей Волков, 08:48, 14/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    Мне каджется, что Вы плохо понимаете суть репликации снимков фс То о чем Вы гов... весь текст скрыт [показать] [показать ветку]
     
     
  • 3.10, Одмин, 20:55, 14/12/2010 [^] [ответить] [смотреть все]  
  • +/
    снапшот может сделаться во время того как virtualbox на диск писать будет.
     
  • 3.13, redixin, 16:31, 15/12/2010 [^] [ответить] [смотреть все]  
  • +/
    Образы будут битые 100 Это как отключить от машины винт на ходу, а потом воткн... весь текст скрыт [показать]
     
     
  • 4.14, bahus, 21:11, 15/12/2010 [^] [ответить] [смотреть все]  
  • +/
    абсолютно голословное утверждение, может стоит хотя бы попробовать, прежде чем м... весь текст скрыт [показать]
     
     
  • 5.20, тень, 23:26, 20/12/2010 [^] [ответить] [смотреть все]  
  • +/
    Ну, я пробовал Образ файловой системы виртуальной машины консистентным не являе... весь текст скрыт [показать]
     
  • 1.5, gluk, 10:05, 14/12/2010 [ответить] [смотреть все]  
  • +/
    Скажите а вы рассматривали возможность реализации такого же функционала на opensolaris-134 или openindiana-147? В них ZFS работает отменно, более свежая версия, 28 в отличие от максимум 15-й на FreeBSD, VirtualBox - более родной нежели на FreeBSD и не так давно, вроде бы, я там увидел xvm, т.е. xen dom0, версии 3.4.2, кот. сейчас входит в Enterprise решения того же Oracle.
     
     
  • 2.6, Алексей Волков, 10:38, 14/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    OpenSolaris не использовал Но не вижу препятсвий тому чтобы данный скрипт не за... весь текст скрыт [показать] [показать ветку]
     
  • 2.7, ubique, 11:16, 14/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    В рассылке hackers или current сегодня пробегал обновленный патч для поддержки... весь текст скрыт [показать] [показать ветку]
     
     
  • 3.17, Денис Юсупов, 22:52, 16/12/2010 [^] [ответить] [смотреть все]  
  • +/
    Он пробегал уже существенно раньше http lists freebsd org pipermail freebsd... весь текст скрыт [показать]
     
  • 2.8, Suntechneg, 12:36, 14/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    В самом OpenSolaris есть auto-snapshot сервис Делает все то же самое Там есть ... весь текст скрыт [показать] [показать ветку]
     
  • 1.9, gluk, 12:58, 14/12/2010 [ответить] [смотреть все]  
  • +/
    я собрал себе SAN на ОСоле-134 его функционал удовлетворяет меня процентов на 85. У меня есть старенький NAS на фряхе, но после знакомства с ОСолом для меня стало очевидным и однозначным на чем надо собирать NAS-ы и SAN-ы, но это лично мое мнение и я не собираюсь доказывать истинность моих умозаключений. Фряха у меня стоит и на шлюзе и на NAS-е (как доконфигурю полностью перейду на SAN), и в качестве десктопов для терминальных клиентов. Причем все это работает где-то с 2002 - 2003 г. Но на данный момент я считаю, что для NAS-ов и SAN-ов альтернативы ОСолу пока, что нету. Но это опять таки мое личное мнение. И с ZFS-ом в ОСоле работать как-то спокойней, родное всетаки. Т.к. большинство саночников оракл разогнал и они теперь ваяют каждый отдельно свои проекты, есть неплохие шансы что во фре ZFS допилят до ОСоловского состояния не только по работе в принципе, но и с таким же функционалом и удобством администрирования.
     
     
  • 2.11, ананим, 02:28, 15/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    а можно поподробнее на каком именно железе и как именно вы собрали себе san?
    а то как-то про san не особо вериться. всё-таки это железячное решение и при чём тут ослы - не понятно.
     
     
  • 3.15, Suntechneg, 09:59, 16/12/2010 [^] [ответить] [смотреть все]  
  • +/
    А про Comstar в OSol слыхали?
     
     
  • 4.18, ананим, 06:16, 18/12/2010 [^] [ответить] [смотреть все]  
  • +/
    слыхали.
    а также про iSCSI, Fibre Channel over Ethernet, ATA over Ethernet, drbd,.....

    ps:
    >COMSTAR: Common Multiprotocol SCSI Target

    а это нифига не san.
    поэтому когда пальцы кидаете, смотрите по сторонам. а то или в дверь не пройдёте, или посторонних заденете.

     
  • 3.23, gluk, 12:18, 11/01/2011 [^] [ответить] [смотреть все]  
  • +/
    для сборки SAN-a брал самое обычное железо, не бренд-овское, мамка asus m2n-sli deluxe, SAN принципиально от NAS-a ничем не отличается. SAN просто раздает дисковые ресурсы по iSCSI, что вообщем мне и надо было. Comstart, классная штука, но пока до нее руки "не дошли". Пока использую для iSCSI старый Соляркин таржет, но он тоже работает стабильно. Гонки по скорости не устараивал, не люблю я этого, хотя для тюнинга zfs есть достаточно возможностей. Comstar буду пробовать уже на OpenIndian-e.
     
  • 1.16, sashka_ua, 11:46, 16/12/2010 [ответить] [смотреть все]  
  • +/
    "с элементами отказоустойчивости"

    "Именно zfs send/receive будет использован для непрерывной репликации в режиме
    близкому к реальному времени.

    Репликацией должен заниматься скрипт, запускаемый из cron, интервал запуска 1 минута."

    "И теперь, в случае обнаружения отказа в работе основного сервера,
    администратору остается запустить виртуальную машину на резервном сервере"

    Смишно.

     
  • 1.19, anon_krsk, 17:26, 20/12/2010 [ответить] [смотреть все]  
  • +/
    2 сашка_уа
    Болтать мы все умеем. Поясните конкретно, что лучшее есть. Всё равно вам понты в карму не зачтутся.
     
     
  • 2.22, sashka_ua, 19:54, 23/12/2010 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    Статья смишна и это очевидно.

    xen+drbd+pacemaker - первое что пришло в голову для такой конфигурации. Минимальный конфиг с минимальными усилиями при максимуме результата.

    Для труЪ xen с live migration.

     
  • 1.21, moralez, 08:23, 22/12/2010 [ответить] [смотреть все]  
  • +/
    А если грохнется не master-server с FreeBSD, а содержимое виртуалки? И будет оно среплицировано через минуту на рабов и что дальше? %-\
     
     
  • 2.24, Vadim, 16:24, 21/08/2012 [^] [ответить] [смотреть все] [показать ветку]  
  • +/
    Тут поможет автоматический снапшотинг
     

    Ваш комментарий
    Имя:         
    E-Mail:      
    Заголовок:
    Текст:



      Закладки на сайте
      Проследить за страницей
    Created 1996-2017 by Maxim Chirkov  
    ДобавитьРекламаВебмастеруГИД  
    Hosting by Ihor