The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Создание отказоустойчивых хранилищ во FreeBSD, при помощи HAST
Введение.

HAST (Highly Avalible Storage) технология позволяющая создавать
отказоустойчивые хранилища (Primary-Secondary) используя несколько машин. Эта
технология может помочь при создании кластера высокой доступности (HA). HAST
появился в FreeBSD начиная с 8.1. В текущей версии HAST можно использовать
только две машины. HAST работает на уровне блоков и не зависит от файловой
системы, т.е. можно использовать ZFS или UFS.

Эта технология работает по TCP. Для работы используется демон hastd и утилита
для управления hastctl.

Использование.

Имеем две машины (ноды)
   host1 192.168.1.2
   host2 192.168.1.9

на обоих машинах стоит дополнительный диск ad3.
HAST готов к использованию сразу, без дополнительных установок. Для
конфигурирования создадим файл /etc/hast.conf

   resource my {
       on host1 {
               local /dev/ad3
               remote 192.168.1.9
       }
       on host2 {
               local /dev/ad3
               remote 192.168.1.2
       }
   }

т.е. host1 имеет диск ad3 и синхронизируется с 192.168.1.9 (host2), а для host2
соответственно наоборот.

Сделайте такой же файл на другой машине.

   host1# hastctl create my
   host1# hastd

После этого демон должен запустится, проверим, что все работает

   host1# hastctl status

должно выдать вроде этого

   my:
   role: init
   provname: my
   localpath: /dev/ad3
   extentsize: 0
   keepdirty: 0
   remoteaddr: 192.168.1.2
   replication: memsync
   dirty: 0 bytes [/CODE]

Сделаем такие же действия на другой ноде

   host2# hastctl create my
   host2# hastd [/CODE]

Теперь раздадим роли машинам. Например, host1 будет главным, а host2 - резервным.

   host1# hastctl role primary my
   host2# hastctl role secondary my

После того, как host2 стал secondary, должна начаться синхронизация. В первый
раз она не должна занять много времени.
Проверим, что все работает.

   host1# hastctl status
   my:
    role: primary
    provname: my
    localpath: /dev/ad3
    extentsize: 2097152
    keepdirty: 0
    remoteaddr: 192.168.1.9
    replication: memsync
    status: complete
    dirty: 0 bytes

Для нас важно, чтобы был статус complete. Если статус другой, проверяем, что не так.

Теперь создадим файловую систему. Не смотря на то что можно использовать UFS
лучше использовать ZFS, чтобы не приходилось запускать fsck.

Создадим пул используя появившееся устройство /dev/hast/my

   host1# zpool create mydisk /dev/hast/my
   host1# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    95G  84.5K    95G     0%  ONLINE  -

На второй машине этого делать не надо.
HAST настроен.

Тестирование.

Создадим несколько файлов в mydisk и протестируем нашу систему. Для
тестирования перезагрузим ноду с primary, т.е. host1.
После перезагрузки посмотрим состяние пула

   host1# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    -               -             -         -       FAULTED          -

Это случилось потому что пропало устройство /dev/hast/my Экспортируем пул и
поменяем роль host1 на secondary

   host1# zpool export -f my
   host1# hastctl role secondary my

А host2 сделаем основным и импортируем пул.

   host2# hastctl role primary my
   host2# zpool import -f mydisk
   host2# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    95G    84.5K    95G     0%    ONLINE          -

Проверим наши файлы, они должны остаться.

Ошибки.

По умолчанию логи можно посмотреть в /var/log/message.
В результате некоторых действий можно добиться ситуации, когда вы обнаружите в
логах запись Split brain - разделение сознания.

Это означает, что каждая из нод думает, что она главная и живет собственной
жизнью. Такое может произойти если вы умудритесь
записать разную информацию на нодах или поставить обои машины в роль primary.
Исправить эту ситуацию можно выбрав ту машину которая будет у вас secondary, и
нужно сделать на ней:

   hastctl role init my
   hastctl create my
   hastctl role secondary my

После этого должен запуститься процесс синхронизации. Он может занять продолжительное время.


Автоматизация.

Эта система сделана для кластеризации, а именно для кластера высокой
доступности. Например можно воспользоваться CARP
чтобы сделать постоянным. Можно написать собственные скрипты, а можно
воспользоваться стандартными. Автором HAST уже написаны готовые скрипты которые
умеют определять на какой ноде сейчас primary.

Для работы следует установить ucarp:

   cd /usr/ports/net/ucarp
   make && make install clean && rehash

Скрипты находятся в /usr/share/expamles/hast/
Скопируйте их в /домашний каталог/sbin/hastd/ так предлагается по умолчанию и
отредактируйте переменные в начале скриптов

   ucarp.sh, ucarp_down.sh, ucarp_up.sh

Сделайте это на обоих нодах и запустите ucarp.sh на обоих нодах.

Дополнительные возможности.

У HAST существует три типа репликаций. Они различаются тем когда данные считаются записанными.

* memsync - Данные операции записи считаются завершенными когда запись локальна завершена 
и когда удаленный узел принял данные, но до того как записать данные. Данные на
удаленной ноде начинают
писаться, как только отправлен ответ.

* fullsync - Данные операции записи считаются завершенными когда запись завершена локально и на 
удаленной ноде запись тоже завершена.

* async - Данные записи считаются завершенными когда запись завершена локально.
Это наиболее быстрый способ записи.

На момент написания статьи работает только memsync.
Дополнительную информацию можно прочитать на http://wiki.freebsd.org/HAST

Заключение.

HAST только появился, у него богатые возможности для организации хранилища
высокой доступности. В данный момент еще не все работает, но это хорошее начало
для кластеризации на FreeBSD.

Перед тем как работать с HAST в боевых условиях рекомендую потренироваться. У
меня были ситуации, когда secondary не хотел брать данные с primary, было что
неаккуратные движения приводили к "Split Brain". Данные, правда, потеряны не
были, но много времени было потеряно на синхронизации.
 
11.10.2010 , Автор: mef , Источник: http://rubuntu.livejournal.com/4629...
Ключи: hast, freebsd, stogare, replication, disk
Раздел:    Корень / Администратору / Система / Кластерные технологии

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, Ян Злобин (ok), 04:20, 13/10/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Интересующимся неплохо было бы прочитать статью на вики основного проекта с примерами скриптов: http://wiki.freebsd.org/HAST
     
     
  • 2.3, mef (ok), 09:24, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Те скрипты, которые указаны на wiki находятся в /usr/share/expamles/hast/
     
     
  • 3.4, Ян Злобин (ok), 09:31, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    > Те скрипты, которые указаны на wiki находятся в /usr/share/expamles/hast/

    Ну да, об этом и в статье сказано.  Все равно прочитать полезно.  Мне так помогло, вот и поделился - может, еще кому-то поможет.

     

  • 1.2, Аноним (-), 09:15, 13/10/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    спасибо, полезно.
     
  • 1.5, anonymous (??), 09:35, 13/10/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А split-brain он каким образом разруливает? К примеру, при потере связи каждая нода считает себя primary и пишет на диск. Через полчаса связь восстанавливается, но получается яркий пример split-brain.
     
     
  • 2.6, Sw00p aka Jerom (?), 10:30, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    в хасте естЬ механизм фейловера ?? а зачем тады карп ?
     
     
  • 3.8, Аноним (-), 15:28, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    да про карп хотелось бы поподробнее зачем он здесь используется?

    В принципе интересна ситуация когда есть два хоста в файл-овер режиме, и для клиентов они имеют один IP, при вылете любой ноды вторая подхватывает общий IP. Кажется это имелось ввиду. Только расписать бы все это подробнее.

     
     
  • 4.11, Ян Злобин (ok), 05:08, 14/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    >да про карп хотелось бы поподробнее зачем он здесь используется?
    >да про карп хотелось бы поподробнее зачем он здесь используется?
    >В принципе интересна ситуация когда есть два хоста в файл-овер режиме, и для клиентов они имеют >один IP, при вылете любой ноды вторая подхватывает общий IP. Кажется это имелось ввиду. Только >расписать бы все это подробнее.В принципе интересна ситуация когда есть два хоста в файл-овер >режиме, и для клиентов они имеют один IP, при вылете любой ноды вторая подхватывает общий IP. >Кажется это имелось ввиду. Только расписать бы все это подробнее.

    Ну да, для этого и используется.  Есть системный carp, а есть ucarp, то есть user level carp.  Есть варианты как его использовать при падении одного из узлов.  В манах довольно подробно.

     
  • 3.9, mef (ok), 17:53, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Failover в HAST'е нет как такового (под HAST подразумеваю демон hastd+hastctl). Он работает в режиме Primary-Master, но там есть все чтобы можно было сделать failover, в качестве примера разработчик рекомендует воспользоваться уже готовыми скриптами. Собственно CARP - это уже к пример применения HAST, т.е. для доступа по 1 IP к отказоустойчивому хранилищу.
     
  • 2.7, mef (ok), 10:44, 13/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    > А split-brain он каким образом разруливает? К примеру, при потере связи каждая
    > нода считает себя primary и пишет на диск. Через полчаса связь
    > восстанавливается, но получается яркий пример split-brain.

    Как только связь теряется, то нода с Primary становится Secondary, а нода с Secondary становится Primary, обе ноды не будут Primary. Split Brain - исключительная ситуация, ее можно добиться, если, например, принудительно выставить обе ноды в Primary и в этом случае надо самому вмешаться и выбрать какая из нод для Вас важна.

     

  • 1.10, non anon (?), 18:47, 13/10/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А как там с производительностью? Какой-нибудь сервис можно поверх этого запустить, чтобы не тормозило?
     
     
  • 2.12, mef (ok), 16:06, 17/10/2010 [^] [^^] [^^^] [ответить]  
  • +/
    > А как там с производительностью? Какой-нибудь сервис можно поверх этого запустить, чтобы
    > не тормозило?

    Какой-нибудь можно. Производительность зависит не только от скорости дисков, но и скорости подключения между нодами. Мне кажется гигабита хватит для многих задач. hastd немного грузит cpu только при полных синхронизациях.

     

  • 1.13, fox (??), 02:40, 25/01/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А как вообще можно для двух нодов организовать общий айпишник который будут видеть клиенты?
     
     
  • 2.14, hm (??), 05:16, 10/02/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Это не лоад-балансир, а хай-эвэйлэбилити.
    Поэтому ПИСАТЬ на обе ноды нельзя.
     

  • 1.15, chillivilli4 (?), 12:33, 10/02/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Не получается натсроить (( пишет  hastd: [mirror] (primary) Unable to connect to 10.0.0.10: Operation timed out. Хотя на обеих нодах порт слушается hastd. У кого уже в продакшене работает подскажите куда смотреть, почему ноды не видят друг-друга?
     
     
  • 2.16, mef (ok), 20:24, 13/02/2011 [^] [^^] [^^^] [ответить]  
  • +/
    telnet проходит?
    Покажи конфиг  hast.conf
     

     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру