The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Инсталляция и конфигурирование DRBD

20.09.2007 18:41

Появилась статья, в которой детально описывается процедура подготовки Linux системы для использования DRBD-устройств - специальных устройств предназначенных для резервирования файловых систем по сети.

  1. Главная ссылка к новости (http://xgu.ru/wiki/DRBD...)
Автор новости: xguru
Тип: яз. русский / Практикум
Ключевые слова: drbl, rbl, linux, cluster
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (20) Ajax | 1 уровень | Линейный | Раскрыть всё | RSS
  • 1.1, Аноним (-), 23:36, 20/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    У кого-нить был опыт использования DRBD в системах с большой интенсивностью записи/чтения на эти устойства?
    Очень впечатления интересуют.
     
  • 1.2, Честер (?), 01:43, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Из той же оперы статья - http://www.netup.ru/articles.php?n=13
     
  • 1.3, LILO (??), 02:08, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    вот именно что оперы...
     
  • 1.4, Antrew (??), 05:58, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Рулез! Теперь точно сделаю общую файловую систему на кластер, которая будет храниться на самих нодах.
     
  • 1.5, matros (??), 09:54, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    обязательно тестируйте после установки и настройки. Не рекомендую использовать под базы данных. Можете напороться на неприятности в виде отката данных на более ранние даты)))
     
  • 1.6, trantor1 (ok), 10:45, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    В drbd0.8 --do-what-I-say насколько я помню нет.
     
  • 1.7, Zlobec (?), 11:07, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    есть иначе вторую primary ноду не получть
     
  • 1.8, Валентин (??), 11:19, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Где то год использовал на двух одинаковых серверах, один на другого бекапились.
    Последнее время столкнулся с проблемой: периодически при записи на активный раздел он перемонтируется на рид-онли. Кусок лога:
    ...
    Sep  7 15:23:39 data kernel: drbd0: rw=0, want=307161464, limit=306970624
    Sep  7 15:23:39 data kernel: EXT3-fs error (device drbd0): ext3_find_entry: reading directory #18727690 offset 0
    Sep  7 15:23:39 data kernel: Aborting journal on device drbd0
    ...
    Не хватает инодов ?
     
     
  • 2.9, аноним (?), 11:50, 21/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    вполне возможно "want=307161464, limit=306970624" вот на такое число 190840
     

  • 1.10, Аноним (-), 13:42, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Хочу его поверх софтварного raid1 заюзать для web и mysql, пока вроде работает на тестовых серверах нормально.
    Только вот какую ФС брать, говорят ext3 глючит поверх софтварного рэйда - никто не сталкивался?
     
     
  • 2.11, Enchant (?), 19:20, 21/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    XFS - http://www.opennet.ru/opennews/art.shtml?num=12120
     

  • 1.12, Аноним (-), 12:53, 22/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Барахло это DRBD. Пользовал, потом плюнул. Проще, надежней, эффективней развернуть полноценное кластерное решение где ноды работаю в режиме Active/Active.
    В DRBD только Active/Passive. При этом второй сервер просто курит бамбук.
     
     
  • 2.13, xguru (?), 22:35, 22/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    В DRBD8 Active/Active поддерживается.


    Какие кластерные решения используете вы?

     
     
  • 3.14, Аноним (-), 23:07, 22/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    8.0 пока сплошная сырость.

    Кластеры по базе Sun Cluster и Veritas Cluster. Системы поставлены разными поставщиками, поэтому имеется некоторый зоопарк.

    Пока я возился с DRBD, то дико душила жаба, что нельзя заюзать второй сервер. Если в 8.0 наконец-то сделали то, что было реализовано уже много лет у других, то разработчикам респект. Только я еще пару лет подожду, пока софт доведут. Мне мои данные дороже.

     

  • 1.15, Аноним (-), 21:31, 23/09/2007 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    GFS2 ??
     
     
  • 2.16, LM (??), 12:59, 24/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    Скажи как без Shared Storage на GFS2 сделать HA решение. Чтобы две ноды делили общее пространство с резеввированием?

    Получаеться что либо две ноды используют один дисковый ресурс который к примеру по iscsi (нету HA).
    или же наоборот одна нода использует два дисковых ресурса которые объединены в LVM (собстно не нужен GFS, ибо write нода одна).

    Раскажете как сделать HA с GFS в которых Shared Storage будет парочку PC - респект вам и уважение.

     
     
  • 3.17, Аноним (-), 22:58, 24/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    GNBD разве не для этого придуман?
     
     
  • 4.18, LM (??), 13:17, 25/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    Очень интересно.

    Если вы смогли это сделать с помощью gnbd скажите пожалуста каким образом?
    К примеру есть у нас serv1, serv2, node1, node2.

    На серверах:
    serv1# gnbd_export -e share1 /dev/sdb1
    serv2# gnbd_export -e share1 /dev/sdb1

    На нодах:
    node1# gnbd_import -i serv1
    node1# gnbd_import -i serv2
    node2# gnbd_import -i serv1
    node2# gnbd_import -i serv2

    Так что ли? ) Каким образом указать что serv1.sdb1 зеркалирует serv2.sdb1?

     
  • 4.19, xguru (?), 15:50, 25/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    >GNBD разве не для этого придуман?

    Для чего именно для этого?

    Для экспорта — да.
    Для зеркалирования — нет.

     
     
  • 5.20, LM (??), 12:01, 26/09/2007 [^] [^^] [^^^] [ответить]  
  • +/
    Появилась мысля как использовать gndb, для создания зеркалирования.. Конечно решение с извратом и пока Active/Passive но тоже ни чего. Отпишусь тут на всякий случай.

    Есть сервер serv1, и serv2.

    serv2 экспортирует диск через gndb серверу serv1, тот в свою очередь создаёт на всём этом деле software raid и экспортирует созданный раздел клиентам, которые всою очередь уже используют там любую CFS. При выходи из строя serv1, Hearbeart это видит, и заставляет serv2 экспортировать раздел под тем же именем.

    serv2.sdb1 -> gnbd -> serv1.md0 -> gnbd -> node1,2,3,4

    Когда умирает serv1 скриптами схема меняеться на:

    serv2.sdb1 -> gnbd -> node1,2,3,4

    Вот. А воопще конечно легче уж какую нибудь lustre, glusterfs использовать.

     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Слёрм
    Inferno Solutions
    Hosting by Ihor
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2019 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру