The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Установка и запуск OpenVZ на Debian Lenny
Имеем сервер с установленным Debian Lenny. Задача: настроить на серверe несколько VPS-ов.

1. Устанавливаем ядро с поддержкой OpenVZ

      aptitude install linux-image-openvz-amd64

2. Для нормальной работы OpenVZ-контейнеров необходимо чтобы /etc/sysctl.conf
содержал следующие строки:

      net.ipv4.conf.all.rp_filter=1
      net.ipv4.icmp_echo_ignore_broadcasts=1
      net.ipv4.conf.default.forwarding=1
      net.ipv4.conf.default.proxy_arp = 0
      net.ipv4.ip_forward=1
      kernel.sysrq = 1
      net.ipv4.conf.default.send_redirects = 1
      net.ipv4.conf.all.send_redirects = 0
      net.ipv4.conf.eth0.proxy_arp=1

3. Перезагружаем сервер

4. Проверяем, что сервер загрузился с новым ядром
      uname -r

если система выдаст 2.6.26-2-openvz-amd64, то всё установилось корректно

5. Ядро, которое было установлено по-умолчанию мне не нужно и я его удаляю
(если хотите оставить предыдущее ядро - шаг пропускаем)

      apt-get remove --purge linux-image-2.6.26-2-amd64

6. Для контейнеров OpenVZ у меня выделен отдельный раздел подмонтированный в
/vz. По-умолчанию OpenVZ в Debian всё складывает в /var/lib/vz. Переношу всё с
/var/lib/vz в /vz и создаю симлинк

      /etc/init.d/vz stop
      mv /var/lib/vz/* /vz/
      rmdir /var/lib/vz
      ln -s /vz /var/lib/vz
      /etc/init.d/vz start

7. В контейнере у меня будет работать Debian Lenny х86. Загружаем шаблон контейнера с сайта OpenVZ

      cd /var/lib/vz/template/cache
      wget -c http://download.openvz.org/template/precreated/debian-5.0-x86.tar.gz

8. Создаём контейнер (101 - это уникальный идентификатор контейнера)

      vzctl create 101 --ostemplate debian-5.0-x86 --config vps.basic

9. Указываем чтобы контейнер запускался в вместе с OpenVZ

      vzctl set 101 --onboot yes --save

10. Конфигурируем имя хоста, IP и dns-сервер для контейнера

      vzctl set 101 --hostname vps1.local --save
      vzctl set 101 --ipadd 10.1.1.101 --save
      vzctl set 101 --nameserver 10.1.1.2 --save

11. Запускаем контейнер  и устанавливаем пароль для root-a

      vzctl start 101
      vzctl exec 101 passwd

12. Переключаемся в контейнер

      vzctl enter 101

Для выхода из контейнера необходимо дать команду exit. Зайти можно и по ssh.

13. Устанавливаем необходимое ПО в контейнере.

14. Успешно эксплуатируем.

P.S. Несколько необходимых команд для работы с контейнерами:

vzlist -a - список запущенных контейнеров и их состояние
vzctl stop <UID> - остановить контейнер
vzctl restart <UID> - перезагрузить контейнер
vzctl destroy <UID> - удалить контейнер

где <UID> - уникальный идентификатор OpenVZ-контейнера
 
17.11.2009 , Автор: DennisK , Источник: http://sysadminpages.com/2009/11/op...
Ключи: openvz, chroot, debian, linux
Раздел:    Корень / Безопасность / Виртуализация - Xen, OpenVZ, KVM, Qemu

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, pavlinux (ok), 11:07, 17/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > net.ipv4.icmp_echo_ignore_broadcasts=1

    А я хочу DHCP

    > kernel.sysrq = 1

    Это, ваще, просто необходимо :)  

     
     
  • 2.3, Бу (?), 13:25, 17/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >> net.ipv4.icmp_echo_ignore_broadcasts=1
    >А я хочу DHCP

    А причем тут DHCP ? Человек боится ping -b
    А для работы DHCP внутри VE нужно вместо
    > vzctl set 101 --ipadd 10.1.1.101 --save

    делать
    > vzctl set 101 --netif_add veth0 --save

    внутри появится виртуальный адаптер и его уже можно конфигурять обычным /etc/network/interfaces (или /etc/network/interfaces.template если есть дополнительные venet'ы)

    хорошо описано все это на сайте openvz http://wiki.openvz.org/Differences_between_venet_and_veth

    >> kernel.sysrq = 1
    > Это, ваще, просто необходимо :)

    Вообще да, т.к. при большом количестве сетевых соединений внутри VE (10-15 к) она отказывается останавливаться и/или чекпоинтицо, например для дампа или миграции, после чего всё ядро встает колом и нельзя ни создать, ни остановить нихрена. echo b > /proc/sysrq-trigger поможет отцу русской демократии (синковацо не забываем).

     
     
  • 3.10, KMax (?), 07:12, 18/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    К вопросу, о veth0
    > внутри появится виртуальный адаптер и его уже можно конфигурять обычным /etc/network/interfaces (или /etc/network/interfaces.template если есть дополнительные venet'ы)

    Это для интерфейса внутри контейнера
    А как привязать также элегантно, адрес для veth101.0 в хостовой системе?
    netwoking стартует раньше vz и естественное никаких vethXXX.Y нету.

    Кто нибуть решал подобную задачу?

     
     
  • 4.12, KMax (?), 06:42, 20/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >К вопросу, о veth0
    >> внутри появится виртуальный адаптер и его уже можно конфигурять обычным /etc/network/interfaces (или /etc/network/interfaces.template если есть дополнительные venet'ы)
    >
    >Это для интерфейса внутри контейнера
    >А как привязать также элегантно, адрес для veth101.0 в хостовой системе?
    >netwoking стартует раньше vz и естественное никаких vethXXX.Y нету.
    >
    >Кто нибуть решал подобную задачу?

    Нашёл сам в http://wiki.openvz.org/Veth#Add_veth_device_to_CT_2
    но от адреса на venet прилшось отказаться... перезатирал настройки в interfaces

     

  • 1.4, Vee Nee (?), 13:44, 17/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Жаль только не весь функционал OpenVZ в ядрах 2.6.26 доступен, так что для нормальной работы контейнеров может понадобиться еще 2.6.18 использовать. :(
     
     
  • 2.6, Бу (?), 14:38, 17/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    +1
    > Warning: cpulimit is not yet implemented in kernels > 2.6.18 (i.e. development ones).
    > Use stable kernel if you want this feature.
     

  • 1.5, Kn1ght (?), 14:26, 17/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    мдя.. на сате OVZ есть wiki, там все описано, да и ман довольно хорошо написан...
    или это для ленивых?
     
  • 1.7, serg (??), 19:17, 17/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Уже сто раз описано на всех языках и все-равно даже сюда постится.
     
     
  • 2.9, Бу (?), 06:48, 18/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    Вишь, хоть тыщщу напишут, а все равно

    >> net.ipv4.conf.default.proxy_arp = 0
    >> net.ipv4.conf.eth0.proxy_arp=1
    >
    > аффтар, я тебя не понял.
    > что это за махинации? если это специфично именно для вашей конфигурации, то это стоило бы > отметить как-то.

     

  • 1.8, Добрый Дохтур (?), 21:44, 17/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >net.ipv4.conf.default.proxy_arp = 0
    >net.ipv4.conf.eth0.proxy_arp=1

    аффтар, я тебя не понял.
    что это за махинации? если это специфично именно для вашей конфигурации, то это стоило бы отметить как-то.

     
  • 1.11, ntimmy (??), 23:44, 19/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Как квотировать память процессор винт.
     
     
  • 2.13, крот (?), 10:52, 20/11/2009 [^] [^^] [^^^] [ответить]  
  • +/
    запятая запала  на клавиатуре?
     

  • 1.14, бубиль (?), 23:31, 20/11/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Статья из серии "делай как я, делай как я!".
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру