The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Компания Canonical опубликовала MicroCloud 3, инструментарий для развёртывания кластеров

22.03.2026 16:30 (MSK)

Компания Canonical опубликовала инструментарий управления облачной инфраструктурой MicroCloud 3.1 (первый выпуск ветки 3.x), позволяющий быстро развёртывать на своём оборудовании облачные системы и вычислительные кластеры с общим распределённым хранилищем данных и защищённой виртуальной сетью. MicroCloud оформлен в виде snap-пакета, включающего компоненты, необходимые для управление работой узлов кластера. Инструментарий написан на языке Go и распространяется под лицензией AGPL 3.0.

MicroClouds позволяет создавать кластеры, насчитывающие от 3 до 50 узлов при включении обеспечения отказоустойчивости. Программный стек для управления кластером основан на инструментарии LXD, платформе для построения виртуальных сетей OVN (Open Virtual Network) и распределённом отказоустойчивом хранилище Ceph. Настройка LXD, Ceph и OVN на всех узлах кластера осуществляется автоматически. В качестве основной платформы рассматривается дистрибутив Ubuntu Server, но инструментарий не привязан к Ubuntu и может быть использован в любых дистрибутивах, для которых доступна возможность установки инструментария snap (Arch Linux, CentOS, Fedora, Debian, openSUSE, RHEL и т.п.).

Для определения новых серверов в сети, которые могут быть подключены к кластеру, используется mDNS, что позволяет настроить весь кластер запустив всего одну команду "microcloud init" на одном из узлов и команду "sudo microcloud join" на остальных узлах, предварительно установив snap-пакеты lxd, microceph, microcloud и microovn. После запуска команды "microcloud init" инструментарий определит наличие других серверов в локальной сети, выдаст запрос на добавление дисков в общее хранилище Ceph и предложит настроить параметры виртуальной сети. Для добавления дополнительных узлов после завершения инициализации можно использовать команду "microcloud add". Конфигурация кластера может быть сохранена в формате YAML для последующего развёртывания аналогичных систем.

Общее файловое хранилище создаётся с включением репликации и отказоустойчивости, позволяющих в случае выхода из строя отдельных узлов не потерять данные, благодаря хранению нескольких экземпляров данных на разных узлах. Для развёртывания хранилища на базе Ceph в кластере, помимо локальных дисков, на трёх разных компьютерах должны присутствовать как минимум три отдельных диска, отведённых для распределённого хранения данных.

После готовности кластера пользователям предоставляется возможность запуска своих приложений, используя контейнеры или виртуальные машины, а также возможность доступа к общему хранилищу Ceph и инструментарию централизованного управления на базе LXD. Возможно гибкое управление предоставляемыми ресурсами CPU, памяти и ввода/вывода, проброс в окружения USB-устройств, GPU и накопителей. Изолированные и виртуальные окружения могут переноситься между узлами в режиме live-миграции и сохраняться с использованием снапшотов. Метрики о работе кластера и лог событий могут экспортироваться для мониторинга при помощи Prometheus и Grafana.

В новой версии:

  • Добавлена поддержка использования Cluster Manager для централизованного мониторинга и управления несколькими кластерами MicroCloud в одном приложении.
  • После завершения интерактивной установки кластера командой "microcloud init" обеспечен вывод запроса, позволяющего формировать ссылку для временного доступа в управляющий web-интерфейс, что позволяет сразу перейти в web-интерфейс LXD, через который можно создавать и настраивать узлы, сети, пулы хранения, образы, группы полномочий и т.п. Временный вход действует 24 часа (предполагается, что этого времени хватит для настройки постоянного доступа).
  • Добавлена экспериментальная поддержка MicroOVN 26.03 (Micro Open Virtual Network), набора фоновых процессов для Open vSwitch, транслирующих конфигурацию виртуальной сети в OpenFlow. В отличие от Open vSwitch в MicroOVN предоставляется более высокий уровень абстракций, работающий не с потоками, а с логическими маршрутизаторами и коммутаторами.


  1. Главная ссылка к новости (https://discourse.ubuntu.com/t...)
  2. OpenNews: Представлен Proxmox Datacenter Manager 1.0
  3. OpenNews: Выпуск Proxmox VE 9.1, дистрибутива для организации работы виртуальных серверов
  4. OpenNews: Обновление кластерной файловой системы LizardFS 3.13.0-rc2
  5. OpenNews: Apache сворачивает разработку кластерной платформы Mesos
  6. OpenNews: Уязвимость в Red Hat OpenShift AI, допускающая root-доступ к узлам кластера
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/65048-microcloud
Ключевые слова: microcloud, cluster
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (32) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Игорь (??), 16:41, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +5 +/
    Если это такое-же поделие как Canonical OpenStack, то спасибо, не надо, это боль и унижение. В особенности когда менеджерьё начиталось рекламных проспектов и считает, что это подымается с пол-пинка, как показанно в той самой рекламе.
     
     
  • 2.3, Tron is Whistling (?), 17:11, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Оно подымается-то может и с полпинка, но вот когда оно с такого же полпинка упадёт - придётся заново поднимать. Либо с нуля и полпинка, либо если хочешь данные вернуть...
     
     
  • 3.11, Аноним (11), 18:56, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Оно же отказоустойчивое. Его захочешь уронить, оно не упадёт.  
     
     
  • 4.36, Tron is Whistling (?), 10:55, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Первой упадёт как раз "отказоустойчивость".
     
  • 2.6, Аноним (6), 18:33, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Не осилить опенстак по доке это, конечно, уровень опеннета. Что дальше? От кубера шарахаться будете?
     
     
  • 3.21, Игорь (??), 23:13, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Пожалуйста почитайте их доку и попробуйте применить в небольшой лабе(в чем искренне желаю Вам успехов). Я с удовольствием Вас выслушаю после этого. Я хорошо знаю OpenStack, да и установить его при помощи колы или вручную(из пакетов или из питоновских исходников)вообще не проблема. Но вероятность что-то поставить по их документации, описании методов отладки и ответах от службы поддержки, она конечно ненулевая, но... Возможно Ансибл, Паппет, etc мне несколько ближе, чем Жужа, белой масти. А поскольку система установки до боли похожа на ту, которую я, и команда в которой я имел счастье прибывать, крутили в руках, я никому не желаю подобных неприятностей.
     
     
  • 4.24, Аноним (6), 01:52, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    У меня прод на нём на пару сотен серверов. Скажи что у тебя не получается, может помогу.
     
     
  • 5.32, Фонтимос (?), 08:52, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > создавать кластеры, насчитывающие от 3 до 50 узлов

    Анон утверждает, что запустил пару сотен хостов.
    Кто-то (либо уважаемый анон, либо убунта, возможно переводчик) лгут.
    Специально сходил на сайт сабжа, там тоже написано "...scale from a single node to larger 50-node...". В данном случае склонен поверить убунте и реабилитровать переводчика.
    Т.е. получается что лжет уважаемый анон.

     
     
  • 6.34, Аноним (34), 10:38, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    если 4 кластера по 50, то в чем проблема?
    или разоблачитель продом не баловался?
     
  • 6.39, Аноним (39), 11:05, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Ты, видимо, слепой. Ибо уаажаемый анон говорил про OpenStack.
     

  • 1.8, Аноним (6), 18:41, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –4 +/
    Они меня потеряли на Ceph. После трёх лет "владения" 1.5PB пользовательских данных в Ceph хочется про него поскорее забыть. Сейчас на моём отделе на порядок больше данных в хадупе, от которого на три порядка меньше проблем в эксплуатации.
     
     
  • 2.22, Аноним (22), 00:51, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    какие проблемы в Ceph ?
     
     
  • 3.26, Аноним (26), 02:33, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я рад что ты спросил! OSD жрут CPU и RAM, менеджмент PG при меняющейся нагрузке (слишком мало -- неравномерная утилизация дисков, слишком много -- резко растут требования по CPU/RAM. Ребаланс при использовании больших дисков (10+TB) может занимать от нескольких часов до нескольких дней, и все это время кластер будет тормозить. Очень требователен к пропускной способности и задержкам в сети. Без отдельной физической сети (желательно 25Gbps на порт и выше) для кластерных операций Ceph малопригоден, это существенно повышает стоимость владения. Большое количество компонентов требующих мониторинга. Восстановление после потери кворума как отдельный вид головной боли. В итоге, это всё суммируется в большую нагрузку на админов для поддержания его в рабочем состоянии. Хадуп/хдфс менее трудозатратны в эксплуатации и для нашего юзкейса пригодны даже "в сыром виде".
     
     
  • 4.28, онанист (?), 07:19, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    при использовании больших дисков (10+TB)

    так вроде для ceph реально годятся только ssd

     
     
  • 5.30, CephAdmin (?), 07:28, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Чел развернул Ceph на тормозных HDD и на медленной сети а потом Ceph "плохой" ...

    НЕТ СОВРЕМЕННОГО железа НЕ трогайте Ceph !!!

     
     
  • 6.35, Аноним (34), 10:42, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    а зачем нам такие неотпимизированные сервисы?
    почему альтернативы работают хорошо, только ентот сеф лапки кверху?
     
  • 6.37, tonys (??), 10:55, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Не так. Если у вас нет лохло-клиентов, которые готовы оплатить внедрение у вас ceph и его обслуживание, то не беритесь.
    А потом бизнес будет говорить как его душат налогами...
    И вы еще называете себя инженерами?
     
  • 3.38, Tron is Whistling (?), 10:56, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Залипающие PG например.
    Нет, оно работает, пока ты его не трогаешь - но как только начинаешь делать тесты стрессоустойчивости и отказоустойчивости - всё, трындец. Потеря данных.
    Поэтому по факту живёт только у крупняка, у которого достаточно штата если что в кишках ковыряться.
     
  • 2.31, Аноним (31), 08:28, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >1.5PB пользовательских данных
    >на моём отделе на порядок больше

    Даже представить себе не могу, чем может заниматься отдел, чтобы сгенерить *такой* объем данных. Цифровая видео студия?

     

  • 1.9, Аноним (11), 18:54, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Зачем это когда уже есть кубернетес?
     
     
  • 2.12, Диды (ok), 19:27, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Очень хотелось snap вкрячить
     
     
  • 3.20, Past (?), 22:12, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    У них есть для этого microk8s
     

  • 1.13, Аноним (13), 19:33, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Может не в тему, но можно же снап пересобрать в деб?
     
     
  • 2.25, Аноним (25), 02:17, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    внутри которого снап, да, можно
     
  • 2.29, iPony128052 (?), 07:20, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Да, всё возможно.
    Автоматом по волшебной палочке - нет.
     

  • 1.15, Аноним (15), 20:13, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    это они из lxd такое сделали? там такой же интерфейс
     
     
  • 2.16, Nellex (?), 20:34, 22/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    На скрине и есть веб морда от lxd. Насколько я понимаю микроклауд - они просто написали хелпер на golange для развертывания поверх существующего api lxd. Хотя сам lxd отлично работает в своём кластере. Имеет смысл переходить на incus, правда там веб морды готовой нет, но можно заюзать от каноникал.
     
     
  • 3.27, Аноним (26), 02:37, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Веб-морда для incus пишется llm'ом за час, если тебе не для продажи, а для внутреннего использования (т.е. дефолтные кнопки из bootstrap и каждый у кого есть доступ админ).
     

  • 1.23, Аноним (23), 01:42, 23/03/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    > используется mDNS

    Обожаю, когда сеть приходится строить в виде бродкаст-помойки.

     
     
  • 2.33, Соль земли2 (?), 10:05, 23/03/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Ну строй тогда в виде Open vSwitch помойки.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2026 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру