| 1.1, Игорь (??), 16:41, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +5 +/– |
Если это такое-же поделие как Canonical OpenStack, то спасибо, не надо, это боль и унижение. В особенности когда менеджерьё начиталось рекламных проспектов и считает, что это подымается с пол-пинка, как показанно в той самой рекламе.
| | |
| |
| 2.3, Tron is Whistling (?), 17:11, 22/03/2026 [^] [^^] [^^^] [ответить]
| +4 +/– |
Оно подымается-то может и с полпинка, но вот когда оно с такого же полпинка упадёт - придётся заново поднимать. Либо с нуля и полпинка, либо если хочешь данные вернуть...
| | |
| |
| 3.11, Аноним (11), 18:56, 22/03/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Оно же отказоустойчивое. Его захочешь уронить, оно не упадёт.
| | |
|
| 2.6, Аноним (6), 18:33, 22/03/2026 [^] [^^] [^^^] [ответить]
| +2 +/– |
Не осилить опенстак по доке это, конечно, уровень опеннета. Что дальше? От кубера шарахаться будете?
| | |
| |
| 3.21, Игорь (??), 23:13, 22/03/2026 [^] [^^] [^^^] [ответить]
| +3 +/– |
Пожалуйста почитайте их доку и попробуйте применить в небольшой лабе(в чем искренне желаю Вам успехов). Я с удовольствием Вас выслушаю после этого. Я хорошо знаю OpenStack, да и установить его при помощи колы или вручную(из пакетов или из питоновских исходников)вообще не проблема. Но вероятность что-то поставить по их документации, описании методов отладки и ответах от службы поддержки, она конечно ненулевая, но... Возможно Ансибл, Паппет, etc мне несколько ближе, чем Жужа, белой масти. А поскольку система установки до боли похожа на ту, которую я, и команда в которой я имел счастье прибывать, крутили в руках, я никому не желаю подобных неприятностей.
| | |
| |
| 4.24, Аноним (6), 01:52, 23/03/2026 [^] [^^] [^^^] [ответить]
| –1 +/– |
У меня прод на нём на пару сотен серверов. Скажи что у тебя не получается, может помогу.
| | |
| |
| 5.32, Фонтимос (?), 08:52, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– | |
> создавать кластеры, насчитывающие от 3 до 50 узлов
Анон утверждает, что запустил пару сотен хостов.
Кто-то (либо уважаемый анон, либо убунта, возможно переводчик) лгут.
Специально сходил на сайт сабжа, там тоже написано "...scale from a single node to larger 50-node...". В данном случае склонен поверить убунте и реабилитровать переводчика.
Т.е. получается что лжет уважаемый анон.
| | |
| |
| 6.34, Аноним (34), 10:38, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
если 4 кластера по 50, то в чем проблема?
или разоблачитель продом не баловался?
| | |
|
|
|
|
|
| 1.8, Аноним (6), 18:41, 22/03/2026 [ответить] [﹢﹢﹢] [ · · · ]
| –4 +/– |
Они меня потеряли на Ceph. После трёх лет "владения" 1.5PB пользовательских данных в Ceph хочется про него поскорее забыть. Сейчас на моём отделе на порядок больше данных в хадупе, от которого на три порядка меньше проблем в эксплуатации.
| | |
| |
| |
| 3.26, Аноним (26), 02:33, 23/03/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Я рад что ты спросил! OSD жрут CPU и RAM, менеджмент PG при меняющейся нагрузке (слишком мало -- неравномерная утилизация дисков, слишком много -- резко растут требования по CPU/RAM. Ребаланс при использовании больших дисков (10+TB) может занимать от нескольких часов до нескольких дней, и все это время кластер будет тормозить. Очень требователен к пропускной способности и задержкам в сети. Без отдельной физической сети (желательно 25Gbps на порт и выше) для кластерных операций Ceph малопригоден, это существенно повышает стоимость владения. Большое количество компонентов требующих мониторинга. Восстановление после потери кворума как отдельный вид головной боли. В итоге, это всё суммируется в большую нагрузку на админов для поддержания его в рабочем состоянии. Хадуп/хдфс менее трудозатратны в эксплуатации и для нашего юзкейса пригодны даже "в сыром виде".
| | |
| |
| 4.28, онанист (?), 07:19, 23/03/2026 [^] [^^] [^^^] [ответить]
| +1 +/– | |
при использовании больших дисков (10+TB)
так вроде для ceph реально годятся только ssd
| | |
| |
| 5.30, CephAdmin (?), 07:28, 23/03/2026 [^] [^^] [^^^] [ответить]
| +3 +/– | |
Чел развернул Ceph на тормозных HDD и на медленной сети а потом Ceph "плохой" ...
НЕТ СОВРЕМЕННОГО железа НЕ трогайте Ceph !!!
| | |
| |
| 6.35, Аноним (34), 10:42, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
а зачем нам такие неотпимизированные сервисы?
почему альтернативы работают хорошо, только ентот сеф лапки кверху?
| | |
| 6.37, tonys (??), 10:55, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
Не так. Если у вас нет лохло-клиентов, которые готовы оплатить внедрение у вас ceph и его обслуживание, то не беритесь.
А потом бизнес будет говорить как его душат налогами...
И вы еще называете себя инженерами?
| | |
|
|
|
| 3.38, Tron is Whistling (?), 10:56, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
Залипающие PG например.
Нет, оно работает, пока ты его не трогаешь - но как только начинаешь делать тесты стрессоустойчивости и отказоустойчивости - всё, трындец. Потеря данных.
Поэтому по факту живёт только у крупняка, у которого достаточно штата если что в кишках ковыряться.
| | |
|
| 2.31, Аноним (31), 08:28, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
>1.5PB пользовательских данных
>на моём отделе на порядок больше
Даже представить себе не могу, чем может заниматься отдел, чтобы сгенерить *такой* объем данных. Цифровая видео студия?
| | |
|
| |
| 2.16, Nellex (?), 20:34, 22/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
На скрине и есть веб морда от lxd. Насколько я понимаю микроклауд - они просто написали хелпер на golange для развертывания поверх существующего api lxd. Хотя сам lxd отлично работает в своём кластере. Имеет смысл переходить на incus, правда там веб морды готовой нет, но можно заюзать от каноникал.
| | |
| |
| 3.27, Аноним (26), 02:37, 23/03/2026 [^] [^^] [^^^] [ответить]
| +/– |
Веб-морда для incus пишется llm'ом за час, если тебе не для продажи, а для внутреннего использования (т.е. дефолтные кнопки из bootstrap и каждый у кого есть доступ админ).
| | |
|
|
| 1.23, Аноним (23), 01:42, 23/03/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +2 +/– | |
> используется mDNS
Обожаю, когда сеть приходится строить в виде бродкаст-помойки.
| | |
|