|
2.38, _KUL (ok), 02:39, 15/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Смена у GNU GPL ПО логотипа с последующем распространением в массы - а разве так можно? Ведь вы же не форк сделали.
| |
|
1.4, SubGun (ok), 00:39, 14/12/2016 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Ребята конечно молодцы, но каждый раз, когда я вижу их новый дизайн веб-интерфейса, глаза стремятся вытечь.
| |
|
2.13, Andrey Mitrofanov (?), 09:16, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
> по первой ссылке в вику - а зачем "ужу" хранилище данных?
HA с репликацией и переключением на уровне блочного у.
| |
|
1.8, Celcion (ok), 08:11, 14/12/2016 [ответить] [﹢﹢﹢] [ · · · ]
| –2 +/– |
А сеть все так и настраивается через задницу? В смысле, если нужны VLAN-ы и все такое.
| |
|
2.12, Нониус (?), 09:10, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Там идеологически сеть организована неправильно, правда 4.3 и эту я не смотрел.
Например, у меня не удалось сделать для виртуалки .1q транк. Хотя дома ручками я легко это делаю, пробрасывая в виртуалку (шлюз+фаервол) под KVM все свои три ) влана: local, dmz и wifi-guest ))
| |
|
3.16, Dorlas (??), 09:30, 14/12/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Там идеологически сеть организована неправильно, правда 4.3 и эту я не смотрел.
> Например, у меня не удалось сделать для виртуалки .1q транк. Хотя дома
> ручками я легко это делаю, пробрасывая в виртуалку (шлюз+фаервол) под KVM
> все свои три ) влана: local, dmz и wifi-guest ))
Вот это не пробовал на ProxMox...
На 4.3 кручу уже месяц тестовый кластер (3 узла), много чего пробовал и запускал - нестабильностей на типовых задачах не обнаружено. НО - это без нагрузки. Исключительно тестовые задачки...(Samba4 as AD, FreeIPA, windows разных версий - все нормально встает и работает).
На ESXi (бесплатном) делал транк внутрь виртуалки, там это элементарно и просто работает.
На Hyper-V тоже не пробовал (задачи такой не было) - и вообще не уверен, что это получится...Microsoft как всегда своим путем идет...Network Virtualization у них вообще зубо-дробилка...через powershell и новые сущности аля GRE туннели )))
PS: Когда VLAN со стороны хоста - проблем нет ни у кого уже давно. Но проброс транка до виртуалки (чтобы уже внутри ее видеть теги и раскладывать по интерфейсам) задачка редкая. Но случается. У меня в последний раз была, когда срочно пришлось один физически подыхающий сервер перетаскивать в виртуалку (а там транк и vlan-ы). Но благо стоял ESXi - поэтому все прошло быстро и безболезненно.
| |
|
4.24, riv1329 (?), 11:33, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Иногда vlan-ы не могут проходить через простой bridge из-за драйвера сетевой карты с аппаратной поддержкой 802.1q. Или отключать аппаратную обработку или использовать несколько интерфейсов в VM. Ещё можно их заново затегировать :-)
Proxmox не пробовал, не знаю как там это настраивается.
| |
|
3.31, Аноним (-), 14:41, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
>Например, у меня не удалось сделать для виртуалки .1q транк. Хотя дома ручками я легко это делаю, пробрасывая в виртуалку (шлюз+фаервол) под KVM все свои три ) влана: local, dmz и wifi-guest ))
Обычный бридж вполне себе пробрасывает все вланы, включая дабл таг, в виртуалку, баз каких либо танцев с бубнами.
| |
|
2.14, Dorlas (??), 09:16, 14/12/2016 [^] [^^] [^^^] [ответить]
| +1 +/– |
> А сеть все так и настраивается через задницу? В смысле, если нужны
> VLAN-ы и все такое.
Если править конфиги в CLI это через то самое место - то да:
https://pve.proxmox.com/wiki/Vlans
PS: кто не хотят править конфиги - покупают/пиратят что-то другое...
| |
|
3.17, Celcion (ok), 09:33, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Если править конфиги в CLI это через то самое место - то да
Через задницу - это когда неконсистентно. Не через задницу - это либо когда все настраивается через GUI/API, либо все настраивается через конфиги. А когда что-то настраивается через конфиги (причем, на каждом хосте руками в якобы "кластере"), а что-то через GUI - это через задницу.
Можно было бы понять, что это какие-то низкоуровневые тонкие настройки, они везде через локальные конфиги настраиваются, но это же - простейшие VLAN-ы, даже без каких-либо еще примочек.
| |
|
4.18, Dorlas (??), 09:37, 14/12/2016 [^] [^^] [^^^] [ответить]
| –2 +/– |
>> Если править конфиги в CLI это через то самое место - то да
> Через задницу - это когда неконсистентно. Не через задницу - это либо
> когда все настраивается через GUI/API, либо все настраивается через конфиги. А
> когда что-то настраивается через конфиги (причем, на каждом хосте руками в
> якобы "кластере"), а что-то через GUI - это через задницу.
> Можно было бы понять, что это какие-то низкоуровневые тонкие настройки, они везде
> через локальные конфиги настраиваются, но это же - простейшие VLAN-ы, даже
> без каких-либо еще примочек.
Зато Just for Fun и свободно/бесплатно.
А то, что что-то не допилили - ну так дайте время...ESXi вот с 2001/2002 года пилят...
А думается мне бюджет у них на порядок (порядки) скромнее...
| |
|
5.19, Celcion (ok), 09:47, 14/12/2016 [^] [^^] [^^^] [ответить] | –4 +/– | Ну, вообще, там пишут про энтерпрайз-класс фичерзы https www proxmox com en... большой текст свёрнут, показать | |
|
|
3.20, Аноним (-), 10:05, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Note: Article is outdated and contain advices which are not recommended
| |
|
2.21, Аноним (-), 10:19, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Да все давно отлично. Вы какую щупали, что не понравилось, 2.х? Там да, было трудно.
| |
|
3.23, Celcion (ok), 10:28, 14/12/2016 [^] [^^] [^^^] [ответить]
| –2 +/– |
Последняя версия, которую я более-менее активно использовал - была 3.4.
| |
|
|
|
2.11, Аноним (-), 08:30, 14/12/2016 [^] [^^] [^^^] [ответить]
| +1 +/– |
в тройке. в четверке заменили на лхс
была ж новость вроде
https://forum.proxmox.com/threads/moving-to-lxc-is-a-mistake.25603/
'''
There is no OpenVZ for ANY kernel later 2.6.32. In fact, OpenVZ development is stopped and a follow up project is started. The new "OpenVZ" is currently called Virtuozzo 7 (the team behind change name and company several times, quite confusing and a bit hard to follow.).
Virtuozzo 7 is still under development and obviously not suitable for production and not feature compatible to the old OpenVZ project. more or less all new.
See also their roadmap:
https://openvz.org/Roadmap
So if you want/need stable OpenVZ, you can ONLY use 2.6.32 - available and maintained in Proxmox VE 3.x series.
#6tom, Jan 14, 2016
'''
| |
|
1.22, opan (ok), 10:20, 14/12/2016 [ответить] [﹢﹢﹢] [ · · · ]
| +1 +/– |
Используем proxmox как штатную виртуализацию в конторе. Крутятся и корпоративные сервисы и стенды и виртуалки для работы в разных сегментах сети. Всего виртуалок штук 500 - впечатления положительные.
| |
|
2.25, Dorlas (??), 11:35, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Используем proxmox как штатную виртуализацию в конторе. Крутятся и корпоративные сервисы
> и стенды и виртуалки для работы в разных сегментах сети. Всего
> виртуалок штук 500 - впечатления положительные.
Можно несколько вопросов?
1) Сколько у Вас хостов ?
2) Смотрели ли oVirt ?
3) Есть ли очень нагруженные системы по дисковому I/O и по CPU? Как со стабильностью?
| |
|
3.32, Олег (??), 17:06, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
1 8-10хостов, около 50-70 виртуалок
2 Да, там проблем с настройками много, тут из коробки, ну и гайки докручивать в проксмокс легче
3 По разделению ресурсов - нужно допиливать, I\O нагруженных нет, кроме ZFS, который крайне зависит от ОЗУ, CPU - проблем нет, максимум повышение LA
Из проблем:
- Невозможно понизить приоиритеты операций, кроме как руками из CLI делать, что крайне неудобно, та же операция миграции диска может повесить систему, притом крайне неожиданно по LA без прочих признаков
- Пару раз за 3 года висла бекапилка, отправляя в накаут весь хост, работает, но на предел и миграции отказываются работать
- При 2х нодах, отказ одной ноды приведет почти к смерти (резко упадет скорость сети и дисковой подсистемы, до выполнения операции в консоли)
- Бывают косяки на ровном месте, рода - перепутались местами сетевые интерфейсы, повис интерфейс и нужно обновить страницу, на ранних версиях терял яzfs пул
- Большой косяк - пр ZFS 1/2 ОЗУ уходит ему, по умолчанию, ну и при таком раскладе у меня 2-ды я терял связь с виртулками без особых видимых причин (видно свапиться стал), в чем причина узнал по косвенным признакам, 10-20 минут простой как никак. Допиливается-но неприятно
- медленно бекапится на 3-й версии (есть еще такие в кластере одном), одна виртуалка без особых причин бекапится 24часа, и это 30 гигов не изменяемых
Всецело 24*7, несколько кластеров по миру все стабильно, но иногда не радует
| |
|
4.39, Celcion (ok), 09:28, 15/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
> Всецело 24*7, несколько кластеров по миру все стабильно, но иногда не радует
Вижу более-менее системный подход, в связи с чем не могу не спросить - считалась ли стоимость владения и сравнивалась ли с коммерческими решениями?
Полагаю, прекрасно понятно, что в стоимость закладываются и вынужденные аварийные простои бизнес-систем, крутящихся на этих виртуалках, что в принципе не может быть "бесплатным", только если там не тест/разработка крутится.
| |
|
5.41, Олег (??), 10:47, 15/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Считалась
Но выяснилось вот что:
- Большинство ошибок кроются в кривых руках тех или иных лиц, неправильная структура, разработчики
- Требуется замена оборудования для обеспечения совместимости c Vmware, строгое выделение хранилки, при том не одной
- Время простоев во время перехода очень большое, отдельный большой вопрос с vmware tools, которые под тот же gentoo (не спрашивайте зачем он у нас) будут собираться и допиливаться долго
- VSAN от Vmware стоит порядком денег, в Proxmox Ceph и ZFS+NFS+rsync
- Простой в час в год является допустимым у нас
- uptime кластера доходил до 2 лет, отсюда и с 3-ки пока не уходим
- Ну и стоит понимать, тут задавали вопрос о высоком IO и загрузки проца, так вот такие вещи вообще виртуализировать нельзя! те же базы данных у нас хранятся на отдельных серверах и тут вопрос не в системе виртуализации
| |
|
6.42, Celcion (ok), 12:06, 15/12/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
> - Большинство ошибок кроются в кривых руках тех или иных лиц, неправильная структура, разработчики
Да, но это зачастую - данность, с которой приходится жить и, соответственно, подстраивать под это инфраструктуру. Как оправдание это - увы - почти никогда не работает.
> - Требуется замена оборудования для обеспечения совместимости c Vmware, строгое выделение хранилки, при том не одной
Насчет "замены оборудования", честно говоря, не понял что имеется в виду. Про HCL, что ли, речь?
Насчет "строгого выделения хранилки" - тоже не совсем понял.
> - Время простоев во время перехода очень большое, отдельный большой вопрос с
> vmware tools, которые под тот же gentoo (не спрашивайте зачем он
> у нас) будут собираться и допиливаться долго
Так речь не о переходе. Если закладывать переход - то это к любой системе некислый плюс к цене пририсует, даже к бесплатной.
> - VSAN от Vmware стоит порядком денег, в Proxmox Ceph и ZFS+NFS+rsync
Так ведь мы о стоимости владения говорим, а это параметр комплексный. Допустим, сэкономили вы на лицензиях VSAN, но жор памяти ZFS "съел" достаточно памяти, что цена этой самой памяти стала сопоставима со стоимостью VSAN.
> - Ну и стоит понимать, тут задавали вопрос о высоком IO и загрузки проца, так вот такие вещи вообще виртуализировать нельзя!
Это почему?
> те же базы данных у нас хранятся на отдельных серверах и тут вопрос не в системе виртуализации
А в чем вопрос?
| |
|
7.43, Олег (??), 16:28, 15/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
1 Ну статистику она и портит более чем минимальные простои от косяков проксмокса
2 HCL - да про него, хранилка - это построение SAN для Vmware
3 Стоимость владения намного ниже для нас чем Vmware, опять же Vmware не чистый, к нему еще нужно бекапы докупать и т.д.
4 ZFS после настроек съел 8-12GB, цена VSAN - лямы
5-6 Потому что в пиках возникают проблемы у всех соседей в том или ином виде, ограничивать и корпеть над каждым ограничением глупо, та же сеть, диски и т.д. Потом при виртуализации нужно соблюдать архитектуру процессоров, чтобы сохранить миграцию, в этом случае весь кластер работает на архитектуре минимального севрера. Потом диагностика узких мест при БД будет проблематична и не всегда очевидна.
Ну и скажу совсем непопулярную мысль
Сервера Intel и Supermicro не уступают в надежности Hp, Dell, IBM, а в цене по совокупности в разы дешевле
Хранилки не в счет, там отдельная тема
| |
|
8.45, Celcion (ok), 10:37, 16/12/2016 [^] [^^] [^^^] [ответить] | +/– | SAN по-разному можно строить Можно FC, а можно и iSCSI на карточках с аппаратны... большой текст свёрнут, показать | |
|
|
|
|
|
|
|
1.29, Fantomas (??), 13:00, 14/12/2016 [ответить] [﹢﹢﹢] [ · · · ]
| –3 +/– |
Программисты пишут Проксмокс безелаберно, на хабре давно была статья, что lxc хреново работает в Проксмоксе и недавно была статья с тестами, что zfs реализована в Проксмоксе через ж.
| |
|
2.30, commiethebeastie (ok), 14:19, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
Ага, нажимаем кнопку выключение, не ставя на госте acpid, гость больше команд принимать не может, т.к. выключение "залипло".
| |
2.35, Led (ok), 22:16, 14/12/2016 [^] [^^] [^^^] [ответить]
| +/– |
> zfs реализована в Проксмоксе через ж.
Через твою ж?
| |
2.36, Pilat (ok), 01:22, 15/12/2016 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Программисты пишут Проксмокс безелаберно, на хабре давно была статья, что lxc хреново
> работает в Проксмоксе и недавно была статья с тестами, что zfs
> реализована в Проксмоксе через ж.
LXC и без него работает плохо.
| |
|
1.46, ДонЯгон (?), 18:11, 26/03/2017 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Крутится на проксмоксе уже 2-й год виртуальный сервер под шаред хостинг, 200 хостов примерно. В этом году еще понадобился файерберд сервер - и все это удовольствие бесплатно. Хороший подход. Не могу иметь претензий, лишь бы лавочку не закрыли
| |
|