Scott Dowdle продолжил (http://community.livejournal.com/openvz/30232.html) свои эксперименты с запуском большого числа OpenVZ контейнеров на одном сервере. В прошлом году на сервере HP Proliant DL380 Gen5 (2 x quad-core Xeon CPU, 32 Гб ОЗУ) удалось (http://www.montanalinux.org/openvz-experiment.html) создать только 638 изолированных окружений. Проведя на том же оборудовании эксперимент год спустя, используя ядро с новыми OpenVZ патчами, Scott Dowdle смог преодолеть (http://www.montanalinux.org/openvz-experiment.html#comment-2...) барьер в 1000 одновременно работающих контейнеров. В итоге в системе выполнялось 24084 процесса (по 24 процесса в 1000 окружениях), на диспетчеризацию которых планировщик тратил около 30% процессорного времени (69.97% idle, 28.4% iowait, 1.0% system, 0.59% user).
URL: http://community.livejournal.com/openvz/30232.html
Новость: https://www.opennet.ru/opennews/art.shtml?num=24705
Scott Dowdle - британский ученый?
всегда полагал что iowait это винты а не планировщик
Теперь модно писать планировщики дискового в/в---
Читайте внимательнее: system - 1%. Это и есть планировщик.
И что выполнялось в контейнерах? А почему iowait такой большой?.. Каков итог - какие накладные расходы?..
1000 окружений - что-то шибко круто. Это нафига ж столько на 1 сервак пхать? Чтобы показать "а мы еще и вот так можем"?
это ответ на такой же тесть с freebsd jail
https://www.opennet.ru/opennews/art.shtml?num=24254
>1000 окружений - что-то шибко круто. Это нафига ж столько на 1
>сервак пхать? Чтобы показать "а мы еще и вот так
>можем"?Разве не очевидно ? для проверки масштабируемости, с Xen, KVM и прочими QEMU такие эксперименты имеют мало смысла ибо overheat будет огромным, а на openvz несколько десятков VE нормально работают на одной физической машине.
>Разве не очевидно ? для проверки масштабируемости,И что показала эта проверка в результате? И результат в 1% проца на переключение 24 тысяч процессов как-то подозрителен. Им там вообще процессорное время то достается? :)
>с Xen, KVM и прочими QEMU такие эксперименты имеют мало смысла
Конечно, тысяча копий системы... для запуска потребовался бы какойнить Cray.
>ибо overheat будет огромным,
Все-таки overhead :P. Некоторая разница...
> а на openvz несколько десятков VE нормально работают на одной физической машине.
/me как бы в курсе :). Но 1000 контейнеров на 1 сервер - это как-то нереально злобно. Как научный курьез и для книги рекордов Гиннеса конечно еще и не такое прокатывает :)
> И результат в 1% проца на переключение 24 тысяч процессов как-то подозрителенВы вместо того чтобы гнать волну на MS, лучше бы в своём линуксе для начала разобрались. Планировщик уже давно как O(1), посему ему пофиг сколько там процессов.
Не совсем O(1) - но очень близко к тому.
ибо поиск приложения для запуска происходит из эээ.. 12 уровенй приоритета (которые просматриваются последовательно) - и при необходимости из происходит переключение running <> expiring runqueue.
там еще 12.
Но в целом верхная оценка времени поиска задачи - существует?
я конечно далек от понимаю зачем это нужно или как применять, главное что результат есть.
Хостерам нужно
Точнее плохим хостерам, которые вместо нормальной услуги будут предоставлять вот такие рекорды Гинесова, тем самым дискредитируя саму идею прогресса развития и улучшения. Что то вроде "12 фильмов на 1 двд по цене 1".
вот поэтмоу и не понимаю. потреблять\производить гуано имея возмозность не делать так - абсурд.
по кол-ву машин и процессов резу-т понятен, а вот как оно за этот год под нагрузкой имзенилось? возможно это актуальней.
и всетаки а где shaggy_cat? хотелось бы заслушать начальника транспортного цеха.