The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Тюнинг нагруженного CentOS севера при помощи ktune
В репозитории CentOS присутствуетпакет ktune, содержащий набор готовых настроек
для оптимизации работы ядра
на машинах с большим размером ОЗУ в ситуациях повышенной сетевой и дисковой нагрузки.
Например, ktune увеличивает размер TCP/IP буферов, включает планировщик ввода/вывода deadline, 
устанавливает оптимальные значения для pagecache и т.п.
Полный список настроек можно найти в файлах /etc/sysctl.ktune и /etc/sysconfig/ktune

для активации  необходимо выполнить:

   yum install ktune
   chkconfig ktune on
   service ktune start

Устанавливаются следующие sysctl:

   # Устанавливаем в 256 Кб размер буферов по умолчанию для приема и отправки данных через сокеты
   net.core.rmem_default = 262144
   net.core.wmem_default = 262144

   # Устанавливаем в 8Мб максимальный размер буфера сокетов.
   net.core.rmem_max = 8388608
   net.core.wmem_max = 8388608

  # Максимальный размер очереди пакетов для 10 гб или объединенных гигабитных линков
   net.core.netdev_max_backlog = 10000

   # Тюнинг буферов для TCP и UDP соединений (для машин с большим объемом ОЗУ)
   net.ipv4.tcp_rmem = 8192 87380 8388608
   net.ipv4.tcp_wmem = 8192 65536 8388608

   net.ipv4.udp_rmem_min = 16384
   net.ipv4.udp_wmem_min = 16384

   net.ipv4.tcp_mem = 8388608 12582912 16777216
   net.ipv4.udp_mem = 8388608 12582912 16777216

   # Понижаем приоритет начала своппинга
   vm.swappiness = 30

   # Начинаем принудительно чистить буферы, когда они занимают более 50% размера ОЗУ
   vm.dirty_ratio = 50

   # Ограничиваем размер файлового кеша, предотвращая начало свопинга
   vm.pagecache = 90


Включаем deadline планировщик для диска sda:
   echo deadline > /sys/block/sda/queue/scheduler
 
29.04.2009 , Источник: http://prefetch.net/blog/index.php/...
Ключи: tune, kernel, linux, speed / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Linux специфика / Оптимизация и тюнинг в Linux

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, rcn (?), 15:21, 29/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    насколько мне известно последние ядра автоматически подстраивают параметры net.core net.ipv4 или нет?

    про последнее дисковый шедулер, тут всё зависит чем нагружен сервер. для кого-то cfq лучше будет,
    а для кого-то none

     
  • 1.2, rm (??), 16:52, 29/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    подскажите какой параметр , влияет на размер буфера tcp? дабы не переполнялся? и чтобы не сильно нагружал озу?
     
     
  • 2.5, pavlinux (ok), 22:25, 29/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    net.ipv4.tcp_rmem - чтение
    net.ipv4.tcp_wmem - запись


    http://www-didc.lbl.gov/TCP-tuning/linux.html

     

  • 1.3, Денис (??), 17:16, 29/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Насколько я понимаю net.core.netdev_max_backlog с NAPI не работает
     
  • 1.4, pavlinux (ok), 22:21, 29/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > # Ограничиваем размер файлового кеша, предотвращая начало свопинга
    >  vm.pagecache = 90

    Это в какой ядре?

     
     
  • 2.6, bliznezz (?), 22:08, 01/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    это элементарно, ватсон,...
    судя по этой строчке:
    echo deadline > /sys/block/sda/queue/scheduler

    это 5й центос, т.к. в 4м (на 2.6.9.х такого не было)
    ну а если 5й - то 2.6.18

     
     
  • 3.10, pavlinux (ok), 12:34, 03/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    Ясно, 2.6.30 такого ужо нет
     

  • 1.7, FractalizeR (ok), 11:24, 02/05/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >>на машинах с большим размером ОЗУ

    Это какой размер имеется ввиду?

     
  • 1.8, Аноним (-), 10:18, 03/05/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    не понял, а зачем ktune если и так все руками через sysctl поправил?
     
     
  • 2.9, FractalizeR (ok), 11:31, 03/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >не понял, а зачем ktune если и так все руками через sysctl
    >поправил?

    Затем, чтобы руками не править на 50-ти серверах, скажем.

     
     
  • 3.11, Аноним (-), 16:55, 04/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    а выложить на сетевую шару скрипт и запустить не судьба чтоли?
     

  • 1.12, User294 (ok), 17:46, 04/05/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Все это круто.Кроме того что автор показал немного черной магии, но чего, почему и нафига именно так и вот столько - не объяснил.Равно как и забыл указать какой у него конфиг.Мне кажется что лучше бы советы учили осмысленно думать головой - что, куда и насколько подкрутить.Вместо показа черной магии без объяснений - почему оно вот столько и вот туда.
     
  • 1.13, past (?), 14:23, 05/05/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Согласен с последним оратором!
     
  • 1.14, Одмин (?), 13:02, 06/05/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Всё бы ничего, но при 16 гигах ОЗУ vm.dirty_ratio = 50 смотрится странно. А если в ДЦ в это время свет моргнёт или ещё какая хрень(не только отечественные ДЦ этим славятся, увы)? Я бы не стал такие большие значения делать.
     
     
  • 2.15, FractalizeR (??), 13:29, 06/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >Всё бы ничего, но при 16 гигах ОЗУ vm.dirty_ratio = 50 смотрится
    >странно. А если в ДЦ в это время свет моргнёт или
    >ещё какая хрень(не только отечественные ДЦ этим славятся, увы)? Я бы
    >не стал такие большие значения делать.

    А чего, сервер с 16Гб ОЗУ у вас без UPS работает? :)

     
     
  • 3.16, Одмин (?), 17:02, 06/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    увы, в дц нет такой услуги "ups в аренду".
     
     
  • 4.17, FractalizeR (??), 17:54, 06/05/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >увы, в дц нет такой услуги "ups в аренду".

    Хм... Ну, тогда конечно...

     
  • 4.18, Александр (??), 19:02, 27/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А это точно ДЦ?))
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру