The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Индекс форумов
Составление сообщения

Исходное сообщение
"Представлена 40 редакция списка самых высокопроизводительных..."
Отправлено Михрютка, 19-Ноя-12 19:23 
>> Инфинибенд (половина Топ500) попал в HPC из датацентра.
> Насколько я помню, ровно наоборот -- Myrinet и прочие дельфиниксы тоже пилились
> под HPC.  Хотя нарыл и почитал http://www.networkworld.com/newsletters/stor/2006/0213stor1....
> -- похоже, тут Вы более правы, хотя изначальная задумка поползла из
> лабораторий в жизнь всё-таки скорее через HPC-сайты, а в ДЦ тем
> временем хозяйничал FC.

инфинибенд пополз, как только появился в продаже по доступным ценам, и по-моему, не только в HPC, но и там, где просто нужен был толстый I/O. миринет до датацентров, по-моему, так и не дополз, и пилился ЕМНИП как замена эзернету. чисто суперовские интерконнекты типа торусов в обычный ДЦ вряд ли попадут.

>> 1GB езернет (вторая половина Топ500) попал в HPC из датацентра.
> Так это вообще вспомогательное или на нечувствительные к латентности задачи, о гигабите
> речь не шла.

поправочка, 10G. я присмотрелся повнимательнее, сотня из 190 помеченных как гигабит эзернет это хьюлетовские кластера, у которых может быть интерконнект как инфинибенд так и 10G эзернет, то же самое датаплексы; на чем интерконнект у тьмы китайских кластеров на х3650М3 - одному императору известно.

>> Плотность упаковки - не HPC специфичный фактор, а важный для любого, даже
>> не очень крупного ДЦ.
> Специфичный, т.к. латентность зачастую критична.

тогда мы говорим о разных факторах; при проектировке general computing ДЦ желание разместить как можно больше ядер и памяти в юните далеко не всегда диктуется требованиями латентности.

>> Охлаждение - тут я не понял, что вы имеете в виду, что это за специфические
>> технологии охлаждения для суперкомпьютеров, которые попали в датацентр
>> и чем они отличается от охлаждения любого тепловыделяющего оборудования.
> Средняя плотность выделения тепла AFAIK выше,

иии что?

т.к. группа активно считающих на полную
> узлов -- это нормально, а вот группа загруженных на 100% по
> CPU серверов -- нет.

во-первых, не загруженные на 100% серверы в ДЦ - это не нормально, КМК, а во-вторых, вы вроде говорили про технологии охлаждения. что полностью загруженная стойка греется сильнее, чем ненагруженная, я в курсе.

>> То же самое - про мониторинг.
> Вытекает из плотности размещения -- в ДЦ более обычно одно-два блейд-шасси на
> стойку, а 100% заполнение.

ага, спасибо, интересная штука. а бывает и так:


#!/usr/bin/perl

#################################################################################################
# File Name: check_bg_node_event.pl                                                             #
# Author: Blue Gene Speed Team, Summer 2007                                                     #
# Date: 7/24/2007                                                                               #
# Description: This event handler runs on a state change for the BG Node service. On a          #
# WARNING or CRITICAL state, it will call build_html.pl to build an HTML file that will help in #
# viewing the plugin's log file using Nagios.                                                   #
# Parameters:                                                                                   #
# ARGV[0]: Service State ($SERVICESTATE$ within Nagios)                                         #
# ARGV[1]: Hostname ($HOSTNAME$ within Nagios)                                                  #
# ARGV[2]: Service Name ($SERVICEDESC$ within Nagios)                                           #
# ARGV[3]: Host Address ($HOSTADDRESS$ within Nagios)                                           #
#################################################################################################
# Other: This script is triggered when BG Node service enters a new state. Conditionals      #
# that this script process by default are OK, WARNING, CRITICAL, and UNKNOWN. Upon a warning    #
# or critical state, the file build_html.pl will be called with the correct arguments and       #
# it will create an html file for viewing log files and making external commands on a service.  #
#################################################################################################

# Edit the below variables as needed for your plugin.
my $pluginName = "check_bg_node";        # ie 'check_ping'
my $logName = "node.log";        # ie criticalerror.log
my $htmlName = "node.html";        # ie criticalerror.html
my $relativeLogPath = "/nagios/logs/";
my $htmlFile="/srv/www/htdocs/nagios/logs/";

остаток кода поскипан, но вы поняли идею :)))

что касается той системы, на которую вы кинули ссылку, то у меня на второй странице сложилось четкое ощущение, что система предназначена для мониторинга любой системы, генерящей большое количество ивентов, будь то суперкластер, или например какой-нибудь 5ess. там есть какая-то HPC специфика, которую я упустил?


 

Ваше сообщение
Имя*:
EMail:
Для отправки ответов на email укажите знак ! перед адресом, например, !user@host.ru (!! - не показывать email).
Более тонкая настройка отправки ответов производится в профиле зарегистрированного участника форума.
Заголовок*:
Сообщение*:
  Введите код, изображенный на картинке: КОД
 
При общении не допускается: неуважительное отношение к собеседнику, хамство, унизительное обращение, ненормативная лексика, переход на личности, агрессивное поведение, обесценивание собеседника, провоцирование флейма голословными и заведомо ложными заявлениями. Не отвечайте на сообщения, явно нарушающие правила - удаляются не только сами нарушения, но и все ответы на них. Лог модерирования.



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру