>> Инфинибенд (половина Топ500) попал в HPC из датацентра.
> Насколько я помню, ровно наоборот -- Myrinet и прочие дельфиниксы тоже пилились
> под HPC. Хотя нарыл и почитал http://www.networkworld.com/newsletters/stor/2006/0213stor1....
> -- похоже, тут Вы более правы, хотя изначальная задумка поползла из
> лабораторий в жизнь всё-таки скорее через HPC-сайты, а в ДЦ тем
> временем хозяйничал FC.инфинибенд пополз, как только появился в продаже по доступным ценам, и по-моему, не только в HPC, но и там, где просто нужен был толстый I/O. миринет до датацентров, по-моему, так и не дополз, и пилился ЕМНИП как замена эзернету. чисто суперовские интерконнекты типа торусов в обычный ДЦ вряд ли попадут.
>> 1GB езернет (вторая половина Топ500) попал в HPC из датацентра.
> Так это вообще вспомогательное или на нечувствительные к латентности задачи, о гигабите
> речь не шла.
поправочка, 10G. я присмотрелся повнимательнее, сотня из 190 помеченных как гигабит эзернет это хьюлетовские кластера, у которых может быть интерконнект как инфинибенд так и 10G эзернет, то же самое датаплексы; на чем интерконнект у тьмы китайских кластеров на х3650М3 - одному императору известно.
>> Плотность упаковки - не HPC специфичный фактор, а важный для любого, даже
>> не очень крупного ДЦ.
> Специфичный, т.к. латентность зачастую критична.
тогда мы говорим о разных факторах; при проектировке general computing ДЦ желание разместить как можно больше ядер и памяти в юните далеко не всегда диктуется требованиями латентности.
>> Охлаждение - тут я не понял, что вы имеете в виду, что это за специфические
>> технологии охлаждения для суперкомпьютеров, которые попали в датацентр
>> и чем они отличается от охлаждения любого тепловыделяющего оборудования.
> Средняя плотность выделения тепла AFAIK выше,
иии что?
т.к. группа активно считающих на полную
> узлов -- это нормально, а вот группа загруженных на 100% по
> CPU серверов -- нет.
во-первых, не загруженные на 100% серверы в ДЦ - это не нормально, КМК, а во-вторых, вы вроде говорили про технологии охлаждения. что полностью загруженная стойка греется сильнее, чем ненагруженная, я в курсе.
>> То же самое - про мониторинг.
> Вытекает из плотности размещения -- в ДЦ более обычно одно-два блейд-шасси на
> стойку, а 100% заполнение.
ага, спасибо, интересная штука. а бывает и так:
#!/usr/bin/perl#################################################################################################
# File Name: check_bg_node_event.pl #
# Author: Blue Gene Speed Team, Summer 2007 #
# Date: 7/24/2007 #
# Description: This event handler runs on a state change for the BG Node service. On a #
# WARNING or CRITICAL state, it will call build_html.pl to build an HTML file that will help in #
# viewing the plugin's log file using Nagios. #
# Parameters: #
# ARGV[0]: Service State ($SERVICESTATE$ within Nagios) #
# ARGV[1]: Hostname ($HOSTNAME$ within Nagios) #
# ARGV[2]: Service Name ($SERVICEDESC$ within Nagios) #
# ARGV[3]: Host Address ($HOSTADDRESS$ within Nagios) #
#################################################################################################
# Other: This script is triggered when BG Node service enters a new state. Conditionals #
# that this script process by default are OK, WARNING, CRITICAL, and UNKNOWN. Upon a warning #
# or critical state, the file build_html.pl will be called with the correct arguments and #
# it will create an html file for viewing log files and making external commands on a service. #
#################################################################################################
# Edit the below variables as needed for your plugin.
my $pluginName = "check_bg_node"; # ie 'check_ping'
my $logName = "node.log"; # ie criticalerror.log
my $htmlName = "node.html"; # ie criticalerror.html
my $relativeLogPath = "/nagios/logs/";
my $htmlFile="/srv/www/htdocs/nagios/logs/";
остаток кода поскипан, но вы поняли идею :)))
что касается той системы, на которую вы кинули ссылку, то у меня на второй странице сложилось четкое ощущение, что система предназначена для мониторинга любой системы, генерящей большое количество ивентов, будь то суперкластер, или например какой-нибудь 5ess. там есть какая-то HPC специфика, которую я упустил?