<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Выпуск кластерной ФС Lustre 2.17</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html</link>
    <description>Опубликован релиз кластерной файловой системы Lustre 2.17, используемой в большей части крупнейших Linux-кластеров, содержащих десятки тысяч узлов.  Ключевыми компонентами Lustre являются серверы обработки и хранения метаданных (MDS), управляющие серверы (MGS), серверы хранения объектов (OSS), хранилище объектов (OST, поддерживается работа поверх ext4 и ZFS) и клиенты.  Код проекта распространяется под лицензией GPLv2...&lt;br&gt;&lt;br&gt;Подробнее: https://www.opennet.ru/opennews/art.shtml?num=64533&lt;br&gt;</description>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (Я)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#50</link>
    <pubDate>Fri, 02 Jan 2026 15:13:14 GMT</pubDate>
    <description>Я смотрю, это просто поражение мозга какое-то писать разлельно &quot;не&quot; там, где это не нужно. Неужели самому не видно, что в данном случае пишется &quot;несложно&quot; и &quot;недорого&quot;? Или реально мозг поражён чем-то?&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#49</link>
    <pubDate>Thu, 01 Jan 2026 21:03:24 GMT</pubDate>
    <description>&amp;gt; - NFS Ganesha запрос получил.&lt;br&gt;&amp;gt; - Дёрнул RadosGW (для простоты они на одной машине)&lt;br&gt;&lt;br&gt;Посмотрел вообще что за зверь такой этот NFS в RadosGW - и как я и подумал, это встроенный адаптер S3-FUSE, чтобы на клиенте не ставить FUSE прослойку, а смонтировать вместо неё NFS сервер&lt;br&gt;&lt;br&gt;NFS сервер тут однако не внешний процесс, а просто ещё один протокол предоставляемый RadosGW, сервер ganesha in-process, никого ему дёргать не надо&lt;br&gt;&lt;br&gt;&amp;gt; Each NFS RGW instance is an NFS-Ganesha server instance embedding a full Ceph RGW instance.&lt;br&gt;&amp;gt; Therefore, the RGW NFS configuration includes Ceph and Ceph Object Gateway-specific configuration in a local ceph.conf, as well as NFS-Ganesha-specific configuration in the NFS-Ganesha config file, ganesha.conf.&lt;br&gt;&lt;br&gt;Что собственно и делает его лучше чем внешний S3-FUSE&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#48</link>
    <pubDate>Thu, 01 Jan 2026 20:41:32 GMT</pubDate>
    <description>Если коротко - то CephFS работает именно так, как ты описал работу люстры.&lt;br&gt;&lt;br&gt;Однако клиент CephFS присутствует в mainline ядре, а клиент люстры - out-of-tree модуль&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#47</link>
    <pubDate>Thu, 01 Jan 2026 20:27:45 GMT</pubDate>
    <description>&amp;gt; не похоже на ceph от слова совсем.&lt;br&gt;&amp;gt; самое простое - разный механизм востановления после сбоя.&lt;br&gt;&amp;gt; ceph надеется на сетевые реплики.&lt;br&gt;&amp;gt; lustre работает как сетевая журналируемая fs и надеется что backend - уже &lt;br&gt;&amp;gt; с рейдом.&lt;br&gt;&lt;br&gt;Мне кажется ты и другой комментатор тоже про NFS и RadosGW говорите, а не про CephFS&lt;br&gt;&lt;br&gt;У CephFS файловая система (реализованная на MDS) тоже журналируемая (метаданные), а сами данные бечатся в OSD, который либо работает с голым диском и имеет WAL (bluestore), либо тоже файловая система с опциональным журналированием (filestore)&lt;br&gt;&lt;br&gt;Короче никто не надеется на сетевые реплики, но по дефолту обычно всегда стоит ожидание что несколько реплик доступны, это да.&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (Аноним)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#46</link>
    <pubDate>Thu, 01 Jan 2026 20:22:30 GMT</pubDate>
    <description>не для того, но заявления о том что какаято там фс может сотни тысяч петабайт, это смешно, потому что никому не надо, прямо сейчас перед вами отличный пример, виртуализация железа проиграла, все эти супер кластеры от вмваре больше никому не нужны, их заменили садовые тележки от прокмокса, ну не полностью, но тренд очевиден,..не знаю нужны ли комуто карьерные самосвалы, разрабатывать двигатель, кузов, решать проблемы с логистикой негабаритных частей, чтобы он отработал Х времени, и снова решать кучу проблем чтобы его починить,..в чем проблема заменить его сотней тележек.&lt;br&gt;&lt;br&gt;и линукс и виндовс вознамерились выбросить С, и писать все на расте, потому что нету достаточного кол-ва людей способных управлять памятью. А уж упихивание в контейнеры превратилось в какойто фетиш.&lt;br&gt;&lt;br&gt;да, наверное, люстра это очень круто и быстро, но лично мне доводилось сталкиваться с тем, что изза сбойного диска, приходилось ребутать ноду, потому что ядро не хотело удалять связанные ресурсы nfs, хотя аппаратно горячная замена поддерживае</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#45</link>
    <pubDate>Thu, 01 Jan 2026 20:21:44 GMT</pubDate>
    <description>Если ты доверяешь своему железу - то можешь не ждать двух реплик, это ж не то чтобы что-то необычное, неужели lustre по дефолту позволяет потерять единственную актуальную реплику?&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#44</link>
    <pubDate>Thu, 01 Jan 2026 20:18:30 GMT</pubDate>
    <description>&amp;gt; Как ребалансировка Ceph повлияет на производительность? Вы готовы ждать пока она закончится?&lt;br&gt;&lt;br&gt;Примерно никак, Ceph очень слабо централизован, посмотри на архитектуру CRUSH/OSD что там используется для объектного хранилища, и как устроены сервера MDS для CephFS&lt;br&gt;&lt;br&gt;Только эти сервисы нужны для cephfs клиентов, при перебалансировке нагружаются только отдельные OSD, и ceph достаточно хорошо нагрузку по ним распределяет чтобы не было такого что все реплики всех объектов оказались плохо доступны&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#43</link>
    <pubDate>Thu, 01 Jan 2026 20:14:41 GMT</pubDate>
    <description>&amp;gt; Речь шла про CephFS, RadosGW это S3 интерфейс для ceph, и NFS &lt;br&gt;&amp;gt; я тут вообще не понял каким боком, потому что RadosGW это &lt;br&gt;&amp;gt; S3, а не NFS &lt;br&gt;&lt;br&gt;Окей, пардон, надо было загуглить, RadosGW действительно имеет NFS интерфейс, однако это точно не то что рекомендуется кому-либо использовать, судя по всему это просто встроенный адаптер наподобие S3-FUSE, лол&lt;br&gt;</description>
</item>

<item>
    <title>Выпуск кластерной ФС Lustre 2.17 (morphe)</title>
    <link>https://opennet.dev/openforum/vsluhforumID3/138840.html#42</link>
    <pubDate>Thu, 01 Jan 2026 20:10:54 GMT</pubDate>
    <description>&amp;gt; Если вы решите выбрать Ceph, то вам никто не может запретить, но между &quot;бакетами ceph&quot; и файловой структурой будет стоять RadosGW, после чего вам понадобится один или несколько NFS Ganesha, который работает в пространстве пользователя, со всеми вытекающими накладными расходами и вносимыми задержками.&lt;br&gt;&lt;br&gt;Речь шла про CephFS, RadosGW это S3 интерфейс для ceph, и NFS я тут вообще не понял каким боком, потому что RadosGW это S3, а не NFS&lt;br&gt;&lt;br&gt;Оно далеко не так топорно работает как ты описал, в CephFS у тебя есть сервера метаданных MDS, и сервера дисков (блочное хранилище rados) OSD&lt;br&gt;&lt;br&gt;Клиенту нужно стучать в MDS для получения информации о структуре ФС, а для изменения файлов он уже может стучать напрямую во все OSD согласно CRUSH карте, тут нет никакой централизации, промежуточных серверов, и уж тем более NFS&lt;br&gt;</description>
</item>

</channel>
</rss>
