The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Открыты исходные тексты распределенной файловой системы DSGrid

16.08.2006 16:03

Компания Cleversafe объявила об открытии под лицензией GPL исходных текстов файловой системы DSGrid под Linux, предназначенной для создания распределенных в глобальной сети систем хранения данных.

Каждый блок данных в DSGrid разбивается на 11 частей, которые сохраняются на различных машинах в сети. Данные дублируются и для сохранения целостности необходима работа всего 6 узлов из 11.

  1. Главная ссылка к новости (http://www.cleversafe.com/comp...)
Лицензия: CC-BY
Тип: К сведению
Короткая ссылка: https://opennet.ru/8124-grid
Ключевые слова: grid, cluster, fs
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (7) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Y01ka (?), 17:13, 16/08/2006 [ответить]  
  • +/
    а скорость работы это фс фантазмагичная наверно )))

    пока по сети по всем драйверам сетевух разным уровням топологии и тд

    да соберёт это в кучу... на ext3 уже в 10 раз больше запыхает на винт %)

    ну это так, лирика

     
     
  • 2.2, Pbl6a (?), 18:02, 16/08/2006 [^] [^^] [^^^] [ответить]  
  • +/
    Даже если скорость будет не в 10, а в 100 раз меньше (при расчёте на сеть ethernet 100Mbit), это будет крайне полезное решение. Правда, жёсткая привязка соотношения рабочих/начальных узлов мне не нравиться, хотелось бы гибкости, что б эту избыточность можно было бы конфигурировать в широких пределах. К примеру для неочень важной информации достаточно было б 8 рабочих из 10 узлов, а для важной 3 из 10.
     
  • 2.3, johnjoy (??), 18:58, 16/08/2006 [^] [^^] [^^^] [ответить]  
  • +/
    а проект и не расчитан на хорошую латентность
    насколько понял - задачами являются пропускная способность, возможность хранить много терабайтов на дешёвом железа, распределённость "по миру" и надёжность (fail-safe)
    на первый взгляд похоже на Google FS/Hadoop, однако в отличии от них метятся на на кластерную фс, а прямо-таки на "межкластерную"
     

  • 1.4, www.andr.ru (?), 23:24, 16/08/2006 [ответить]  
  • +/
    ннда, не очень понятно, почему именно на 11, а не на 8 или, скажем, 16 - цифры гораздо более круглые. и вообще, если взять за основу механизм raid5 (а зачем тут изобретать велосипед - неясно), то решение должно легко масштабироваться - от 3 до бесконечности.

    необходимость в таких вещах безусловна. времена локальных, нераспределённых, осей безвозвратно уходят. сомневаться в этом глупо. это всё равно, что сомневаться в полезности веб: "да нахрена эта байда нужна, да я же с локального диска за миллисекунды всё достану". не забывайте, что на 100мегабодах вы поработаете ещё максимум несколько лет.

    существуют гораздо более продвинутые в технологическом плане решения. на мой взгляд, лидер - xFS: Serverless Network File Service   http://now.cs.berkeley.edu/Xfs/xfs.html

     
     
  • 2.7, nixlike (ok), 13:40, 19/08/2006 [^] [^^] [^^^] [ответить]  
  • +/
    Да уж товарищи ну очень быстро развиваются :)) ...  
     

  • 1.5, аноним (?), 01:15, 17/08/2006 [ответить]  
  • +/
    я никогда не видел работающей реализации xFS, хотя давно о ней слышал. Вbдимо есть какие-то грабли не позволяющее ее развернуть так же просто(сложно) как PVFS или GFS от RedHat. Был признателен за документацию по развертыванию xFS на современных *nix.
     
  • 1.6, avatar (??), 10:50, 18/08/2006 [ответить]  
  • +/
    В сад такие системы!

    После 2 часов правки зависимостей в configure, т.к. pkg-config у них только для виду, выяснилость, что эта софтина, написанная на С++, требует экзотические межплатформенные библиотеки. Здесь мы и сломались. Больше терпения не хватило. Остается только представить, как она бедет работать при такой не оптимизации под конкретную платформу и использовании монстрообразных библиотек.

    Если кому интерестно, лучше взгляните на gfarm, имхо он намного лучше и грамотнее написан, не без своих проблем конечно, но, все ж таки, один из лучших в этой области.

     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2020 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру