The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

форумы  помощь  поиск  регистрация  майллист  вход/выход  слежка  RSS
"Помогите получить доступ к LVM"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Открытые системы на сервере (Файловые системы, диски / Linux)
Изначальное сообщение [ Отслеживать ]

"Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (??) on 03-Май-12, 09:35 
Доброго времени суток!

Прошу помощи в подключении LVM.

Имеется устройство NAS - Iomega StorCenter Pro ix4-200r с 4 дисками по 2Тб. Через web-интерфейс было размечено пространство на 3.62Тб.
И в один прекрасный день, во время перепрошивки устройство не вернулось к работе - либо оказалась битой прошивка, либо криво встала в виду неисправности, как потом выяснилось, одного из дисков.
Linux самого устройства крайне ограничен, и имеет очень скудный набор команд по загрузке в память образа с настроенной системой.

Собственно необходимо получить доступ к файловой системе.
Каждый из дисков имеет структуру вида 1 раздел с Ext2, где хранится собственно "прошивка" с настройками, и раздела с Linux LVM.
Загружаю на этом устройстве с флешки Knoppix и смотрю что есть.

А есть следующее - видно все три диска (4ый неисправен, физически не стартует).
Команды vgscan, pvscan не видят ничего.

mdadm --examine --scan:
ARRAY /dev/md0 UUID=собственно_сам_uuid
ARRAY /dev/md/1 metadata=1.0 UUID=собственно_сам_uuid name=5srv:1

lvscan:
inactive     '/dev/md1_vg/md1vol1'  [3.64 TiB] inherit

lvm lvs

LV     VG     Attr  LSize   Origin    Snap%    Move    Log   Copy%   Convert
md1vol1 md1_vg -wi---  3.64t

vgchange -a y:
device-mapper: resume ioctl failed: Invalid argument
Unable to resume md1_vg-md1vol1 (253:0)
1 logical volume(s) in volume group "md1_vg" now active

lvscan:
ACTIVE    '/dev/md1_vg/md1vol1' [3.64 TiB] inherit

И всё. Примонтировать не получается, в виду отсутствия нужного устройcтва в /dev.
Так же, если после lvscan ввести vgscan или pvscan, то последующая команда lvscan выдаст, что ничего не нашла.

Прошу помощи у сообщества - почему не создаётся устройство, как всё же примонтировать этот том? Данные оттуда нужны..

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения по теме [Сортировка по времени | RSS]


1. "Помогите получить доступ к LVM"  +/
Сообщение от koblin (ok) on 03-Май-12, 10:36 
vgscan что показывает?
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

3. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 10:52 
> vgscan что показывает?

No volume groups found

Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

2. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 10:49 
lvdisplay:
--- Logical volume ---
LV Name  /dev/md1_vg/md1vol1
VG Name  md1_vg
LV UUID  xkU.. и т.д.
LV Write Access  read/write
LV Status  suspended
# open  0
LV Size  3.64 TiB
Current LE  1906732
Segments  1
Allocation  inherit
Read ahead sectors  auto
- currently set to  256
Block device  253:0
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

4. "Помогите получить доступ к LVM"  +/
Сообщение от koblin (ok) on 03-Май-12, 11:11 
а что в логах после vgchange -ay? Что-нибудь типа device-mapper: table ... too small for target?
Ответить | Правка | ^ к родителю #2 | Наверх | Cообщить модератору

5. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 11:26 
> а что в логах после vgchange -ay? Что-нибудь типа device-mapper: table ...
> too small for target?

да, есть такое:
device-mapper: table: 253:0: sda2 too small for target: start=384, len=7809974272, dev_size=3904988911

проверить второй винт на предмет ошибок?

Ответить | Правка | ^ к родителю #4 | Наверх | Cообщить модератору

6. "Помогите получить доступ к LVM"  +/
Сообщение от koblin (ok) on 03-Май-12, 11:48 
> да, есть такое:
> device-mapper: table: 253:0: sda2 too small for target: start=384, len=7809974272, dev_size=3904988911
> проверить второй винт на предмет ошибок?

видимо проблема с рейдом.. все ли правильно в mdadm.conf? и что показывает mdadm --assemble --verbose /dev/md<N>

Ответить | Правка | ^ к родителю #5 | Наверх | Cообщить модератору

7. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 12:52 
> видимо проблема с рейдом.. все ли правильно в mdadm.conf? и что показывает
> mdadm --assemble --verbose /dev/md<N>

Можно пример правильного mdadm.conf?

Ибо Ext2 раздел с системой выглядит как:
каталоги:
lost+found
images (файлы apps, config, oem, initd, vmlinuz)
grub (файлы stage1, stage2, menu.lst, e2fs_stage1_5)
ginstall (файл grub)

файл:
swapfile

Как я понимаю, этот девайс работает на cramfs, т.е. из вот этого набора файлов разворачивает в памяти образ системы и уже оттуда работает. Анализ файлика config показывает, что это что-то вроде склейки кучи конфигов - есть упоминания о fstab, список доменных пользователей и т.д. Вот только всё это без практически без форматирования. Поэтому сложно найти нужное.

Ответить | Правка | ^ к родителю #6 | Наверх | Cообщить модератору

8. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 13:38 
> видимо проблема с рейдом.. все ли правильно в mdadm.conf? и что показывает
> mdadm --assemble --verbose /dev/md<N>

это жесть. Как же угораздило купить такое устройство..

в том виде, в каком mdadm.conf существует в нормальных системах, здесь его или нет, или он создаётся динамически при старте системы. Вот кусок из файла config:

description = "Created *before* executing 'lvremove --force /dev/mapper/md1_vg-md1vol1'"

creation_host = "5srv"    # Linux 5srv 2.6.19.2 #1 PREEMPT Wed Mar 10 11:57:31 EST 2010 i686
creation_time = 1294478191    # Sat Jan  8 15:16:31 2011

md1_vg {
    id = "1tOdpl-qsHK-DiIW-Kzr4-nNFL-khLm-3B8n0n"
    seqno = 2
    status = ["RESIZEABLE", "READ", "WRITE"]
    extent_size = 4096        # 2 Megabytes
    max_lv = 0
    max_pv = 0

    physical_volumes {

        pv0 {
            id = "bpC0a8-gDsc-bQSf-tELl-HIbg-cRSf-P3w0o0"
            device = "/dev/md1"    # Hint only

            status = ["ALLOCATABLE"]
            dev_size = 11714965632    # 5.45521 Terabytes
            pe_start = 384
            pe_count = 2860098    # 5.4552 Terabytes
        }
    }

    logical_volumes {

        md1vol1 {
            id = "3UW37U-scDp-kxh1-Rubs-vFj9-1yNi-7dxfVO"
            status = ["READ", "WRITE", "VISIBLE"]
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 2860098    # 5.4552 Terabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 0
                ]
            }
        }
    }
}

вот ещё:
<ArrayUid SystemArrayUid="e3a81c85:92a77e40:26d3793a:b0ba7939"></ArrayUid>
</DriveMgr>
<DriveMove UID="1095866333" DriveMoveRev="2" FirmwareRev="2.1.31.13617"></DriveMove>
<samba serverstring="Iomega StorCenter"></samba>
<Processes>
<Program Name="cnid_metad" Disable="1"></Program>
<Program Name="afpd" Disable="1"></Program>
<Program Name="rsync" Disable="0"></Program>
<Program Name="logrotation" Disable="1"></Program>
<Program Name="cupsd" Disable="1"></Program>
<Program Name="smbd" Disable="1"></Program>
<Program Name="nmbd" Disable="1"></Program>
</Processes>
<EMail Destination="мой электронный адрес"></EMail>
</Flash>


persistent_filter_cache {
    valid_devices=[
        "/dev/loop0",
        "/dev/ram",
        "/dev/loop1",
        "/dev/md1_vg/md1vol1",
        "/dev/mapper/md1_vg-md1vol1",
        "/dev/ram1",
        "/dev/ram0",
        "/dev/md0",
        "/dev/ram2",
        "/dev/md1",
        "/dev/ram3"
    ]
}

Ответить | Правка | ^ к родителю #6 | Наверх | Cообщить модератору

9. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 03-Май-12, 14:00 
смущает размер в 5 с лишним Гб. Ниже, где идёт описание расшаренных каталогов, везде фигурирует Raid10.
Ответить | Правка | ^ к родителю #8 | Наверх | Cообщить модератору

10. "Помогите получить доступ к LVM"  +/
Сообщение от koblin (ok) on 03-Май-12, 14:52 
> смущает размер в 5 с лишним Гб. Ниже, где идёт описание расшаренных
> каталогов, везде фигурирует Raid10.

ты попробуй подключить диски к обычному компьютеру с линуксом и посмотреть на вывод mdadm --assemble --verbose /dev/...

Ответить | Правка | ^ к родителю #9 | Наверх | Cообщить модератору

11. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (??) on 03-Май-12, 18:44 
> ты попробуй подключить диски к обычному компьютеру с линуксом и посмотреть на
> вывод mdadm --assemble --verbose /dev/...

Вот это не успел попробовать, а винты и так на обычном компе уже гоняю. Завтра отпишусь о результатах. Спасибо за отклик на просьбу!

Ответить | Правка | ^ к родителю #10 | Наверх | Cообщить модератору

12. "Помогите получить доступ к LVM"  +/
Сообщение от apt (ok) on 04-Май-12, 09:15 
> Вот это не успел попробовать, а винты и так на обычном компе
> уже гоняю. Завтра отпишусь о результатах. Спасибо за отклик на просьбу!

Еще была тема самопроизвольного зануления первого сектора второго диска на определенном конторллере. Рэид был аппаратный, поэтому не пострадал никак, а партишн тейбл пришлось создавать fdisk'ом заново, после чего lvm вернулся в работоспособность.

Ответить | Правка | ^ к родителю #11 | Наверх | Cообщить модератору

13. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 05-Май-12, 06:19 
> mdadm --assemble --verbose /dev/...

Удалил лишнее:
mdadm --assemble --verbose --scan
...
mdadm: /dev/sdc2 is identified as a member of /dev/md/5srv:1, slot 1.
mdadm: /dev/sdb2 is identified as a member of /dev/md/5srv:1, slot 2.
mdadm: /dev/sda2 is identified as a member of /dev/md/5srv:1, slot 0.
mdadm: added /dev/sdc2 to /dev/md/5srv:1 as 1
mdadm: added /dev/sdb2 to /dev/md/5srv:1 as 2
mdadm: no uptodate device for slot 3 of /dev/md/5srv:1
mdadm: added /dev/sda2 to /dev/md/5srv:1 as 0
mdadm: /dev/md/5srv:1 has been started with 3 drives (out of 4).
...
mdadm: /dev/sdc1 is identified as a member of /dev/md/126_0, slot 1.
mdadm: /dev/sdb1 is identified as a member of /dev/md/126_0, slot 2.
mdadm: no uptodate device for slot 0 of /dev/md/126_0
mdadm: added /dev/sdb1 to /dev/md/126_0 as 2
mdadm: no uptodate device for slot 3 of /dev/md/126_0
mdadm: added /dev/sdc1 to /dev/md/126_0 as 1
mdadm: /dev/md/126_0 has been started with 2 drives (out of 4).
...
mdadm: no recogniseable superblock on /dev/md/126_0
mdadm: no recogniseable superblock on /dev/md/5srv:1
...

mount /dev/md/5srv:1 /mnt
mount: unknown filesystem type 'LVM2_member'

ФС там не ext2. Как можно определить тип ФС внутри LV?

Ответить | Правка | ^ к родителю #10 | Наверх | Cообщить модератору

14. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 05-Май-12, 07:39 
> ты попробуй подключить диски к обычному компьютеру с линуксом и посмотреть на
> вывод mdadm --assemble --verbose /dev/...

Так, доступ к данным я получил.
После mdadm -- assemble --scan команды vgscan и pvscan стали показывать данные о группах, vgchange md1_vg -a y позволила активировать группу томов и уже после этого удалось смонтировать том. Что в целом и правильно, просто до этого с LVM не имел дел.
Разве что с кодировкой не совпало, русские имена отображаются коряво, но это поправимо. Пока скопирую всё как есть, потом буду играться с кодировками при монтировании.

koblin, apt - огромное спасибо за помощь!

Ответить | Правка | ^ к родителю #10 | Наверх | Cообщить модератору

15. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (ok) on 22-Май-12, 11:36 
Кстати, сам девайс тоже восстановил.
Прошивка представляет собой Linux-раздел на диске, grub стартует ядро и дальше в память "разворачиваются" конфиги и приложения (cramfs). И один из таких зажатых файлов оказался битым.
Файл прошивки является зашифрованным (128бит, aes) tgz-архивом. 14 числа вышла новая "прошивка", скачал, дешифорвал. Далее извлёк из неё необходимые файлы, при помощи knoppix закинул на рабочий диск с полки и клонировал этот раздел на оставшиеся в живых диски (раздел с "прошивкой" является raid1 на 4х дисках). Устройство завелось, стало доступно по сети, все данные на нужных местах. Воткнул 4ый чистый диск и полка к ночи закончила восстановление массива с данными (raid10).
Такое вот приключение :)
Ответить | Правка | ^ к родителю #10 | Наверх | Cообщить модератору

16. "Помогите получить доступ к LVM"  +/
Сообщение от val079 email(ok) on 13-Авг-12, 09:41 
>[оверквотинг удален]
> память "разворачиваются" конфиги и приложения (cramfs). И один из таких зажатых
> файлов оказался битым.
> Файл прошивки является зашифрованным (128бит, aes) tgz-архивом. 14 числа вышла новая "прошивка",
> скачал, дешифорвал. Далее извлёк из неё необходимые файлы, при помощи knoppix
> закинул на рабочий диск с полки и клонировал этот раздел на
> оставшиеся в живых диски (раздел с "прошивкой" является raid1 на 4х
> дисках). Устройство завелось, стало доступно по сети, все данные на нужных
> местах. Воткнул 4ый чистый диск и полка к ночи закончила восстановление
> массива с данными (raid10).
> Такое вот приключение :)

Добрый день. Можно по подробней по восстановлению девайса. У меня такая же железка только у двух дисков нет LVM загрузчика. Как засунуть с новой прошивки файлы. Заранее благодарен буду.

Ответить | Правка | ^ к родителю #15 | Наверх | Cообщить модератору

17. "Помогите получить доступ к LVM"  +/
Сообщение от mAdDuke (??) on 08-Май-13, 11:19 
> Добрый день. Можно по подробней по восстановлению девайса. У меня такая же
> железка только у двух дисков нет LVM загрузчика. Как засунуть с
> новой прошивки файлы. Заранее благодарен буду.

Ох давно я сюда не заглядывал.. Ещё актуально?
У меня закрылся почтовый домен с ящиком, указанным при регистрации. Уведомлений не получил..

Ответить | Правка | ^ к родителю #16 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру