The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Отключаем RAID1 на MB и ставим FreeBSD на zfs mirror на диски c сектором 4k
Согласно рекомендациям Oracle ZFS лучше не ставить поверх RAID, так как это
приведет к не оптимальному распределению нагрузки на шпиндели. Так же хочется
напомнить о необходимости включении режима ACHI в BIOS.

Собственно скрипт:


#!/bin/sh

mount_cd9660 /dev/cd0 /media

DIST="/media/usr/freebsd-dist"
DISKDEV1="da1"
DISKDEV2="da2"
SWAPSIZE="1G"
LOGFILE="tmp06_first.log"
exec 1>$LOGFILE 2>&1
ZPOOL="zroot"
HOSTNAME="BSD"
MNT="/mnt2"

mkdir -p $MNT
sysctl kern.geom.debugflags=0x10

/bin/echo "Starting newfs ZFS "
/sbin/gpart create -s gpt $DISKDEV1
/sbin/gpart create -s gpt $DISKDEV2
/bin/sync

/sbin/gpart add -a 4k -b 34 -s 64k -t freebsd-boot $DISKDEV1
/sbin/gpart add -a 4k -t freebsd-zfs -l disk0 $DISKDEV1
/bin/sync

/sbin/gpart add -a 4k -b 34 -s 64k -t freebsd-boot $DISKDEV2
/sbin/gpart add -a 4k -t freebsd-zfs -l disk1 $DISKDEV2
/bin/sync

/sbin/gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 $DISKDEV1
/sbin/gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 $DISKDEV2
/bin/sync

/sbin/gnop create -S 4096 /dev/gpt/disk0
/sbin/gnop create -S 4096 /dev/gpt/disk1
/bin/sync

/sbin/zpool create -m $MNT -f -o cachefile=/var/tmp/$ZPOOL.cache $ZPOOL mirror
/dev/gpt/disk0.nop /dev/gpt/disk1.nop
/sbin/zpool export $ZPOOL
/sbin/gnop destroy /dev/gpt/disk0.nop
/sbin/gnop destroy /dev/gpt/disk1.nop
/sbin/zpool import -o cachefile=/var/tmp/$ZPOOL.cache $ZPOOL
/sbin/zpool set bootfs=$ZPOOL $ZPOOL
/sbin/zpool list
/sbin/zpool status
/sbin/zfs get recordsize
/usr/sbin/zdb -U /var/tmp/$ZPOOL.cache |grep ashift
/sbin/mount
/bin/df -H
/bin/sync

/sbin/zfs set checksum=fletcher4 $ZPOOL

/sbin/zfs create -V $SWAPSIZE $ZPOOL/swap
/sbin/zfs set org.freebsd:swap=on $ZPOOL/swap
/sbin/zfs set checksum=off $ZPOOL/swap
/bin/sync

/sbin/zfs create -o mountpoint=$MNT/usr $ZPOOL/usr
/sbin/zfs create -o mountpoint=$MNT/usr/ports $ZPOOL/usr/ports
/sbin/zfs create -o mountpoint=$MNT/usr/src $ZPOOL/usr/src
/sbin/zfs create -o mountpoint=$MNT/usr/home $ZPOOL/usr/home
/sbin/zfs create -o mountpoint=$MNT/var $ZPOOL/var
/sbin/zfs create -o mountpoint=$MNT/var/db $ZPOOL/var/db
/sbin/zfs create -o mountpoint=$MNT/var/tmp $ZPOOL/var/tmp
/sbin/zfs create -o mountpoint=$MNT/tmp $ZPOOL/tmp
/bin/sync

chmod 1777 $MNT/tmp $MNT/var/tmp

cd $DIST
export DESTDIR=$MNT
for file in base.txz doc.txz kernel.txz ports.txz src.txz; do (cat $file | tar
--unlink -xpJf - -C ${DESTDIR:-/}) ; done

cat << EOF >> $MNT/etc/rc.conf
#!/bin/sh
ipv6_enable="NO"
rc_info="YES" # Enables display of informational messages at boot.

keymap=ru.koi8-r
keychange="61 ^[[K"
scrnmap=koi8-r2cp866
font8x16=cp866b-8x16
font8x14=cp866-8x14
font8x8=cp866-8x8
saver="blank"
keyrate="fast"

mousechar_start="3"
moused_enable="YES"
moused_port="/dev/psm0"
moused_type="auto"

network_interfaces="auto" # List of network interfaces (or "auto").
ifconfig_lo0="inet 127.0.0.1 netmask 255.255.255.0"
defaultrouter="192.168.0.1"
ifconfig_em0="inet 192.168.0.88 netmask 255.255.255.0"

hostname=$HOSTNAME

zfs_enable="YES"
kern_securelevel_enable="NO"
linux_enable="YES"
sshd_enable="YES"
sshd_flags="-u0"
usbd_enable="NO"

#fsck_y_enable="YES"
background_fsck="NO"

sendmail_enable="NONE" # Run the sendmail inbound daemon (YES/NO).
sendmail_flags="-L sm-mta -bd -q30m" # Flags to sendmail (as a server)
sendmail_submit_enable="NO" # Start a localhost-only MTA for mail submission
sendmail_submit_flags="-L sm-mta -bd -q30m -ODaemonPortOptions=Addr=localhost"
# Flags for localhost-only MTA
sendmail_outbound_enable="NO" # Dequeue stuck mail (YES/NO).
sendmail_outbound_flags="-L sm-queue -q30m" # Flags to sendmail (outbound only)
sendmail_msp_queue_enable="NO" # Dequeue stuck clientmqueue mail (YES/NO).
sendmail_msp_queue_flags="-L sm-msp-queue -Ac -q30m"
# Flags for sendmail_msp_queue daemon.
# to their chrooted counterparts.

nfs_reserved_port_only="NO"
ntpdate_flags="ntp.ucsd.edu"
ntpdate_enable="NO"
xntpd_enable="NO"
net_snmpd_enable="NO"
inetd_enable="NO"
inetd_program="/usr/sbin/inetd" # path to inetd, if you want a different one.
inetd_flags="-wW -C 60" # Optional flags to inetd

portmap_enable="NO"
nfs_server_enable="NO"
nfs_client_enable="NO"
tcp_drop_synfin="YES"
icmp_drop_redirect="YES"
icmp_log_redirect="NO"
syslogd_enable="YES"
syslogd_flags="-ss"
accounting_enable="NO"
check_quotas="NO"
clear_tmp_enable="YES" # Clear /tmp at startup.
cron_enable="YES" # Run the periodic job daemon.
named_enable="YES" # Run named, the DNS server (or NO).

#devd_enable="YES".
#devfs_system_ruleset="devfsrules_common".
ldconfig_paths="/usr/lib/compat /usr/local/lib /usr/local/kde4/lib /usr/local/lib/compat/pkg"

# Denyhosts Startup.
denyhosts_enable="YES"

EOF

cat << EOF >> $MNT/etc/fstab
# Device Mountpoint FStype Options Dump Pass#
#linproc /compat/linux/proc linprocfs rw 0 0

EOF

cat << EOF >> $MNT/etc/resolv.conf
search $HOSTNAME
domain $HOSTNAME
nameserver 127.0.0.1
#nameserver 8.8.8.8

EOF

cat << EOF >> $MNT/boot/loader.conf
zfs_load="YES"
vfs.root.mountfrom="zfs:$ZPOOL"

autoboot_delay="1"
beastie_disable="YES"

linux_load="YES" # Linux emulation
#lindev_load="NO" # Linux-specific pseudo devices (see lindev(4))
linprocfs_load="YES" # Linux compatibility process filesystem
linsysfs_load="YES" # Linux compatibility system filesystem

#ipfw_load="YES" # Firewall
#ipfw_nat_load="YES"

#if_tap_load="YES" # Ethernet tunnel software network interface

# Kernel Options
kern.ipc.shmseg=1024
kern.ipc.shmmni=1024
kern.maxproc=10000

vm.pmap.pg_ps_enabled="0"
#hw.mca.enabled=1
kern.timecounter.hardware=i8254
hw.pci.enable_msix=0
hw.pci.enable_msi=0
net.inet.tcp.tso=0

EOF

cp /var/tmp/$ZPOOL.cache $MNT/boot/zfs/zpool.cache
zpool set cachefile=$MNT/boot/zfs/zpool.cache $ZPOOL
/bin/sync

/sbin/zfs unmount -a
/bin/sync

/sbin/zfs set mountpoint=legacy $ZPOOL
/sbin/zfs set mountpoint=/tmp $ZPOOL/tmp
/sbin/zfs set mountpoint=/usr $ZPOOL/usr
/sbin/zfs set mountpoint=/usr/ports $ZPOOL/usr/ports
/sbin/zfs set mountpoint=/usr/src $ZPOOL/usr/src
/sbin/zfs set mountpoint=/usr/home $ZPOOL/usr/home
/sbin/zfs set mountpoint=/var $ZPOOL/var
/sbin/zfs set mountpoint=/var/db $ZPOOL/var/db
/sbin/zfs set mountpoint=/var/tmp $ZPOOL/var/tmp
/bin/sync
rm $MNT

exit 0


Работу проверял под vmware. Своп сделан на zfs дабы не воротить еще и gmirror.
Не забудьте размер свопа увеличить.
 
04.11.2012 , Автор: nagual , Источник: http://actika.livejournal.com/3058....
Ключи: raid, freebsd, zfs
Раздел:    Корень / Администратору / Система / Диски и файлы / RAID массивы

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, deadless (ok), 00:05, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    а напуркуа для свопа воротить gmirror? своп на зеркале это чо новомодный фетиш?
     
     
  • 2.63, Аноним (-), 22:11, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Затем, что битые секторы на свопе - все равно что битая память, улавливаешь? Про такие вещи, как потеря данных, не слышал?
     
     
  • 3.64, iZEN (ok), 22:16, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Затем, что битые секторы на свопе - все равно что битая память,
    > улавливаешь? Про такие вещи, как потеря данных, не слышал?

    geom mirror разве на лету проверяет считываемые данные с зеркальных копий?

     

  • 1.2, nagual (ok), 00:11, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А если один диск из зеркала отвалится а своп не на зеркале ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.
     
     
  • 2.65, iZEN (ok), 22:19, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > А если один диск из зеркала отвалится а своп не на зеркале
    > ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.

    У меня, если какая-то программа валится, то оставляет файл с расширением .core в домашнем каталоге пользователя или в / — всё на ZFS.


     
     
  • 3.66, nagual (ok), 22:22, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> А если один диск из зеркала отвалится а своп не на зеркале
    >> ? Единственный недостаток свопа на ZFS это невозможность работы с коркой.
    > У меня, если какая-то программа валится, то оставляет файл с расширением .core
    > в домашнем каталоге пользователя или в / — всё на ZFS.

    Сорри. Я неправильно выразился. Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.

     
     
  • 4.67, iZEN (ok), 22:26, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.

    Точно не позволяет? А какие причины? Может версия ZFS или системы устарела?

     
     
  • 5.68, nagual (ok), 22:32, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> Имелся ввиду дамп ядра после паники. Своп на ZFS не позволяет это делать.
    > Точно не позволяет? А какие причины? Может версия ZFS или системы устарела?

    Я помню что читал это, но почему не разбирался.

     

  • 1.3, pavlinux (ok), 01:14, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Скажите люди добрые нахера на ZFS делать стотыщь мильонов разделов?  
     
     
  • 2.4, nagual (ok), 01:20, 06/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Скажите люди добрые нахера на ZFS делать стотыщь мильонов разделов?

    Нужно если только свойства им разные делать, компрессию или квоты. Или чтоб снапшеты отдельные.

     
  • 2.88, nuclight (??), 14:23, 23/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Почему нет, это ж дешево.
     

  • 1.5, PavelR (ok), 06:01, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Отключаем RAID1 на MB

    не вижу, где в заметке/скрипте освещен данный вопрос.

     
     
  • 2.7, Сергей (??), 10:36, 06/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Дурацкое название, не отключаем, а создаем зеркало средствами zfs, строка в скрипте

    /sbin/zpool create -m $MNT -f -o cachefile=/var/tmp/$ZPOOL.cache $ZPOOL mirror
    /dev/gpt/disk0.nop /dev/gpt/disk1.nop

    Правда нафига указывать сеецифичные для автора параметры в rc.conf, loader.conf, на мой взгляд надо только специфику zfs

     

  • 1.6, PavelR (ok), 06:04, 06/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Уточните, а что, правда /etc/fstab будет по-сути пустым ?
     
     
  • 2.8, Аноним (-), 11:02, 06/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Да, как и всегда с ZFS.
     
  • 2.9, iZEN (ok), 01:40, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    В системе, где только одна ZFS, файл /etc/fstab не нужен. Для SWAP можно использовать файл, который настраивается в rc.conf, или распределённое место в ZVOL.
     

  • 1.10, Den (??), 15:57, 07/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Покажите вывод команды  zpool status
     
     
  • 2.11, nagual (ok), 16:04, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Покажите вывод команды  zpool status

    Кусок лога:

    NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
    zroot  19,9G   660K  19,9G     0%  1.00x  ONLINE  -
      pool: zroot
    state: ONLINE
      scan: none requested
    config:

            NAME           STATE     READ WRITE CKSUM
            zroot          ONLINE       0     0     0
              mirror-0     ONLINE       0     0     0
                gpt/disk0  ONLINE       0     0     0
                gpt/disk1  ONLINE       0     0     0

    errors: No known data errors
    NAME   PROPERTY    VALUE    SOURCE
    zroot  recordsize  128K     default
                ashift: 12

     

  • 1.12, shadowcaster (?), 17:35, 07/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    swap на zfs вредит здоровью. zfs занимает память при общании к томам, если система начинает свопить -> обращениек zfs -> еще сильнее своп -> crash.

    http://forums.freebsd.org/showthread.php?t=30298

     
     
  • 2.13, nagual (ok), 17:44, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > swap на zfs вредит здоровью. zfs занимает память при общании к томам,
    > если система начинает свопить -> обращениек zfs -> еще сильнее своп
    > -> crash.
    > http://forums.freebsd.org/showthread.php?t=30298

    это в 8.3 или в 9.0 ?

     
     
  • 3.14, shadowcaster (?), 17:53, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы со свапом на zfs.  У коммерческой солярки свап на zfs обрабатыватеся специальным образом, и это не портировано.

    Если есть zfs и нужен swap - я делаю отдельные gpt разделы типа freebsd-swap и в gmirror их.

     
     
  • 4.15, nagual (ok), 18:01, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
    > со свапом на zfs.  У коммерческой солярки свап на zfs
    > обрабатыватеся специальным образом, и это не портировано.
    > Если есть zfs и нужен swap - я делаю отдельные gpt разделы
    > типа freebsd-swap и в gmirror их.

    Может быть в 9.1 исправят, будем надеяться.

     
     
  • 5.16, shadowcaster (?), 18:20, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Может быть в 9.1 исправят, будем надеяться.

    Нет, не исправят. Это не баг, а фича. :)

    С другой стороны, все равно zfs строится не на физических дисках, а на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader и загрузочный раздел, так что мешает еще добавить в разбивку swap и добавить его в gmirror?

     
     
  • 6.17, nagual (ok), 18:23, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> Может быть в 9.1 исправят, будем надеяться.
    > Нет, не исправят. Это не баг, а фича. :)
    > С другой стороны, все равно zfs строится не на физических дисках, а
    > на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader
    > и загрузочный раздел, так что мешает еще добавить в разбивку swap
    > и добавить его в gmirror?

    Неохота gmirror добавлять, его удалить можно только из singl mode.

     
     
  • 7.21, Shadowcaster (?), 20:42, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    gmirror простой, как табуретка, собрать можно на живой системе, разобрать - так же. удаленно.
     
     
  • 8.22, nagual (ok), 20:48, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Собрать да, а разобрать нет Ну если только в наглую dd затереть ... текст свёрнут, показать
     
  • 6.18, iZEN (ok), 18:46, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> Может быть в 9.1 исправят, будем надеяться.
    > Нет, не исправят. Это не баг, а фича. :)

    ...которой я не наблюдал при 100% заполненности SWAP на ZVOL размером 256 МБ.

    > С другой стороны, все равно zfs строится не на физических дисках, а
    > на gpt разделах. Как минимум на каждый диск надо устанавливать bootloader
    > и загрузочный раздел, так что мешает еще добавить в разбивку swap
    > и добавить его в gmirror?

    Мешает то, что в zpool рекомендуется отдавать неразмеченное RAW-пространство дисков целиком, а не разделы: "Делайте по одному LUN'у на физический носитель".


     
     
  • 7.23, Shadowcaster (?), 20:55, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/

    > ...которой я не наблюдал при 100% заполненности SWAP на ZVOL размером 256
    > МБ.

    Может 256 Гигабайт? Потому как 256 МБ - это не та размеры, при которых логично использовать zfs.

    > Мешает то, что в zpool рекомендуется отдавать неразмеченное RAW-пространство дисков целиком,
    > а не разделы: "Делайте по одному LUN'у на физический носитель".

    Речь шла про gpt разметку, а не про LUN-ы. Если ОС (/) загружается с других носителей, а zfs монтируется потом, то проще всего отдать все устройство под pool. Если надо монтировать root с zfs - то надо сначала загрузить то, что умеет собрать zfs pool и смонтировать его. Подробно разные методы для freebsd описаны тут:
    http://wiki.freebsd.org/RootOnZFS


     
     
  • 8.25, iZEN (ok), 21:12, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    FreeBSD умела как я выяснял на собственном опыте грузиться с RAW-ZFS без всяко... текст свёрнут, показать
     
  • 4.19, nagual (ok), 18:49, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
    > со свапом на zfs.  У коммерческой солярки свап на zfs
    > обрабатыватеся специальным образом, и это не портировано.

    А есть ссылки на багрепорт ?

     
  • 4.20, nagual (ok), 20:30, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > И там, и там. Если уточнять, то и opensolaris тоже имеет проблемы
    > со свапом на zfs.  У коммерческой солярки свап на zfs
    > обрабатыватеся специальным образом, и это не портировано.
    > Если есть zfs и нужен swap - я делаю отдельные gpt разделы
    > типа freebsd-swap и в gmirror их.

    Я тоже ловил креши на исчерпании памяти и при этом без zfs. Там проблема может быть в другом. Я ловил под vmware так что ...

     
     
  • 5.24, nagual (ok), 20:56, 07/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Вот подумал может стоит добавить zfs set recordsize=4K для свопа ?
    Это как то связанно с vm.pmap.pg_ps_enabled которая появилась в 9.0-RELEASE.
     
  • 2.27, AlexAT (ok), 23:20, 09/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Да уж, ARC такой ARC. Хуже реализацию кеша придумать было сложно.
     
     
  • 3.28, nagual (ok), 00:01, 10/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Да уж, ARC такой ARC. Хуже реализацию кеша придумать было сложно.

    # zfs set primarycache=metadata database/mysql
    # zfs set secondarycache=none database/mysql

    А в линуксе можно отключить кеширование для отдельного раздела ? Что бы не вытеснять нужные данные из кеша ?

     
     
  • 4.29, AlexAT (ok), 11:44, 10/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > А в линуксе можно отключить кеширование для отдельного раздела ? Что бы
    > не вытеснять нужные данные из кеша ?

    Вообще говоря, есть O_DIRECT - вполне стандартный механизм для доступа к файлам, который не вредит кэшу. Считанные или записанные под O_DIRECT данные сразу помещаются в хвост LRU, и имеют почти нулевой таймаут (и высший приоритет) сброса на диск/очистки.

    Ну а поскольку в монстроидном ZFS имеется ARC, который не реализует никакие типовые механизмы работы с системой и системным кешем - естественно, был придуман очередной костыль... правда есть определенное ощущение, что отключение оного приведет к интересным фокусам с производительностью.

     
     
  • 5.30, nagual (ok), 13:24, 10/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Вообще говоря, есть O_DIRECT - вполне стандартный механизм для доступа к файлам,
    > который не вредит кэшу. Считанные или записанные под O_DIRECT данные сразу
    > помещаются в хвост LRU, и имеют почти нулевой таймаут (и высший
    > приоритет) сброса на диск/очистки.

    Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем приложениеям которые скомпилированы без O_DIRECT ;-)


     
     
  • 6.31, AlexAT (ok), 10:06, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем
    > приложениеям которые скомпилированы без O_DIRECT ;-)

    1) исходники запретили?
    2) если приложение не использует O_DIRECT - это, как правило, сознательно, и отключать кэш в этом случае будет только полный идиот

     
     
  • 7.32, nagual (ok), 11:15, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> Сейчас месье нам раскажет о том как он прикрутит O_DIRECT к тем
    >> приложениеям которые скомпилированы без O_DIRECT ;-)
    > 1) исходники запретили?
    > 2) если приложение не использует O_DIRECT - это, как правило, сознательно, и
    > отключать кэш в этом случае будет только полный идиот

    1) Месье предлагает переписать половину пакетов ? Надеюсь месье это не в серьёз ?

    2) Что касается второго вопроса MySQL+RAW+ZFS как раз тот случай когда O_DIRECT не имеет значения так как RAW. Месье ниасилил документацию ?

    Итак ARC в ZFS имеет преимущество над реализацией кеша в BTRFS уже тем что позволяет отключать кеширование для отдельных разделов.

     
     
  • 8.33, AlexAT (ok), 12:30, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Не предлагаю - мне это не надо Кому абсолютно надо - ССЗБ, и пусть переписывает... текст свёрнут, показать
     
     
  • 9.34, nagual (ok), 12:38, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Месье теоретик Судя по отсутсвию тестов BTRFS MySQL vs ZFS MySQL в первом случ... текст свёрнут, показать
     
     
  • 10.35, AlexAT (ok), 14:48, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    hint CoW зачем приделывать автобусу квадратные колёса под MySQL достаточно да... текст свёрнут, показать
     
     
     
     
     
    Часть нити удалена модератором

  • 14.39, AlexAT (ok), 21:13, 11/11/2012 [ответить]  
  • +/
    Если быть конкретнее - сменил 3 места работы, рост, однако 3 года назад на теку... текст свёрнут, показать
     
     
  • 15.40, nagual (ok), 21:17, 11/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Судя по статьям на лоре не всем так везет ... текст свёрнут, показать
     
     
  • 16.41, AlexAT (ok), 07:34, 12/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну, судя по твоим тестам у тебя в жжшечке - тебе бы точно не повезло с тв... текст свёрнут, показать
     
     
  • 17.42, nagual (ok), 13:19, 12/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Вы о моем презрительном отношении к комерческим продуктам Вы забыли в какой стр... текст свёрнут, показать
     
  • 8.69, AlexAT (ok), 23:19, 17/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Secret Secret MySQL поддерживает O_DIRECT в любом исполнении ... текст свёрнут, показать
     
     
  • 9.70, nagual (ok), 01:00, 18/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Потрудитесь объяснить как вы понимаете связь между MySQL, RAW, ZFS и O_DIRECT ... текст свёрнут, показать
     
     
  • 10.71, AlexAT (ok), 11:52, 18/11/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    1 В терминологии MySQL RAW - это сырой раздел, без файловой системы 2 MySQL по... текст свёрнут, показать
     
     
  • 11.72, nagual (ok), 13:04, 18/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    ZFS и так не кеширует raw ... текст свёрнут, показать
     
     
  • 12.73, AlexAT (ok), 18:22, 18/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Псевдотома raw поверх ZFS также кешируются ARC Ну и да - не совсем понятно,... текст свёрнут, показать
     
  • 12.74, nagual (ok), 03:02, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Если innodb не raw sbin zfs set primarycache metadata sbin zfs set secondaryc... текст свёрнут, показать
     
     
  • 13.75, AlexAT (ok), 07:17, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Костыль ... текст свёрнут, показать
     
     
  • 14.76, nagual (ok), 11:56, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Вам шашечки или ехать ... текст свёрнут, показать
     
     
  • 15.77, AlexAT (ok), 12:13, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Это в тему о нужности в данной схеме ZFS, скорее Лично мне Грамотное решение, ... текст свёрнут, показать
     
     
  • 16.78, nagual (ok), 13:13, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    На локалхосте Под линуксом И не из коробки Планурую сделать такой же скрип... текст свёрнут, показать
     
  • 15.79, Michael Shigorin (ok), 15:36, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Вспоминается анекдот про мужика на островке под пальмой и не даёт покоя вопрос ... текст свёрнут, показать
     
     
  • 16.80, nagual (ok), 15:38, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ой а можно подробнее, без вранья и рекламы И без финального вывода - быть б... текст свёрнут, показать
     
     
  • 17.81, Michael Shigorin (ok), 16:12, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ну реклама ещё бывает, виноват, а с враньём полегче Анекдот известен во множест... текст свёрнут, показать
     
     
  • 18.82, nagual (ok), 16:16, 19/11/2012 [^] [^^] [^^^] [ответить]  
  • –1 +/
    gt оверквотинг удален Я думал вы ответите FreeNAS а так много букв ниочем,... текст свёрнут, показать
     

  • 1.26, nagual (ok), 18:33, 08/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Так же следует добавить ahci_load="YES".
     
  • 1.43, Fomalhaut (?), 22:49, 13/11/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Вот только для свопа на ZFS стОит сделать его волум блоком в 4кБ (размер страницы на i386/amd64).
    $ zfs create -V 4gb -o org.freebsd:swap=on -o volblocksize=4K -o checksum=off systor/swap
    Но в таком случае можно было вообще обойтись без таблицы разделов и "раскатать" ZFS по всему диску.

    P.S. И правильно сделано: для свопа на ZFS не надо ничего писать в /etc/rc.conf - при портировании ZFS на Фряху решили сделать это лучше и не засирать fstab. И, дабы не нарушать совместимость zpool-ов с солярой, заюзали для этого user propert-ю.

     
     
  • 2.44, nagual (ok), 23:07, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Вот только для свопа на ZFS стОит сделать его волум блоком в
    > 4кБ (размер страницы на i386/amd64).
    > $ zfs create -V 4gb -o org.freebsd:swap=on -o volblocksize=4K -o checksum=off systor/swap
    > Но в таком случае можно было вообще обойтись без таблицы разделов и
    > "раскатать" ZFS по всему диску.
    > P.S. И правильно сделано: для свопа на ZFS не надо ничего писать
    > в /etc/rc.conf - при портировании ZFS на Фряху решили сделать это
    > лучше и не засирать fstab. И, дабы не нарушать совместимость zpool-ов
    > с солярой, заюзали для этого user propert-ю.

    Что еще стоит добавить ?
    /sbin/zfs set checksum=off $ZPOOL/swap
    /sbin/zfs set primarycache=none $ZPOOL/swap
    /sbin/zfs set secondarycache=none $ZPOOL/swap
    /sbin/zfs set sync=disabled $ZPOOL/swap # отключить ZIL
    /sbin/zfs set recordsize=4K $ZPOOL/swap

     
     
  • 3.45, AlexAT (ok), 23:07, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ну да. Что может быть лучше в *опу из-за CoW фрагментированного свопа?

     
     
  • 4.46, nagual (ok), 23:11, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну да. Что может быть лучше в *опу из-за CoW фрагментированного свопа?

    Своп создается с ключем -V тоесть raw ...

     
     
  • 5.47, AlexAT (ok), 23:20, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Своп создается с ключем -V тоесть raw ...

    А нафига тогда, простите, ZFS?

     
     
  • 6.48, nagual (ok), 23:24, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >> Своп создается с ключем -V тоесть raw ...
    > А нафига тогда, простите, ZFS?

    Своп в файл поверх фс ? Я так даже в линуксе не делаю ...

     
     
  • 7.49, AlexAT (ok), 23:24, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Своп в файл поверх фс ? Я так даже в линуксе не делаю ...

    А RAW-разделы, что, отменили?


     
     
  • 8.50, nagual (ok), 23:42, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Четырьмя поставми выше написано raw У вас провалы в памяти или иллюминаторы в к... текст свёрнут, показать
     
     
  • 9.51, AlexAT (ok), 23:43, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Зачем RAW-разделу ЭТО Или так и хочется из буханки сделать троллейбус ... текст свёрнут, показать
     
     
  • 10.52, nagual (ok), 23:51, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ой, перепутал с ZPOOL innodb ext4 обсуждать не будем Невзлетит разв... текст свёрнут, показать
     
     
  • 11.53, AlexAT (ok), 23:54, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ну как обычно ... текст свёрнут, показать
     
     
  • 12.59, Michael Shigorin (ok), 18:35, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    А в заголовке статьи перепутаны термины кластер и сектор , что тоже характери... текст свёрнут, показать
     
     
  • 13.60, nagual (ok), 19:39, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Исправлено ... текст свёрнут, показать
     
     
  • 14.61, Michael Shigorin (ok), 20:26, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    На http www opennet ru tips 2719_raid_freebsd_zfs shtml покамест кластер -- ... текст свёрнут, показать
     
     
  • 15.62, nagual (ok), 20:27, 16/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Без одобрения модератора изменения не публикуются ... текст свёрнут, показать
     
  • 11.54, AlexAT (ok), 23:55, 13/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    А зачем InnoDB блок в 4к, можно поинтересоваться ... текст свёрнут, показать
     
     
  • 12.56, nagual (ok), 00:03, 14/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    16к InnoDB 8K MyISAM ... текст свёрнут, показать
     
  • 3.55, Fomalhaut (?), 00:00, 14/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Про checksum=off как бы было. ;)
     
     
  • 4.57, nagual (ok), 00:07, 14/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    На вскидку так sbin zfs set checksum fletcher4 ZPOOL sbin zfs create -V SWAP... большой текст свёрнут, показать
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру