Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!

Ogłoszenie

Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.

#1  2009-12-20 17:10:53

  Lesiu - Nowy użytkownik

Lesiu
Nowy użytkownik
Zarejestrowany: 2009-12-20

RAID 10

Witam wszystkich,
mam od kilku dni uruchomiony serwer z oferty kimsufi (OVH). Posiada on 4 dyski o pojemności 1 TB każdy. System operacyjny to debian 5.0 64-bit. W chwili obecnej jest tam RAID 1, gdyż standardowo OVH łączy dyski w macierz 1. Nie jest mi potrzebne aż takie bezpieczeństwo by mieć na wszystkich 4 dyskach dokładnie to samo. Wolałbym pewnym kosztem bezpieczeństwa podnieść wydajność dysków. Dlatego też chcę je mieć połączone w RAID 10, czyli macierz dająca bezpieczeństwo macierzy RAID 1 i prędkość macierzy 0. Tak jest przynajmniej w teorii. Jak to zrealizować w praktyce?

Na forum OVH dostałem jedynie podpowiedzi, że mam się posłużyć trybem "rescue-pro" (włącza się w panelu, to nie stanowi problemu) i wykorzystać narzędzia fdisk oraz mdadm. Jestem bardzo początkujący, wcześniej nie miałem prawie w ogóle do czynienia z linuksem.

Zakładając, że będę mieć po 3 partycje na dysku to muszę zrobić razem minimalnie aż 6 macierzy? Dyski są następujące: sda, sdb, sdc, sdd. W chwili obecnej przy standardowym podziale zrobionym przez OVH partycje są następujące:
Kod:

Kod:

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1         653     5242880   fd  Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/sda2             653      121536   970991616   fd  Linux raid autodetect
/dev/sda3          121536      121601      525536   82  Linux swap / Solaris

1) Domyślnie jest też RAID1 zrobiony jako md1 (sda1, sdb1) oraz md2 (sda2, sdb2). Pozostałe dwa dyski były czyste, przy użyciu sfdisk zrobiłem identyczny podział na partycje dla dysków sdc i sdd. Czy dobrze rozumiem, że teraz mam zrobić RAID1 jako md3 (sdc1, sdd1) oraz md4 (sdc2, sdd2)? Następnie zaś mam zrobić RAID0 jako md5 (md1, md3) oraz md6 (md2, md4)? Czy w jakiś inny sposób powinienem to wszystko zorganizować aby otrzymać RAID 10?

2) Czy może powinienem zrobić reinstalację systemu, wtedy usunąć macierz RAID1 i wyczyścić dyski sdb, sdc, sdd i wtedy zrobić bezpośrednio RAID 10 (sda1, sdb1, sdc1, sdd1) i drugi RAID 10 (sda2, sdb2, sdc2, sdd2)? Proszę o wytłumaczenie czy którakolwiek z przedstawionych w tym poście dwóch wersji jest poprawna. A jeżeli obie są poprawne to którą wybrać?

3) Czy SWAP też lepiej zrobić jako RAID 10? Jakiej pojemności SWAP ustawić przy 12 GB RAM? Wykorzystanie serwera to głównie strony internetowe (php, mysql, w tym kilka skryptów zaszyfrowanych ionCube), poczta. Na pewno nie będzie tam żadnych serwerów gier, filmów, p2p czy czegoś takiego.

4) Czy da się już po utworzeniu macierzy zmienić rozmiar partycji czy partycjonowanie można wykonać jedynie przed utworzeniem macierzy RAID?

5) I jeszcze jedna sprawa... czy da się domyślną partycję o rozmiarze 5GB powiększyć do innego rozmiaru? Jeżeli tak to w jaki sposób? Usunąć partycję sda2 (sdb2, sdc2 sdd2), wtedy powiększyć pierwszą partycję i stworzyć na nowo tę sda2? Czy może po prostu da się zmniejszyć sda2 i powiększyć sda1?

6) Czy to normalne, że w podanym przykładzie pierwsza partycja kończy się dokładnie na tym samym cylindrze, na którym zaczyna się druga? To samo występuje jeżeli chodzi o partycję drugą i trzecią. Zawsze wydawało mi się, że kolejna partycja powinna być przynajmniej od następnego cylindra.

Jeżeli komuś moje pytania i problemy wydadzą się głupie to trudno, w tych kwestiach jestem raczkujący.

Offline

 

#2  2009-12-22 12:55:20

  Lesiu - Nowy użytkownik

Lesiu
Nowy użytkownik
Zarejestrowany: 2009-12-20

Re: RAID 10

Serwer w normalnym trybie nie wstał, ale w rescue mam następujące wyniki poszczególnych komend:

Kod:

root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi                                   path] [faulty]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      104857472 blocks 64K chunks 2 near-copies [4/4] [UUUU]

md2 : active raid10 sdd3[3] sdc3[2] sdb3[1] sda3[0]
      1840068480 blocks 64K chunks 2 near-copies [4/4] [UUUU]

md3 : active raid10 sdd4[3] sdc4[2] sdb4[1] sda4[0]
      8388864 blocks 64K chunks 2 near-copies [4/4] [UUUU]

md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      102336 blocks [4/4] [UUUU]

unused devices: <none>

Kod:

root@rescue:~# mount
rootfs on / type rootfs (rw)
none on / type tmpfs (rw,relatime)
none on /sys type sysfs (rw,relatime)
94.23.219.232:/home/pub/rescue.v5 on /nfs type nfs (ro,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,timeo=11,retrans=3,sec=sys,addr=94.23.219.232)
94.23.219.232:/home/pub/pro-power on /power type nfs (ro,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,timeo=11,retrans=3,sec=sys,addr=94.23.219.232)
tmpfs on /lib/init/rw type tmpfs (rw,nosuid,relatime,mode=755)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev type tmpfs (rw,relatime,size=10240k,mode=755)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,relatime)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620)

Kod:

root@rescue:~# cat /etc/fstab
# /etc/fstab: Information sur les systèmes de fichiers.
#
# <sys.fichiers><pt de montage><type> <options>  <dump> <pass>
#10.48.100.122:/home/pub/rescue.test/debian        /       nfs     rw,exec,auto,nodev,nouser,async,nosuid,nfsvers=2,udp,rsize=8192,wsize=8192,hard,intr,acregmin=6,acregmax=120,acdirmin=60,acdirmax=120,timeo=10 0 0
proc    /proc   proc    defaults        0       0

Kod:

root@rescue:~# cat /etc/mtab
rootfs / rootfs rw 0 0
none / tmpfs rw,relatime 0 0
none /sys sysfs rw,relatime 0 0
94.23.219.232:/home/pub/rescue.v5 /nfs nfs ro,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,timeo=11,retrans=3,sec=sys,addr=94.23.219.232 0 0
94.23.219.232:/home/pub/pro-power /power nfs ro,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,timeo=11,retrans=3,sec=sys,addr=94.23.219.232 0 0
tmpfs /lib/init/rw tmpfs rw,nosuid,relatime,mode=755 0 0
proc /proc proc rw,nosuid,nodev,noexec,relatime 0 0
tmpfs /dev tmpfs rw,relatime,size=10240k,mode=755 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev,relatime 0 0
devpts /dev/pts devpts rw,nosuid,noexec,relatime,gid=5,mode=620 0 0

Kod:

root@rescue:~# cat mnt/md1/etc/fstab
cat: mnt/md1/etc/fstab: No such file or directory
root@rescue:~# cat /mnt/md1/etc/fstab
# <sys.fichiers><pt de montage><type> <options>  <dump> <pass>
/dev/md0        /boot   ext3    errors=remount-ro       0       1
/dev/md1        /       ext3    errors=remount-ro       0       1
/dev/md2        /home   ext3    defaults        1       2
/dev/md3        swap    swap    defaults        0       0
proc            /proc   proc    defaults        0       0
sysfs           /sys    sysfs   defaults        0       0

Kod:

root@rescue:~# cat /mnt/md1/etc/mtab
/dev/md1 / ext3 rw,errors=remount-ro 0 0
tmpfs /lib/init/rw tmpfs rw,nosuid,mode=0755 0 0
proc /proc proc rw,noexec,nosuid,nodev 0 0
sysfs /sys sysfs rw,noexec,nosuid,nodev 0 0
udev /dev tmpfs rw,mode=0755 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev 0 0
devpts /dev/pts devpts rw,noexec,nosuid,gid=5,mode=620 0 0
/dev/md0 /boot ext3 rw,errors=remount-ro 0 0
/dev/md2 /home ext3 rw 0 0
/dev/md0 /mnt/md0 ext3 rw 0 0
/dev/md1 /mnt/md1 ext3 rw 0 0
/dev/md2 /mnt/md2 ext3 rw 0 0

Wyjaśniam jeszcze:
md0 - /boot
md1 - /
md2 - /home
md3 - swap

Jakieś podpowiedzi? :)

Offline

 

Stopka forum

Powered by PunBB
© Copyright 2002–2005 Rickard Andersson
Nas ludzie lubią po prostu, a nie klikając w przyciski ;-)