Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!

Ogłoszenie

Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.

#1  2012-01-28 20:18:08

  pink - Użytkownik

pink
Użytkownik
Skąd: P17PY93
Zarejestrowany: 2005-09-16

moosefs

http://www.moosefs.org/about-mfs.html

slyszeli??? przez przypadek trafilem ciekawe.


T430 think-box 4.9-custom x86_64 Intel(R) Core(TM) i5-3230M CPU @ 2.60GHz GenuineIntel GNU/Linux
"Doktor plama i maharadża są pod złotym leszczem." "Człowieka od zwierzęcia odróżnia ciekawość świata. Patrze słucham i wyciągam wnioski."
https://www.behance.net/przemyslawmamon

Offline

 

#2  2012-02-01 21:58:42

  whale - Członek DUG

whale
Członek DUG
Skąd: Cambridge
Zarejestrowany: 2005-09-01

Re: moosefs

Witam,
fajny system plikow nie za szybki ale stabilny glowny problem master server jest single point of failure (przechowuje on wszystkie metadata o plikach). z tego wzgledy zmigrowalem shared storage do glusterfs.
pozdr

Offline

 

#3  2012-02-08 00:14:07

  aNeutrino - Nowy użytkownik

aNeutrino
Nowy użytkownik
Zarejestrowany: 2012-02-07

Re: moosefs

whale napisał(-a):

Witam,
fajny system plikow nie za szybki ale stabilny glowny problem master server jest single point of failure (przechowuje on wszystkie metadata o plikach). z tego wzgledy zmigrowalem shared storage do glusterfs.
pozdr

GlusterFS jest zbudowany z samych Single Point of Failure co można przeczytać na ich stronie: http://www.gluster.org/community/documentation/inde … erFS_Concepts

to o GlustreFS: If you lose a single server, you lose access to all the files that are hosted on that server. This is why distribute is typically graphed to the replicate translator.

w MooseFS NIE MA Single Point of Failure - po prostu trzeba samemu sobie napisać srkypt do automatycznego recovery w przypadku awarii servera Master.
Jednakże sam MooseFS ma pełen mechanizm Prawdziwej replikacji Metadanych do servera typu MetaLogger, których można mieć w sytemie ile się chce.
Jedyne co trzeba zrobić przy awarii Mastera to uczynić Jeden z MetaLoggerów nowym Masterem i wszystkie dane są dostępne.

Po prostu nie jest to automatyczne - co wg mnie jest lepsze bo lubię mieć kontrolę nad nietypową sytuacją.

Używam MooseFS na 4 wielkiech instalacjach - każda z nich ma ponad 400TB rozmiaru - łącznie 2 PetaBajty na 400 serverach (1500 dysków)
Używam go od 5 lat i NIGDY nie straciłem, żadnego pliku.

Co do prędkości to jest rewelacyjnie - max z sieci 1Gbit (akurat takiej używamy) 100MB/s przy ustawionych Jumbo Frames (MTU 9000)
czas naprawy przy awari pojedynczego dysku 1TB - sekundy - automatyczny i bezstresowy.
czas naprawy całego serwera - około minuty - tak samo automatyczna
tylko tyle zajmuje pełna odbudowa systemu i w tym czasie wszystko działa.

Dodatkowo polecam wypróbować funkcje snapszotów na plikach - rewelacja.

I coś co naprawdę uwielbiam w MooseFS jako administrator nękany przez user'ów - przezroczysty kosz - po prostu ustawiłem w systemie, że wszystkie pliki po skasowaniu mają być dostępne w koszu przez okres 24h i jak jakiś user coś sobie skasuje to zawsze mam jego/jej dane pod ręką - PRO.


Wiele ludzi nie docenia MooseFS ale można też troszkę pogoolać i i znaleźć tych co stosują MooseFS od lat proszę:
here you can find the test with 96 DELL machines: http://www.tinkergeek.com/?p=150 and
here another opinion from OpenNebula http://blog.opennebula.org/?p=1512 )

Polecam zdecydowanie MooseFS :)

Ostatnio edytowany przez aNeutrino (2012-02-08 00:15:03)

Offline

 

#4  2013-06-02 21:51:54

  scandal36 - Nowy użytkownik

scandal36
Nowy użytkownik
Zarejestrowany: 2013-06-02

Re: moosefs

Witam. Ciesze się, że ktoś wyraża się tak pochlebnie o muss'ie. Planuję wdrożenie systemu "produkcyjnie" w najbliższym czasie, ale mam kilka pytań, na które musze znać odpowiedź zanim to zrobię. Jeśli byłbyś (lub ktokolwiek) tak uprzejmy i mnie oświecił..:)...

Na chwilę obecną używam jako STORAGE do Xen'a Solarisa po Fiberchannel gdzie storage'owe LUNy są widoczne jak urządzenia blokowe (sdx) i maszyny virtualne nie muszą być plikowcami. Rozumiem, że w przypadku MusseFS nie ma takiej opcji więc maszyny virtualne muszą być u mnie plikowcami, co np. przy serwerze pocztowym, czy www daje pliowca > 100GB!! Zatem zmiana nawet 1 BAJTA w takim plikowcu to zmiana całego PLIKU! W związku z tym, chciałbym wiedzieć, czy replikacja kopiuje wciąż > 100GB?? Może jednak jest to rozwiązane inteligentniej i proces replikacji trwa szybko i sprawnie nawet przy dużych plikach...

Jak wygląda odtwarzanie plików ze snapshotu?

Chciałbym zerknąć na skrypcik do auto-recovery?

Z góry dziękuję....

Offline

 

#5  2013-06-03 04:07:00

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/random
Zarejestrowany: 2008-01-07

Re: moosefs

co np. przy serwerze pocztowym, czy www daje pliowca > 100GB!! Zatem zmiana nawet 1 BAJTA w takim plikowcu to zmiana całego PLIKU! W związku z tym, chciałbym wiedzieć, czy replikacja kopiuje wciąż > 100GB??

Ja tam jestem lama, ale jak zrobić na serwerze www czy pocztowym plik >100GB i co do niego wsadzić?
Do logów jest logrotate, do maili jest skrzynka maildir, a serwer www nie ma jak i komu zaserwować pliku 100GB, bo na świecie nie ma zbyt wielu pacjentów, którzy takie pliki mogą ściągnąć swoimi rurkami internetowymi w sensownym czasie.
Czasem tak rosną bazy danych, ale wszystkie serwery bazodanowe mają własne mechanizmy replikacji, typu  master-slave albo multi-master.

W każdym razie nie zauważyłem na razie neozdrady 10Gbit, a ni nic podobnego.

Jeśli natomiast jakiś Administrator pozwala tworzyć programom takie pliki bez wyraźnej konieczności,
to taki Admin nadaje się na konserwy dla psów i kotów, a nie do serwerów. :DDD


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#6  2013-06-03 12:52:37

  jurgensen - Użytkownik

jurgensen
Użytkownik
Skąd: Wrocław
Zarejestrowany: 2010-01-26

Re: moosefs

Jacekalex, koledze chodziło chyba o to, że plik dysku maszyny wirtualnej będzie  miał 100GB.

scandal36, skoro chcesz wykorzystywać to jako przestrzeń dla wirtualek, nie lepiej zostać przy urządzeniach blokowych, wystawiając przestrzeń przez FC lub iSCSI? Jeśli potrzebujesz połączyć przestrzeń z kilku serwerów, zawsze możesz wykorzystać LVM.

Offline

 

#7  2013-06-03 13:06:37

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/random
Zarejestrowany: 2008-01-07

Re: moosefs

Gdyby chodziło o obraz virtualki, to chyba byłby obraz wirtualki, a nie plikowiec.

Poza tym raz juz widziałem serwer www, gdzie acces.log miał ponad 50GB, messages znacznie  lepiej, inne logi podobnie, bo jakiś mądrala ileś latek wczesniej nie zanistalował logrotate, aż na Raid 10 z dyziami 1000GB miejsca zabrakło. :D

W dodatku tworzenie 100GB obrazu wirtualki, to też poroniony pomysł, nie wiem, jak VmWare,
ale zarówno Xena jak i KVM podniesiesz z partycji na dysku.
Na obrazie wirtualki masz podwojenie ryzyka awarii, jeden system plików na drugim, i solidny narzut na dysk,  kiedy masz na dysku obraz, a na tym obrazie partycje wirtualki.

Samo pojęcie 100GB i nie może się zmienić jeden bajt - oznacza, że jeden bad-sektor wywali ci cały plik?
Czy widzial ktoś dyski, które sa całkowicie odporne na błędy mechaniczne, elektryczne, i nigdy nie będą miały żadnego bad-sektora?
Bo ja nigdy nie slyszalem o podobnych cudach nawet w kosciele na bożym ciele, nie wspominając o realnym świecie. :D

Chyba, że ktoś na serwery ładuje Virtualboxa..... ;)

Ostatnio edytowany przez Jacekalex (2013-06-03 13:20:39)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#8  2013-06-03 14:24:42

  scandal36 - Nowy użytkownik

scandal36
Nowy użytkownik
Zarejestrowany: 2013-06-02

Re: moosefs

Witam i dziękuję za odpowiedzi.

@ Jacekalex - dokładnie jak pisał kolega jurgensen - VM XEN może zakładac maszyny wirtualne na fizycznym urządzeniu blokowym (np. dysku, storage'u po FC), albo w postaci pliku. W drugim przypadku plik jest duży po serwer pocztowy IMAP ma wiele kont i wiele danych, co daje pliki wielkości > 100GB. Nie ma z tym problemu w pracy a odtworzenie czy backup takiej maszyny jest bardzo szybki. Jak na razie używam Sorage po FiberChanel i LVM'y, ale przy rosnącej liczbie maszyn i plików musze wdrożyć system rozproszony. Nazywanie jakiegoś pomysłu "poronionym" tez może być poronione :). Jak piszesz "Ja tam jestem lama", ale ja nie jestem i wiem, co piszę. Tak czy owak - dziękuję za krytykę

@ jurgensen - LVM i FC jest super ale np. snapshoty LVM w odtwarzaniu są o wiele bardziej toporne niż w MooseFS.


Generalnie uzyskałem juz informację od MoosFS jak dział to przy dużych plikach. Jeśli miałeś do czynienia z BACULA (czy innym systemem backupu) to zobaczysz że incremental działa na poziomie plików (np. przy modyfikacji 10GB pliku incremental i tak bedzie miał 10GB) a nie chunków (tu replikowane są zmieniające się bloki). Dlatego z ta informacją moge już śmiało testować wdrożenie.

Offline

 

#9  2013-06-03 15:59:30

  Jacekalex - Podobno człowiek...;)

Jacekalex
Podobno człowiek...;)
Skąd: /dev/random
Zarejestrowany: 2008-01-07

Re: moosefs

W drugim przypadku plik jest duży po serwer pocztowy IMAP ma wiele kont i wiele danych, co daje pliki wielkości > 100GB.

Szaleństwo ;)

Jak ja bym to zrobił?
Serwer SMTP doręcza poczte poprzez dovecot-lda lub dovecot-lmtp,  a tam:

Kod:

dsync over TCP connections (v2.2+)

http://wiki2.dovecot.org/Replication

Do tego replikacja bazy danych z użytkownikami, oraz bazy z ustawieniami spamassasina, filtrami bayesa itp.

W ten sposób, jak jeden serwer diabli wezmą, nie traci się ani jednego maila, a użytkownicy mają cały czas dostęp do poczty, wystarczy zatrudnić np ucarpa, albo ustawić kilka serwerów pocztowych  w dns.


WWW? całe strony składają się praktycznie z plików graficznych, multimedialnych, i bazy danych, do tego drobiazgi, czyli  php, css, js, txt czy cgi.
Tu też lepiej nie tworzyć takich obrazów do kopiowania w calości, tylko np DRBD, czy wysmażyć coś korzystając z mechanizmu inotify czy dnotify (lub podobnego) do synchronizacji online.

Bo kopiowanie przez sieć 100GB w jednym pliku, żeby się ani jeden bajt nie zmienił, to jest pole minowe, nawet w najzwyklejszej sieci lan nie warto ryzykować.
Jak się kopiuje np film mający kilka GB, to błąd  obejmujący np 2kB danych - to jedna zgubiona klatka, można wytrzymać, jak to wygląda w przypadku maszyny wirtualnej, szkoda komentować.

Pomijając milczeniem kwestie dostępności maszyny wirtualnej w czasie kopiowania jej obrazu, i potem sprawdzania sum kontrolnych pliku, który ma 100GB.
Nawet przy łączu 10Gbit kopiowanie takiego diabelstwa, to jest kawał czasu, a po obu stronach odczyt i zapis to jest kosmiczna robota.
Czy może cały VM do backupu trzeba wyłączyć, skopiować, porównać sumy kontrolne, i dopiero  włączyć?
I to się ma nazywać wysoka dostępność - cecha podstawowa każdego serwera WWW, poczty, jabbera, voipa, czy innej usługi sieciowej?

Jeżeli jakaś usługa musi spełniać zasady bezpieczeństwa i dostępności, to przełączenie miedzy maszyną podstawową i zapasową musi trwać najwyżej minutę, a nie 2 godziny. :D

Pozdrawiam
;-)
Pozdrawiam
;-)

Ostatnio edytowany przez Jacekalex (2013-06-03 16:15:42)


W demokracji każdy naród ma taką władzę, na jaką zasługuje ;)
Si vis pacem  para bellum  ;)       |       Pozdrawiam :)

Offline

 

#10  2013-06-03 19:50:56

  scandal36 - Nowy użytkownik

scandal36
Nowy użytkownik
Zarejestrowany: 2013-06-02

Re: moosefs

Dziękuję za wyjaśnienia. Oczywiście duzo w tym racji niemniej jak już napisałem w MooseFS zmiany sa na chunkach i wielkość pliku nie ma znaczenia. Dokładnie tak samo jest z problemem dostepności maszyny online - nie ma takiego problemu. Niemniej przeanalizuję pomysły, które opisałeś i wezmę sobie rady "do serca" na przyszłość. Wiedzy nigdy dość. Pozdrawiam.

Offline

 

Stopka forum

Powered by PunBB
© Copyright 2002–2005 Rickard Andersson
To nie jest tylko forum, to nasza mała ojczyzna ;-)