Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Cześć
Ostatnio znacznie rozrosło mi się repozytorium, które backupuje i obecnie stosowane przezemnie rozwiązanie nie daje rady. Jest kiepsko skalowalne.
Chciałbym na nową macierz zbackupowac ok 20TB repozytorium, składające się z kilkunastu milionów małych plików gdzie każdy z nich zawiera w sobie po kilkadziesiąt linijek stringów. Chodzi mi o możliwie najlepszą kompresję i szybkość ewentualnego przywracania. Bez GUI. Fajnie gdyby potem była możliwość inkrementalnego backupu.
Czy macie może jakieś własne sprawdzone rozwiązanie do takiej operacji? Jakieś dobre praktyki? Nie koniecznie open source.
Ostatnio edytowany przez SamozwańczyKrólBasha (2016-03-30 11:32:09)
Offline
Skrypt na bazie rsynca.
Offline
thalcave napisał(-a):
Skrypt na bazie rsynca.
lub rdiff-backup
Offline
@thalcave: Niby mam już coś takiego. Ale przy dziennym przyroście plików na poziomie 100-150GB trwa to trochę zbyt wolno. Cały wic polega na tym, że serwer podpięty do macierzy ma określony przedział czasu w którym może robić backup a tego czasu zaczyna brakować.
Ostatnio edytowany przez SamozwańczyKrólBasha (2016-03-31 09:11:46)
Offline
2894
Ostatnio edytowany przez uzytkownikubunt (2016-12-01 01:38:20)
Offline
To może snapshot pomoże? Tworzysz snapshota i z niego robisz backup, po wszystkim snapshota można usunąć.
A przedział czasowy, w którym możesz robić backup znacznie się wydłuża.
Offline
A może DRBD?
Czyli RAID1 przez tcp?
http://websecurity.pl/wprowadzenie-do-drbd/
https://help.ubuntu.com/lts/serverguide/drbd.html
Ostatnio edytowany przez Jacekalex (2016-03-31 18:44:18)
Offline