Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Ostatnio robiłem backup mojego konta - wszystko co w Home, 355030 elementów po USB 2.0. Kopiowanie trwało ~ 1h i 20 min nie więcej.
Warto by jakąś diagnostykę dysku SMART zrobić bo to Seagate. Sprawdzić z innym przewodem USB.
Ostatnio edytowany przez ciastek1981 (2017-11-30 15:47:55)
Offline
Jezeli teraz przerwe to strace dane?
Przerwalem i teraz mam komunikat, ze lokalizacja jest niedostepna.
Mozna cos z tym zrobic?
Ostatnio edytowany przez Novi-cjusz (2017-11-30 16:44:58)
Offline
backup danych (dd, rsync), zerówka dyzia i powrót z danymi na porządnym systemie plików po uprzednim przeskanowaniu dyzia smartem i stwierdzeniu że pociągnie więcej niż kilka miesięcy, ntfs to bardzo słaby pomysł na przechowywanie jakichkolwiek danych w szczególności na zajechanych, konsumenckich dyziach, ext4 zresztą też, chociaż w porównaniu do ntfs to pieprzony wynalazek
Ostatnio edytowany przez hi (2017-12-01 03:03:09)
Offline
Wszystko pieknie, ale powtarzam pytanie:
- jaka jest optymalna wielkosc partycji dla danych na Linuksie?
- jaki system plikow jest w tej sytuacji optymalny?
Offline
Optymalna wielkość = przewidywana maksymalna zajętość przez dane.
Optymalny system dla tego przypadku: proponuję exfat, słyszałem też dobre słowa na temat UDF, ale osobiście nie testowałem.
Ostatnio edytowany przez arecki (2017-12-01 10:36:30)
Offline
Optymalna wielkość = przewidywana maksymalna zajętość przez dane.
To mialem wszystko O,k bo pojemnosc 3,63 TB a zajetosc 3.62 TB.
Offline
W porównaniu do linuksowych systemów plików exFAT to taka sama prosta zabawka jak NTFS i do tego zastrzeżona prawnie.
exFAT jest bardzo biednym systemem plików (to tylko przypudrowany FAT32) i w teorii powinien szybciej działać pod Linuksem.
W tym przypadku powinien być lepszym wyborem (przynajmniej teoretycznie — nigdy go nie używałem).
Tylko nie możesz w takim stopniu go zapełniać jak obecnie bo fragmentacja go całkowicie zamuli. Poza tym exFAT nie ma księgowania, co będzie powodować różne problemy z odzyskiwaniem uszkodzonych danych.
Ewentualnie wspomniany wcześniej UDF, ale tego tez nigdy nie używałem.
- jaka jest optymalna wielkosc partycji dla danych na Linuksie?
Nie ma czegoś takiego. To nie problem z Linuksem, tylko egzotycznymi i zastrzeżonymi systemami plików jak np NTFS.
Windowsowe systemy są dosyć prymitywne technologicznie (stąd np problem defragmentacji) i ich obsługa w Linuksie jest osiągana w wyniku inżynierii wstecznej — czyli nie zawsze to musi działać idealnie. Szczególnie na tak dużej i totalnie zapchanej partycji.
Novi-cjusz napisał(-a):
To mialem wszystko O,k bo pojemnosc 3,63 TB a zajetosc 3.62 TB.
OK to chyba ostatnie określenie, jakiego byś mógł w tym przypadku użyć ;)
Offline
Sprawdź jeszcze te dane na obecnym NTFS pod kątem defragmentacji.
Dodatkowo, zastanawiam się czy w ogóle pomiar prędkości, wyświetlany pewnie w jakimś okienku menadżera plików, odzwierciedla rzeczywistą prędkość. Skopiowanie tyle danych musi potrwać, dodatkowo jak łączysz się przez USB2, to można sobie obliczyć szacowany czas jaki można osiągnąć w najlepszym przypadku (kopiowanie dużych plików).
Proponuje użyć czegoś bardziej miarodajnego. Przykładowo mógłby to być iotop.
Ostatnio edytowany przez arecki (2017-12-01 18:09:46)
Offline