Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Mam do ściągnięcia dość duży plik. Jest on umieszczony niezależnie na kilku serwerach. Niestety prędkość z jaką udostępnia ten plik każdy z serwerów z osobna jest nie do zaakceptowania. Czy znacie jakąś metodę dzięki której mógłbym ściągać z wszystkich serwerów na raz?
Offline
Valknut, czyli sieć DC++ ma możliwość sumowania transferów, ale to pewnie nie w Twoim przypadku
Offline
Bodzio napisał(-a):
Valknut, czyli sieć DC++ ma możliwość sumowania transferów, ale to pewnie nie w Twoim przypadku
w zasadzie każdy klient p2p to robi
axel ma opcję
--search[=x] -S [x] Search for mirrors and download from x servers
ale czy to to czego szukasz — pojęcia nie mam
Offline
Niestety http, ani ftp to nie są protokoły p2p i chyba nie przewidują dzielenia pliku na kawałki. W rsync też wątpię.
Offline
hmm pamiętam że w programach z winshita np IDE czy FlashGet były opcje dzielenia plików nawet do 8 części i można było wybierać która części ma się aktualnie pobierać. Myślę że można by było zrobić taki myk że dodajesz poszczególne lustra i po kolei ustawiasz żeby ściągało nie cały plik tylko jego poszczególne segmenty z każdy serwera. Ahh zamieszałem chyba:P??
Offline
czadman napisał(-a):
Niestety http, ani ftp to nie są protokoły p2p i chyba nie przewidują dzielenia pliku na kawałki.
A jednak — choćby tzw. wznawianie pobierania wskazuje, że dzielenie jest możliwe, wystarczy trochę oszukać i kilku serwerom wysłać wiadomość, że cośtam już pobraliśmy i wznowić od miejsca, w którym rzekomo skończyliśmy (a skończyć, w miejscu w ktorym "skończyliśmy" dla innego serwera), po czym wszystkie części scalić w jeden plik.
Ponadto jeszcze z windowsa pamiętam tzw. "acceleratory pobierania" (pic na wodę jakich mało ;]), których zasada działania polegała na tym, że dzielił plik na kilka części i pobierał je symultanicznie (choć z jednego, a nie kilku serwerów).
Tak więc teoretycznie "peer2http/ftp" jest możliwe, jednak w praktyce może to ciężko wyglądać — bo przecież http/ftp nie w tym celu zostały wymyślone.
Offline
Owszem. Choćby opcja -c wgeta. Wszystko się rozwala o obsługę kontynuacji pliku przez serwer i zaufanie, że plik na serwerze nie został zmieniony. Parę razy się na tym zawiodłem.
Offline