Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Strony: 1
Wgetem mozna sie latwo poslugiwac z konsoli, ale znalazlem ciekawa nakladke na tej stronie: http://users.uj.edu.pl/~ufkapano/linux/cz4admin/lp-ftp.html
Download z tej strony: http://spazioinwind.libero.it/thedarkstar/linux.html#TKWGET
Minimalistyczny i funkcjonalny interface: http://imgur.com/a/K3ww6
Gdyby jeszcze ktos pomogl zainstalowac to ustrojstwo na Jessie.
Pozdrawiam
Gwoli wyjasnienia dodam ze wszystko wzielo sie z checi zrobienia mirrora tej strony: https://www.server-world.info/en/
Niestety, mimo ustawienia -r-recursive, -l5-glebokosc 5 poziomow kopiowania , nie moge skopiowac glebiej anizeli ponizej poziomu 3 linka.
Manuala Wget przeczytalem 3 razy, zeby sobie wszystko ulozyc.
Ostatnio edytowany przez Novi-cjusz (2017-01-23 12:48:22)
Offline
Nie wiem czy spojrzałeś kiedy była ostatnio aktualizowana strona projektu?
21.02.2000 to raczej projekt umarły i niewspierany, a najnowsza wersja jest
Current version is 0.3 .
Tkwget is available as in .tar.gz format. I plan to release an rpm package soon, well at least within March 2000, I swear.
The tar ball include the following files:
Offline
Łoooo matko jaki antyk. Toż to ta nakładka ma 17 lat :D
Tu masz spis młodszych projektów (wiele z nich nadal jest rozwijanych i wspieranych nie to co ten umarlak co przedstawiłeś): http://www.binarytides.com/gui-download-managers-ubuntu-linux/ niby spis na *buntu ale pod Debiana też są...
Moim zdaniem najlepsza nakładka na wget to uget: http://ugetdm.com/downloads-debian (oczywiście to kwestia gustu) i co ważne nadal projekt żyje! Ostatnia aktualizacja z 2 stycznia 2017 roku.
Ostatnio edytowany przez neo86 (2017-01-22 00:06:30)
Offline
Do Wgeta są przede wszystkim Kget i Gwget, oraz wspomniany Uget,
a w przeglądarkach Flashgot.
Poza tym porównaj działanie Wgeta do Aria2 i Axela. ;)
Oba masz w repo, Axel ma nawet jakiegoś graficznego klienta Axel-kapt napisanego w QT.
Ostatnio edytowany przez Jacekalex (2017-01-22 05:00:13)
Offline
Sprawdzilem: uget, Aria2, Axel+Axel-kapt.
Wniosek: sciaganie filmow, muzy O,k ale sciaganie calych witryn (glebokosc pobierania) nie dziala na zadnym i nawet nie ma opcji ustawien w menu.
Tu jest potrzebny ktos z webmasteringiem + SEO.
Pozdro.
Bedziemy chyba jednak musieli cofnac sie do "antyka"
Moze uda sie jakos zainstalowac i odpalic?
Offline
kget
uget
Offline
Ja tak z ciekawości... Po kiego grzyba webmastering i seo do zrobienia mirrora?
Chyba że inaczej rozumiemy pojęcia seo i webmastering...
Offline
Webmastering i pozycjionowanie, bo rozne techniki wykonywania i uruchamiania witryn www.
Jezeli jestem w bledzie, pokazcie mi prosze jak sami przy pomocy sugerowanych przez was programow, sciagniecie (na pelna glebokosc) przykladowa witryne: https://www.server-world.info/en/
Ostatnio edytowany przez Novi-cjusz (2017-01-22 18:29:25)
Offline
...ale sciaganie calych witryn (glebokosc pobierania) nie dziala na zadnym i nawet nie ma opcji ustawien w menu.
Z prostym htmlem sobie wget poradzi, potrafi pobierać rekursywnie i konwertować linki.
Jednak w tej chwili większość stron to web 2.0, korzysta z różnych bibliotek JS jak np JQuery rozmieszczonych na innych serwerach.
Do takich stron żaden program nie pomoże, tutaj możesz próbować np WWW-Mechanize i WWW-Scirpter - moduły Perla, ten drugi potrafi dekodować javascript i ajax.
Specjalistycznym narzędziem do kopiowania stron internetowych jest HTTrack,
ale nie wiem, czy sobie poradzi.
Jest parę narzędzi z nim powiązanych/pokrewnych:
apt-cache search httrack httrack - Copy websites to your computer (Offline browser) httrack-doc - Httrack website copier additional documentation libhttrack-dev - Httrack website copier includes and development files libhttrack2 - Httrack website copier library proxytrack - Build HTTP Caches using archived websites copied by HTTrack webhttrack - Copy websites to your computer, httrack with a Web interface webhttrack-common - webhttrack common files httraqt - program for downloading of internet sites
To by było na tyle
Offline
Jak do tej pory, to problemem glownym jest rekursywne pobieranie i konwertowanie linkow.
Jest tez dobra wiadomosc. W niedziele przecwiczylem pare narzedzi w tym "webhttrack" ktory poprawnie sciagnol 890 MB i prawie cala witryne.
Najlepszy wynik dotychczas.
Jedna uwaga: glebokosc pobierania linkow ustawilem na "10"
Moze sie komus przyda.
Dziekuje wszystkim za pomoc.
Offline
Strony: 1