Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Witam forumowiczow ponownie w sprawie dzialania programu wget na Windows7.
Mam problem ktorego nie umiem rozwiazac.
Kiedy kopiuje witryne ( http://lukaszsupergan.com/ ) rekurekcyjnie np do 3 poziomu " w glab" to przy polaczeniu z siecia mam witryne skopiowana na HDD w jej strukturze i wszystkimi elementami skladowymi.
Kiedy odlacze dostep do sieci zostaje struktura (foldery i podfoldery) znikaja wszystkie skladowe: text, zdjecia, css itp itd.
Dlaczego tak sie dzieje, i jak zapisac na HDD kompletna witryne, zeby dzialala bez dostepu do sieci?
Pozdrawiam
Offline
3221
Ostatnio edytowany przez uzytkownikubunt (2016-12-01 01:45:58)
Offline
Marna to dla mnie pociecha.
Przeciez po to jest downloaderem zeby nie tylko sciagal ( co robi )ale rowniez zapisywal (czego nie robi )
Mysle ze w konfigu jest jakis kruczek, ktorego do tej pory nie poznalem.
Ostatnio edytowany przez Novi-cjusz (2016-10-03 15:58:27)
Offline
Wget jest od pobierania.
Jesli strona zawiera biblioteki javascript, i kod, który dynamicznie generuje sznurki w przeglądarce, to wget ich nie wygeneruje, bo nie wykonuje Javascriptu przy pobieraniu.
Do takich stron napakowanych javascriptem się często pisze osobne skrypty z użyciem jakichś modułów typu np:
http://search.cpan.org/~nine/WWW-WebKit-0.07/lib/WWW/WebKit.pm
http://search.cpan.org/~sprout/WWW-Scripter-Plugin- … JavaScript.pm
To by było na tyle
Offline
Musze przyznac, ze nie bardzo rozumiem logike pobierania bez zapisywania.
Jak strona zniknie z serwera to uzytkownik na drugim koncu swiata moze sobie nagwizdac?
Byloby szkoda, bo mimo calego badziewia w Internecie jest tez wiele ciekawych stron i witryn, ktore warto by bylo zachowac na HDD,
To z jednej strony, a z drugiej dziwne jest ze zeby skopiowac strone czy witryne niezbedne jest wyzsze wyksztalcenie IT i do tego kilka lat praktyki. (;-(
Offline
Czego nie rozumiesz?
Wejdź sobie na google.pl z Firefoxa i naciśnij ctrl+u, to zobaczysz,
jak wygląda Javascript i Ajax w praktyce.
Weź też pod uwagę, że cały ten kod wykonuje przeglądarka pacjenta, a nie serwer.
Wget tego kodu nie wykonuje, bo nie jest przeglądarką, tylko programem do pobierania plików
z sieci, podobnie jak Axel czy Aria2.
Ostatnio edytowany przez Jacekalex (2016-10-03 23:27:48)
Offline
Piszesz o detalach implementacji, a ja nie rozumiem dlaczego skopiowanie ciekawej witryny jest takie nielatwe.
Albo inaczej to jak sciagnac i zapisac to co chce, tylko HTTrack?
Offline
Novi-cjusz napisał(-a):
Piszesz o detalach implementacji, [...]
Przepraszam, że się wtrącam ale czy Ty rozumiesz wogóle słowo "implementacja"? Przecież już zostało to jasno napisane, że wget nie podąża za dynamicznie generowanymi linkami bo ich nie generuje bo nie wykonuje skryptów JavaScript.
Offline
To jak sobie sciagnac ciekawa witryne?
Tylko HTTrack ?
Offline
@Novi-cjusz wirtualka z windowsem+ teleport pro z jakiegoś trackera
cel uświęca środki :)
PS pamiętam całe witryny to się zasysało w dobie kawiarenek internetowych i modemów wdzwanianych :)
Ostatnio edytowany przez hi (2016-10-04 14:36:21)
Offline
Tak bedzie trzeba, samo zycie.
Pozdro.
Offline