Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Strony: 1
Dzień dobry
Mam pytanie co powinien zrobić aby pobierać automatycznie ze strony www np. bipu informację o ogłoszeniach i otrzymywać je np. na maila lub do katalogu je zapisywać. Czy istnieje taki zautomatyzowany sposób poboru danych ze stron internetowych aby nie trzeba było za każdym razem wchodzić w stronę i przeszukiwać zmian dotyczących ofert. Interesują mnie zarówno rozwiązanie płatne jak i darmowe. Co moglibyście polecić?
Ostatnio edytowany przez torpeda80 (2021-09-22 10:01:19)
Offline
Moim zdaniem to można by wget, wget2 itp. programy zaprzęgnąć do tego podpinając do crona itp.
Offline
Jak juz chcesz to chyba python i odpowiednie biblioteki np. BeatifulSoup
https://helion.pl/ksiazki/ekstrakcja-danych-z-jezyk … .htm#format/e
Offline
Dziękuje za odpowiedzi.
Offline
Najprostsze i najtoporniejsze to zaprząc do pracy tekstową przeglądarkę internetową np. elinks z parametrem --dump, co będzie zwracać tekstową wersję strony, a potem parsować wynik, żeby sobie wyfiltrować fragment, który nas interesuje. Bardziej eleganckie, ale i skomplikowane będzie wycinanie ze strony właściwych znaczników html poprzez selektor xml/css np. Xidel, co powinno dawać właściwy fragment strony z dużo większą pewnością. A potem to już zabawa w porównanie ze starą wersją.
Offline
A może narzędzie które zostało do tego stworzone - selenium?
Offline
Strony: 1