Witam. Znany program do zgrywania w całości serwisów www nie zawiódł mnie aż do wczoraj.
Zawsze radził sobie z wszystkimi stronami.
Niestety napotkałem się na stronę z której potrafi sciągnać tylko jeden plik index.html. !!!. i nic więcej.
Niechcę reklamować danego serwisu, mogę powiedzieć ze każda podstrona jak i również stroną główna tego serwisu chodzi w całości w php a rozszerzenia są takie np: (...).pl/kk.php/d,3
(...)pl.kk.php/d,22
Jeśli próbuje zapisać dana stronę w IE6 zapisuje on to w pliku o rozszeżeniu Xml. np: "d,22.xml".
Chcę zgrać w całości dany serwis na dysk bez mosolnej pracy zapisywania każdej podstrony z osobna itd ( serwis jest bardzo, bardzo obszerny). Proszę o pomoc i radę jak to zrobić.
Dzięki.
może po prostu serwis ma zabezpieczenie przed takimi programami tak jak ma to np właśnie 4programmers.net
Oczywiście, że ma zabezpieczenia. Pytanie jest takie jak sciagnąć taka stronę. Jeśli jest to tajne ;-) to przynajmniej czy sie da to zrobić jakimś już napisanym przez gogoś programem?.
[diabel]
gogoś to google ? :) jak ma zabezpieczenia to po to jest zabezpieczenie żeby je łamać ... ekhm, to jest, żeby tego nie robić. programy typu teleport obciążają serwer, nie mówiąc o tym że ściągasz masę rzeczy które są ci niepotrzebne i niepotrzebnie komuś marnujesz wyznaczony transfer na serwerze.
Spróbuj w teleporcie w Project Properties, na zakładce "Exploration" ustawić "Launch up to 1 retrieval threads simultaneosly" i na zakładce "Netiquette" - "Wait 5 seconds between requests for all servers"