Automatyczne pobieranie danych ze źródła strony.

0

Witam,
Mam pytanie o zabezpieczenie naszych serwisów, głównie chodzi mi o skrypty które są zapuszczane do wyciągnięcia danych z naszych stron.
Powiedzmy że mamy katalog firm, wyświetlamy na stronie np 20 wyników, każdy wynik prowadzi do konkrentej odsłony danej firmy.
W prosty sposób można napisać skrypt który pobiera zawartość serwisu funkcją file_get_contents , następnie za pomocą preg_match można sper wyciagnąć adresy URL konkretnych odsłon firm, następnie ta sama operacja i mamy wszystkie dane firmy. Jest to metoda gdzie w parę minut możemy wyciagnąć całą bazę danego serwisu. Jak się przed tym zabezpieczyć ?
Wiadomo skrypt łączy się z naszym serwisem z tego samego IP, wykonywany jest cyklicznie więc rejestrujemy połączenia z jednego IP cyklicznie co dany czas, natomiast nie problem zrobic losowowe opóźnienie skryptu aby pobieranie danych następowało w różnych odstepach czasu. Jak serwery na to reagują? Zabezpieczacie się na taką ewentualność ?

0

nie.
będzie chciał - to sobie skopiuje i tak.
ty za to poświęcisz X godzin/dni/tygodni, być może wydasz jakąś kasę na wdrażanie pomysłów, a i tak okaże się, że nic z tego..

1 użytkowników online, w tym zalogowanych: 0, gości: 1