CURL - ustawienie "zabezpieczeń"

0

Witam. Czy jest jakiś sposób, aby zabezpieczyć swoją stronę przez CURLem? w niektórych przypadkach, widziałem, że strony zamiast treści, wyświetlają białą stronę (nie pobierają danych ze strony), w jaki sposób osiągnąć taki rezultat?

0

stronę, czy konkretny plik?

jak konkretny plik to można np.:
https://stackoverflow.com/questions/34701436/create-randomly-generated-url-for-content

inna sprawa to captcha

Ja korzystam z biblioteki, którą napisał jakiś Hindus i dał na githuba - nazywa się RandomDownloadLink i zapobiega scrapingowi :
https://github.com/mycomputerak47/randomDownloadLink

nie jest to może dzieło sztuki, ale swoją rolę spełnia

0

Czy jest jakiś sposób, aby zabezpieczyć swoją stronę przez CURLem?

CURL nie dodaje żadnych specyficznych dla siebie metadanych, nagłówków ani nic takiego do zapytania, na podstawie których mógłbyś sprawdzić czy zapytanie zostało skonstruowane CURLem. Jeśli masz publiczne API, CURL może je odpytać. Jeśli chcesz wyciąć CURLa to zaserwuj mu captche, ale to dotknie również innych userów.

1 użytkowników online, w tym zalogowanych: 0, gości: 1