Witam. Czy jest jakiś sposób, aby zabezpieczyć swoją stronę przez CURLem? w niektórych przypadkach, widziałem, że strony zamiast treści, wyświetlają białą stronę (nie pobierają danych ze strony), w jaki sposób osiągnąć taki rezultat?
stronę, czy konkretny plik?
jak konkretny plik to można np.:
https://stackoverflow.com/questions/34701436/create-randomly-generated-url-for-content
inna sprawa to captcha
Ja korzystam z biblioteki, którą napisał jakiś Hindus i dał na githuba
- nazywa się RandomDownloadLink
i zapobiega scrapingowi :
https://github.com/mycomputerak47/randomDownloadLink
nie jest to może dzieło sztuki, ale swoją rolę spełnia
Czy jest jakiś sposób, aby zabezpieczyć swoją stronę przez CURLem?
CURL nie dodaje żadnych specyficznych dla siebie metadanych, nagłówków ani nic takiego do zapytania, na podstawie których mógłbyś sprawdzić czy zapytanie zostało skonstruowane CURLem. Jeśli masz publiczne API, CURL może je odpytać. Jeśli chcesz wyciąć CURLa to zaserwuj mu captche, ale to dotknie również innych userów.