Cześć,
jedna z aplikacji internetowych, które rozwijam jest notorycznie, cyklicznie atakowana przez boty z obszaru Rosji / Azji.
Klientowi bardzo zależy, aby nic nie przeszkadzało w workflow / userflow / UXie, który jest wypracowany.
Co oznacza: nie chce googlowej captchy, 2 stepowej weryfikacji użytkowników przy rejestracji czy czegoś podobnego, co wymaga zmian w wyglądzie lub wytworzonym procesie.
Problemy są głównie natury takiej, że boty rejestrują się na stronie, korzystają z opcji dostępnych na stronie i zapychają db / systemy analityczne / statystyczne podłączone do strony swoimi danymi.
Jak zabezpieczyć stronę przed botami po stronie front-end / back-end? Są jakieś techniki, o których mogę poczytać do zaimplementowania?
Czy pozostaje mi po prostu analiza ruchu i wycięcie danych IP / obszarów?
Co mogę zrobić jak najniższym kosztem?