Hej,
potrzebuję uderzać do ok 2000 endpointów. Każdy z nich zwraca te same dane, ok 30 wartości pewnych parametrów. Większość wartości parametrów chciałbym uzyskiwać co 30 max 60 sekund. Kilka z nich co 1sek. Taki kolektor danych z moich urządzeń.
-
Zastanawiam się czy job ( @Schedule ) lub kilka jobów ( w zależności od interwału ) + @Async metoda uderzająca na poszczególne końcówki "odpowiednio" to dobry pomysł? Odpowiednio, mam na myśli jakiś thread pool - tutaj jeszcze dokładnie nie wiem co i jak ?
-
Użycie Prometeusza (https://prometheus.io/), skonfigurowanie pliku konfiguracyjnego yml na 2000 endpointów i puszczenie bestii w ruch. Tutaj jednak chciałbym dane pchać dalej do np. postgresa.
proszę o Wasze przemyślenia w tym tasku, sugestie, etc...