Użytkownik za pomocą webowego interfejsu w ramach procesu biznesowego dokonuje pewnych operacji. Każda taka operacja produkuje nowego jsona, który musi być zachowywany na stałe. Użytkownik przeprowadza wiele takich operacji w efekcie czego powstaje wiele jsonów.
Tak to wygląda:
- Użytkownik rozpoczyna proces biznesowy, potencjalnie długotrwały - kilkudniowy. W trakcie niego powstają, usuwają lub nadpisują się JSONy.
- Użytkownik zakończa proces, w efekcie czego wszystkie jsony dla tego konkretnego procesu muszą zostać pobrane, a następnie są wykorzystane przez już inny serwis.
- Kiedyś też następuje cleanup niepotrzebnych już jsonów.
Ogarniam tylko SQL, i średnio mi się on widzi tutaj użyteczny. Nie mogę za bardzo zrobić jednej giga-tabeli z jsonami, bo użytkowników jest wielu i procesów jest wiele, więc filtrowanie po WHERE na pewno będzie bardzo nieefektywne. Im więcej będę miał recordów w tej tabeli tym wolniej by to działało, a raczej szukam czegoś co działałoby zawsze równie szybko niezależnie czy mam w całej puli 1k czy 1000k jsonów.
Nie szukam idealnego rozwiązania, wystarczyłoby mi jakiekolwiek sensowne. Chciałbym żeby to działało w miarę dobrze dla puli ~10 GB jsonów.
Więc generalnie chciałbym zarządzać persistent jsonami - co tutaj wykorzystać? MongoDB?