Rozwiązanie na niskie limity bazy danych

0

Korzystamy z platformy, która ma ustalony limit danych przechowywanych dla jednej encji w postaci 240 KB. Baza jsonowa, zlicza wielkość jsona po JSON.stringify(object, null, 0). W naszym przypadku wielkość robi nam tablica stringów w formacie CSV. Po kompresji tej tablicy jakimś modułem wbudowanym w nodejs (runtime platformy), nadal limity są niewystarczające dla naszego use case. Na dodatek backend jest serverless.
Czy macie inne pomysły, oprócz:

  • trzymanie danych na własnych serwerach,
  • dzielenie danych gdy przekroczono limit?
2

Jak napiszesz jaka to baza to może ktoś się znajdzie co zna jakiś patern dla takich przypadków.

1
Adin napisał(a):

Jak napiszesz jaka to baza to może ktoś się znajdzie co zna jakiś patern dla takich przypadków.

Podejrzewam, że to raczej limit platformy (np. darmowy/ekonomiczny plan taryfowy), a nie ograniczenie silnika. Zobaczmy, co kolega doda.

0

Brzmi jak "dziel i zwyciężaj"

0

Cóż, pewnie nikt nie zna, ale jak już temat został podniesiony to jest to storage z Forge - platforma do pisania dodatków do Jiry.
Opis encji: https://developer.atlassian.com/platform/forge/storage-reference/storage-api-custom-entities/
Limity: https://developer.atlassian.com/platform/forge/platform-quotas-and-limits/:

0

No to pytanie czy tego Cvs nie da się zbudować w jakiejś relacji w.osobnym obiekcie/obiektach

0

Zobacz czy te dane da się skompresować na tyle, że jest to akceptowalne. Przykładowo z zstd -b1 -e19 twoja.csv możesz sprawdzić jak zachowuje się twoja csv na różnych stopniach kompresji. Jeśli wartość tak czy owak nie jest wystarczająca to IMO pozostaje użyć innej bazy albo trzymać dane jako odnośnik do innej bazy np. link do jakiegoś cloud storage

1 użytkowników online, w tym zalogowanych: 0, gości: 1