Próbuję wypracować jakiś dobry sposób na robienie backupów mojej prywatnej chmury. "Moja prywatna chmura" to obecnie Raspberry Pi (czyt. serwer z Linuksem) z paroma usługami (w tym Samba), do którego podpiętych jest kilka dysków działających w ramach RAID 1. Wadą rozwiązania jest fakt, że wszystkie dane są fizycznie na jednej maszynie, co oznacza że jak mi piwnica spłonie, albo ktoś mi w ramach ransomware zaszyfruje dane no to mam problem. Na razie backupy robię ręcznie na zewnętrzny dysk, ale na dłuższą metę to nie przejdzie, chcę żeby się to działo samo.
Danych mam ok. 200 GB. Zawartość większości plików nie zmieni się już nigdy (bo są to zdjęcia/wideo), niektóre pliki natomiast zmieniają się codziennie.
Odkryłem ostatnio coś takiego jak rclone
, które pozwala na łatwe przesyłanie danych na chmurę (przy okazji szyfrując je). Teraz testuję upload na AWS S3. Komenda rclone sync
pozwala na zsynchronizowanie danych z chmurą przy uprzednim sprawdzeniu co się faktycznie zmieniło. To mi bardzo pasuje z tego względu że, jak pisałem wcześniej, większość plików się nie zmienia więc też i nie ma sensu ich przesyłać za każdym razem.
Takie rozwiązanie chroni mnie przed awarią/uszkodzeniem dysków serwera, natomiast nie chroni przed ransomware. Jak ktoś mi zaszyfruje dane, to one mi się wszystkie zsynchronizują z AWS'em. Stąd moje pytanie: czy ma ktoś pomysł jak to rozwiązać? Może istnieje jakaś komenda linuksowa, która wykryłaby nienaturalnie dużą ilość zmian w krótkim okresie czasu i która zablokowałaby synchronizację z rclone
? Jedyna inna opcja, która mi przychodzi do głowy to pakować dane w skompresowany zip i wrzucać to na AWS, z tym że wymagałoby to 2x więcej powierzchni dyskowej u mnie na serwerze (bo gdzieś tę paczkę trzeba przed wysłaniem trzymać), a potem to 200 GB musiałoby być za każdym razem przesyłane (mimo że większość plików będzie zawsze taka sama), no i też koszt trzymania tego w Amazonie też będzie pewnie duży.
Byłby ktoś skłonny podzielić się swoim rozwiązaniem?