#selfhosted

9
24
Wraz z coraz większym zainteresowaniem się rozwiązaniami #selfhosted i odchodzeniu od komercyjnych rozwiązań chmurowych, rozrasta się też moja domowa sieć.
Aktualnie mam spięte w jedną wirtualną sieć lokalną w TailScale:
  • Darmowy serwer VPS oracle cloud - stoi na nim serwer nginx, który przekierowuje subdomeny na adresy "lokalne" z sieci TailScale, czyli takim VPN który łączy nam urządzenia w jedną sieć
  • SynologyNAS - służy mi głównie jako backup i OCR do dokumentów, serwer PLEX, oraz cała infrastruktura "zasilająca" multimediami PLEX korzystająca głównie z Usenetu i Torrentów do zaciągania automatycznie nowych filmów i seriali i napisów do nich, oraz z Deezerowych serwerów do muzyki, chmura do automatycznego backupu zdjęć z telefonu, biblioteka ebooków i synchronizujący się między urządzeniami notatnik. Poza kilkoma natywnymi aplikacjami cała reszta siedzi w kontenerach dockera
  • Terminal HP - dorwany na allegro za jakieś 5 dyszek, z dołożonym ramem i dyskiem SSD. Mam na nim Proxmox, na którym z kolei siedzą 2 kontenery - jeden z PiHole który blokuje mi reklamy w sieci domowej oraz po połączeniu z TailScale również poza nią dzięki czemu zyskuję 2w1 - adblocka na telefon z podłączeniem pod sieć lokalną. Drugim kontenerem jest Home Assistant, dzięki któremu steruję moim inteligentnym domem.
  • Home Assistant jest też podłączony pod Google Home bo korzystam z kilku rozwiązań od nich jak głośniczki spięte w grupy czy wyświetlacz którym wygodnie można sterować oświetleniem i wtyczkami. Korzystam z dongla Zigbee od ITEAD, dzięki czemu mogę łączyć ze sobą smart urządzenia różnych firm w jednej integracji Zigbee.
  • Całość pomiędzy domeną a serwerem VPS przechodzi przez CloudFlare na którym mam restrykcyjne reguły firewallu i który dopiero przekierowuje po odpowiednim odfiltrowaniu do VPS, który z kolei za pomocą NGINX łączy mnie z odpowiednim adresem IP przydzielonym przez TailScale. Ponieważ Home Assistant jest dla mnie najważniejszym serwisem, na CloudFlare mam też tunel do Home Assitant, przez co mogę łączyć się z nim po subdomenie tunelowej albo po IP TailScale, w razie awarii jednego z nich
Wydaje mi się że taka konfiguracja jest dobrym kompromisem pomiędzy brakiem jakichkolwiek domen i posługiwaniem się tylko adresami IP w VPN, a z drugiej strony otwieraniem portów na Routerze. Mam domeny tylko do serwisów które zyskują dzięki temu dodatkowe funkcjonalności (Synology NAS - możliwość wysłania linku do pliku znajomemu, Home Assistant - integracja z google home, Plex - zdalne oglądanie i słuchanie mojej biblioteki przeze mnie i znajomych), a jeśli chcę zobaczyć inne serwisy włączam sobie VPN w telefonie albo kompie. A może widzicie w niej jakąś podstawową dziurę której nie zauważyłem? Jeśli tak będę wdzięczny za waszą opinię
Dość długo zbierałem informacje z najróżniejszych subredditów, blogów i forów jak to wszystko spiąć, jakie są najlepsze serwisy i jak wszystko dobrze poustawiać. Dlatego zastanawiam się czy nie zrobić jakiejś serii wpisów gdzie przedstawiam te zagadnienia. A może jest to wiedza powszechna, a mi zajęło to tak długo bo zaczynałem z poziomu kompletnego laika?
Chcielibyście poczytać o pobieraniu plików z usenetu, albo konfigurowaniu darmowego VPS jako serwera nginx? Z góry mówię że nie jestem ekspertem, a jedynie spędziłem 2+ lat na dokładaniu kolejnych cegiełek, a czasem wywalaniu połowy i stawianiu od nowa Być może komuś poradniki tego typu zaoszczędziłyby właśnie takiej pracy
Lakafior

@mejwen dzięki, zasubskrybowane Ja chyba już za dużo wydałem na klasyczny sprzęt żeby zmieniać teraz na takie rozwiązanie, ale może jak mi padnie to wrócę do tematu

libertarianin

@Lakafior może jakimś makrem przez API żeby to sobie odświeżał z GDrive co jakiś czas? fajnie jakby ktoś zrobił wreszcie self hosted docsy ale z obsługą skryptów i wyjściem online na api i inne rzeczy

matips

@Lakafior jaki model SynologyNAS posiadasz? Transkodujesz video na NAS, czy serwujesz wyłącznie "oryginalne" wersje? Jeśli transkodujesz, to korzystasz ze akceleracji sprzętowej?

Zaloguj się aby komentować

Pochwalę się moim inteligentnym nieprzemyśleniem sprawy kopii zapasowej serwera od kopii zapasowych.
  • Podmontowałem zasób CIFS (RO) po VPN.
  • Następnie skrypt rsync'ował dane z serwera.
  • Wszystko spoko, aż zrestartowałem VPN, bo modyfikowałem sieć.
  • Zasób CIFS się odpiął, a że to podmontowywanie - katalog był pusty.
  • Skrypt odpalał się poprawnie i synchronizował katalog, a że katalog był pusty, bo nie podmontowany - to nic nie syncowało - co lepsze, synchronizowało raz, czyszcząc całkowicie dysk xD
  • Jak dobrze, że to był backup backupu
Jak dobrze, że zauważyłem to teraz, gdy mi monitoring zgłosił braki miejsca, a patrzę na domowy serwer - a tam pusty dysk
To w nawiązaniu do innego mojego postu: https://www.hejto.pl/wpis/teraz-sie-troche-zwierze-wlasna-glupota-kilka-miesiecy-temu-stwierdzilem-ze-zrob
arcy

@otlet Ludzie dzielą się na tych co robią backup backupu backupu i na tych co będą robić backup backupu backupu xd

Zaloguj się aby komentować

Teraz się trochę zwierzę własną głupotą. Kilka miesięcy temu stwierdziłem, że zrobię kopię zapasową wszystkich rodzinnych zdjęć i moich ważnych dokumentów i stosując zasadę 3-2-1 wpadłem w:
  • Zamiast 3 to ze setkę kopii
  • Zamiast 2 nośników, miałem kilkanaście
  • Zamiast 1 kopii na zewnątrz, miałem nawet kilka.
Ale co w tym złego - można, by rzec? A no to, że nie miałem kontroli. Zacząłem robić kopie na zewnątrz, różnymi drogami. Raz szły z jednego komputera, raz z drugiego, raz do chmury, raz na serwer, raz na NAS. A potem się okazało, że dwa katalogi obok siebie miały - te same pliki. Bałagan bez kontroli, bo co z kopii, która jest posiekana i w sumie nie ma pewności, czy ta kopia istnieje? Generowało to koszty (S3 + VPS + RPi + prąd), które jak się okazało - można dramatycznie zmniejszyć.
Aktualnie wdrażam plan zabezpieczający - wszystko stworzone domowymi rozwiązaniami, których kosztu nie czuć jakoś szczególnie. Pierw zrobiłem jeden serwer "krytyczny" - tam pierw umieszczę posortowane kopie, bym wiedział - co to w ogóle za pliki. Potem wdrażam plan kopii 3-2-1.
Kopie przyrostowe. Pierw z komputera/laptopa/telefonu będą lecieć na serwer "w chmurze", następnie będą regularnie pobierane przy pomocy RaspberryPi na dyski. Mam łącze 1Gbps w domu, więc mogę poszaleć
Czemu tak? Wygoda. Telefon, laptop to urządzenia mobilne, których kopia będzie się odbywała nie tylko w domu, więc wolę pierw przesłać na serwer. Następnie będę pobierać na RPi - więc na wypadek awarii serwerowni mam kopię w postaci dysku i oryginalnego źródła informacji. Celem oszczędności, zamierzam dyski wyłączać (spun down), by nie kręciły się bez sensu przez cały dzień - tutaj mam wątpliwości co do sensowności tego rozwiązania, więc pewnie niedługo przerzucę na SSD po SATA - koszty powoli te same, a mniejsza awaryjność.
Wiem jedno - życzcie mi powodzenia, bo cholernie się przyda
Cena miesięcznie? Nie wiem. Serwer wyszedł mi chyba 15$ za kwartał (1TB) + RPi4B(8G) dostałem w rozliczeniu + 130zł/mc internet z telewizją (jakby kogoś interesował ile płacę za gigabita) + dyski mam jakieś stare.
Jak policzyłem, to dobry NAS kosztowałby mnie dwa razy więcej rocznie, a przy okazji mam post na hejto - a to rzecz bezcenna
Od razu dodam, że wszystko leci po VPN (Wireguard), by moje memy w kopiach lądowały bezpiecznie
7b9567c9-8b6d-4a0a-ac89-9d324fe60f33
walter_white

@otlet jestem mega zainteresowany takim poradnikiem bo póki co przeczesuję internet w poszukiwaniu najlepszej opcji

otlet

@walter_white masz załatwione Prędzej, czy później, ale zrobię. Nawet po to, by zweryfikować mój pomysł na "papierze" i sprawdzić, czy czegoś nie pominąłem

walter_white

@otlet ok, obserwuję i czekam

Zaloguj się aby komentować

Poprzednia