Co byscie wybrali do self host i czemu? Jakies rapsberypi, zwyklego desktopa, caly serwer?
#pytanie #it
def

a co chcesz hostować?

371t3

@def rozne rzeczy, przedewszystkim nextcloud, do tego git, moze vpn ale w przyszlosci to moze nawet poczte. Ale to juz tak na dlugi okres, na sam poczatek ten nextcloud. Zalezy mi zeby sie fajnie skalowalo i moze z tego powodu rabspery sie nie nada, ale jakis zwykly desktop bylby ok. Natomiast nie bede ukrywal ze nie wiem

def

@371t3 ja bym poszedł w jakiś mały pecet z miejscem na dodatkowe dyski, bo pewnie się przydadzą, rapberry pi będzie za słabe

vinclav

@371t3 no, mikro chmura, ale to co tam robisz też ma znaczenie

371t3

@vinclav Chcialbym zaczac od czegos malego, ale nie wykluczam (i mam nadzieje :D) ze sie moze rozrosnac.

vinclav

@371t3 to zacznij od Oracle chmurki, konfigurowanie własnej to mi zajęło 3 miechy. No ale to moje projekty głównie.

371t3

@vinclav Tez troche pod swoje rzeczy o tym mysle, generalnie jak sobie policzylem chmure (na przykladzie Azure), to by mnie kosztowo zabilo.

vinclav

@371t3 matryca rasbianow i do tego swlf host. To mniej prądu je niż żarówka.

371t3

@vinclav Myslalem o tym Wtedy bym juz polecial w klaster kubernetesa

vinclav

@371t3 no ja tak robię xD wkurwial mnie AWS bardzo, chcesz plik zmodyfikowac, to zapłać...


Gdzieś na darknecie widziałem nawet kolesia co podpiął deszczówkę do chłodzenia xD

Trawienny

Zależy do czego. Ja przerobiłem starego desktopa i7-4790+32GB, postawilem ESXi a na tym chodzi kilka VM, każda do czegoś innego. CPU jest aż nadto ale RAM ciut brakuje.

371t3

@Trawienny Mam stary komp z takim wlasnie socketem, ten procek teraz ciezko dostac, ale widzialem jakies uzywki za 600 ziko.

mortt

Ja zrobiłem tak, że zacząłem od NASa 2 zatokowego, żeby już jakiś RAID był. Potem dołożyłem hp 705 g4 na "front", ma dysk nvme więc jest bardzo szybki w odczyt. A na koniec spiąłem je razem i w ten sposób to co nie zajmuje dużo miejsca żyje bezpośrednio na hp a backup leci na NAS a to co jest duże idzie bezpośrednio z NAS (ale nadal z frontem w HP). Czyli na przykładzie aplikacji do zdjęć - zdjecia żyją na nas a baza danych na HP + regularny backup. Do tego nas robi regularny backup na dodatkowy dysk podpięty po USB a na to wszyskto jest jeszcze backup do chmury. To wszystko by działało na samym NAS ale zauważalnie wolniej. Plus NAS nie uciągnie niektórych rzeczy jak np. serwer do gierek w które gram z synem.


edit: co ważne zużycie prądu jest śmiesznie małe.

VonTrupka

@mortt jak to spinałeś ze sobą i wiązałeś od strony softłerowej?

tj. frontend do przeglądania danych zdalnie, co robi za backup klient<(>HP<)>NAS (o ile to coś innego niż soft producenta NAS) i cokolwiek co się z tym wszystkim wiąże

jakieś gotowe rozwiązania typu homeassistant, ovm, itp?

mortt

@VonTrupka dużo różnych rzeczy.

Sam backup NAS jest oparty o producenta bo jest jednym z lepszych (domowych) - hyperbackup. Idą 2 kopie jedna na dysk po usb druga do chmury (c2).

Na HP stoi portainer i tam możesz ustawiać dyski po CIFS (można też ręcznie ale po co, koncept ten sam). Portainer pozwala też elegancko obsługiwać wszystkie serwery dockerowe z jednego miejsca. Do backupu kontenerów, które używają danych lokalnie na razie używam kontenera "offen/docker-volume-backup" ale powoli przenoszę to na rsynca. Do tego mam authentika jako SSO, z przodu jest nginx proxy manager żeby robić reverse proxy na domeny. Pi hole ma 2 funkcje - blokowanie reklam po dns oraz rozwiązywanie moich lokalnych subdomen. Ze wzgledu na niestety brak publicznego ip muszę mieć jeszcze VPSa żeby coś było z publicznym IP. Na nim stoi wireguard i tworzy tunel tylko na IP wewntętrzne sieci + konfig wskazuje serwer dns jako pi hole. W efekcie masz blokowanie reklam caly czas + dostep do serwerow.

Najważniejsze usługi dla mnie to (nie w kolejnosci)- drive, zdjecia, paperless, navidrome, gitea, vaultwarden, audiobookshelf i wikijs.

Ogólnie mam 24 stacki i 50 kontenerow uruchomionych. na 3 maszynach. I oczywiście rośnie. Trochę też testuję nowych rzeczy.

VonTrupka

@mortt ahhh, bazujesz na dockerze i usługach kontenerowych. No tak, najłatwiej rozdzielić usługi i wirtualizować. To tłumaczy zapotrzebowanie na ram.


Domniemywam, bo nie wspomniałeś, że masz również postawiony własny dns? Ewentualnie lokalny dns z forwardowaniem do zewnętrznych (sam na localhoście tak robię).


Z DNSem nie da się postawić żadnego demona który odświeżałby rekordy A/Cname automatycznie?

Ewentualnie jakiś dynamiczny dns z możliwością podpięcia domeny? Nie wiem jak obecnie to wygląda.


hmm, sporo tego co wymieniasz najzwyczajniej nie znam, bo już na tym polu się nie obracam

pytam jednak z ciekawości bo się tłukę od dłuższego czasu z zamiarem wystawienia jakiegoś terminala z kilkoma usługami i coś tam próbuję rozgryźć czego używać. Na pewno jak najmniej rozdrabniać aby potem nie męczyć się z utrzymaniem tego wszystkiego, z kolei kombajny oferują zbyt dużo :\


Czy z tych usług jakie wymieniasz na końcu, mające frontend (wikijs itd) wszystko serwujesz nginxem po httpsie?

mortt

@VonTrupka  większość usług jest wystawiona po http do sieci wewnętrznej (docker) dla Nginx'a na reverse proxy. Nginx (za pomocą całkiem sympatycznego gui) dodaje certyfikat i jest jedyną ścieżką dostępu do usług. W ten sposób masz rozwiązane porty - jedyne które trzeba otworzyć to http i ssl (80 i 443). Dodatkowo jeśli dana usługa nie obsługuje Oauth lub nie ma logowania w ogóle dzięki temu rozwiązaniu możemy odciąć dostęp do usługi kompletnie i dopiero po zalogowaniu do sso odblokować dostęp.


Mówisz, że nie wspomniałem o DNS to zacytuję poprzedni komentarz

"Pi hole ma 2 funkcje - blokowanie reklam po dns oraz rozwiązywanie moich lokalnych subdomen." - pihole to serwer dns. Ale - na wypadek gdyby pihole nie dał rady to u mojego dostawcy domeny mam ustawiony wildcard *.moja.domena prowadzi do IP serwera z nginxem wewnątrz sieci wireguard (vpn). Dlatego, że to co pod moja.domena to moja publiczna strona na VPS a subdomeny to moje prywatne usługi.


Z DNSem nie da się postawić żadnego demona który odświeżałby rekordy A/Cname automatycznie?

Ewentualnie jakiś dynamiczny dns z możliwością podpięcia domeny? 

chodzi po prostu o to, że masz dynamiczne ip? To od tego jest dyndns, DDNS, dynamic dns, różnie to zwą. https://www.cloudflare.com/en-gb/learning/dns/glossary/dynamic-dns/


Możesz też po prostu ustawić sieć VPN jeśli masz choć jedno urządzenie ze stałym IP (tak jak robię ja bo nie mam publicznego ip na serwerze głównym)

VonTrupka

@mortt tzn ja wiem jak sobie rozwiążę dynamiczne IP + domena, niekoniecznie przez cloudflare

odniosłem do tego, że do rutingu (tzn. obsługi rekordów pod swoje dynamiczne IP) domeny używasz VPSa, a nie rozwiązujesz tego lokalnie. Ale teraz mam jasność, że używasz go też do innych usług. Nie wiem nawet czemu założyłem, że tylko jako zewnętrzna brama do swoich lokalnych usług po subdomenach.


Co do DNS-a to miałem ze 2 przymiarki do pihole ale ostatecznie nigdy się za to nie zabrałem choćby na wirtualce.

Fakt że gotowe rozwiązanie ale poprzestałem na lokalnym DNSie + filtry. Może zabiorę się za to na poziomie urządzenia sieciowego jak już mnie ostatecznie najdzie na jakiś terminal i wystawienie paru usług na świat aby mieć dostęp.


W każdym razie dzięki za całe info, bardzo przydatna wiedza i mam się o co zaczepić jeśli wejdę znowu w IT berserk mode

mortt

@VonTrupka spoko, jak coś to możesz pisać. Infrastrukturę robię wyłącznie hobbystycznie ale już kilka dobrych lat więc coś tam wiem i może będę w stanie pomóc. Aktualnie próbuje rozgryźć temat tak, żeby w lokalnej sieci rozwiązywał domeny do lokalnego ip a w publicznej sieci rozwiązywał do vpn ip

koszotorobur

@371t3 - chłopie - wariacji opcji masz miliony i wszystko zależy od budżetu i tego na ile będziesz miał czas się bawić (bo jak się uprzesz to powoli umiejętności nabędziesz) - tu masz główne opcje w kolejności od najbardziej skomplikowanych (i pewnie najdroższych):


  • Klaster Kubernetesa na kilku Raspberry Pi - pamiętaj tylko, że to architektura ARM

  • Klaster Kubernetesa na kilku tanich/używanych komputerach typu Thin Client

  • Starszy komputer na jakimś dobrym procesorze i jak najwięcej pamięci - możesz mieć na tym single node K8s lub używać Docker/Podman Compose do zarządzania kontenerami

  • NAS z możliwością zainstalowania Linuksa

  • Router z możliwością zainstalowania OpenWrt


Polecam się też bawić chmurą ale ostatecznie w chmurze używać tylko Serverless i jakiś Object Storage do hostowania statycznych stron i backupu ważnych danych.

VonTrupka

@371t3 z tak precyzyjnym opisem wymagań albo celów to kalendarza nie wystarczy żeby podać wszystkie możliwości

Zaloguj się aby komentować