← Zpět na blog
15. ledna 2026|4 min

Jak jsem vybudoval homelab se dvěma Proxmox nody

Dva produkční nody, 48 GB RAM, 25+ kontejnerů a kompletní kontrola nad infrastrukturou. Takhle vypadá zázemí, na kterém provozuju 15+ živých webů a SaaS produktů.

homelabproxmoxself-hosteddocker

Proč vlastní infrastruktura

Provozuju 15+ živých webů a vyvíjím SaaS produkty. Potřebuju infrastrukturu, které rozumím do posledního bajtu — vím, co běží, kde to běží a proč. Žádné black-box managed služby, žádné vendor lock-in.

Rozhodl jsem se pro self-hosted stack na vlastním hardwaru. Dva Proxmox nody, plná virtualizace, automatizované zálohy a monitoring. Výsledek je produkční prostředí, které škáluje přesně tak, jak potřebuju.

Hardware — dva produkční nody

Celý stack běží na dvou dedikovaných nodech s Proxmox VE:

  • Proxmox 1 — Intel i5-7500T, 16 GB RAM. Primárně infrastrukturní workloady: monitoring, Docker služby, média.
  • Proxmox 2 — AMD Ryzen 5 PRO 2400G, 32 GB RAM. Hlavní výpočetní kapacita — Supabase, Nextcloud, AI modely přes Ollama, produkční weby.

Síťovou konektivitu zvenčí řeším přes Hetzner VPS jako jump host s port forwardingem na všechny interní stroje a Cloudflare Tunnel pro produkční traffic. DNS filtraci obstarávají dva Pi-hole servery (primární + sekundární) pro redundanci.

25+ kontejnerů a VM v produkci

Na dvou nodech běží přes 25 LXC kontejnerů a QEMU virtuální stroje. Každý workload je izolovaný, má vlastní IP adresu a monitorované zdroje.

Infrastruktura a monitoring:

  • Pi-hole (2x, redundantní) — DNS filtrování napříč celou sítí
  • Nginx Proxy Manager — reverse proxy s automatickým SSL
  • Portainer — centrální správa Docker prostředí
  • Grafana + Prometheus + Loki + Promtail — kompletní observability stack
  • Proxmox Backup Server — deduplikované zálohy celého prostředí

Produktivita a správa:

  • Nextcloud — souborové úložiště, kalendáře, Deck pro projektový management
  • Paperless-ngx — digitalizace a OCR dokumentů
  • Vaultwarden — password management (Bitwarden kompatibilní)
  • n8n (2 instance) — automatizace workflow, deploy pipeline, notifikace

Média a obsah:

  • Jellyfin — mediální server
  • Sonarr + Radarr + Prowlarr + Bazarr — automatizované řízení obsahu
  • Navidrome — hudební streaming
  • Audiobookshelf — audioknihy
  • Immich — správa fotografií s ML rozpoznáváním

Vývojové prostředí:

  • Supabase (self-hosted) — PostgreSQL, Auth, Storage, Realtime pro všechny SaaS projekty
  • Gitea — self-hosted Git jako mirror a záloha GitHubu
  • Docker-web server — 15+ Next.js produkčních webů na jednom stroji
  • AI dev server (tento LXC) — Claude Code pro automatizaci vývoje a správy infrastruktury

Další služby:

  • Home Assistant — domácí automatizace
  • Uptime Kuma — monitoring dostupnosti všech služeb
  • SearXNG — privátní meta-vyhledávač
  • Ollama + Open WebUI — lokální inference LLM modelů

Architektura a bezpečnost

Síťový design staví na izolaci a redundanci. Každý kontejner má dedikovanou IP v rozsahu 10.10.10.0/24. Přístup zvenčí jde výhradně přes Cloudflare Tunnel (pro produkční weby) nebo SSH přes VPS s port forwardingem (pro správu). Na routeru nejsou otevřené žádné porty.

Zálohovací strategie je vícevrstvá:

  • Proxmox Backup Server — denní snapshoty všech kontejnerů s deduplikací
  • Restic + Hetzner Storage Box — šifrované off-site zálohy kritických dat
  • Gitea mirror — kompletní záloha všech Git repozitářů

Monitoring přes Grafana dashboardy ukazuje v reálném čase CPU, RAM, disk I/O a síťový provoz napříč celým clusterem. Alerting přes Uptime Kuma a ntfy push notifikace zajistí, že o výpadku vím dřív než uživatelé.

Proč ne cloud

Tohle není o penězích. Je to o kontrole a nezávislosti.

Když provozuju CRM systém pro řemeslníky nebo digitální signage platformu, potřebuju vědět, kde leží data a kdo k nim má přístup. Potřebuju škálovat konkrétní službu bez překvapení v měsíčním vyúčtování. A potřebuju experimentovat s novými projekty bez vendor-specific omezení.

Vlastní infrastruktura mi dává přesně tohle — a navíc hluboké pochopení celého stacku od hardwaru po aplikační vrstvu, které se nedá naučit klikáním v AWS konzoli.

Výsledek

Dvě fyzické krabičky, 48 GB RAM, 25+ izolovaných workloadů. Kompletní observability, automatizované zálohy, bezpečný přístup odkudkoli. Na téhle infrastruktuře běží 15+ produkčních webů, self-hosted Supabase backend pro všechny SaaS projekty a kompletní vývojové prostředí s AI asistencí.

Je to produkční zázemí, které mi umožňuje stavět a provozovat SaaS produkty od nápadu po živý deployment — a mít nad celým procesem kompletní kontrolu.

JJ

Julius Joska

Full-stack developer, homelaber a zakladatel ajtak.it