Kjøre private AI-modeller på VPS: DeepSeek & Llama guide
Lær hvordan du kjører kraftige LLM-er som DeepSeek-R1 og Llama 3 på din egen VPS for totalt datavern.

AI endrer måten vi jobber på, men bruk av skybaserte modeller som ChatGPT betyr deling av dine sensitive data med selskaper. Den nåværende trenden er Lokal AI. Med høyytelses VPS fra Hiddence (spesielt våre Ryzen 9 og Intel Core i9-planer), kan du drive ditt eget etterretningsbyrå i skyen, og holde dine prompts og data 100% private.
Maskinvarekrav
LLM-er trenger RAM og raske CPU-er. Vi anbefaler:
- Minimum: 16GB RAM for 7B/8B modeller (Llama 3, DeepSeek-7B)
- Anbefalt: 32GB+ RAM for større modeller eller høyere kontekst
- CPU: Moderne AMD Ryzen 9 eller Intel Core i9 for rask inferens uten GPU
1. Installer Ollama
Ollama er den enkleste måten å kjøre LLM-er på Linux.
curl -fsSL https://ollama.com/install.sh | sh2. Last ned din modell
For koding og generelle oppgaver er DeepSeek-R1 en toppytende. For generell chat er Llama 3 utmerket.
ollama pull deepseek-r1:8b
# ELLER
ollama pull llama33. Eksponer via API (Sikkert)
Ollama gir en OpenAI-kompatibel API. Du kan tunellere den via SSH for å få tilgang til den sikkert fra din lokale maskin uten å eksponere den for det åpne nettet.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nå få tilgang til http://localhost:11434 i dine lokale apper