Tilbake til blogg
Januar 13, 2026Guider

Kjøre private AI-modeller på VPS: DeepSeek & Llama guide

Lær hvordan du kjører kraftige LLM-er som DeepSeek-R1 og Llama 3 på din egen VPS for totalt datavern.

Kjøre private AI-modeller på VPS: DeepSeek & Llama guide

AI endrer måten vi jobber på, men bruk av skybaserte modeller som ChatGPT betyr deling av dine sensitive data med selskaper. Den nåværende trenden er Lokal AI. Med høyytelses VPS fra Hiddence (spesielt våre Ryzen 9 og Intel Core i9-planer), kan du drive ditt eget etterretningsbyrå i skyen, og holde dine prompts og data 100% private.

Maskinvarekrav

LLM-er trenger RAM og raske CPU-er. Vi anbefaler:

  • Minimum: 16GB RAM for 7B/8B modeller (Llama 3, DeepSeek-7B)
  • Anbefalt: 32GB+ RAM for større modeller eller høyere kontekst
  • CPU: Moderne AMD Ryzen 9 eller Intel Core i9 for rask inferens uten GPU

1. Installer Ollama

Ollama er den enkleste måten å kjøre LLM-er på Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Last ned din modell

For koding og generelle oppgaver er DeepSeek-R1 en toppytende. For generell chat er Llama 3 utmerket.

bash
ollama pull deepseek-r1:8b
# ELLER
ollama pull llama3

3. Eksponer via API (Sikkert)

Ollama gir en OpenAI-kompatibel API. Du kan tunellere den via SSH for å få tilgang til den sikkert fra din lokale maskin uten å eksponere den for det åpne nettet.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nå få tilgang til http://localhost:11434 i dine lokale apper