Tillbaka till bloggen
Januari 13, 2026Guider

Köra privata AI-modeller på VPS: DeepSeek & Llama Guide

Lär dig hur du kör kraftfulla LLM:er som DeepSeek-R1 och Llama 3 på din egen VPS för total dataintegritet.

Köra privata AI-modeller på VPS: DeepSeek & Llama Guide

AI förändrar hur vi arbetar, men att använda molnbaserade modeller som ChatGPT innebär att dela dina känsliga data med företag. Den nuvarande trenden är lokal AI. Med högpresterande VPS från Hiddence (särskilt våra Ryzen 9 och Intel Core i9-planer) kan du driva din egen underrättelsetjänst i molnet och hålla dina prompter och data 100% privata.

Hårdvarukrav

LLM:er behöver RAM och snabba CPU:er. Vi rekommenderar:

  • Minimum: 16GB RAM för 7B/8B-modeller (Llama 3, DeepSeek-7B)
  • Rekommenderat: 32GB+ RAM för större modeller eller högre kontext
  • CPU: Modern AMD Ryzen 9 eller Intel Core i9 för snabb inferens utan GPU

1. Installera Ollama

Ollama är det enklaste sättet att köra LLM:er på Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Ladda ner din modell

För kodning och allmänna uppgifter är DeepSeek-R1 en toppenpresterare. För allmän chatt är Llama 3 utmärkt.

bash
ollama pull deepseek-r1:8b
# ELLER
ollama pull llama3

3. Exponera via API (Säkert)

Ollama tillhandahåller ett OpenAI-kompatibelt API. Du kan tunnla det via SSH för att komma åt det säkert från din lokala maskin utan att exponera det för det öppna webben.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nu åtkomst http://localhost:11434 i dina lokala appar