Köra privata AI-modeller på VPS: DeepSeek & Llama Guide
Lär dig hur du kör kraftfulla LLM:er som DeepSeek-R1 och Llama 3 på din egen VPS för total dataintegritet.

AI förändrar hur vi arbetar, men att använda molnbaserade modeller som ChatGPT innebär att dela dina känsliga data med företag. Den nuvarande trenden är lokal AI. Med högpresterande VPS från Hiddence (särskilt våra Ryzen 9 och Intel Core i9-planer) kan du driva din egen underrättelsetjänst i molnet och hålla dina prompter och data 100% privata.
Hårdvarukrav
LLM:er behöver RAM och snabba CPU:er. Vi rekommenderar:
- Minimum: 16GB RAM för 7B/8B-modeller (Llama 3, DeepSeek-7B)
- Rekommenderat: 32GB+ RAM för större modeller eller högre kontext
- CPU: Modern AMD Ryzen 9 eller Intel Core i9 för snabb inferens utan GPU
1. Installera Ollama
Ollama är det enklaste sättet att köra LLM:er på Linux.
curl -fsSL https://ollama.com/install.sh | sh2. Ladda ner din modell
För kodning och allmänna uppgifter är DeepSeek-R1 en toppenpresterare. För allmän chatt är Llama 3 utmärkt.
ollama pull deepseek-r1:8b
# ELLER
ollama pull llama33. Exponera via API (Säkert)
Ollama tillhandahåller ett OpenAI-kompatibelt API. Du kan tunnla det via SSH för att komma åt det säkert från din lokala maskin utan att exponera det för det öppna webben.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nu åtkomst http://localhost:11434 i dina lokala appar