Private KI-Modelle auf VPS betreiben: DeepSeek & Llama Guide
Erfahren Sie, wie Sie leistungsstarke LLMs wie DeepSeek-R1 und Llama 3 auf Ihrem eigenen VPS für totale Datensicherheit betreiben.

KI verändert unsere Arbeitsweise, aber die Nutzung von Cloud-basierten Modellen wie ChatGPT bedeutet, dass Sie Ihre sensiblen Daten mit Unternehmen teilen. Der aktuelle Trend ist lokale KI. Mit Hochleistungs-VPS von Hiddence (insbesondere unseren Ryzen 9 und Intel Core i9 Plänen) können Sie Ihren eigenen Geheimdienst in der Cloud betreiben und Ihre Prompts und Daten zu 100% privat halten.
Hardware-Anforderungen
LLMs benötigen RAM und schnelle CPUs. Wir empfehlen:
- Minimum: 16GB RAM für 7B/8B Modelle (Llama 3, DeepSeek-7B)
- Empfohlen: 32GB+ RAM für größere Modelle oder höheren Kontext
- CPU: Moderner AMD Ryzen 9 oder Intel Core i9 für schnelle Inferenz ohne GPU
1. Ollama installieren
Ollama ist der einfachste Weg, LLMs unter Linux auszuführen.
curl -fsSL https://ollama.com/install.sh | sh2. Modell herunterladen
Für Coding und allgemeine Aufgaben ist DeepSeek-R1 ein Top-Performer. Für allgemeinen Chat ist Llama 3 exzellent.
ollama pull deepseek-r1:8b
# ODER
ollama pull llama33. Per API freigeben (Sicher)
Ollama bietet eine OpenAI-kompatible API. Sie können sie per SSH tunneln, um sicher von Ihrem lokalen Rechner darauf zuzugreifen, ohne sie dem offenen Web auszusetzen.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Jetzt auf http://localhost:11434 in Ihren lokalen Apps zugreifen