Zurück zum Blog
Januar 13, 2026Anleitungen

Private KI-Modelle auf VPS betreiben: DeepSeek & Llama Guide

Erfahren Sie, wie Sie leistungsstarke LLMs wie DeepSeek-R1 und Llama 3 auf Ihrem eigenen VPS für totale Datensicherheit betreiben.

Private KI-Modelle auf VPS betreiben: DeepSeek & Llama Guide

KI verändert unsere Arbeitsweise, aber die Nutzung von Cloud-basierten Modellen wie ChatGPT bedeutet, dass Sie Ihre sensiblen Daten mit Unternehmen teilen. Der aktuelle Trend ist lokale KI. Mit Hochleistungs-VPS von Hiddence (insbesondere unseren Ryzen 9 und Intel Core i9 Plänen) können Sie Ihren eigenen Geheimdienst in der Cloud betreiben und Ihre Prompts und Daten zu 100% privat halten.

Hardware-Anforderungen

LLMs benötigen RAM und schnelle CPUs. Wir empfehlen:

  • Minimum: 16GB RAM für 7B/8B Modelle (Llama 3, DeepSeek-7B)
  • Empfohlen: 32GB+ RAM für größere Modelle oder höheren Kontext
  • CPU: Moderner AMD Ryzen 9 oder Intel Core i9 für schnelle Inferenz ohne GPU

1. Ollama installieren

Ollama ist der einfachste Weg, LLMs unter Linux auszuführen.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Modell herunterladen

Für Coding und allgemeine Aufgaben ist DeepSeek-R1 ein Top-Performer. Für allgemeinen Chat ist Llama 3 exzellent.

bash
ollama pull deepseek-r1:8b
# ODER
ollama pull llama3

3. Per API freigeben (Sicher)

Ollama bietet eine OpenAI-kompatible API. Sie können sie per SSH tunneln, um sicher von Ihrem lokalen Rechner darauf zuzugreifen, ohne sie dem offenen Web auszusetzen.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Jetzt auf http://localhost:11434 in Ihren lokalen Apps zugreifen