VPS Üzerinde Özel Yapay Zeka Modelleri Çalıştırma: DeepSeek ve Llama Rehberi
Tam veri gizliliği için DeepSeek-R1 ve Llama 3 gibi güçlü LLM'leri kendi VPS'inizde nasıl çalıştıracağınızı öğrenin.

Yapay zeka çalışma şeklimizi değiştiriyor ancak ChatGPT gibi bulut tabanlı modelleri kullanmak, hassas verilerinizi şirketlerle paylaşmak anlamına gelir. Mevcut trend Yerel Yapay Zeka'dır. Hiddence'ın yüksek performanslı VPS'leri ile (özellikle Ryzen 9 ve Intel Core i9 planlarımız), istemlerinizi ve verilerinizi %100 gizli tutarak bulutta kendi istihbarat teşkilatınızı yönetebilirsiniz.
Donanım Gereksinimleri
LLM'ler RAM ve hızlı işlemci gerektirir. Önerilerimiz:
- Minimum: 7B/8B modeller (Llama 3, DeepSeek-7B) için 16GB RAM
- Önerilen: Daha büyük modeller veya daha yüksek bağlam için 32GB+ RAM
- İşlemci: GPU olmadan hızlı çıkarım (inference) için modern AMD Ryzen 9 veya Intel Core i9
1. Ollama Kurulumu
Ollama, Linux üzerinde LLM çalıştırmanın en kolay yoludur.
curl -fsSL https://ollama.com/install.sh | sh2. Modelinizi İndirin
Kodlama ve genel görevler için DeepSeek-R1 en iyi performans gösterenlerden biridir. Genel sohbet için Llama 3 mükemmeldir.
ollama pull deepseek-r1:8b
# VEYA
ollama pull llama33. API Üzerinden Sunma (Güvenli)
Ollama, OpenAI uyumlu bir API sağlar. Açık web'e maruz bırakmadan yerel makinenizden güvenli bir şekilde erişmek için SSH üzerinden tünelleyebilirsiniz.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Şimdi yerel uygulamalarınızda http://localhost:11434 adresine erişin