Bloga dön
Ocak 13, 2026Rehberler

VPS Üzerinde Özel Yapay Zeka Modelleri Çalıştırma: DeepSeek ve Llama Rehberi

Tam veri gizliliği için DeepSeek-R1 ve Llama 3 gibi güçlü LLM'leri kendi VPS'inizde nasıl çalıştıracağınızı öğrenin.

VPS Üzerinde Özel Yapay Zeka Modelleri Çalıştırma: DeepSeek ve Llama Rehberi

Yapay zeka çalışma şeklimizi değiştiriyor ancak ChatGPT gibi bulut tabanlı modelleri kullanmak, hassas verilerinizi şirketlerle paylaşmak anlamına gelir. Mevcut trend Yerel Yapay Zeka'dır. Hiddence'ın yüksek performanslı VPS'leri ile (özellikle Ryzen 9 ve Intel Core i9 planlarımız), istemlerinizi ve verilerinizi %100 gizli tutarak bulutta kendi istihbarat teşkilatınızı yönetebilirsiniz.

Donanım Gereksinimleri

LLM'ler RAM ve hızlı işlemci gerektirir. Önerilerimiz:

  • Minimum: 7B/8B modeller (Llama 3, DeepSeek-7B) için 16GB RAM
  • Önerilen: Daha büyük modeller veya daha yüksek bağlam için 32GB+ RAM
  • İşlemci: GPU olmadan hızlı çıkarım (inference) için modern AMD Ryzen 9 veya Intel Core i9

1. Ollama Kurulumu

Ollama, Linux üzerinde LLM çalıştırmanın en kolay yoludur.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Modelinizi İndirin

Kodlama ve genel görevler için DeepSeek-R1 en iyi performans gösterenlerden biridir. Genel sohbet için Llama 3 mükemmeldir.

bash
ollama pull deepseek-r1:8b
# VEYA
ollama pull llama3

3. API Üzerinden Sunma (Güvenli)

Ollama, OpenAI uyumlu bir API sağlar. Açık web'e maruz bırakmadan yerel makinenizden güvenli bir şekilde erişmek için SSH üzerinden tünelleyebilirsiniz.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Şimdi yerel uygulamalarınızda http://localhost:11434 adresine erişin