Kembali ke blog
Januari 13, 2026Panduan

Menjalankan Model AI Pribadi di VPS: Panduan DeepSeek & Llama

Pelajari cara menjalankan LLM yang kuat seperti DeepSeek-R1 dan Llama 3 di VPS Anda sendiri untuk privasi data total.

Menjalankan Model AI Pribadi di VPS: Panduan DeepSeek & Llama

AI mengubah cara kita bekerja, tetapi menggunakan model berbasis cloud seperti ChatGPT berarti berbagi data sensitif Anda dengan perusahaan. Tren saat ini adalah AI Lokal. Dengan VPS berkinerja tinggi dari Hiddence (terutama paket Ryzen 9 dan Intel Core i9 kami), Anda dapat menjalankan agen intelijen Anda sendiri di cloud, menjaga permintaan dan data Anda 100% pribadi.

Persyaratan Perangkat Keras

LLM membutuhkan RAM dan CPU cepat. Kami menyarankan:

  • Minimum: 16GB RAM untuk model 7B/8B (Llama 3, DeepSeek-7B)
  • Disarankan: 32GB+ RAM untuk model yang lebih besar atau konteks yang lebih tinggi
  • CPU: AMD Ryzen 9 atau Intel Core i9 modern untuk inferensi cepat tanpa GPU

1. Instal Ollama

Ollama adalah cara termudah untuk menjalankan LLM di Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Unduh Model Anda

Untuk pengkodean dan tugas umum, DeepSeek-R1 adalah yang terbaik. Untuk obrolan umum, Llama 3 sangat baik.

bash
ollama pull deepseek-r1:8b
# ATAU
ollama pull llama3

3. Ekspos melalui API (Secara Aman)

Ollama menyediakan API yang kompatibel dengan OpenAI. Anda dapat menyalurkannya melalui SSH untuk mengaksesnya dengan aman dari mesin lokal Anda tanpa memaparkannya ke web terbuka.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Sekarang akses http://localhost:11434 di aplikasi lokal Anda