Menjalankan Model AI Pribadi di VPS: Panduan DeepSeek & Llama
Pelajari cara menjalankan LLM yang kuat seperti DeepSeek-R1 dan Llama 3 di VPS Anda sendiri untuk privasi data total.

AI mengubah cara kita bekerja, tetapi menggunakan model berbasis cloud seperti ChatGPT berarti berbagi data sensitif Anda dengan perusahaan. Tren saat ini adalah AI Lokal. Dengan VPS berkinerja tinggi dari Hiddence (terutama paket Ryzen 9 dan Intel Core i9 kami), Anda dapat menjalankan agen intelijen Anda sendiri di cloud, menjaga permintaan dan data Anda 100% pribadi.
Persyaratan Perangkat Keras
LLM membutuhkan RAM dan CPU cepat. Kami menyarankan:
- Minimum: 16GB RAM untuk model 7B/8B (Llama 3, DeepSeek-7B)
- Disarankan: 32GB+ RAM untuk model yang lebih besar atau konteks yang lebih tinggi
- CPU: AMD Ryzen 9 atau Intel Core i9 modern untuk inferensi cepat tanpa GPU
1. Instal Ollama
Ollama adalah cara termudah untuk menjalankan LLM di Linux.
curl -fsSL https://ollama.com/install.sh | sh2. Unduh Model Anda
Untuk pengkodean dan tugas umum, DeepSeek-R1 adalah yang terbaik. Untuk obrolan umum, Llama 3 sangat baik.
ollama pull deepseek-r1:8b
# ATAU
ollama pull llama33. Ekspos melalui API (Secara Aman)
Ollama menyediakan API yang kompatibel dengan OpenAI. Anda dapat menyalurkannya melalui SSH untuk mengaksesnya dengan aman dari mesin lokal Anda tanpa memaparkannya ke web terbuka.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Sekarang akses http://localhost:11434 di aplikasi lokal Anda