Pokretanje privatnih AI modela na VPS-u: Vodič za DeepSeek i Llama
Saznajte kako pokrenuti moćne LLM-ove kao što su DeepSeek-R1 i Llama 3 na vlastitom VPS-u za potpunu privatnost podataka.

AI transformira način na koji radimo, ali korištenje modela temeljenih na oblaku kao što je ChatGPT znači dijeljenje vaših osjetljivih podataka s korporacijama. Trenutni trend je Lokalni AI. S VPS-om visokih performansi iz Hiddencea (posebno naši Ryzen 9 i Intel Core i9 planovi), možete voditi vlastitu obavještajnu agenciju u oblaku, držeći svoje upute i podatke 100% privatnima.
Hardverski zahtjevi
LLM-ovi trebaju RAM i brze CPU-e. Preporučujemo:
- Minimum: 16GB RAM-a za 7B/8B modele (Llama 3, DeepSeek-7B)
- Preporučeno: 32GB+ RAM-a za veće modele ili veći kontekst
- CPU: Moderni AMD Ryzen 9 ili Intel Core i9 za brzo zaključivanje bez GPU-a
1. Instalirajte Ollama
Ollama je najlakši način za pokretanje LLM-ova na Linuxu.
curl -fsSL https://ollama.com/install.sh | sh2. Preuzmite svoj model
Za kodiranje i opće zadatke, DeepSeek-R1 je vrhunski izvođač. Za opći razgovor, Llama 3 je izvrsna.
ollama pull deepseek-r1:8b
# ILI
ollama pull llama33. Izložite putem API-ja (Sigurno)
Ollama pruža API kompatibilan s OpenAI-jem. Možete ga tunelirati putem SSH-a kako biste mu sigurno pristupili s vašeg lokalnog stroja bez izlaganja otvorenom webu.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Sada pristupite http://localhost:11434 u svojim lokalnim aplikacijama