Natrag na blog
Siječanj 13, 2026Vodiči

Pokretanje privatnih AI modela na VPS-u: Vodič za DeepSeek i Llama

Saznajte kako pokrenuti moćne LLM-ove kao što su DeepSeek-R1 i Llama 3 na vlastitom VPS-u za potpunu privatnost podataka.

Pokretanje privatnih AI modela na VPS-u: Vodič za DeepSeek i Llama

AI transformira način na koji radimo, ali korištenje modela temeljenih na oblaku kao što je ChatGPT znači dijeljenje vaših osjetljivih podataka s korporacijama. Trenutni trend je Lokalni AI. S VPS-om visokih performansi iz Hiddencea (posebno naši Ryzen 9 i Intel Core i9 planovi), možete voditi vlastitu obavještajnu agenciju u oblaku, držeći svoje upute i podatke 100% privatnima.

Hardverski zahtjevi

LLM-ovi trebaju RAM i brze CPU-e. Preporučujemo:

  • Minimum: 16GB RAM-a za 7B/8B modele (Llama 3, DeepSeek-7B)
  • Preporučeno: 32GB+ RAM-a za veće modele ili veći kontekst
  • CPU: Moderni AMD Ryzen 9 ili Intel Core i9 za brzo zaključivanje bez GPU-a

1. Instalirajte Ollama

Ollama je najlakši način za pokretanje LLM-ova na Linuxu.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Preuzmite svoj model

Za kodiranje i opće zadatke, DeepSeek-R1 je vrhunski izvođač. Za opći razgovor, Llama 3 je izvrsna.

bash
ollama pull deepseek-r1:8b
# ILI
ollama pull llama3

3. Izložite putem API-ja (Sigurno)

Ollama pruža API kompatibilan s OpenAI-jem. Možete ga tunelirati putem SSH-a kako biste mu sigurno pristupili s vašeg lokalnog stroja bez izlaganja otvorenom webu.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Sada pristupite http://localhost:11434 u svojim lokalnim aplikacijama