Tagasi blogisse
Jaanuar 13, 2026Juhendid

Privaatsete tehisintellekti mudelite käitamine VPS-is: DeepSeek & Llama juhend

Õppige, kuidas käitada võimsaid LLM-e nagu DeepSeek-R1 ja Llama 3 oma VPS-is täieliku andmete privaatsuse tagamiseks.

Privaatsete tehisintellekti mudelite käitamine VPS-is: DeepSeek & Llama juhend

Tehisintellekt muudab meie tööviisi, kuid pilvepõhiste mudelite nagu ChatGPT kasutamine tähendab tundlike andmete jagamist korporatsioonidega. Praegune trend on Kohalik AI. Hiddence'i suure jõudlusega VPS-iga (eriti meie Ryzen 9 ja Intel Core i9 plaanid) saate käitada oma luureagentuuri pilves, hoides oma viipad ja andmed 100% privaatsena.

Riistvaranõuded

LLM-id vajavad RAM-i ja kiireid protsessoreid. Soovitame:

  • Miinimum: 16GB RAM 7B/8B mudelitele (Llama 3, DeepSeek-7B)
  • Soovitatav: 32GB+ RAM suuremate mudelite või suurema konteksti jaoks
  • CPU: Kaasaegne AMD Ryzen 9 või Intel Core i9 kiireks järeldamiseks ilma GPU-ta

1. Installige Ollama

Ollama on lihtsaim viis LLM-ide käitamiseks Linuxis.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Laadige alla oma mudel

Kodeerimiseks ja üldisteks ülesanneteks on DeepSeek-R1 tipptasemel. Üldiseks vestluseks on Llama 3 suurepärane.

bash
ollama pull deepseek-r1:8b
# VÕI
ollama pull llama3

3. Eksponeerige API kaudu (Turvaliselt)

Ollama pakub OpenAI-ühilduvat API-t. Saate seda tunneldada SSH kaudu, et pääseda sellele turvaliselt ligi oma kohalikust masinast ilma seda avatud veebi eksponeerimata.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nüüd pääsete ligi http://localhost:11434 oma kohalikes rakendustes