Privaatsete tehisintellekti mudelite käitamine VPS-is: DeepSeek & Llama juhend
Õppige, kuidas käitada võimsaid LLM-e nagu DeepSeek-R1 ja Llama 3 oma VPS-is täieliku andmete privaatsuse tagamiseks.

Tehisintellekt muudab meie tööviisi, kuid pilvepõhiste mudelite nagu ChatGPT kasutamine tähendab tundlike andmete jagamist korporatsioonidega. Praegune trend on Kohalik AI. Hiddence'i suure jõudlusega VPS-iga (eriti meie Ryzen 9 ja Intel Core i9 plaanid) saate käitada oma luureagentuuri pilves, hoides oma viipad ja andmed 100% privaatsena.
Riistvaranõuded
LLM-id vajavad RAM-i ja kiireid protsessoreid. Soovitame:
- Miinimum: 16GB RAM 7B/8B mudelitele (Llama 3, DeepSeek-7B)
- Soovitatav: 32GB+ RAM suuremate mudelite või suurema konteksti jaoks
- CPU: Kaasaegne AMD Ryzen 9 või Intel Core i9 kiireks järeldamiseks ilma GPU-ta
1. Installige Ollama
Ollama on lihtsaim viis LLM-ide käitamiseks Linuxis.
curl -fsSL https://ollama.com/install.sh | sh2. Laadige alla oma mudel
Kodeerimiseks ja üldisteks ülesanneteks on DeepSeek-R1 tipptasemel. Üldiseks vestluseks on Llama 3 suurepärane.
ollama pull deepseek-r1:8b
# VÕI
ollama pull llama33. Eksponeerige API kaudu (Turvaliselt)
Ollama pakub OpenAI-ühilduvat API-t. Saate seda tunneldada SSH kaudu, et pääseda sellele turvaliselt ligi oma kohalikust masinast ilma seda avatud veebi eksponeerimata.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Nüüd pääsete ligi http://localhost:11434 oma kohalikes rakendustes