Privačių AI modelių paleidimas VPS: DeepSeek & Llama vadovas
Sužinokite, kaip paleisti galingus LLM, tokius kaip DeepSeek-R1 ir Llama 3, savo VPS, kad užtikrintumėte visišką duomenų privatumą.

AI keičia mūsų darbo būdą, tačiau naudojant debesies pagrindu veikiančius modelius, tokius kaip ChatGPT, tenka dalytis jautriais duomenimis su korporacijomis. Dabartinė tendencija yra Vietinis AI. Su didelio našumo VPS iš Hiddence (ypač mūsų Ryzen 9 ir Intel Core i9 planais), galite valdyti savo žvalgybos agentūrą debesyje, išlaikydami savo užklausas ir duomenis 100% privačiais.
Techninės įrangos reikalavimai
LLM reikia RAM ir greitų procesorių. Rekomenduojame:
- Minimumas: 16GB RAM 7B/8B modeliams (Llama 3, DeepSeek-7B)
- Rekomenduojama: 32GB+ RAM didesniems modeliams ar didesniam kontekstui
- CPU: Modernus AMD Ryzen 9 arba Intel Core i9 greitam išvedimui be GPU
1. Įdiekite Ollama
Ollama yra paprasčiausias būdas paleisti LLM Linux sistemoje.
curl -fsSL https://ollama.com/install.sh | sh2. Atsisiųskite savo modelį
Kodavimui ir bendroms užduotims DeepSeek-R1 yra geriausias atlikėjas. Bendram pokalbiui Llama 3 yra puikus.
ollama pull deepseek-r1:8b
# ARBA
ollama pull llama33. Atskleiskite per API (Saugiai)
Ollama teikia OpenAI suderinamą API. Galite jį tuneliuoti per SSH, kad saugiai pasiektumėte jį iš savo vietinio kompiuterio, neatskleisdami atviram internetui.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Dabar pasiekite http://localhost:11434 savo vietinėse programose