Execució de models d'IA privats en un VPS: guia de DeepSeek i Llama
Apreneu a executar potents LLM com el DeepSeek-R1 i el Llama 3 al vostre propi VPS per a una privadesa total de les dades.

L'IA està transformant la nostra manera de treballar, però l'ús de models basats en el núvol com el ChatGPT significa compartir les vostres dades sensibles amb corporacions. La tendència actual és l'IA local. Amb els VPS d'alt rendiment de Hiddence (especialment els nostres plans Ryzen 9 i Intel Core i9), podeu tenir la vostra pròpia agència d'intel·ligència al núvol, mantenint els vostres indicadors i dades 100% privats.
Requisits de maquinari
Els LLM necessiten RAM i CPU ràpides. Recomanem:
- Mínim: 16 GB de RAM per a models 7B/8B (Llama 3, DeepSeek-7B)
- Recomanat: 32 GB+ de RAM per a models més grans o contextos més alts
- CPU: AMD Ryzen 9 o Intel Core i9 moderns per a una inferència ràpida sense GPU
1. Instal·leu l'Ollama
L'Ollama és la manera més fàcil d'executar LLM a Linux.
curl -fsSL https://ollama.com/install.sh | sh2. Descarregueu el vostre model
Per a la codificació i tasques generals, el DeepSeek-R1 és un dels millors. Per al xat general, el Llama 3 és excel·lent.
ollama pull deepseek-r1:8b
# O
ollama pull llama33. Exposeu-lo via API (de manera segura)
L'Ollama proporciona una API compatible amb OpenAI. Podeu fer-li un túnel via SSH per accedir-hi de manera segura des de la vostra màquina local sense exposar-lo a la web oberta.
ssh -L 11434:localhost:11434 root@la-vostra-ip-del-vps
# Ara accediu a http://localhost:11434 a les vostres aplicacions locals