Tornar al blog
Gener 13, 2026Guies

Execució de models d'IA privats en un VPS: guia de DeepSeek i Llama

Apreneu a executar potents LLM com el DeepSeek-R1 i el Llama 3 al vostre propi VPS per a una privadesa total de les dades.

Execució de models d'IA privats en un VPS: guia de DeepSeek i Llama

L'IA està transformant la nostra manera de treballar, però l'ús de models basats en el núvol com el ChatGPT significa compartir les vostres dades sensibles amb corporacions. La tendència actual és l'IA local. Amb els VPS d'alt rendiment de Hiddence (especialment els nostres plans Ryzen 9 i Intel Core i9), podeu tenir la vostra pròpia agència d'intel·ligència al núvol, mantenint els vostres indicadors i dades 100% privats.

Requisits de maquinari

Els LLM necessiten RAM i CPU ràpides. Recomanem:

  • Mínim: 16 GB de RAM per a models 7B/8B (Llama 3, DeepSeek-7B)
  • Recomanat: 32 GB+ de RAM per a models més grans o contextos més alts
  • CPU: AMD Ryzen 9 o Intel Core i9 moderns per a una inferència ràpida sense GPU

1. Instal·leu l'Ollama

L'Ollama és la manera més fàcil d'executar LLM a Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Descarregueu el vostre model

Per a la codificació i tasques generals, el DeepSeek-R1 és un dels millors. Per al xat general, el Llama 3 és excel·lent.

bash
ollama pull deepseek-r1:8b
# O
ollama pull llama3

3. Exposeu-lo via API (de manera segura)

L'Ollama proporciona una API compatible amb OpenAI. Podeu fer-li un túnel via SSH per accedir-hi de manera segura des de la vostra màquina local sense exposar-lo a la web oberta.

bash
ssh -L 11434:localhost:11434 root@la-vostra-ip-del-vps
# Ara accediu a http://localhost:11434 a les vostres aplicacions locals