Executar modelos de IA privados no VPS: Guia DeepSeek e Llama
Saiba como executar LLMs poderosos como o DeepSeek-R1 e Llama 3 no seu próprio VPS para total privacidade de dados.

A IA está a transformar a forma como trabalhamos, mas usar modelos baseados na nuvem como o ChatGPT significa partilhar os seus dados sensíveis com corporações. A tendência atual é a IA Local. Com VPS de alto desempenho da Hiddence (especialmente os nossos planos Ryzen 9 e Intel Core i9), pode gerir a sua própria agência de inteligência na nuvem, mantendo as suas solicitações e dados 100% privados.
Requisitos de hardware
Os LLMs precisam de RAM e CPUs rápidos. Recomendamos:
- Mínimo: 16GB RAM para modelos 7B/8B (Llama 3, DeepSeek-7B)
- Recomendado: 32GB+ RAM para modelos maiores ou contexto mais elevado
- CPU: Moderno AMD Ryzen 9 ou Intel Core i9 para inferência rápida sem GPU
1. Instalar o Ollama
O Ollama é a forma mais fácil de executar LLMs no Linux.
curl -fsSL https://ollama.com/install.sh | sh2. Descarregar o seu modelo
Para programação e tarefas gerais, o DeepSeek-R1 é um excelente executante. Para chat geral, o Llama 3 é excelente.
ollama pull deepseek-r1:8b
# OU
ollama pull llama33. Expor via API (de forma segura)
O Ollama fornece uma API compatível com OpenAI. Pode tunelizá-la via SSH para lhe aceder de forma segura a partir da sua máquina local sem a expor à web aberta.
ssh -L 11434:localhost:11434 root@your-vps-ip
# Agora aceda a http://localhost:11434 nas suas apps locais