Voltar ao blog
Janeiro 13, 2026Guias

Executar modelos de IA privados no VPS: Guia DeepSeek e Llama

Saiba como executar LLMs poderosos como o DeepSeek-R1 e Llama 3 no seu próprio VPS para total privacidade de dados.

Executar modelos de IA privados no VPS: Guia DeepSeek e Llama

A IA está transformando a forma como trabalhamos, mas usar modelos baseados na nuvem como o ChatGPT significa compartilhar seus dados sensíveis com corporações. A tendência atual é a IA Local. Com VPS de alto desempenho da Hiddence (especialmente os nossos planos Ryzen 9 e Intel Core i9), você pode gerir sua própria agência de inteligência na nuvem, mantendo as suas solicitações e dados 100% privados.

Requisitos de hardware

Os LLMs precisam de RAM e CPUs rápidos. Recomendamos:

  • Mínimo: 16GB RAM para modelos 7B/8B (Llama 3, DeepSeek-7B)
  • Recomendado: 32GB+ RAM para modelos maiores ou contexto mais elevado
  • CPU: Moderno AMD Ryzen 9 ou Intel Core i9 para inferência rápida sem GPU

1. Instalar o Ollama

O Ollama é a forma mais fácil de executar LLMs no Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. Baixar o seu modelo

Para programação e tarefas gerais, o DeepSeek-R1 é um excelente executante. Para chat geral, o Llama 3 é excelente.

bash
ollama pull deepseek-r1:8b
# OU
ollama pull llama3

3. Expor via API (de forma segura)

O Ollama fornece uma API compatível com OpenAI. Você pode tunelizá-la via SSH para lhe aceder de forma segura a partir da sua máquina local sem a expor à web aberta.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# Agora aceda a http://localhost:11434 nas suas apps locais