返回博客
一月 13, 2026指南

在 VPS 上运行私有 AI 模型:DeepSeek 和 Llama 指南

了解如何在您自己的 VPS 上运行像 DeepSeek-R1 和 Llama 3 这样强大的 LLM,以实现完全的数据隐私。

在 VPS 上运行私有 AI 模型:DeepSeek 和 Llama 指南

AI 正在改变我们的工作方式,但使用像 ChatGPT 这样的云端模型意味着与公司共享您的敏感数据。当前的趋势是本地 AI。通过 Hiddence 的高性能 VPS(特别是我们的 Ryzen 9 和 Intel Core i9 计划),您可以在云中运行自己的情报机构,保持您的提示和数据 100% 私密。

硬件要求

LLM 需要 RAM 和快速的 CPU。我们建议:

  • 最低:16GB RAM 用于 7B/8B 模型 (Llama 3, DeepSeek-7B)
  • 推荐:32GB+ RAM 用于更大的模型或更高的上下文
  • CPU:现代 AMD Ryzen 9 或 Intel Core i9,用于在没有 GPU 的情况下进行快速推理

1. 安装 Ollama

Ollama 是在 Linux 上运行 LLM 最简单的方法。

bash
curl -fsSL https://ollama.com/install.sh | sh

2. 下载您的模型

对于编码和一般任务,DeepSeek-R1 是顶尖的表现者。对于一般聊天,Llama 3 非常出色。

bash
ollama pull deepseek-r1:8b
# 或者
ollama pull llama3

3. 通过 API 公开(安全地)

Ollama 提供了一个兼容 OpenAI 的 API。您可以通过 SSH 对其进行隧道传输,以便从本地机器安全访问,而无需将其暴露给公网。

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# 现在在本地应用中访问 http://localhost:11434