بازگشت به وبلاگ
ژانویه 13, 2026راهنماها

اجرای مدل‌های هوش مصنوعی خصوصی در VPS: راهنمای DeepSeek و Llama

یاد بگیرید چگونه LLMهای قدرتمندی مانند DeepSeek-R1 و Llama 3 را روی VPS خود برای حفظ حریم خصوصی کامل داده‌ها اجرا کنید.

اجرای مدل‌های هوش مصنوعی خصوصی در VPS: راهنمای DeepSeek و Llama

هوش مصنوعی نحوه کار ما را تغییر می‌دهد، اما استفاده از مدل‌های مبتنی بر ابر مانند ChatGPT به معنای اشتراک‌گذاری داده‌های حساس شما با شرکت‌ها است. روند فعلی هوش مصنوعی محلی است. با VPS با عملکرد بالا از Hiddence (به ویژه طرح‌های Ryzen 9 و Intel Core i9 ما)، می‌توانید آژانس اطلاعاتی خود را در ابر اجرا کنید و درخواست‌ها و داده‌های خود را 100% خصوصی نگه دارید.

الزامات سخت‌افزاری

LLMها به RAM و CPUهای سریع نیاز دارند. ما توصیه می‌کنیم:

  • حداقل: 16 گیگابایت رم برای مدل‌های 7B/8B (Llama 3، DeepSeek-7B)
  • توصیه شده: 32 گیگابایت رم برای مدل‌های بزرگتر یا زمینه بالاتر
  • CPU: پردازنده‌های مدرن AMD Ryzen 9 یا Intel Core i9 برای استنتاج سریع بدون GPU

1. نصب Ollama

Ollama ساده‌ترین راه برای اجرای LLM در لینوکس است.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. دانلود مدل شما

برای کدنویسی و کارهای عمومی، DeepSeek-R1 عملکرد برتری دارد. برای چت عمومی، Llama 3 عالی است.

bash
ollama pull deepseek-r1:8b
# یا
ollama pull llama3

3. در معرض قرار دادن از طریق API (ایمن)

Ollama یک API سازگار با OpenAI ارائه می‌دهد. می‌توانید آن را از طریق SSH تونل کنید تا به طور ایمن از دستگاه محلی خود بدون در معرض قرار دادن آن در وب باز دسترسی داشته باشید.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# اکنون در برنامه‌های محلی خود به http://localhost:11434 دسترسی پیدا کنید