اجرای مدلهای هوش مصنوعی خصوصی در VPS: راهنمای DeepSeek و Llama
یاد بگیرید چگونه LLMهای قدرتمندی مانند DeepSeek-R1 و Llama 3 را روی VPS خود برای حفظ حریم خصوصی کامل دادهها اجرا کنید.

هوش مصنوعی نحوه کار ما را تغییر میدهد، اما استفاده از مدلهای مبتنی بر ابر مانند ChatGPT به معنای اشتراکگذاری دادههای حساس شما با شرکتها است. روند فعلی هوش مصنوعی محلی است. با VPS با عملکرد بالا از Hiddence (به ویژه طرحهای Ryzen 9 و Intel Core i9 ما)، میتوانید آژانس اطلاعاتی خود را در ابر اجرا کنید و درخواستها و دادههای خود را 100% خصوصی نگه دارید.
الزامات سختافزاری
LLMها به RAM و CPUهای سریع نیاز دارند. ما توصیه میکنیم:
- حداقل: 16 گیگابایت رم برای مدلهای 7B/8B (Llama 3، DeepSeek-7B)
- توصیه شده: 32 گیگابایت رم برای مدلهای بزرگتر یا زمینه بالاتر
- CPU: پردازندههای مدرن AMD Ryzen 9 یا Intel Core i9 برای استنتاج سریع بدون GPU
1. نصب Ollama
Ollama سادهترین راه برای اجرای LLM در لینوکس است.
curl -fsSL https://ollama.com/install.sh | sh2. دانلود مدل شما
برای کدنویسی و کارهای عمومی، DeepSeek-R1 عملکرد برتری دارد. برای چت عمومی، Llama 3 عالی است.
ollama pull deepseek-r1:8b
# یا
ollama pull llama33. در معرض قرار دادن از طریق API (ایمن)
Ollama یک API سازگار با OpenAI ارائه میدهد. میتوانید آن را از طریق SSH تونل کنید تا به طور ایمن از دستگاه محلی خود بدون در معرض قرار دادن آن در وب باز دسترسی داشته باشید.
ssh -L 11434:localhost:11434 root@your-vps-ip
# اکنون در برنامههای محلی خود به http://localhost:11434 دسترسی پیدا کنید