العودة إلى المدونة
يناير 13, 2026الأدلة

تشغيل نماذج الذكاء الاصطناعي الخاصة على VPS: دليل DeepSeek و Llama

تعرف على كيفية تشغيل نماذج لغوية كبيرة (LLMs) قوية مثل DeepSeek-R1 و Llama 3 على خادم VPS الخاص بك للحصول على خصوصية كاملة للبيانات.

تشغيل نماذج الذكاء الاصطناعي الخاصة على VPS: دليل DeepSeek و Llama

يعمل الذكاء الاصطناعي على تغيير طريقة عملنا، ولكن استخدام النماذج القائمة على السحابة مثل ChatGPT يعني مشاركة بياناتك الحساسة مع الشركات. الاتجاه الحالي هو الذكاء الاصطناعي المحلي (Local AI). مع خوادم VPS عالية الأداء من Hiddence (خاصة خطط Ryzen 9 و Intel Core i9)، يمكنك تشغيل وكالة استخبارات خاصة بك في السحابة، مع الحفاظ على مطالباتك وبياناتك خاصة بنسبة 100%.

متطلبات الأجهزة

تحتاج النماذج اللغوية الكبيرة (LLMs) إلى ذاكرة وصول عشوائي (RAM) ومعالجات سريعة. نوصي بـ:

  • الحد الأدنى: ذاكرة وصول عشوائي سعة 16 جيجابايت لنماذج 7B/8B (Llama 3, DeepSeek-7B)
  • الموصى به: ذاكرة وصول عشوائي سعة 32 جيجابايت فما فوق للنماذج الأكبر أو السياق الأعلى
  • المعالج: معالج AMD Ryzen 9 أو Intel Core i9 حديث للاستدلال السريع بدون وحدة معالجة رسومات (GPU)

1. تثبيت Ollama

Ollama هو أسهل طريقة لتشغيل النماذج اللغوية الكبيرة على Linux.

bash
curl -fsSL https://ollama.com/install.sh | sh

2. تحميل النموذج الخاص بك

بالنسبة للبرمجة والمهام العامة، يعد DeepSeek-R1 الأفضل أداءً. بالنسبة للدردشة العامة، يعد Llama 3 ممتازاً.

bash
ollama pull deepseek-r1:8b
# أو
ollama pull llama3

3. العرض عبر API (بشكل آمن)

يوفر Ollama واجهة برمجة تطبيقات متوافقة مع OpenAI. يمكنك نفقها عبر SSH للوصول إليها بأمان من جهازك المحلي دون تعريضها للويب المفتوح.

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# الآن يمكنك الوصول إلى http://localhost:11434 في تطبيقاتك المحلية