تشغيل نماذج الذكاء الاصطناعي الخاصة على VPS: دليل DeepSeek و Llama
تعرف على كيفية تشغيل نماذج لغوية كبيرة (LLMs) قوية مثل DeepSeek-R1 و Llama 3 على خادم VPS الخاص بك للحصول على خصوصية كاملة للبيانات.

يعمل الذكاء الاصطناعي على تغيير طريقة عملنا، ولكن استخدام النماذج القائمة على السحابة مثل ChatGPT يعني مشاركة بياناتك الحساسة مع الشركات. الاتجاه الحالي هو الذكاء الاصطناعي المحلي (Local AI). مع خوادم VPS عالية الأداء من Hiddence (خاصة خطط Ryzen 9 و Intel Core i9)، يمكنك تشغيل وكالة استخبارات خاصة بك في السحابة، مع الحفاظ على مطالباتك وبياناتك خاصة بنسبة 100%.
متطلبات الأجهزة
تحتاج النماذج اللغوية الكبيرة (LLMs) إلى ذاكرة وصول عشوائي (RAM) ومعالجات سريعة. نوصي بـ:
- الحد الأدنى: ذاكرة وصول عشوائي سعة 16 جيجابايت لنماذج 7B/8B (Llama 3, DeepSeek-7B)
- الموصى به: ذاكرة وصول عشوائي سعة 32 جيجابايت فما فوق للنماذج الأكبر أو السياق الأعلى
- المعالج: معالج AMD Ryzen 9 أو Intel Core i9 حديث للاستدلال السريع بدون وحدة معالجة رسومات (GPU)
1. تثبيت Ollama
Ollama هو أسهل طريقة لتشغيل النماذج اللغوية الكبيرة على Linux.
curl -fsSL https://ollama.com/install.sh | sh2. تحميل النموذج الخاص بك
بالنسبة للبرمجة والمهام العامة، يعد DeepSeek-R1 الأفضل أداءً. بالنسبة للدردشة العامة، يعد Llama 3 ممتازاً.
ollama pull deepseek-r1:8b
# أو
ollama pull llama33. العرض عبر API (بشكل آمن)
يوفر Ollama واجهة برمجة تطبيقات متوافقة مع OpenAI. يمكنك نفقها عبر SSH للوصول إليها بأمان من جهازك المحلي دون تعريضها للويب المفتوح.
ssh -L 11434:localhost:11434 root@your-vps-ip
# الآن يمكنك الوصول إلى http://localhost:11434 في تطبيقاتك المحلية