การรันโมเดล AI ส่วนตัวบน VPS: คู่มือ DeepSeek & Llama
เรียนรู้วิธีรัน LLM อันทรงพลังเช่น DeepSeek-R1 และ Llama 3 บน VPS ของคุณเองเพื่อความเป็นส่วนตัวของข้อมูลโดยสมบูรณ์

AI กำลังเปลี่ยนวิธีการทำงานของเรา แต่การใช้โมเดลบนคลาวด์เช่น ChatGPT หมายถึงการแบ่งปันข้อมูลที่ละเอียดอ่อนของคุณกับองค์กร แนวโน้มปัจจุบันคือ Local AI ด้วย VPS ประสิทธิภาพสูงจาก Hiddence (โดยเฉพาะแผน Ryzen 9 และ Intel Core i9 ของเรา) คุณสามารถรันหน่วยงานข่าวกรองของคุณเองบนคลาวด์ เก็บรักษา Prompt และข้อมูลของคุณให้เป็นส่วนตัว 100%
ความต้องการด้านฮาร์ดแวร์
LLM ต้องการ RAM และ CPU ที่รวดเร็ว เราแนะนำ:
- ขั้นต่ำ: 16GB RAM สำหรับโมเดล 7B/8B (Llama 3, DeepSeek-7B)
- แนะนำ: 32GB+ RAM สำหรับโมเดลที่ใหญ่ขึ้นหรือบริบทที่มากขึ้น
- CPU: Modern AMD Ryzen 9 หรือ Intel Core i9 สำหรับการอนุมานที่รวดเร็วโดยไม่ต้องใช้ GPU
1. ติดตั้ง Ollama
Ollama เป็นวิธีที่ง่ายที่สุดในการรัน LLM บน Linux
curl -fsSL https://ollama.com/install.sh | sh2. ดาวน์โหลดโมเดลของคุณ
สำหรับการเขียนโค้ดและงานทั่วไป DeepSeek-R1 เป็นผู้ที่มีประสิทธิภาพสูงสุด สำหรับการแชททั่วไป Llama 3 นั้นยอดเยี่ยม
ollama pull deepseek-r1:8b
# หรือ
ollama pull llama33. เปิดเผยผ่าน API (อย่างปลอดภัย)
Ollama ให้บริการ API ที่เข้ากันได้กับ OpenAI คุณสามารถอุโมงค์ผ่าน SSH เพื่อเข้าถึงได้อย่างปลอดภัยจากเครื่องภายในของคุณโดยไม่ต้องเปิดเผยต่อเว็บเปิด
ssh -L 11434:localhost:11434 root@your-vps-ip
# ตอนนี้เข้าถึง http://localhost:11434 ในแอปภายในของคุณ