กลับไปหน้าบล็อก
มกราคม 13, 2026คู่มือ

การรันโมเดล AI ส่วนตัวบน VPS: คู่มือ DeepSeek & Llama

เรียนรู้วิธีรัน LLM อันทรงพลังเช่น DeepSeek-R1 และ Llama 3 บน VPS ของคุณเองเพื่อความเป็นส่วนตัวของข้อมูลโดยสมบูรณ์

การรันโมเดล AI ส่วนตัวบน VPS: คู่มือ DeepSeek & Llama

AI กำลังเปลี่ยนวิธีการทำงานของเรา แต่การใช้โมเดลบนคลาวด์เช่น ChatGPT หมายถึงการแบ่งปันข้อมูลที่ละเอียดอ่อนของคุณกับองค์กร แนวโน้มปัจจุบันคือ Local AI ด้วย VPS ประสิทธิภาพสูงจาก Hiddence (โดยเฉพาะแผน Ryzen 9 และ Intel Core i9 ของเรา) คุณสามารถรันหน่วยงานข่าวกรองของคุณเองบนคลาวด์ เก็บรักษา Prompt และข้อมูลของคุณให้เป็นส่วนตัว 100%

ความต้องการด้านฮาร์ดแวร์

LLM ต้องการ RAM และ CPU ที่รวดเร็ว เราแนะนำ:

  • ขั้นต่ำ: 16GB RAM สำหรับโมเดล 7B/8B (Llama 3, DeepSeek-7B)
  • แนะนำ: 32GB+ RAM สำหรับโมเดลที่ใหญ่ขึ้นหรือบริบทที่มากขึ้น
  • CPU: Modern AMD Ryzen 9 หรือ Intel Core i9 สำหรับการอนุมานที่รวดเร็วโดยไม่ต้องใช้ GPU

1. ติดตั้ง Ollama

Ollama เป็นวิธีที่ง่ายที่สุดในการรัน LLM บน Linux

bash
curl -fsSL https://ollama.com/install.sh | sh

2. ดาวน์โหลดโมเดลของคุณ

สำหรับการเขียนโค้ดและงานทั่วไป DeepSeek-R1 เป็นผู้ที่มีประสิทธิภาพสูงสุด สำหรับการแชททั่วไป Llama 3 นั้นยอดเยี่ยม

bash
ollama pull deepseek-r1:8b
# หรือ
ollama pull llama3

3. เปิดเผยผ่าน API (อย่างปลอดภัย)

Ollama ให้บริการ API ที่เข้ากันได้กับ OpenAI คุณสามารถอุโมงค์ผ่าน SSH เพื่อเข้าถึงได้อย่างปลอดภัยจากเครื่องภายในของคุณโดยไม่ต้องเปิดเผยต่อเว็บเปิด

bash
ssh -L 11434:localhost:11434 root@your-vps-ip
# ตอนนี้เข้าถึง http://localhost:11434 ในแอปภายในของคุณ