เคยลองใช้ ChatGPT หรือ AI chatbot ไหนสักตัว แล้วถามเรื่องที่มันตอบผิดหรือบอกว่า “ฉันไม่มีข้อมูลหลังจากปี X” — คุณกำลังเจอกับข้อจำกัดคลาสสิกของ Large Language Model (LLM) นั่นคือมัน “จำได้แค่สิ่งที่ถูก train มา” เท่านั้น

แต่โลก Data มีคำตอบให้แล้วครับ และคำตอบนั้นชื่อว่า RAG

อะไรคือ RAG ?

RAG ย่อมาจาก Retrieval-Augmented Generation ซึ่งฟังดูซับซ้อน แต่แนวคิดของมันเรียบง่ายมาก

ลองนึกภาพว่าคุณต้องตอบคำถามในการสอบที่ “เปิดหนังสือได้” แทนที่จะต้องจำทุกอย่างในหัว คุณก็แค่เปิดหนังสือหาข้อมูลที่ถูกต้อง แล้วค่อยเขียนคำตอบออกมา

RAG ทำแบบเดียวกันกับ AI เลยครับ แทนที่จะให้ AI ตอบจากสิ่งที่ถูก train มาอย่างเดียว ระบบ RAG จะ

  1. รับคำถามจากผู้ใช้
  2. ดึง (Retrieve) ข้อมูลที่เกี่ยวข้องออกมาจากฐานข้อมูลหรือเอกสาร
  3. ส่งข้อมูลนั้นไปให้ LLM ใช้ประกอบการตอบ (Augment)
  4. สร้างคำตอบ (Generate) ที่แม่นยำและอ้างอิงได้

ง่ายมั้ยครับ? แต่เบื้องหลังของมันน่าสนใจกว่านั้นเยอะเลย

Vector Database : พระเอกที่ซ่อนอยู่หลังฉาก

ส่วนที่ทำให้ RAG ทำงานได้จริงคือสิ่งที่เรียกว่า Vector Database ครับ

ปกติเวลาเราเก็บข้อมูลในฐานข้อมูลทั่วไป เราเก็บเป็น row และ column ใช่มั้ยครับ? แต่ AI ไม่ได้อ่านข้อมูลแบบนั้น — มันอ่านข้อมูลในรูปแบบของ “embedding” ซึ่งก็คือตัวเลข (Vector) ที่แทนความหมายของข้อความ

พูดง่าย ๆ คือ ประโยค “แมวชอบนอน” กับ “แมวมักจะง่วงนอนตลอดเวลา” จะมี Vector ที่ใกล้เคียงกัน เพราะมีความหมายคล้ายกัน แม้จะใช้คำต่างกัน

Vector Database เช่น Pinecone, Weaviate, หรือ Chroma จะเก็บ embedding เหล่านี้ และสามารถค้นหาข้อมูลที่ “มีความหมายใกล้เคียง” กับคำถามของผู้ใช้ได้อย่างรวดเร็ว

นี่แหละคือเหตุผลที่ RAG ฉลาดกว่าการ search คีย์เวิร์ดธรรมดา เพราะมันเข้าใจ “ความหมาย” ไม่ใช่แค่ตัวอักษร

ทำไม RAG ถึงสำคัญมากในโลก Data ?

ใน Production จริง ๆ บริษัทส่วนใหญ่ไม่ได้อยากให้ AI ตอบจากความรู้ทั่วไปครับ พวกเขาอยากให้ AI ตอบจากข้อมูลของบริษัทพวกเขาเอง ไม่ว่าจะเป็น

  • เอกสาร Policy และ HR
  • ข้อมูลสินค้าในคลัง
  • รายงาน Financial ล่าสุด
  • Ticket จาก Customer Support
  • Contract ทางกฎหมาย

ถ้าไม่มี RAG คุณก็ต้อง fine-tune โมเดลใหม่ทุกครั้งที่ข้อมูลเปลี่ยน ซึ่งแพงและช้ามาก แต่ด้วย RAG คุณแค่อัพเดตฐานข้อมูล แล้วทุกอย่างก็ทันสมัยทันทีครับ

สถาปัตยกรรมของ RAG Pipeline

สำหรับคนที่อยู่ในสาย Data Engineer หรือ ML Engineer ลองมองดู RAG Pipeline แบบนี้ครับ

ขั้นตอนที่ 1 — Data Ingestion
นำเอกสารหรือข้อมูลดิบเข้ามาในระบบ อาจเป็น PDF, Word, CSV, หรือ Database ก็ได้

ขั้นตอนที่ 2 — Chunking
ตัดเอกสารออกเป็นชิ้นเล็ก ๆ (Chunk) เพื่อให้ง่ายต่อการค้นหาและไม่ยาวเกินไปสำหรับ Context Window ของ LLM

ขั้นตอนที่ 3 — Embedding
แปลงแต่ละ chunk ให้กลายเป็น Vector ด้วย Embedding Model เช่น OpenAI text-embedding-3 หรือ model open-source อย่าง sentence-transformers

ขั้นตอนที่ 4 — Indexing
เก็บ Vector เหล่านั้นลงใน Vector Database เพื่อให้สามารถค้นหาได้เร็ว

ขั้นตอนที่ 5 — Query & Retrieval
เมื่อผู้ใช้ถามคำถาม ระบบจะแปลงคำถามเป็น Vector แล้วหา chunk ที่ใกล้เคียงที่สุดใน database

ขั้นตอนที่ 6 — Generation
ส่ง chunk ที่ได้พร้อมคำถามไปให้ LLM สร้างคำตอบ

ฟังดูซับซ้อน แต่ถ้าคุณเคยทำ ETL pipeline มาก่อน ก็ไม่ต่างกันมากครับ แค่เปลี่ยนจาก SQL ไปเป็น Vectors นั่นเอง

ความท้าทายที่คนส่วนใหญ่ไม่บอกคุณ

RAG ไม่ได้สมบูรณ์แบบ 100% ครับ มีความท้าทายที่น่าสนใจอยู่หลายอย่าง

Chunking Strategy มีผลมาก — ถ้าตัด chunk ใหญ่เกินไป context ก็ยาวเกินไปสำหรับโมเดล ถ้าเล็กเกินไปก็อาจสูญเสียบริบทสำคัญ ต้องทดลองหาจุดสมดุล

Retrieval Quality ขึ้นอยู่กับ Embedding Model — ถ้าเลือก embedding model ที่ไม่เหมาะกับภาษาหรือ domain ก็จะ retrieve ข้อมูลที่ผิดมา

Hallucination ยังเกิดได้ — แม้จะมีข้อมูลที่ถูกต้อง แต่ LLM ยังอาจ “แต่งเติม” ข้อมูลขึ้นมาได้ ดังนั้นการ validate คำตอบยังจำเป็นอยู่

Latency — การ retrieve และ generate ใช้เวลา ถ้าต้องการ real-time response ต้องออกแบบ architecture ดี ๆ

RAG กับอนาคตของ Data Stack

สิ่งที่น่าตื่นเต้นมากกว่านั้นคือ RAG กำลังถูก integrate เข้ากับ Modern Data Stack ที่เราคุ้นเคยกันแล้วครับ

เช่น dbt + LLM ที่ทำให้ Business User ถาม Data ด้วยภาษาพูด แล้วได้ SQL query กลับมาโดยอัตโนมัติ หรือ Semantic Layer ที่ทำให้ RAG เข้าใจ business context ของ metric ต่าง ๆ ได้ดีขึ้น

พูดง่าย ๆ คือในอนาคต Data Engineer อาจต้องเรียนรู้วิธี build RAG pipeline ควบคู่ไปกับ Data Pipeline แบบเดิม เพราะมันกำลังกลายเป็นส่วนหนึ่งของ infrastructure ที่ขาดไม่ได้

และสำหรับ Data Analyst? แทนที่จะรอให้คนอื่นมาช่วย query ข้อมูล ในอนาคตผู้ใช้ทั่วไปก็อาจ “คุย” กับ Data Warehouse ได้โดยตรงผ่าน RAG-powered chatbot ครับ

สรุปสั้น ๆ

RAG ไม่ใช่แค่ buzzword ครับ มันคือสะพานที่เชื่อม LLM กับข้อมูลจริงของธุรกิจ และในฐานะคนทำงานด้าน Data ถ้าคุณเข้าใจ RAG คุณก็จะเข้าใจว่า AI จะถูก deploy จริง ๆ ในองค์กรยังไง

ถ้าอยากเริ่มต้น ลอง build RAG แบบง่าย ๆ ด้วย LangChain หรือ LlamaIndex ก็ได้ครับ ทั้งสองตัวมี tutorial เยอะมากและ community ก็แข็งแกร่ง

Data ไม่ได้แค่นั่งรอให้คนถาม SQL อีกต่อไปแล้ว — ตอนนี้มันพูดตอบกลับได้แล้วด้วย!


Leave a Reply

Your email address will not be published. Required fields are marked *

👨🏻‍💻 If outside is hot, Stay in and learn!

🎉 Type "Apr20" before purchasing!

get 20% off !

(Fastlane, Marvel, Big Bang, Rizz D-Sci, FODE)

April Only !