Skip to content

บทที่ 1: แนะนำ LangChain และ Large Language Models

Large Language Models (LLMs) คืออะไร?

Section titled “Large Language Models (LLMs) คืออะไร?”

Large Language Models (LLMs) คือโมเดล AI ขนาดใหญ่ที่ถูกฝึกมาจากข้อมูลข้อความจำนวนมหาศาล ทำให้สามารถเข้าใจและสร้างภาษามนุษย์ได้อย่างเป็นธรรมชาติ

คุณสมบัติหลักของ LLMs

Section titled “คุณสมบัติหลักของ LLMs”
คุณสมบัติรายละเอียด
Text Generationสร้างข้อความ, บทความ, โค้ด
Text Understandingเข้าใจและวิเคราะห์ข้อความ
Translationแปลภาษาได้หลายภาษา
Summarizationสรุปเนื้อหายาวๆ ให้กระชับ
Reasoningคิดวิเคราะห์และให้เหตุผล

เราต้องการจัดการ Prompts, เชื่อมต่อข้อมูล, สร้าง Workflow, และจัดการ Memory ซึ่ง LangChain ช่วยจัดการเรื่องเหล่านี้ให้ทั้งหมด

graph TD
    User([User]) --> App[LangChain App]

    subgraph LangChain Ecosystem
        App --> Models[Model I/O]
        App --> Data[Retrieval / Data]
        App --> Chains[Chains / Agents]
        App --> Mem[Memory]
    end

    Models --> LLM[LLM / Chat Model]
    Data --> Source[(Data Sources)]

LangChain ไม่ได้มีแค่ Library Python แต่ยังมี:

graph TD
    subgraph Ecosystem["LangChain Ecosystem"]
        direction LR
        Core["LangChain<br/>(Core)"]
        Graph["LangGraph<br/>(Agents)"]
        Smith["LangSmith<br/>(Monitor)"]
        Serve["LangServe<br/>(Deploy)"]
    end

    Community["LangChain Community<br/>(Integrations, Tools, Vector Stores)"]
    Core --> Community
    Graph --> Community
    Smith --> Community
    Serve --> Community

🦜 LangChain Core

ไลบรารีหลักสำหรับ LLMs, Chains, Prompts, Memory

🕸️ LangGraph

สร้าง Multi-Agent workflows ที่ซับซ้อน

🔍 LangSmith

Debug, Monitor, และ Evaluate LLM applications

🚀 LangServe

Deploy LangChain chains เป็น REST API


LangChain ทำอะไรได้บ้าง?

Section titled “LangChain ทำอะไรได้บ้าง?”

1. สร้าง Chatbot อัจฉริยะ

Section titled “1. สร้าง Chatbot อัจฉริยะ”

คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage
# สร้าง Chat Model
chat = ChatOpenAI(model="gpt-4o-mini")
# ส่งข้อความ
messages = [
SystemMessage(content="คุณเป็นผู้ช่วยที่เป็นมิตร ตอบเป็นภาษาไทย"),
HumanMessage(content="LangChain คืออะไร?")
]
response = chat.invoke(messages)
print(response.content)

2. สร้างระบบ Q&A จากเอกสาร (RAG)

Section titled “2. สร้างระบบ Q&A จากเอกสาร (RAG)”

คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน

from langchain_community.document_loaders import PyPDFLoader
from langchain_openai import OpenAIEmbeddings
from langchain_community.vectorstores import Chroma
# โหลดเอกสาร PDF
loader = PyPDFLoader("company_report.pdf")
docs = loader.load()
# สร้าง Vector Store สำหรับค้นหา
vectorstore = Chroma.from_documents(docs, OpenAIEmbeddings())
# ค้นหาข้อมูลที่เกี่ยวข้อง
results = vectorstore.similarity_search("รายได้ปีนี้เท่าไหร่?")

คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน

from langchain_openai import ChatOpenAI
from langchain.agents import create_agent
from langchain_community.tools import DuckDuckGoSearchRun
# สร้าง Agent ที่ค้นหาข้อมูลจากอินเทอร์เน็ตได้
llm = ChatOpenAI(model="gpt-4o-mini")
search = DuckDuckGoSearchRun()
# Agent จะตัดสินใจเองว่าจะใช้เครื่องมือเมื่อจำเป็น
agent = create_agent(model=llm, tools=[search])

Architecture ของ LangChain Application

Section titled “Architecture ของ LangChain Application”

คำอธิบาย: แผนภาพด้านล่างสรุปโฟลว์การทำงานให้เห็นภาพรวมของหัวข้อนี้อย่างชัดเจน

graph TD
    User([User]) --> App["Application Layer"]
    App --> Chains["Chains / LCEL"]
    App --> Memory["Memory"]
    App --> Tools["Tools / Agents"]

    Chains --> Provider["LLM Provider<br/>(OpenAI / Anthropic / Google)"]
    Memory --> Provider
    Tools --> Provider

สิ่งที่คุณจะได้จากหนังสือเล่มนี้

Section titled “สิ่งที่คุณจะได้จากหนังสือเล่มนี้”

เมื่อเรียนจบหนังสือเล่มนี้ คุณจะสามารถ:

  • เข้าใจ หลักการทำงานของ LLMs และ LangChain
  • สร้าง Chatbot, RAG System, และ AI Agents
  • ออกแบบ Prompt Templates ที่มีประสิทธิภาพ
  • ใช้งาน LCEL เพื่อสร้าง workflow ที่ซับซ้อน
  • Deploy LangChain Application ขึ้น Production
  • Monitor และ Debug ด้วย LangSmith