🦜 LangChain Core
ไลบรารีหลักสำหรับ LLMs, Chains, Prompts, Memory
Large Language Models (LLMs) คือโมเดล AI ขนาดใหญ่ที่ถูกฝึกมาจากข้อมูลข้อความจำนวนมหาศาล ทำให้สามารถเข้าใจและสร้างภาษามนุษย์ได้อย่างเป็นธรรมชาติ
| คุณสมบัติ | รายละเอียด |
|---|---|
| Text Generation | สร้างข้อความ, บทความ, โค้ด |
| Text Understanding | เข้าใจและวิเคราะห์ข้อความ |
| Translation | แปลภาษาได้หลายภาษา |
| Summarization | สรุปเนื้อหายาวๆ ให้กระชับ |
| Reasoning | คิดวิเคราะห์และให้เหตุผล |
เราต้องการจัดการ Prompts, เชื่อมต่อข้อมูล, สร้าง Workflow, และจัดการ Memory ซึ่ง LangChain ช่วยจัดการเรื่องเหล่านี้ให้ทั้งหมด
graph TD
User([User]) --> App[LangChain App]
subgraph LangChain Ecosystem
App --> Models[Model I/O]
App --> Data[Retrieval / Data]
App --> Chains[Chains / Agents]
App --> Mem[Memory]
end
Models --> LLM[LLM / Chat Model]
Data --> Source[(Data Sources)]
LangChain ไม่ได้มีแค่ Library Python แต่ยังมี:
graph TD
subgraph Ecosystem["LangChain Ecosystem"]
direction LR
Core["LangChain<br/>(Core)"]
Graph["LangGraph<br/>(Agents)"]
Smith["LangSmith<br/>(Monitor)"]
Serve["LangServe<br/>(Deploy)"]
end
Community["LangChain Community<br/>(Integrations, Tools, Vector Stores)"]
Core --> Community
Graph --> Community
Smith --> Community
Serve --> Community
🦜 LangChain Core
ไลบรารีหลักสำหรับ LLMs, Chains, Prompts, Memory
🕸️ LangGraph
สร้าง Multi-Agent workflows ที่ซับซ้อน
🔍 LangSmith
Debug, Monitor, และ Evaluate LLM applications
🚀 LangServe
Deploy LangChain chains เป็น REST API
คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน
from langchain_openai import ChatOpenAIfrom langchain_core.messages import HumanMessage, SystemMessage
# สร้าง Chat Modelchat = ChatOpenAI(model="gpt-4o-mini")
# ส่งข้อความmessages = [ SystemMessage(content="คุณเป็นผู้ช่วยที่เป็นมิตร ตอบเป็นภาษาไทย"), HumanMessage(content="LangChain คืออะไร?")]
response = chat.invoke(messages)print(response.content)คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน
from langchain_community.document_loaders import PyPDFLoaderfrom langchain_openai import OpenAIEmbeddingsfrom langchain_community.vectorstores import Chroma
# โหลดเอกสาร PDFloader = PyPDFLoader("company_report.pdf")docs = loader.load()
# สร้าง Vector Store สำหรับค้นหาvectorstore = Chroma.from_documents(docs, OpenAIEmbeddings())
# ค้นหาข้อมูลที่เกี่ยวข้องresults = vectorstore.similarity_search("รายได้ปีนี้เท่าไหร่?")คำอธิบาย: โค้ดตัวอย่างด้านล่างแสดงวิธีใช้งานด้วย Python ตามหัวข้อนี้แบบทีละขั้นตอน
from langchain_openai import ChatOpenAIfrom langchain.agents import create_agentfrom langchain_community.tools import DuckDuckGoSearchRun
# สร้าง Agent ที่ค้นหาข้อมูลจากอินเทอร์เน็ตได้llm = ChatOpenAI(model="gpt-4o-mini")search = DuckDuckGoSearchRun()
# Agent จะตัดสินใจเองว่าจะใช้เครื่องมือเมื่อจำเป็นagent = create_agent(model=llm, tools=[search])คำอธิบาย: แผนภาพด้านล่างสรุปโฟลว์การทำงานให้เห็นภาพรวมของหัวข้อนี้อย่างชัดเจน
graph TD
User([User]) --> App["Application Layer"]
App --> Chains["Chains / LCEL"]
App --> Memory["Memory"]
App --> Tools["Tools / Agents"]
Chains --> Provider["LLM Provider<br/>(OpenAI / Anthropic / Google)"]
Memory --> Provider
Tools --> Provider
เมื่อเรียนจบหนังสือเล่มนี้ คุณจะสามารถ: