LangChain 是连接大模型与实际应用的模块化框架,提供提示词管理、LCEL链式调用、RAG问答、对话记忆和Agent工具调用等标准化能力。

如果您希望快速构建基于大语言模型的应用,但面临提示词管理混乱、模型调用不统一、外部工具集成困难等问题,则可能是由于缺乏标准化的开发框架支撑。以下是 LangChain 的核心定位与基础使用方式:
一、LangChain 是连接大模型与实际应用的模块化框架
LangChain 并非一个独立的大语言模型,而是为大模型应用开发提供结构化组件的开源框架。它通过解耦模型调用、提示词编排、数据接入、记忆管理与工具协同等环节,使开发者能以声明式方式组合能力,避免重复造轮子。
1、安装 LangChain 核心库:pip install langchain-core langchain-openai langchain-community
2、配置环境变量,设置 OpenAI API 密钥:export OPENAI_API_KEY="your_api_key_here"
3、验证基础组件可用性:导入 ChatOpenAI 类并实例化一个聊天模型对象。
二、使用 LCEL 语法构建首个链式调用
LCEL(LangChain Expression Language)是 LangChain 推荐的声明式编程范式,支持通过管道运算符(|)将提示词、模型、解析器等组件无缝串联,形成可复用、可测试、可追踪的执行单元。
1、定义提示词模板:from langchain_core.prompts import ChatPromptTemplate
2、创建模板实例:prompt = ChatPromptTemplate.from_template("请用中文解释 {concept} 的技术原理")
3、加载模型:model = ChatOpenAI(model="gpt-4o", temperature=0.3)
4、指定输出解析器:parser = StrOutputParser()
5、组合为链:chain = prompt | model | parser
6、执行调用:chain.invoke({"concept": "RAG"})
三、接入本地文档实现 RAG 基础问答
RAG(检索增强生成)是 LangChain 最典型的应用场景之一。该方法通过将用户问题与向量化后的文档片段匹配,再将匹配结果注入提示词,从而提升大模型回答的准确性与事实依据。
1、加载本地文本文件:from langchain_community.document_loaders import TextLoader
2、读取文档:loader = TextLoader("knowledge.txt")
3、执行文本切分:from langchain_text_splitters import RecursiveCharacterTextSplitter
4、初始化切分器:splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
5、生成文档块列表:docs = splitter.split_documents(loader.load())
6、构建向量数据库:from langchain_openai import OpenAIEmbeddings
7、嵌入并存储:from langchain_community.vectorstores import FAISS
技术上面应用了三层结构,AJAX框架,URL重写等基础的开发。并用了动软的代码生成器及数据访问类,加进了一些自己用到的小功能,算是整理了一些自己的操作类。系统设计上面说不出用什么模式,大体设计是后台分两级分类,设置好一级之后,再设置二级并选择栏目类型,如内容,列表,上传文件,新窗口等。这样就可以生成无限多个二级分类,也就是网站栏目。对于扩展性来说,如果有新的需求可以直接加一个栏目类型并新加功能操作
8、创建向量库实例:vectorstore = FAISS.from_documents(docs, OpenAIEmbeddings())
9、配置检索器:retriever = vectorstore.as_retriever(search_kwargs={"k": 3})
10、构造 RAG 链:from langchain.chains import RetrievalQA
11、绑定模型与检索器:qa_chain = RetrievalQA.from_chain_type(llm=model, retriever=retriever, chain_type="stuff")
12、发起查询:qa_chain.invoke({"query": "LangChain 中 Memory 组件的作用是什么?"})
四、添加对话历史记忆实现多轮交互
默认情况下,大模型不具备上下文记忆能力。LangChain 提供了多种 Memory 组件,用于在链中自动维护和注入历史消息,从而支撑自然的多轮对话逻辑。
1、导入记忆模块:from langchain.memory import ConversationBufferMemory
2、初始化内存实例:memory = ConversationBufferMemory(memory_key="chat_history", return_messages=True)
3、将记忆注入提示词模板:prompt_with_memory = ChatPromptTemplate.from_messages([("system", "你是一个技术文档助手"), MessagesPlaceholder(variable_name="chat_history"), ("human", "{input}")])
4、组合带记忆的链:chain_with_memory = prompt_with_memory | model | parser
5、首次调用后,memory.save_context({"input": "什么是 LCEL?"}, {"output": "LCEL 是 LangChain 表达式语言..."})
6、后续调用时传入更新后的 chat_history:chain_with_memory.invoke({"input": "它和传统函数调用有什么区别?", "chat_history": memory.chat_memory.messages})
五、调用外部工具扩展模型能力
LangChain 的 Agent 模式允许模型根据用户请求动态选择并执行工具(如搜索、计算、数据库查询),突破纯文本生成的边界。工具需符合特定接口规范,并注册到 Agent 执行环境中。
1、定义一个简单工具函数:def get_current_time(): import datetime; return datetime.datetime.now().strftime("%Y-%m-%d %H:%M")
2、包装为 LangChain 工具:from langchain.tools import Tool
3、创建工具实例:time_tool = Tool(name="get_time", func=get_current_time, description="获取当前日期和时间")
4、导入 Agent 相关组件:from langchain.agents import initialize_agent, AgentType
5、初始化 Agent:agent = initialize_agent([time_tool], model, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
6、触发工具调用:agent.invoke({"input": "现在几点?"})









