26年一定是一个 Agent 大年我这边持续出系列文章帮助大家更好的落地 Agent今天的重点是程序员最常用的 Agent 框架 LangChain。只不过这东西可能由于 AI Coding 的成熟由给人看变成给 AI 看的。LangChain 既是一个开源的AI应用开发框架也是其背后同名公司LangChain的统称。该公司围绕AI应用开发构建了一套完整的产品矩阵包括广受欢迎的开源框架LangChain、用于构建复杂状态机的LangGraph以及企业级调试与监控平台LangSmith等。其中LangChain和LangGraph是社区中最活跃的两个开源项目。需要特别说明的是在LangChain 1.0版本之后这两个框架的定位发生了重要变化LangGraph 成为底层的智能体编排引擎专注于有状态、多轮、高度定制化的智能体流程控制而LangChain 则在此基础上演变为上层应用开发框架提供了更高阶的抽象、丰富的工具集成和便捷的智能体构建能力。简单来说LangChain 封装了 LangGraph 的复杂性让开发者能够快速搭建标准智能体而LangGraph 则为需要深度控制流程、自定义逻辑的场景提供了灵活的图式编程能力。对于大多数智能体应用比如本文将要构建的旅行智能助手LangChain 已足够胜任它简洁的API和开箱即用的组件能让我们更专注于业务逻辑本身注意1本文中的langchain 的版本1.0注意2案例很简单但一定要和前几篇文章对照阅读才知道Agent是什么才知道LangChain的意义unsetunset如何开发一个AgentunsetunsetPS有些老板不喜欢用Agent喜欢用智能体所以我尽量讲究老板们。在上文中我们说了开发智能体的核心其实就三件事模型 工具 记忆。模型负责核心的推理决策工具用来落地执行具体的业务操作记忆则负责留存历史对话给模型的推理提供足够的上下文支撑。接下来咱们就实操起来 看看怎么用 LangChain 实现模型调用、工具封装、会话记忆保存这些基础功能最终完整开发出一个能跑起来的 AI Agent。模型调用lagnchain 提供了很多标准的方法来调用各个厂商的模型官网给出了完成整的集成列表https://docs.langchain.com/oss/python/integrations/providers/overview可以进入官网。查看支持的模型厂商具体是如何使用。这里我们用deepseek举例这个是langchain 支持deepseek模型的集成包可以直接使用from langchain_deepseek import ChatDeepSeekmodel ChatDeepSeek( model..., temperature0, max_tokensNone, timeoutNone, max_retries2, api_keyos.getenv(DEEPSEEK_API_KEY), # other params...)其他模型提供商也有对应的集成包大家可以自行去官网寻找也可以使用 openAI的标准格式基本上所有模型都支持这种方式modelChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7通过上面的方法我们就能得到一个模型实例 model接下来就可以调用这个 model 实例使用invoke或者stream方法向模型发起请求并获取它的返回结果了model ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7 ) messages [ {role: system, content: 你是一个有用的助手。}, {role: user, content: 你是谁} ]result model.invoke(messages)print(result.content)# 流失输出result model.stream(messages)for chunk in result: print(chunk.content)声明工具在 LangChain 里定义工具函数特别简单用 tool 装饰器就能快速搞定 这也是最常用、最便捷的方式# 定义工具函数tooldef get_weather(destination, date): # 实际调用天气 API return f{destination} {date} 天气晴朗tooldef get_attractions(destination): return f{destination} 的热门景点有故宫、颐和园...# ... 其他函数模型调用工具的关键是靠工具名称和描述来判断该不该用这个工具。如果只是写个普通函数给 LangChain 用它会默认把函数名当工具名、函数的文档字符串当描述。但这种默认写法往往描述得不够精准模型很可能理解错工具用途导致调用出错。所以想让模型“精准识别、正确调用”工具最好的方式是显式定义给工具指定清晰的名称、详细的描述还要给每个参数也加上说明。推荐的做法就是用 tool 装饰器搭配 Annotated 和 Field 来补充这些详细的元数据让模型完全明白工具的作用和用法from langchain_core.tools import toolfrom typing import Annotatedfrom pydantic import Fieldtool(name_or_callableget_weather, description获取指定城市指定日期的天气信息)def get_weather( destination: Annotated[str, Field(description城市名称如西安)], date: Annotated[str, Field(description日期格式 YYYY-MM-DD如2025-05-20)]) - str: return f{destination} {date} 天气晴朗tool(name_or_callableget_attractions, description获取指定城市的景点推荐)def get_attractions( destination: Annotated[str, Field(description城市名称如北京)]) - str: # 实际开发中这里应调用景点 API return f{city} 的热门景点有故宫、颐和园、天坛。定义智能体在 LangChain 中开发一个智能体非常简单。框架提供了标准方法 create_agent所有智能体都可以通过该方法快速定义。我们只需要传入几个核心参数即可完成一个智能体的创建**模型**通过 LangChain 的模型调用接口得到的大模型实例。**工具**声明好的工具列表。下面是一个完整的示例演示如何创建一个最简单的智能体并使用它from langchain_openai import ChatOpenAIfrom langchain.agents import create_react_agentfrom langchain_core.tools import toolimport os# 定义工具假设已有 get_weather, get_attractions# 示例工具函数已在前文定义此处略# 初始化模型model ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7)# 工具列表tools [get_weather, get_attractions]# 创建智能体agent create_agent(modelmodel, toolstools)# 准备输入消息messages { messages: [ {role: system, content: 你是一个有用的助手。}, {role: user, content: 我想去北京玩能帮我看看天气和景点吗} ]}# 调用智能体result agent.invoke(messages)# 输出最终答案print(result[messages][-1].content)这样我们就完成了一个最简单的智能体。LangChain 的 create_agent 方法默认采用 ReAct 模式Reasoning Acting运行智能体其工作流程如下模型接收用户消息进行推理判断是否需要调用工具。如果需要工具模型输出工具调用指令框架自动执行对应工具并将结果作为新的消息添加到对话中。更新后的消息再次输入给模型重复上述步骤直到模型认为信息收集完毕给出最终答案。整个流程完全由框架自动管理开发者只需提供模型和工具即可获得一个具备自主决策能力的智能体。添加记忆上一节我们构建了一个能够调用工具的智能体它目前还没有记忆能力每次对话都是独立的无法记住之前的对话历史。为了让智能体具备多轮对话的能力LangChain 提供了完善的记忆Memory模块记忆分为两类短期记忆和长期记忆接下来我们一起使用langchain提供的方法来实现他们**短期记忆**通常指模型上下文窗口内的对话历史。由于大模型的上下文窗口有限我们无法将无限长的对话历史全部发送给模型。因此短期记忆通常采用“滑动窗口”或“摘要总结”的方式只保留最近的几轮对话或关键信息。在 LangChain中短期记忆的持久化是通过 Checkpointer 机制实现的。Checkpointer 机制在构建智能体时我们通常希望它能够记住之前的对话内容。LangGraph 通过 checkpointer 来保存每一轮交互后的状态StateCheckpointer:负责在每一步Step结束后将当前的状态包括消息历史、变量等保存起来。thread_id:当我们需要继续之前的对话时只需要提供相同的 thread_idCheckpointer 就会加载之前的状态从而实现“记忆”功能。InMemorySaver 是一个基于内存的检查点保存器**原理**它将状态数据保存在 Python 的字典内存中。**特点**速度快无需额外依赖如数据库。**局限性**程序重启后数据会丢失。因此仅适用于开发调试或不需要持久化的场景。**生产环境替代方案**在生产环境中通常会使用 PostgresSaver (基于 PostgreSQL) 或 SqliteSaver 等持久化方案以确保服务重启后记忆不丢失。from langgraph.checkpoint.memory import InMemorySaver# ...agent create_agent( # ... checkpointerInMemorySaver())# 调用时指定 thread_idconfig {configurable: {thread_id: 1}}result agent.invoke(inputmessages, configconfig)**长期记忆**为了解决上下文窗口的限制我们需要将历史对话持久化存储如数据库、向量库。在需要时通过检索算法如语义相似度搜索找到与当前问题最相关的历史记录注入到 Prompt 中。这也就是 RAG检索增强生成在记忆模块中的应用。下面我们以一个基于向量数据库的长期记忆实现为例向量化存储实现我们使用 Chroma 作为向量数据库配合 DashScope 的 Embedding 模型来实现记忆的存储与检索。首先我们需要初始化 Embedding 模型和向量数据库import osfrom langchain_community.embeddings import DashScopeEmbeddingsfrom langchain_chroma import Chromafrom langchain_core.documents import Document# 初始化向量模型embeddings DashScopeEmbeddings( modeltext-embedding-v4, dashscope_api_keyos.getenv(DASHSCOPE_API_KEY))# 初始化向量存储# persist_directory 指定数据持久化目录vectorstore Chroma( embedding_functionembeddings, persist_directory./chroma_db, collection_namechat_history)保存记忆当对话发生时我们需要将用户的输入和 AI 的回复保存下来。为了区分不同用户和会话我们在 metadata 中记录 user_id 和 session_iddef save_messages(messages: str, user_id: int, session_id: int): 保存用户输入和AI输出的会话记录 # 将对话内容封装为 Document 对象并添加元数据 doc Document( page_contentmessages, metadata{user_id: user_id, session_id: session_id} ) # 添加到向量数据库 vectorstore.add_documents([doc])检索记忆在进行新一轮对话前我们可以根据用户的输入Query在向量库中检索相关的历史记录作为上下文提供给模型。这里我们还支持根据 user_id 和 session_id 进行过滤确保只检索当前用户或会话的记忆def load_messages(query: str, user_id: int, session_id: int): 加载用户输入和AI输出的会话记录 # 构建过滤条件 filters [] if user_id: filters.append({user_id: user_id}) if session_id: filters.append({session_id: session_id}) if len(filters) 1: filter_dict {$and: filters} elif len(filters) 1: filter_dict filters[0] else: filter_dict None # 执行相似度搜索返回最相关的 top-k 记录 if filter_dict: docs vectorstore.similarity_search(queryquery, k3, filterfilter_dict) else: docs vectorstore.similarity_search(queryquery, k3) return docs这里就做好了长期记忆的保存和检索接下来让我们在智能体中增加消息的保存和检索。在短期记忆中可以在create_agent中 加入一个 checkpointerInMemorySaver()就可以实现短期记忆langchain就会将历史对话消息添加到提示词中那么我们如何把长期记忆添加到提示词中呢这里就不得不提到langchain的中间件Middleware了通过middleware添加长期记忆Middleware 提供了强大的生命周期钩子允许我们在模型调用前后、工具执行前后进行深度干预。中间件生命周期钩子我们需要自己定义一个中间件 add_long_memory 使用wrap_model_call在模型调用前 通过 load_messages 方法 查询 长期记忆 并将消息追加到messages中wrap_model_calldef add_long_memory(request: ModelRequest, handler: Callable[[ModelRequest], ModelResponse]) - ModelResponse: print(fModel call: {request}) message request.messages[-1] if message.type human: embedding_docs load_messages(message.content, config[configurable][user_id], config[configurable][session_id]) embedding_message \n.join([doc.page_content for doc in embedding_docs]) request.messages.append(ChatMessage(contentembedding_message, rolesystem)) return handler(request)现在我们可以给agent添加长期记忆了只需要在create_agent中 添加一个参数middleware[add_long_memory()]Agent就会在调用模型前 调用add_long_memory 方法 将load_messages 查询到的历史消息添加到提示词中。完整的智能体代码如下config: RunnableConfig {configurable: {thread_id: 1, user_id: 1, session_id: 1}} llm ChatOpenAI( modeldeepseek-chat, api_keyos.getenv(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com, temperature0.7 ) messages { messages: [ {role: system, content: 你是一个旅游规划助手。}, {role: user, content: user_message} ] } tools [get_weather, get_attractions] agent create_agent(llm, toolstools, middleware[add_long_memory()], checkpointerInMemorySaver()) result agent.invoke(inputmessages, configconfig) ai_message result[messages][-1].content save_messages(messagesuser_message ai_message, user_idconfig[configurable][user_id], session_idconfig[configurable][session_id])运行效果如下学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】