2026 Agent 大年:收藏这份小白程序员大模型开发指南,轻松入门智能体开发!

张开发
2026/4/16 11:30:09 15 分钟阅读

分享文章

2026 Agent 大年:收藏这份小白程序员大模型开发指南,轻松入门智能体开发!
本文深入浅出地介绍了 AI Agent 的概念及其在大模型开发中的应用。首先Agent 作为行动者能主动感知环境、做出决策并执行任务这与传统大模型的被动应答形成鲜明对比。文章以旅游规划助手为例详细阐述了如何通过大模型结合系统提示词和函数调用实现 Agent 的自主任务完成。同时还探讨了 Function Calling 如何规范智能体开发并介绍了记忆能力在 Agent 中的实现方式包括上下文记忆、滑动窗口记忆、摘要记忆和向量记忆等。最后文章展示了如何整合短期和长期记忆构建一个能持续对话的智能体。对于想要入门大模型开发的小白程序员来说本文提供了宝贵的参考和指导。1、什么是 Agent2025 年被称作 AI Agent 元年到了 2026 年更是直接被定义为 Agent 大年。就像最近火出圈的 OpenClaw本身就是一个 Agent。眼下各式各样的 Agent 正在不断涌现未来很可能彻底改变我们工作和生活的方式。也正因如此Agent 这个词出现的频率高到离谱可真要问一句 Agent 到底是个啥能说清楚的人没几个。Agent 这个词来源于拉丁语 agere原本的意思就是“去做、去行动”。从概念上来讲Agent 就是行动者是一个能主动做事、感知周围环境还能围绕目标自己行动的个体。放到 AI 领域里AI Agent 也就是智能体就是把这种“能行动的能力”给到 AI 系统。它不再是那种只会被动接指令、给答案的大模型而是一个能自己感知、自己做决定、自己动手执行的智能个体。简单来讲传统大模型的强项是“回答问题”而 Agent 的强项是“把任务做完”。它能明白你想要达成的目标自动把步骤拆开、规划好执行路径再调用各种工具一步一步把事情实打实做完不过最近我觉得最经典的还是这张图它把 Agent 是什么讲得更明白还隐约道出了它的发展规律这是一场 Workflow 复杂度的迁移是泛化能力极强的 Workflow也可以说是 Agentic Workflow弄懂这句话就懂了什么叫让 AI 自己干活。其实 Agent 本身也只是模型使用方式里的一种而已。2、怎么让 AI 真正做事现在我们常用的大模型比如 GPT、通义千问、DeepSeek 这些学了海量的公开知识推理和逻辑能力都很强。它们的核心运行逻辑就是接收我们输入的内容经过计算推理后直接输出一段结果给我们。拿 DeepSeek 官方的 API 调用举个例子import os from openai import OpenAI client OpenAI( api_keyos.environ.get(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com) response client.chat.completions.create( modeldeepseek-chat, messages[ {role: system, content: You are a helpful assistant}, {role: user, content: Hello}, ], streamFalse ) print(response.choices[0].message.content)从这段代码就能看出来模型接收的 messages 里包含系统提示和用户的问题模型最后只会输出一段文字 content然后就停止运行了也就是说大模型本身不会做任何实际操作它只会“告诉你该怎么做”不会“帮你动手做”。那要怎么才能让 AI 真正完成一项任务呢答案很简单给 AI 配上完成任务需要的各种能力。如果一件事没有 AI 也能完成那就说明我们已经有对应的工具或者函数了。接下来只需要把这些函数“告诉”AI再引导它在需要的时候选择合适的函数就行。下面我们就以开发一个旅游规划助手智能体为例详细讲讲怎么让 AI 真正动起来做事。3、开发 Agent我们通过做一个旅游规划助手智能体的案例一步步拆解让 AI 自主做事的全过程先设计功能和函数在接入 AI 之前首先要保证就算没有 AI用户也能自己完成旅游规划。所以我们得先设计好旅游助手的核心功能再写好对应的函数查询天气根据目的地获取未来几天的天气情况查询热门景点列出目的地的热门景点附带简介、门票等信息查询酒店根据目的地和入住日期推荐附近酒店及价格查询公交路线规划两个地点之间的公共交通路线没有 AI 的时候用户得自己一步步操作先查天气定出行时间再查景点挑想去的地方接着查附近酒店最后查景点和酒店之间的交通路线。靠这些工具用户完全能自己做行程规划就是步骤太麻烦了。让 AI 接手整个规划流程我们想要的效果是只说一句“帮我规划下周去北京的行程”AI 就能自动调用上面这些函数拿到信息后生成一份完整的旅游计划。要实现这个效果关键就在系统提示词。我们需要在提示词里告诉 AI 这几件事它的身份和要完成的任务、它能使用哪些工具也就是对应的函数 、要用什么样的结构化格式比如 JSON告诉我们它想调用哪个工具、以及判断收集到的信息够不够用这里顺便问一句为什么要用 JSON 格式呢AI 模型本身输出的是自然语言文本要让程序能看懂 AI 的想法再去执行对应的函数就需要 AI 用结构化的数据格式比如 JSON输出它的决策。我们解析完 JSON 之后就知道该调用哪个函数、传什么参数。其实用不用 JSON 无所谓就算用 XML 也可以只要模型容易理解、程序方便解析就行。系统提示词案例下面是给旅游规划助手写的系统提示词案例明确要求 AI 返回结果时用 JSON 格式JSON 里要包含这些字段action动作类型分为 call_tool调用工具和 respond直接回答用户tool当 action 是 call_tool 时填写要调用的工具名称比如 get_weatherparameters调用工具需要的参数用键值对形式呈现isSufficient判断当前信息是否足够完成需求true 代表可以直接回答false 代表还需要继续查信息message当 action 是 respond 时填写要输出的自然语言回答你是一位专业的旅游规划助手。你的目标是根据用户的需求提供详尽、合理的旅游行程建议。 你有以下工具可以使用每个工具都有对应的名称和参数。 get_weather(目的地, 日期) - 查询目的地天气预报。 get_attractions(目的地) - 查询热门景点列表含简介、门票、开放时间。 get_hotels(目的地, 入住日期, 退房日期) - 查询推荐酒店及价格。 get_route(起点, 终点) - 查询公共交通路线。 你必须输出一个 JSON 对象不得包含其他任何文本。JSON 对象应包含以下字段 action: 字符串值为 call_tool 或 respond。 tool: 当 action 为 call_tool 时此处填写要调用的工具名称如 get_weather否则留空。 parameters: 当 action 为 call_tool 时此处填写调用工具所需的参数对象例如 {目的地: 北京, 日期: 2025-03-15}否则为空对象。 isSufficient: 表示当前收集到的信息是否足够完成用户的需求。如果为 true则下一步应直接回答用户如果为 false则还需继续调用工具获取更多信息。 message: 当 action 为 respond 时此处填写你要对用户说的自然语言回答否则留空。 工作流程 1. 你需要理解用户的请求提取关键信息。 2. 如果需要调用工具获取信息你需要将action的值设置成call_tool同时设置 parameters 的值并将 isSufficient 设为 false。 3. 当你已经获得足够信息可以回答用户的问题你需要将action设置为respond在 message 中给出完整的旅游规划建议并将 isSufficient 设为 true。说到这Agent 的本质也就出来了其实就是靠循环实现的循环调用把用户的问题和系统提示词一起发给 AIAI 经过推理后会按照提示词约定的格式输出内容。我们需要在代码里解析这个 JSON拿到参数后做后续处理。当 action 的值是 call_tool 时就根据 tool 和 parameters 调用对应的函数拿到结果后把结果当成新消息加入对话再重新请求模型。当 action 的值是 respond 时就把 message 展示给用户结束整个对话下面是一段简化的 Python 伪代码示例import json import openai def get_weather(destination, date): return f{destination} {date} 天气晴朗 def get_attractions(destination): return f{destination} 的热门景点有故宫、颐和园... # ... 其他函数 # 系统提示词如上 system_prompt ... messages [ {role: system, content: system_prompt}, {role: user, content: 帮我规划下周去北京的行程} ] client OpenAI( api_keyos.environ.get(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com) while True: response client.chat.completions.create( modeldeepseek-chat, messagesmessages, streamFalse ) # 解析 JSON try: decision json.loads(response.choices[0].message.content) except: print(模型输出非 JSON错误处理...) break if decision[action] call_tool: tool_name decision[tool] params decision[parameters] # 调用对应工具 if tool_name get_weather: result get_weather(**params) elif tool_name get_attractions: result get_attractions(**params) # ... 其他工具 # 将工具结果加入对话 messages.append({role: tool, content: result, tool_call_id: tool_name}) # 继续循环 elif decision[action] respond: print(decision[message]) break看到这里一个简单的旅行助手智能体就做好了用户只需要说一句话它就能自主调用工具完成一整套旅游规划。回头看看我们用到的技术其实特别简单大模型作为核心的推理引擎系统提示词在里面定义好工具的功能和使用规则提前写好的函数提供实际做事的能力解析 JSON 的代码把模型的决策转成函数调用能看出来核心就是模型加工具。通过提示词告诉模型有哪些工具能用、工具名称和参数是什么、什么时候用模型就能自己规划并调用工具完成任务整个过程一点都不复杂。不过把所有工具的定义和说明都写在提示词里从工程角度来说并不美观提示词会变得特别长不好维护工具一多修改和版本管理就很麻烦模型的输出格式全靠提示词约束稳定性不够早在 2022 年论文《ReAct: Synergizing Reasoning and Acting in Language Models》就开始研究工程实现之后各大模型才陆续推出 Function Calling、Tools Calling 这类功能。GPT 的 Function Calling 也就是函数调用是专门为大模型设计的原生工具调用机制。我们可以用结构化的方式给模型注册工具模型会用标准格式返回调用请求省去了自己解析 JSON 的麻烦也让工具管理更清晰高效。接下来我们就详细讲讲 Function Calling看看它怎么让智能体开发变得更规范。4、Function CallingFunction Calling 最早是 OpenAI 在 2023 年 6 月 13 日在 API 更新里以标准化接口形式正式推出的。当时 OpenAI 发布了新版的 gpt-3.5-turbo 和 gpt-4 模型新增了 functions 参数。开发者可以描述可用的函数模型会智能判断要不要调用这些函数再返回符合函数格式的 JSON 对象。很快其他模型厂商比如 Anthropic Claude、Google Gemini、通义千问、DeepSeek 都跟进了这项功能Function Calling 也成了现代大模型的标配能力。我们来看看用 DeepSeek 的 function calling 做旅行规划助手代码会简洁很多。定义工具函数需要按照模型 API 要求的格式定义工具每个工具包含名称、描述和参数结构也就是 json schema。tools [ { type: function, function: { name: get_weather, description: 查询目的地的天气预报, parameters: { type: object, properties: { destination: { type: string, description: 目的地城市名称 }, date: { type: string, description: 查询日期格式为 YYYY-MM-DD如果不指定则返回未来几天的天气 } }, required: [destination] } } }, # 其他函数 也和get_weather 这个方法一样定义 这里我们省略 ]改写系统提示词模型支持 tools 参数后提示词里就不用详细写工具信息了只需要定义 AI 的角色和任务目标就行system_prompt 你是一位专业的旅游规划助手。 你的目标是根据用户的需求 调用可用的工具获取信息并整合成一份详尽的旅游行程建议。循环交互我们需要和模型循环交互如果模型返回需要调用工具程序就根据模型给的工具名称和参数执行代码把工具执行结果加到提示词里再继续请求模型如果模型说不用调用工具了就代表这是最终答案直接输出给用户就行。import openai import json # 初始化客户端DeepSeek API 兼容 OpenAI 格式 client openai.OpenAI( api_keyyour-deepseek-api-key, # 替换为你的 API Key base_urlhttps://api.deepseek.com ) # 工具的具体实现模拟数据 def get_weather(destination, dateNone): # 实际场景中应调用天气 API return f{destination} 的天气晴朗气温15-25℃适合出行。 # 其他方法省略... llm OpenAI( api_keyos.environ.get(DEEPSEEK_API_KEY), base_urlhttps://api.deepseek.com ) messages [ {role: system, content: 你是一个天气助手}, {role: user, content: input} ] # 第一步定义的标准格式 while True: result llm.chat.completions.create( messagesmessages, modeldeepseek-chat, streamFalse, toolstools) # 大模型输出的结果 有工具调用说明模型思考后 需要调用工具 if result.choices[0].message.tool_calls: tool_call result.choices[0].message.tool_calls[0] function_name tool_call.function.name function_args tool_call.function.arguments print(tool_call.id,function_name, function_args) messages.append({role: assistant, content: None, tool_calls: [{id: tool_call.id, type: function, function: {name: tool_call.function.name, arguments: tool_call.function.arguments}}]}) # 调用对应的函数 if function_name get_weather: result get_weather(function_args) elif function_name get_attractions: result get_attractions(function_args) elif function_name get_hotels: result get_hotels(function_args) elif function_name get_route: result get_route(function_args) else: result f未知工具: {function_name} messages.append({role: tool, content: result, tool_call_id: tool_call.id}) else: break我们用大模型加 Function Calling 的方式做出了一个能自主完成任务的旅行智能体。但这个智能体还不够完善它记不住对话历史。比如用户做完一次规划后接着问“帮我把早上的景点换成更有历史底蕴的”模型会一脸懵它根本不知道“早上的景点”指的是什么。因为每次模型调用都是独立的它只会根据当前输入的提示词生成答案不会主动回顾之前的记录。想让模型记住之前的内容不能指望模型自己查历史得在工程层面手动保存每一轮对话交互记录下次调用时把完整的对话历史包括用户问题、模型回复、工具调用结果等全都拼到提示词里当成上下文给模型。只有这样模型才能明白当前问题和之前对话的关联给出合理的回答毕竟模型能识别的只有提示词里的内容。那怎么给智能体加上记忆能力呢接下来我们就给旅行助手加上对话历史存储和管理功能让它真正能持续对话。5、记忆能力想让智能体真正实现持续对话核心是解决“记忆”问题。所谓记忆就是模型在当前输入之外能调用的所有信息。这些信息可能来自历史对话、外部存储或者系统内部状态核心目的只有一个给当前推理补充必要的上下文。搭建记忆能力需要解决三个核心问题记在哪里也就是存储机制用数据库还是内存怎么记住也就是写入策略区分短期记忆和长期记忆怎么想起也就是检索机制需要的时候怎么高效找到相关信息针对这些问题现在有多种记忆实现方式各有侧重适用场景也不同上下文记忆这是最基础的记忆方式实现也最简单把历史对话按时间顺序原封不动拼到当前提示词里一起发给模型。模型靠阅读完整对话历史保持语义连贯。优点实现成本低适合做原型测试或者短对话场景缺点受模型 Token 上限限制对话越长成本越高不支持跨会话或长期记忆本质属于短期、一次性的情景记忆滑动窗口记忆滑动窗口记忆是在上下文记忆基础上做的约束只保留最近固定轮数的对话更早的内容直接删掉。它主要是为了控制 Token 成本不是增强记忆能力。优点能有效控制提示词长度降低开销缺点关键信息一旦被滑出窗口就彻底没了适用场景上下文有效期明确、业务流程短的对话本质可以理解成对情景记忆的生命周期管理摘要记忆摘要记忆是让模型把历史对话压缩把大量情景信息提炼成一段简要描述后续对话用摘要代替原始内容。优点大幅减少 Token 消耗还能保留对话整体脉络缺点摘要过程一定会丢失信息质量全靠模型的总结能力适用场景需要保留整体脉络、对细节精度要求不高的场景本质把情景记忆转成低精度的语义记忆向量记忆向量记忆属于长期记忆方式。把用户对话、偏好、经验知识转成向量存在向量数据库里用户提问时把问题也转成向量在数据库里找语义相似的内容。优点不受对话长度限制支持跨会话长期记忆能按语义匹配相关信息缺点检索结果是语义相似而非精确匹配实现复杂度高适用场景需要长期积累知识、提供个性化服务的智能体本质目前 Agent 系统里最常用的语义记忆工程实现 这几种记忆方式不是只能用一种实际使用中经常组合。比如用滑动窗口存短期上下文向量记忆存长期用户偏好再搭配摘要记忆定期压缩历史。6、记忆系统的实现考虑到难度和阅读体验这里只用伪代码演示想让智能体拥有记忆能力需要设计一个记忆管理系统分为短期记忆和长期记忆两部分。下面是简化版伪代码展示怎么保存和查询记忆再把结果拼到提示词里。短期记忆短期记忆说白了就是记住用户刚说过的话但不能无限记毕竟大模型的上下文窗口有限塞太多不仅贵还会让模型混乱。最常用的方法就是滑动窗口只保留最近 N 轮对话超出的直接丢弃。为什么留最近几轮因为用户刚聊的内容和当前问题关联性最强更早的内容交给长期记忆处理就行。代码实现上用 Python 自带的 collections.deque 设置最大长度新消息进来会自动把旧消息挤出去很方便from collections import deque class ShortTermMemory: def __init__(self, max_messages20): 初始化短期记忆。 :param max_messages: 最多保留的消息条数而非对话轮数。每条消息对应一个 roleuser/assistant/tool。 self.messages deque(maxlenmax_messages) def add(self, message: dict): 添加一条消息到短期记忆。message 格式需符合 OpenAI 消息格式。 self.messages.append(message) def get_all(self) - list: 返回当前短期记忆中所有消息按时间顺序。 return list(self.messages) def clear(self): self.messages.clear()长期记忆长期记忆用来存需要跨会话保留的信息比如用户的旅行偏好、之前聊过的目的地、历史规划里的特殊要求等。这些信息不能用滑动窗口存时间久了、对话多了就会被清掉。长期记忆的经典实现是向量检索把文本转成向量存进向量数据库需要回忆时把当前问题也转成向量通过相似度找到最相关的历史内容。为什么用向量检索因为用户每次提问的说法都不一样关键词匹配必须内容一致才能搜到向量能捕捉语义相似性比关键词更智能。想让检索结果更靠谱可以搭配问题重写、BM25 关键字查询最后再用重排优化。下面的代码用 Python 列表模拟向量数据库的存储和查询实际项目可以换成 Chroma、FAISS、Pinecone 这些专业工具。embedding_model 可以用 sentence-transformers、OpenAI Embeddings、通义千问向量模型等。import numpy as np from typing import List, Dict class LongTermMemory: def __init__(self, embedding_model): self.embedding_model embedding_model self.vectors [] # 存储向量 self.texts [] # 存储原始文本 self.metadatas [] # 存储元数据如时间戳、重要性等 def _embed(self, text: str) - np.ndarray: return self.embedding_model.encode(text) def add(self, text: str, metadata: dict None): 将一段文本存入长期记忆。 vector self._embed(text) self.vectors.append(vector) self.texts.append(text) self.metadatas.append(metadata or {}) def query(self, query_text: str, top_k: int 3) - List[str]: 根据查询文本返回最相关的 top_k 条记忆文本。 if not self.vectors: return [] query_vec self._embed(query_text) # 计算余弦相似度 similarities [ np.dot(query_vec, v) / (np.linalg.norm(query_vec) * np.linalg.norm(v)) for v in self.vectors ] top_indices np.argsort(similarities)[-top_k:][::-1] return [self.texts[i] for i in top_indices]记忆管理器整合短期与长期记忆管理器专门负责管理记忆存储还提供构建最终提示词的方法。核心逻辑是从短期记忆里拿到最近的对话历史从长期记忆里检索和当前问题相关的背景知识把长期记忆当成系统提示的一部分短期记忆按顺序排列最后加上当前用户输入组成完整的 messages 列表class MemoryManager: def __init__(self, embedding_model, short_term_max_messages20, long_term_top_k3): self.short_term ShortTermMemory(max_messagesshort_term_max_messages) self.long_term LongTermMemory(embedding_model) self.long_term_top_k long_term_top_k def add_short_term(self, message: dict): self.short_term.add(message) def add_long_term(self, text: str, metadata: dict None): # 实际应用中可在此处进行重要性过滤 self.long_term.add(text, metadata) def build_messages(self, current_query: str, system_prompt_base: str ) - List[dict]: # 从长期记忆检索 long_memories self.long_term.query(current_query, top_kself.long_term_top_k) # 构建最终的系统提示 if long_memories: memory_context 以下是可能与当前问题相关的历史记忆\n \n.join(f- {mem}for mem in long_memories) system_content f{system_prompt_base}\n\n{memory_context} else: system_content system_prompt_base # 获取短期记忆中的最近消息 short_context self.short_term.get_all() # 将消息组合到一起 messages [{role: system, content: system_content}] messages.extend(short_context) messages.append({role: user, content: current_query}) return messages在对话循环中使用记忆管理器下面把记忆管理器集成到之前的旅行规划助手对话循环里关键改动有这些- 每次用户输入后用 build_messages() 构造带记忆的上下文- 每次模型回复后把用户消息和助手消息存进短期记忆- 在合适的时机比如用户明确说偏好、生成最终规划后把关键信息存进长期记忆memory MemoryManager(embedding_modelembedding_model) system_base 你是一位专业的旅游规划助手。你可以调用工具获取天气、景点、酒店和路线信息。 tools [...] # 同之前的 Function Calling 工具定义 while True: user_input input(用户) if user_input.lower() in (exit, quit): break # 构建带记忆的消息 messages memory.build_messages(user_input, system_prompt_basesystem_base) # 工具调用循环同之前 while True: response client.chat.completions.create( modeldeepseek-chat, messagesmessages, toolstools, tool_choiceauto ) assistant_msg response.choices[0].message messages.append(assistant_msg) if not assistant_msg.tool_calls: final_answer assistant_msg.content break for tool_call in assistant_msg.tool_calls: # 调用工具并追加结果代码略同前 # ... pass # 将本轮交互存入短期记忆 memory.add_short_term({role: user, content: user_input}) memory.add_short_term({role: assistant, content: final_answer}) # 判断是否需要存入长期记忆 # 示例如果用户明确说了偏好就存否则不存。这里简单演示实际可用模型判断。 if我喜欢in user_input or 偏好in user_input: memory.add_long_term(f用户偏好{user_input}, metadata{type: preference}) # 也可以将最终生成的旅游计划存入长期记忆 if规划in user_input and final_answer: memory.add_long_term(f旅游计划{final_answer}, metadata{type: plan}) print(f助手{final_answer})这段伪代码展示了记忆系统的核心架构大家可以根据实际业务需求选择合适的记忆存储和检索方案。最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。对于想入局大模型、抢占未来10年行业红利的程序员和小白来说现在正是最好的学习时机行业缺口大、大厂需求旺、薪资天花板高只要找准学习方向稳步提升技能就能轻松摆脱“低薪困境”抓住AI时代的职业机遇。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章