Embedding算法入门到精通:拆解腾讯二面必考题,收藏这一篇就够了!

张开发
2026/4/16 6:13:14 15 分钟阅读

分享文章

Embedding算法入门到精通:拆解腾讯二面必考题,收藏这一篇就够了!
面试官RAG 里用的 Embedding 算法有哪些你了解过几代演进‍♂️我Embedding 算法我知道Word2Vec 嘛把词变成向量。面试官Word2Vec 是 2013 年的算法了它每个词只有一个固定向量「吃苹果」和「苹果手机」里的「苹果」向量完全一样多义词都处理不了你怎么拿它做语义检索‍♂️我那就用 BERT 呗BERT 能理解上下文效果肯定好。面试官BERT 做语义检索你每次查询都要把问题和所有候选文档拼在一起跑一遍 BERT百万级知识库跑百万次你的用户等得起吗SBERT 呢SimCSE 呢BGE 呢这些专门为检索设计的 Embedding 模型你一个都没听说过好吧Embedding 算法远不止 Word2Vec下面我把三代演进讲清楚。 简要回答Embedding 算法大致经历了三代演进。第一代是静态词向量以 Word2Vec 和 GloVe 为代表把每个词映射成固定向量但同一个词不管上下文是什么向量永远不变处理不了多义词。第二代是以 BERT 为代表的上下文相关向量同一个词在不同语境下有不同的向量表达能力大幅提升但 BERT 本身输出的是 token 级别的向量两个句子要比较相似度就必须拼在一起跑百万条文档就要跑百万次检索速度完全不可接受。第三代是以 SBERT、SimCSE、BGE 为代表的句子级对比学习 Embedding专门为「两段文本有多相似」这个任务优化能提前把所有文档向量算好存起来查询时只需算一次是 RAG 场景的标配。 详细解析为什么 Embedding 算法要一代代演进要理解各代算法的设计动机先想一个最简单的问题怎么让计算机理解「苹果手机怎么截图」和「iPhone 如何截屏」是同一个问题关键词匹配完全没用因为这两句话没有一个共同的词。早期 NLP 系统为了解决这个问题走向了「把词变成向量」这条路——向量空间里的距离代表语义距离这就是 Embedding 的核心出发点。你可能会想既然都是把文本变成向量搞一套方案不就行了为什么还要一代一代演进原因很简单每一代方案解决了一类问题的同时都暴露出了新的短板。第一代处理不了多义词第二代处理了多义词但在检索场景下慢得无法实用第三代才真正把「语义检索」这件事做到既能用又好用。理解了这个「每一代在补上一代的坑」的逻辑后面三代算法的设计思路就很好懂了。第一代静态词向量Word2Vec / GloVe / FastText先来看第一代算法。它们的核心思路非常朴素用一个词周围的词来预测这个词或者反过来用这个词来预测周围的词。通过大量文本训练语义相近的词自然就会在向量空间里被推到一起。Word2Vec是这一代最有影响力的代表2013 年 Google 提出。它有两种训练方式CBOW用周围词预测中心词和 Skip-gram用中心词预测周围词Skip-gram 在小数据集上效果更好是更常用的方式。训练完之后每个词对应一个固定的向量「国王 - 男人 女人 ≈ 女王」这个著名的类比就是用 Word2Vec 向量做到的当时整个 NLP 圈都为之兴奋。GloVeGlobal Vectors for Word Representation是斯坦福提出的思路和 Word2Vec 类似但更系统直接对整个语料库的词共现矩阵做分解对全局统计信息的利用更充分。实际效果和 Word2Vec 差不多很多场景两者可以互换。FastText是 Facebook 提出的改进解决了一个很实际的问题Word2Vec 处理不了「未登录词」也就是训练集里从没见过的词。你可能会觉得这有什么大不了的但在真实业务里新词、专有名词、网络流行语不断冒出来处理不了新词就意味着检索直接断链。FastText 的解法很巧妙——把词拆成字符级别的 n-gram 子词比如「苹果」会被拆成「苹」「果」「苹果」等子片段每个子片段有自己的向量一个词的向量是其子片段向量的平均。这样遇到没见过的新词只要子片段见过就还能估算出一个合理的向量。这一代算法的共同局限性是两个字静态。每个词只有一个固定向量不管上下文如何。「我吃了苹果」里的「苹果」和「苹果手机发布了」里的「苹果」向量完全相同。很多人以为 Word2Vec 已经理解了语义其实它只是记住了「哪些词经常一起出现」真正的语义理解还差得远。这个致命缺陷直接催生了第二代算法。第二代上下文相关向量ELMo / BERT理解了第一代「一个词永远只有一个向量」的局限第二代算法的改进方向就很明确了让词的向量随上下文动态变化同一个词在不同句子里有不同的向量表示。ELMo2018 年Allen NLP 提出用双向 LSTM 来建模同时从左往右和从右往左扫描句子把两个方向的隐藏状态拼起来作为词的上下文向量。ELMo 是第一个实用的上下文 Embedding当时在多个 NLP 任务上大幅刷新了成绩。BERT2018 年Google 提出用 Transformer 替代 LSTM引入了 Masked Language Model 预训练任务效果全面超越 ELMo成为 NLP 领域最重要的里程碑之一。BERT 用 [CLS] token 来表示整个句子同时看到前后文双向表达能力远超单向模型。但问题来了——BERT 这么强为什么 RAG 检索不用它很多人以为 BERT 效果好就万事大吉其实不是。BERT 有一个在检索场景下极其致命的缺陷要比较两个句子的相似度必须把两个句子拼在一起喂给 BERT让 [CLS] 来做判断。这意味着每次检索都要把查询和每一个候选 chunk 拼在一起跑 BERT百万条文档的知识库就要跑百万次。你可能觉得百万次也不算多吧别忘了 BERT 一次前向传播就要几十毫秒百万次就是好几个小时用户根本等不起。这个问题直接导致了第三代的诞生。第三代句子级对比学习 EmbeddingSBERT / SimCSE / BGE第二代 BERT 虽然语义理解能力强但「必须两两拼接」这个限制让它在检索场景下完全没法用这就引出了第三代的核心理念能不能让每个句子独立生成一个向量然后直接用余弦相似度来比较第三代专门针对「句子相似度」和「语义检索」这个任务优化是 RAG 系统的标配。SBERTSentence-BERT2019 年就是用这个思路解决了 BERT 在检索场景下用不了的问题。它用 bi-encoder 结构两个句子分别独立过 BERT各自得到一个句子级向量然后只用余弦相似度来衡量两个向量的距离。你可能会问这样精度不会下降吗确实会因为两个句子不再交互了模型看不到它们之间的细微关联。但换来的是速度提升了几个数量级——知识库里所有文档的向量可以提前算好存起来每次检索时只需要算一次查询向量然后做余弦相似度就行毫秒级返回。在 RAG 这种「速度优先」的场景里这个取舍完全值得。from sentence_transformers import SentenceTransformermodel SentenceTransformer(all-MiniLM-L6-v2)# 查询和文档分别独立编码不需要拼在一起query 苹果手机怎么截图doc iPhone 截屏方法query_vec model.encode(query) # 检索时实时算doc_vec model.encode(doc) # 提前算好存向量库# 余弦相似度衡量语义距离from sklearn.metrics.pairwise import cosine_similarityscore cosine_similarity([query_vec], [doc_vec])SimCSE2021 年普林斯顿提出进一步提升了句子 Embedding 的质量。核心思路是对比学习把同一句话做两次 dropout 得到两个不同的向量把这两个向量作为正样本对让模型学会把它们拉近同时把同一个 batch 里其他句子的向量作为负样本把它们推远。这个方法训练非常简单不需要人工标注但效果很好。它解决了一个很多人不知道的问题BERT 原生的句子向量存在「各向异性」也就是说向量分布是扭曲的都挤在一个窄小的锥形区域里没有充分利用向量空间。SimCSE 通过对比学习把向量「撑开」了让语义空间变得更均匀。BGEBAAI General Embedding北京智源研究院是目前中文 RAG 场景最常用的开源模型基于对比学习在大规模中英文数据上训练同时支持 bi-encoder 和 reranker 两种形态专门为检索场景优化实测中文语义检索效果超过 OpenAI 的 text-embedding 系列。E5微软是另一个常用的英文对比学习 Embedding效果同样优秀。理解了这三代用一张表来总结它们的演进逻辑世代代表模型核心特点主要局限RAG 适用性第一代Word2Vec、GloVe、FastText词级静态向量无法处理多义词词级非句子级不适用第二代ELMo、BERT上下文动态向量检索时需两两拼接速度极慢不适用于实时检索第三代SBERT、SimCSE、BGE、E5句子级 bi-encoder对比学习精度低于 cross-encoder标配性能和精度平衡最优RAG 场景下基本只考虑第三代模型中文场景首选 BGE英文场景 E5 或 text-embedding-3-small 都是不错的选择。 面试总结回到开头那段面试Embedding 算法这个问题考察的是你对检索层技术的理解深度。回答时要按三代演进的逻辑来讲。第一代静态词向量Word2Vec/GloVe解决了「词变向量」的问题但处理不了多义词。第二代上下文向量BERT解决了多义词的问题但检索时要两两拼接百万级知识库完全没法用。第三代句子级 EmbeddingSBERT/SimCSE/BGE用 bi-encoder 独立编码提前算好向量存起来检索时只算余弦相似度是 RAG 的标配。面试官如果追问「你们项目用的什么模型」你就说中文场景用 BGE在自己的业务数据上做评估选型能讲出这个就有说服力了。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章