时间:2026年4月10日
本文带你从零读懂天机ai智能助手的核心技术路线,厘清Prompt与RAG的逻辑关系,看完就能面试。

一、开篇:为什么是这篇?
2026年,大模型早已不是新鲜词。但一个现象很普遍:很多人会用AI,却讲不清背后的原理;知道RAG这个词,但说不透它是怎么工作的;提到Prompt工程,只知道“写提示词”,却不知道它和大模型之间的关系究竟是什么。

这些问题,正是面试中最爱问、也最容易暴露短板的地方。
本文以天机ai智能助手(Tianji)为范本——一个开源的大语言模型应用项目,专注于中文社交场景,涵盖Prompt工程、RAG知识库、Agent开发、模型微调等完整技术栈-2。通过拆解它的两条核心技术路线,带你建立一条从概念到面试的完整知识链路。
二、痛点切入:一个“会来事儿”的AI是怎么来的?
假设你要做一个“社交助手”——帮用户写敬酒词、送祝福、化解尴尬场面。
最简单的方案:把规则写死在代码里。
传统方案:硬编码if-else def get_toast_words(scene, relation): if scene == "business_dinner": if relation == "boss": return "X总,我敬您,祝您事业蒸蒸日上" elif relation == "colleague": return "兄弟,这杯敬你,以后多关照" ... 几十个if-else
缺点:场景稍一变化就崩,扩展性几乎为零,维护成本高到离谱。
更好的思路来了——让大模型来生成。于是出现了两条技术路线:基于Prompt工程,和基于RAG知识库-1。
三、概念A:Prompt工程(提示词工程)
定义:Prompt Engineering,指通过精心设计输入指令(提示词)来引导大语言模型生成符合预期的输出,而不对模型本身做任何参数调整-。
大白话:你给大模型写一份“说明书”,告诉它“你是谁、要做什么、怎么做、别做什么”-16。
天机怎么做的?
天机内置了丰富的提示词模板,覆盖从简单问候到复杂谈判的各种场景-26。比如送祝福场景,开发者可以这样定义:
数据生成中的风格模板 "style_temple": "小红书风格,每条加入1-2个emoji表情包来增加趣味性", "if_example": True, '默念你的名,祝你前途云蒸霞蔚,灿若星河。愿你度过的叫吉时,得到的叫如愿!'
Prompt解决了什么问题:让大模型“听懂人话”,生成符合指定风格、角色定位的内容。它不改变模型本身,只改变“提问方式”-。
四、概念B:RAG知识库(检索增强生成)
定义:Retrieval-Augmented Generation,是一种将检索系统与大语言模型结合的技术——先检索相关知识,再让模型基于这些知识生成回答-3。
大白话:大模型记不住所有事情,还可能“胡编乱造”。RAG的做法是:先查资料,再回答。就像考试时让你翻书,而不是全靠记忆。
RAG解决的核心问题:
知识滞后:大模型训练数据截止于某个时间点,RAG能接入最新信息
领域知识不足:可对接私有文档、专业资料
幻觉问题:回答基于检索到的真实信息,而非模型“编造”-
RAG比传统微调的优势:无需重新训练模型就能更新知识库,精确控制知识来源,成本效益更高-3。
五、概念关系:Prompt vs RAG
这两者是什么关系?一句话概括:
Prompt是“怎么问”,RAG是“给什么资料”。
| 维度 | Prompt工程 | RAG |
|---|---|---|
| 本质 | 指令优化 | 知识补充 |
| 改变什么 | 提问方式 | 输入信息源 |
| 解决什么问题 | 让模型理解需求、规范输出 | 弥补知识缺失、减少幻觉 |
| 是否需要外部数据 | 不需要 | 需要(文档库/数据库) |
| 成本 | 低(仅调用成本) | 中等(需建知识库) |
工作中通常两者结合:Prompt做通用问题解答,RAG做专业问题解答-16。
六、代码示例:动手跑一个RAG
下面是天机项目中RAG问答的核心调用逻辑:
初始化模型中心 model = model_center() 用户提问 question = "商务宴请怎么敬酒?" 存储对话历史 chat_history = [] 调用RAG问答链 answer = model.qa_chain_self_answer(question, chat_history) print(answer)
执行流程解析:
数据准备:天机将社交知识文档加载、分割成语义块,用Sentence-Transformer模型将每个块向量化,存入Chroma向量数据库
检索匹配:用户提问后,系统将问题也转换成向量,在向量库中通过余弦相似度检索最相关的Top N知识片段
生成回答:将检索到的知识片段与问题拼接成增强提示词,送入大模型生成最终答案-1
天机RAG系统包含五大核心组件:文档加载器、文本分割器、向量数据库、检索器、大语言模型-3。
七、底层原理:支撑这些技术的基础
Prompt工程依赖什么?
Transformer架构的自注意力机制:大模型之所以能“理解”复杂Prompt,靠的是多头注意力捕获词与词之间的长距离依赖
上下文窗口:Prompt长度受限于模型的上下文窗口(Context Window)
In-Context Learning:大模型在推理阶段的“举一反三”能力,无需微调
RAG依赖什么?
Embedding模型:将文本转换为高维向量表示
向量数据库:高效存储和检索向量(Chroma、FAISS、Milvus等)
相似度计算:ANN算法、余弦相似度等检索匹配机制
LangChain/LlamaIndex:编排RAG流程的框架
天机同时支持LangChain和LlamaIndex两大主流框架,并实现了混合检索、重排序、上下文扩展等高级优化技术-3。
八、高频面试题
1. 什么是RAG?简单说明它的工作流程
参考答案:RAG是“检索增强生成”,分三步:①数据准备——将文档分块、向量化、存入向量库;②检索匹配——用户问题转向量,检索Top N相似片段;③生成回答——检索内容+问题拼接后给大模型生成答案-16。
踩分点:三个环节说全 + 能解释“为什么需要RAG”
2. Prompt工程和RAG的本质区别是什么?
参考答案:Prompt是“指令优化”,通过调整提问方式挖掘模型已有知识,不依赖外部数据;RAG是“知识补充”,给模型喂外部资料来弥补知识盲区。两者本质是“问的方式”vs“给的信息”,实际应用中通常结合使用。
踩分点:定位清晰 + 对比维度完整
3. 向量化(Embedding)是怎么回事?
参考答案:将文本、图片等非结构化数据转化为“数值向量”(一串有序浮点数),让机器能计算语义相似度。比如“iPhone续航”和“苹果手机电池使用时长”在向量空间中距离很近-16。
踩分点:本质解释 + 举例说明
4. 如何解决大模型的“幻觉”问题?
参考答案:核心思路是“输入约束+生成控制+输出校验”。主流方案是RAG——先检索权威资料,再让模型基于资料生成,避免“瞎编”。此外还可通过Prompt约束(“不知道就说不知道”)和RLHF微调来缓解-16。
踩分点:方案名称 + 原理简述 + 至少两种手段
九、总结
本文核心要点:
| 概念 | 一句话记忆 |
|---|---|
| Prompt工程 | 怎么问——优化指令,挖掘模型能力 |
| RAG | 给什么——先查资料再回答,补知识、治幻觉 |
| 二者关系 | 问法 vs 信息源,通常配合使用 |
| 底层依赖 | Transformer、Embedding、向量数据库、LangChain |
易错点提醒:不要把RAG和Agent混淆。RAG专注“知识检索”,Agent专注“自主决策和执行”-16。天机项目将两者都纳入了技术栈,但定位完全不同。
进阶预告:下一篇将深入天机Agent智能体的设计与实现——包括MetaGPT多代理架构、工具调用机制、以及企业级AI应用的完整落地流程。
参考资料:
天机官方文档:https://tianji.readthedocs.io
天机项目仓库:https://gitcode.com/gh_mirrors/tia/Tianji
Datawhale动手学大模型应用开发系列