Skip to content

面试

把 LLM、Agent、RAG、Harness 相关知识点练熟,不怕任何追问。


高频面试题解析

LLM 基础

问:为什么 LLM 会有幻觉?

答题重点:

  • LLM 本质上是在做下一个 token 的概率预测,不是从结构化知识库里查事实
  • 当上下文不足、问题超出训练数据、提示不够约束时,模型会生成"看起来合理"的内容
  • 工程上通常用工具调用、检索、验证步骤降低幻觉,而不是指望 prompt 彻底消除

问:为什么长 context 会更贵、更慢?

答题重点:

  • 输入 token 越多,prefill 阶段计算越大
  • 注意力计算和缓存管理都会增加成本
  • 工程上会用摘要、检索、分层记忆控制 context 长度

Agent 核心

问:Agent 和普通聊天机器人有什么区别?

答题重点:

  • 聊天机器人通常是一问一答
  • Agent 有工具、有状态、有多步执行循环,能自主推进任务
  • Agent 的难点不是"回答得像不像人",而是"动作做得对不对"

问:为什么 Agent 需要 ReAct,而不是一次生成全部步骤?

答题重点:

  • 多步任务里,后续动作依赖前面工具返回的真实结果
  • 一次性规划缺少反馈闭环,容易偏离实际情况
  • ReAct 让模型边看结果边调整动作,更适合不确定环境

RAG

问:为什么 RAG 要做 Reranking?

答题重点:

  • 初步检索偏召回,相关但未必最适合回答
  • Reranking 用更强模型做精排,提升最终上下文质量
  • 检索质量不稳定时,Reranking 往往是最直接的提升手段

问:怎么判断 RAG 问题出在检索还是生成?

答题重点:

  • 先看检索到的文档是否覆盖答案所需信息
  • 如果检索不到,是召回问题;检索到了但答案乱说,是生成问题
  • 评估时要拆成检索指标和回答指标,不能只看最终体验

大齐 AI 课堂 · 程序员的 Agent 开发课