#总体结论
#1. 大模型题目已经明显收敛到 10 个核心模块
无论题库来源是中文还是英文,无论岗位更偏算法、应用还是平台,最终高频题都在下面这 10 个模块里打转:
- 大模型基础与 Transformer 架构
- Tokenizer、Embedding、位置编码与上下文窗口
- 预训练、数据工程、Scaling Law 与模型结构扩展
- SFT、PEFT、对齐训练(RLHF / DPO 等)
- 推理优化、Serving 与部署工程
- RAG、检索、重排与知识增强
- Agent、工具调用、工作流编排与协议
- 评测、幻觉、安全与可观测性
- 多模态(图文音视频)
- 系统设计、业务落地与成本权衡
#2. 笔试和面试考的是同一棵知识树,但方式完全不同
| 维度 | 笔试更常见 | 面试更常见 |
|---|---|---|
| 出题形式 | 选择、填空、判断、简答、小型方案题 | 开放问答、追问、项目结合、系统设计 |
| 关注点 | 概念是否清楚、公式是否知道、差异是否分得清 | 原理是否真正理解、trade-off 是否说得清、是否做过 |
| 典型问题 | LoRA 和 QLoRA 区别、RoPE 优点、RAG 流程 |
为什么你的 RAG 效果差、为什么 LoRA 不够、KV cache 为什么会爆显存 |
| 难度拉开方式 | 多概念混考、术语细节、顺序和边界 | 一路追问到实现细节、指标、失败案例、替代方案 |
#3. 2025-2026 年新增热点主要集中在 5 个方向
- Agent:ReAct、Reflexion、LangGraph、工具调用、Multi-Agent、MCP/A2A。
- RAG 工程化:chunking、hybrid retrieval、reranker、GraphRAG、长上下文与 Lost in the Middle。
- 推理与成本优化:KV cache、PagedAttention、continuous batching、quantization、speculative decoding、vLLM。
- 评测与安全:hallucination、LLM-as-a-Judge、线上观测、红队、guardrail。
- 多模态与应用化:VLM、视频理解、图文对齐、扩散模型、AIGC 产品落地。