大模型技能树路线图 (LLM Skill Tree & Learning Paths)#
从入门到精通,根据职业目标选择最优学习路径。
技能树总览 (Skill Tree Overview)#
graph TD
Start[开始学习] --> Foundation[基础阶段]
Foundation --> P1_1["第1章: 初识大语言模型"]
Foundation --> P1_2["第2章: 提示工程基础"]
Foundation --> P1_3["第3章: 分词与嵌入"]
P1_1 --> Architecture[架构理解阶段]
P1_2 --> Architecture
P1_3 --> Architecture
Architecture --> P2_1["第1章: Transformer核心"]
Architecture --> P2_2["第2章: 模型家族谱系"]
Architecture --> P2_3["第3章: 预训练奥秘"]
P2_1 --> Split{职业分流}
P2_2 --> Split
P2_3 --> Split
Split -->|应用开发路线| AppDev[👨💻 应用开发]
Split -->|算法研究路线| Research[🧪 算法研究]
Split -->|MLOps路线| Ops[⚙️ MLOps工程]
AppDev --> P4_RAG["RAG应用开发"]
AppDev --> P4_Agent["Agent系统开发"]
AppDev --> P6_Deploy["生产部署"]
Research --> P3_Data["数据工程"]
Research --> P3_FineTune["微调技术"]
Research --> P3_Align["对齐与偏好优化"]
Research --> P7_Advanced["前沿技术"]
Ops --> P5_Tools["工具栈掌握"]
Ops --> P6_Serving["高性能推理"]
Ops --> P6_Eval["评估体系"]
P4_RAG --> Master[精通阶段]
P4_Agent --> Master
P3_Align --> Master
P7_Advanced --> Master
P6_Serving --> Master
style Start fill:#e1f5ff
style Split fill:#fff4e1
style Master fill:#d4f5d4
style AppDev fill:#ffe1e1
style Research fill:#e1ffe1
style Ops fill:#f0e1ff三大职业路线详解 (Career Paths)#
👨💻 应用开发路线 (Application Developer Path)#
职业目标:基于 LLM 构建应用(聊天机器人、RAG 系统、AI Agent)
核心能力:
- 熟练使用 LLM API(OpenAI、Claude、国产大模型)
- 掌握 Prompt Engineering 与工具调用(Function Calling)
- 构建 RAG 知识库与向量检索系统
- 设计 Multi-Agent 协作架构
- 部署生产级 LLM 服务
学习路线图:
graph LR
A[第一部分: 基础] --> B[第四部分: 应用开发]
B --> C[第六部分: 生产部署]
C --> D[第五部分: 工具栈精选]
D --> E[第七部分: 高级应用]
style A fill:#e3f2fd
style B fill:#fff9c4
style C fill:#c8e6c9
style D fill:#f8bbd0
style E fill:#d1c4e9详细章节路径:
| 阶段 | 章节 | 学习重点 | 时间投入 |
|---|---|---|---|
| 1. 入门 | 第一部分 Ch1-3 | LLM 基础概念、Prompt 技巧、Token 机制 | 1周 |
| 2. 核心 | 第四部分 Ch1 | 文本分类与语义理解 | 3天 |
| 第四部分 Ch2 | RAG 架构与向量检索 | 1周 | |
| 第四部分 Ch3 | Agent 设计模式(ReAct、MCP) | 1周 | |
| 3. 部署 | 第六部分 Ch2 | vLLM 高性能推理 | 3天 |
| 第六部分 Ch3 | 生产环境架构设计 | 5天 | |
| 4. 工具 | 第五部分 Ch1 | Hugging Face 生态 | 3天 |
| 5. 进阶 | 第四部分 Ch4 | 多模态应用(图像理解) | 5天 |
| 第七部分 Ch3 | System 2 推理增强 | 3天 |
关键技术栈:
# 核心依赖
pip install openai anthropic # LLM API
pip install langchain langgraph # Agent 框架
pip install chromadb faiss-cpu # 向量数据库
pip install sentence-transformers # Embedding项目实战建议:
- 构建一个垂直领域知识问答机器人(RAG)
- 开发一个支持工具调用的 AI Agent(如代码生成助手)
- 实现一个流式推理的聊天应用(WebSocket)
🧪 算法研究路线 (Research & Model Engineering Path)#
职业目标:微调模型、优化性能、探索前沿算法
核心能力:
- 深入理解 Transformer 架构与注意力机制
- 掌握 LoRA/QLoRA 等参数高效微调技术
- 熟练使用 RLHF/DPO 进行模型对齐
- 处理大规模训练数据(去重、清洗、质量评估)
- 跟踪前沿论文(推理模型、MoE、长上下文)
学习路线图:
graph LR
A[第一部分: 基础] --> B[第二部分: 架构深度理解]
B --> C[第三部分: 数据与微调]
C --> D[第五部分: 工具栈实战]
D --> E[第七部分: 前沿技术]
style A fill:#e3f2fd
style B fill:#ffccbc
style C fill:#fff9c4
style D fill:#c8e6c9
style E fill:#f48fb1详细章节路径:
| 阶段 | 章节 | 学习重点 | 时间投入 |
|---|---|---|---|
| 1. 原理 | 第二部分 Ch1 | Attention 机制数学推导 | 1周 |
| 第二部分 Ch2 | BERT/GPT/T5 对比分析 | 3天 | |
| 第二部分 Ch3 | Scaling Laws 与预训练 | 5天 | |
| 2. 数据 | 第三部分 Ch1 | MinHash 去重、数据清洗 | 1周 |
| 3. 微调 | 第三部分 Ch2 | LoRA/QLoRA 实战 | 1周 |
| 第三部分 Ch3 | RLHF/DPO 完整流程 | 2周 | |
| 第三部分 Ch4 | Contrastive Learning | 5天 | |
| 4. 工具 | 第五部分 Ch2 | LLaMA-Factory 高效微调 | 3天 |
| 第五部分 Ch3 | TRL PPO/DPO 代码实现 | 1周 | |
| 第五部分 Ch4 | ZeRO 分布式训练 | 1周 | |
| 5. 前沿 | 第七部分 Ch1 | RoPE、FlashAttention | 5天 |
| 第七部分 Ch2 | MoE、Mamba 架构 | 1周 | |
| 第七部分 Ch4 | DeepSeek-R1 技术解密 | 1周 | |
| 第七部分 Ch5 | SAE、机械可解释性 | 1周 |
关键技术栈:
# 训练框架
pip install transformers peft bitsandbytes
pip install trl deepspeed accelerate
# 数据处理
pip install datasets datasketch
pip install polars apache-beam
# 评估工具
pip install lm-eval vllm论文必读清单:
- Attention Is All You Need (Transformer)
- LoRA: Low-Rank Adaptation of Large Language Models
- DPO: Direct Preference Optimization
- Mixtral of Experts (MoE)
- DeepSeek-R1 Technical Report
⚙️ MLOps 工程路线 (MLOps & Infrastructure Path)#
职业目标:模型部署、服务运维、性能优化、成本控制
核心能力:
- 掌握模型量化与压缩技术(GPTQ、AWQ)
- 熟练使用 vLLM/TensorRT-LLM 等推理引擎
- 构建高可用 LLM 服务架构(负载均衡、流量控制)
- 显存优化与吞吐量调优
- 模型评估与 A/B Testing
学习路线图:
graph LR
A[第一部分: 基础] --> B[第五部分: 工具栈]
B --> C[第六部分: 部署与评估]
C --> D[第七部分: 性能优化]
style A fill:#e3f2fd
style B fill:#c8e6c9
style C fill:#ffccbc
style D fill:#f8bbd0详细章节路径:
| 阶段 | 章节 | 学习重点 | 时间投入 |
|---|---|---|---|
| 1. 基础 | 第一部分 Ch1-3 | LLM 基本原理 | 1周 |
| 2. 工具 | 第五部分 Ch1 | Transformers 库深度使用 | 5天 |
| 第五部分 Ch4 | 分布式训练基础 | 1周 | |
| 第五部分 Ch5 | 完整项目生命周期 | 1周 | |
| 3. 压缩 | 第六部分 Ch1 | 量化技术(INT4/INT8) | 1周 |
| 4. 推理 | 第六部分 Ch2 | vLLM PagedAttention | 1周 |
| 第六部分 Ch3 | 架构设计与容错 | 1周 | |
| 5. 评估 | 第六部分 Ch4 | Benchmark 与自动化评估 | 5天 |
| 6. 优化 | 第七部分 Ch1 | KV Cache 优化 | 5天 |
| 第七部分 Ch2 | MoE 推理优化 | 5天 |
关键技术栈:
# 推理引擎
pip install vllm tensorrt-llm
# 量化工具
pip install auto-gptq autoawq
# 监控工具
pip install prometheus-client ray[serve]
# 部署框架
docker, kubernetes, nginx实战项目建议:
- 搭建一个支持百万级 QPS 的 LLM 推理集群
- 实现模型热更新与 A/B Testing 系统
- 构建 LLM 性能监控大盘(延迟、吞吐、显存)
快速导航 (Quick Navigation)#
按部分浏览 (Browse by Section)#
第一部分:大语言模型基础#
第二部分:Transformer 架构揭秘#
第三部分:数据工程与定制化#
第四部分:大模型应用开发#
第五部分:工程实战工具栈#
第六部分:生产部署与评估#
第七部分:高级技术专题#
学习建议 (Study Tips)#
时间规划 (Time Commitment)#
| 路线 | 核心阶段 | 进阶阶段 | 总计 |
|---|---|---|---|
| 应用开发路线 | 4-6周 | 2-3周 | 6-9周 |
| 算法研究路线 | 6-8周 | 4-6周 | 10-14周 |
| MLOps 工程路线 | 5-7周 | 2-3周 | 7-10周 |
学习策略 (Strategy)#
理论 + 实践结合
- 每学完一章,必须完成代码实战
- 推荐使用 Google Colab(免费 GPU)
循序渐进
- 不要跳过第一部分基础章节
- 先掌握工具使用,再深入原理
项目驱动
- 以实际项目需求为导向
- 推荐先做一个简单的 RAG 问答系统
社区互动
- 关注 Hugging Face、LangChain 官方文档
- 加入 Discord/Slack 技术社区
常见误区 (Common Pitfalls)#
- 不要一上来就训练大模型(成本极高)
- 不要忽视数据质量(Garbage In, Garbage Out)
- 不要盲目追求最新模型(稳定性 > 性能)
- 不要忽视 Prompt Engineering(80% 问题可通过优化 Prompt 解决)
技术栈对比 (Tech Stack Comparison)#
| 能力域 | 应用开发路线 | 算法研究路线 | MLOps 工程路线 |
|---|---|---|---|
| Python 编程 | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 数学基础 | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ |
| 深度学习框架 | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 分布式系统 | ⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
| 云计算/容器化 | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ |
| 前端开发 | ⭐⭐⭐ | ⭐ | ⭐⭐ |
进阶路径 (Advanced Paths)#
从应用开发到算法研究#
- 深入学习 第二部分:Transformer 架构
- 掌握 第三部分:微调与对齐
- 研究 第七部分:推理模型
从 MLOps 到算法研究#
- 学习 第二部分:预训练原理
- 掌握 第七部分:新型架构
- 研究 第七部分:大规模数据工程
推荐资源 (Recommended Resources)#
官方文档#
论文阅读#
开源项目#
最后更新:2026-01-25 作者:Claude Code 反馈:如有问题或建议,欢迎提交 Issue!