大模型技能树路线图 (LLM Skill Tree & Learning Paths)#

从入门到精通,根据职业目标选择最优学习路径。


技能树总览 (Skill Tree Overview)#

graph TD
    Start[开始学习] --> Foundation[基础阶段]

    Foundation --> P1_1["第1章: 初识大语言模型"]
    Foundation --> P1_2["第2章: 提示工程基础"]
    Foundation --> P1_3["第3章: 分词与嵌入"]

    P1_1 --> Architecture[架构理解阶段]
    P1_2 --> Architecture
    P1_3 --> Architecture

    Architecture --> P2_1["第1章: Transformer核心"]
    Architecture --> P2_2["第2章: 模型家族谱系"]
    Architecture --> P2_3["第3章: 预训练奥秘"]

    P2_1 --> Split{职业分流}
    P2_2 --> Split
    P2_3 --> Split

    Split -->|应用开发路线| AppDev[👨‍💻 应用开发]
    Split -->|算法研究路线| Research[🧪 算法研究]
    Split -->|MLOps路线| Ops[⚙️ MLOps工程]

    AppDev --> P4_RAG["RAG应用开发"]
    AppDev --> P4_Agent["Agent系统开发"]
    AppDev --> P6_Deploy["生产部署"]

    Research --> P3_Data["数据工程"]
    Research --> P3_FineTune["微调技术"]
    Research --> P3_Align["对齐与偏好优化"]
    Research --> P7_Advanced["前沿技术"]

    Ops --> P5_Tools["工具栈掌握"]
    Ops --> P6_Serving["高性能推理"]
    Ops --> P6_Eval["评估体系"]

    P4_RAG --> Master[精通阶段]
    P4_Agent --> Master
    P3_Align --> Master
    P7_Advanced --> Master
    P6_Serving --> Master

    style Start fill:#e1f5ff
    style Split fill:#fff4e1
    style Master fill:#d4f5d4
    style AppDev fill:#ffe1e1
    style Research fill:#e1ffe1
    style Ops fill:#f0e1ff

三大职业路线详解 (Career Paths)#

👨‍💻 应用开发路线 (Application Developer Path)#

职业目标:基于 LLM 构建应用(聊天机器人、RAG 系统、AI Agent)

核心能力

  • 熟练使用 LLM API(OpenAI、Claude、国产大模型)
  • 掌握 Prompt Engineering 与工具调用(Function Calling)
  • 构建 RAG 知识库与向量检索系统
  • 设计 Multi-Agent 协作架构
  • 部署生产级 LLM 服务

学习路线图

graph LR
    A[第一部分: 基础] --> B[第四部分: 应用开发]
    B --> C[第六部分: 生产部署]
    C --> D[第五部分: 工具栈精选]
    D --> E[第七部分: 高级应用]

    style A fill:#e3f2fd
    style B fill:#fff9c4
    style C fill:#c8e6c9
    style D fill:#f8bbd0
    style E fill:#d1c4e9

详细章节路径

阶段章节学习重点时间投入
1. 入门第一部分 Ch1-3LLM 基础概念、Prompt 技巧、Token 机制1周
2. 核心第四部分 Ch1文本分类与语义理解3天
第四部分 Ch2RAG 架构与向量检索1周
第四部分 Ch3Agent 设计模式(ReAct、MCP)1周
3. 部署第六部分 Ch2vLLM 高性能推理3天
第六部分 Ch3生产环境架构设计5天
4. 工具第五部分 Ch1Hugging Face 生态3天
5. 进阶第四部分 Ch4多模态应用(图像理解)5天
第七部分 Ch3System 2 推理增强3天

关键技术栈

# 核心依赖
pip install openai anthropic          # LLM API
pip install langchain langgraph        # Agent 框架
pip install chromadb faiss-cpu         # 向量数据库
pip install sentence-transformers     # Embedding

项目实战建议

  1. 构建一个垂直领域知识问答机器人(RAG)
  2. 开发一个支持工具调用的 AI Agent(如代码生成助手)
  3. 实现一个流式推理的聊天应用(WebSocket)

🧪 算法研究路线 (Research & Model Engineering Path)#

职业目标:微调模型、优化性能、探索前沿算法

核心能力

  • 深入理解 Transformer 架构与注意力机制
  • 掌握 LoRA/QLoRA 等参数高效微调技术
  • 熟练使用 RLHF/DPO 进行模型对齐
  • 处理大规模训练数据(去重、清洗、质量评估)
  • 跟踪前沿论文(推理模型、MoE、长上下文)

学习路线图

graph LR
    A[第一部分: 基础] --> B[第二部分: 架构深度理解]
    B --> C[第三部分: 数据与微调]
    C --> D[第五部分: 工具栈实战]
    D --> E[第七部分: 前沿技术]

    style A fill:#e3f2fd
    style B fill:#ffccbc
    style C fill:#fff9c4
    style D fill:#c8e6c9
    style E fill:#f48fb1

详细章节路径

阶段章节学习重点时间投入
1. 原理第二部分 Ch1Attention 机制数学推导1周
第二部分 Ch2BERT/GPT/T5 对比分析3天
第二部分 Ch3Scaling Laws 与预训练5天
2. 数据第三部分 Ch1MinHash 去重、数据清洗1周
3. 微调第三部分 Ch2LoRA/QLoRA 实战1周
第三部分 Ch3RLHF/DPO 完整流程2周
第三部分 Ch4Contrastive Learning5天
4. 工具第五部分 Ch2LLaMA-Factory 高效微调3天
第五部分 Ch3TRL PPO/DPO 代码实现1周
第五部分 Ch4ZeRO 分布式训练1周
5. 前沿第七部分 Ch1RoPE、FlashAttention5天
第七部分 Ch2MoE、Mamba 架构1周
第七部分 Ch4DeepSeek-R1 技术解密1周
第七部分 Ch5SAE、机械可解释性1周

关键技术栈

# 训练框架
pip install transformers peft bitsandbytes
pip install trl deepspeed accelerate

# 数据处理
pip install datasets datasketch
pip install polars apache-beam

# 评估工具
pip install lm-eval vllm

论文必读清单

  1. Attention Is All You Need (Transformer)
  2. LoRA: Low-Rank Adaptation of Large Language Models
  3. DPO: Direct Preference Optimization
  4. Mixtral of Experts (MoE)
  5. DeepSeek-R1 Technical Report

⚙️ MLOps 工程路线 (MLOps & Infrastructure Path)#

职业目标:模型部署、服务运维、性能优化、成本控制

核心能力

  • 掌握模型量化与压缩技术(GPTQ、AWQ)
  • 熟练使用 vLLM/TensorRT-LLM 等推理引擎
  • 构建高可用 LLM 服务架构(负载均衡、流量控制)
  • 显存优化与吞吐量调优
  • 模型评估与 A/B Testing

学习路线图

graph LR
    A[第一部分: 基础] --> B[第五部分: 工具栈]
    B --> C[第六部分: 部署与评估]
    C --> D[第七部分: 性能优化]

    style A fill:#e3f2fd
    style B fill:#c8e6c9
    style C fill:#ffccbc
    style D fill:#f8bbd0

详细章节路径

阶段章节学习重点时间投入
1. 基础第一部分 Ch1-3LLM 基本原理1周
2. 工具第五部分 Ch1Transformers 库深度使用5天
第五部分 Ch4分布式训练基础1周
第五部分 Ch5完整项目生命周期1周
3. 压缩第六部分 Ch1量化技术(INT4/INT8)1周
4. 推理第六部分 Ch2vLLM PagedAttention1周
第六部分 Ch3架构设计与容错1周
5. 评估第六部分 Ch4Benchmark 与自动化评估5天
6. 优化第七部分 Ch1KV Cache 优化5天
第七部分 Ch2MoE 推理优化5天

关键技术栈

# 推理引擎
pip install vllm tensorrt-llm

# 量化工具
pip install auto-gptq autoawq

# 监控工具
pip install prometheus-client ray[serve]

# 部署框架
docker, kubernetes, nginx

实战项目建议

  1. 搭建一个支持百万级 QPS 的 LLM 推理集群
  2. 实现模型热更新与 A/B Testing 系统
  3. 构建 LLM 性能监控大盘(延迟、吞吐、显存)

快速导航 (Quick Navigation)#

按部分浏览 (Browse by Section)#

第一部分:大语言模型基础#

第二部分:Transformer 架构揭秘#

第三部分:数据工程与定制化#

第四部分:大模型应用开发#

第五部分:工程实战工具栈#

第六部分:生产部署与评估#

第七部分:高级技术专题#


学习建议 (Study Tips)#

时间规划 (Time Commitment)#

路线核心阶段进阶阶段总计
应用开发路线4-6周2-3周6-9周
算法研究路线6-8周4-6周10-14周
MLOps 工程路线5-7周2-3周7-10周

学习策略 (Strategy)#

  1. 理论 + 实践结合

    • 每学完一章,必须完成代码实战
    • 推荐使用 Google Colab(免费 GPU)
  2. 循序渐进

    • 不要跳过第一部分基础章节
    • 先掌握工具使用,再深入原理
  3. 项目驱动

    • 以实际项目需求为导向
    • 推荐先做一个简单的 RAG 问答系统
  4. 社区互动

    • 关注 Hugging Face、LangChain 官方文档
    • 加入 Discord/Slack 技术社区

常见误区 (Common Pitfalls)#

  • 不要一上来就训练大模型(成本极高)
  • 不要忽视数据质量(Garbage In, Garbage Out)
  • 不要盲目追求最新模型(稳定性 > 性能)
  • 不要忽视 Prompt Engineering(80% 问题可通过优化 Prompt 解决)

技术栈对比 (Tech Stack Comparison)#

能力域应用开发路线算法研究路线MLOps 工程路线
Python 编程⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
数学基础⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
深度学习框架⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
分布式系统⭐⭐⭐⭐⭐⭐⭐⭐
云计算/容器化⭐⭐⭐⭐⭐⭐⭐⭐⭐
前端开发⭐⭐⭐⭐⭐

进阶路径 (Advanced Paths)#

从应用开发到算法研究#

  1. 深入学习 第二部分:Transformer 架构
  2. 掌握 第三部分:微调与对齐
  3. 研究 第七部分:推理模型

从 MLOps 到算法研究#

  1. 学习 第二部分:预训练原理
  2. 掌握 第七部分:新型架构
  3. 研究 第七部分:大规模数据工程

官方文档#

论文阅读#

开源项目#


最后更新:2026-01-25 作者:Claude Code 反馈:如有问题或建议,欢迎提交 Issue!

[统计组件仅在生产环境显示]