Skip to content

用 Claude Code 做 LLM

从头理解大语言模型的运作原理——Transformer 架构、预训练、微调、对齐。这个模块不是教你调 API,而是教你真正搞懂 LLM 是怎么工作的,用 Claude Code 辅助完成代码实验。

这个模块讲什么

课次主题核心内容
01Transformer 架构Self-Attention、位置编码、Encoder / Decoder
02从零实现 GPT用 PyTorch 手写一个微型语言模型
03预训练与微调预训练目标、SFT、LoRA / QLoRA
04RLHF 与对齐奖励模型、PPO、DPO 原理
05推理与部署量化、KV Cache、vLLM、本地部署

学完你能做什么

  • 读懂 Attention Is All You Need 这篇论文
  • 用 PyTorch 从零写一个可训练的语言模型(类 GPT-2)
  • 对开源模型(LLaMA / Mistral)做 LoRA 微调
  • 理解 RLHF / DPO 对齐的流程和本质区别
  • 在本地部署量化模型,理解推理优化手段

关键概念速查

概念一句话解释
Self-Attention让每个 token 看到序列中其他所有 token
Transformer纯注意力机制的 Encoder-Decoder 架构
预训练在海量文本上做下一个 token 预测
SFT用标注数据微调,让模型学会指令跟随
LoRA低秩适应,用极少参数做高效微调
RLHF用人类反馈的奖励信号做强化学习对齐
DPO直接偏好优化,RLHF 的简化替代方案

门槛说明

这是课程里最硬核的模块。代码部分由 Claude Code 负责——但要真正理解 LLM 原理,你需要投入时间消化数学概念(矩阵乘法、softmax、梯度)。高中数学程度足够,但没有捷径。

只想「用 AI 做东西」不想深挖原理的同学,可以先学「做 Agent」模块。

  • 安装 PyTorch(有 GPU 更好,CPU 也能跑实验)

大齐 AI 课堂 · 程序员的 Agent 开发课