# [BERT](BERT.md)和[[GPT]]在应用场景上的区别 bert 意味着选择,gpt 意味着自由 # 一定要拿到最后的结果吗 [[logit 分类]] # 疑惑 [推理框架](推理框架.md)为啥[vLLM](vLLM.md)比[Transformers](Transformers.md)快那么多? # Lab2 要习得什么能力? - 定位瓶颈 & 写自定义 [[GPU Kernel 内核]] 的实战能力 - 理解并实现数据并行通信协议 的全流程 - 显存账本:知道模型 / 激活 / 优化器各占多少,以及如何 trade‑off - 对日后做 大模型推理加速 (Flash‑Attention、KV‑cache) 和 张量并行 / pipeline 并行 打下基础