> 我先依据最新一次提交的变更与当前目录结构完成了梳理与交叉分析,下面是本周复盘。
主要新增/修改内容概览
- AI 推理与工程
- 大幅扩充 [[vLLM]](推理架构、T4/SM_75 降级到 xFormers 的原因、KV cache/并发参数等;新增部署脚本与实践经验),重点更新(+1000 行):2 第二大脑/1 概念/4 信息与模式/CS/人工智能/算法/工程能力/vLLM.md
- GPU/驱动与工具链强化:新增/更新 [[nvidia-smi]]、[[CUDA]]、[[GPU 选择]] 等实操笔记(诊断、监控、硬件代际能力对齐)
- Agent/生态与周边
- 新增/更新 [[SGLang]]、[[LangGraph]]、[[OCR]]、[[OpenAI API]] 等,补齐从框架到 API/工具的端到端链路
- 开发工具链与环境
- 新增 [[nvm]]、更新 [[conda]]、[[Anaconda]]、Linux 与 Shell 常用项汇总(工程化与环境可复现实践增强)
- 项目与 OKR
- Kaggle 相关重命名与收口:[[Kaggle$]] 整理与方法库统一(模型量化/TF‑IDF/LLM 解法等归档到同一“$”索引)1 一切皆项目/已结项/OKR 基建/2025 Q3:kaggle比赛/Kaggle$.md
- OKR 体系与 2024 Q2 笔记系统复盘补充:src/1 一切皆项目/…/OKR 基建/2024 Q2…
- CS 经典 Labs
- MIT 6.828 与 CS144 系列整理:[[MIT 6.828 Operating System Engineering]]、[[EOF]]、[[Lab 1 MapReduce]] 等修订,orbstack 环境笔记上移合并(路径规
范化)
- 第二大脑·互联网/商业
- 新增 [[BBS]]、[[O2O]](互联网业态与渠道范式梳理):2 第二大脑/1 概念/1 社会与文明/互联网/BBS.md, O2O.md
- 周报与复盘
- 新增/更新 [[2025年第43周]]、[[2025年第44周]],其中 W44 为全库结构化复盘与展望:4 复盘/2025年第43周.md, 4 复盘/2025年第44周.md
- 清理与命名
- 删除顶层 [[2 第二大脑/2 飞轮/0 工具系统/AI工具/AI/claude]],统一到更聚合的 AI 主题下;去除部分历史占位/重复条目;“$”“@”索引文件进一步铺开,作为目录级 MOC/索引
知识点与想法的关联分析
- vLLM–硬件代际能力–工程取舍
- 典型链路:[[vLLM]] ↔ [[nvidia-smi]] ↔ [[CUDA]]/SM 架构 ↔ 推理后端降级策略。强调“根据 GPU 架构做策略回退”的工程心智(T4→xFormers),补齐“为何慢/如
何选”的决策依据。
- Kaggle 方法库–评测与工程化
- [[Kaggle$]] 内各解法与 [[LLM 评估@]]、[[模型量化]]、[[TF-IDF]] 互相指向,可沉淀为“经典文本分类任务的可复用 playbook”,利于新赛题快速复用。
- CS Labs–概念与实现打通
- [[EOF]] 与 CS144 实验、[[MIT 6.828 Operating System Engineering]] 的系统化整理,把“概念解释→实验操作→工具链”的闭环打通;orbstack 环境笔记上移,有
利于统一起步路径。
- 互联网业态–增长/渠道/社区
- [[BBS]]、[[O2O]] 与复盘中的 [[PMF]]、增长/渠道策略具备天然关联,建议与“渠道模型/冷启动/线下转化”等卡片建立双链,服务产品化推演。
- 运维与问题定位能力外溢
- 周报 [[2025年第43周]] 中对 macOS 焦点抢占问题的系统溯源(WindowServer 日志/launchctl/进程追踪),可沉淀到 [[Shell]]/[[Linux@]]“问题模式库”,复用在
其他平台/问题类型。
复盘与思考
- 本周洞见
- 从“点的积累”进一步跃迁到“线与面”:推理后端、硬件差异、工具链、评测/方法库、项目 OKR 逐步连成体系。
- 工程与产品并进:既有深度工程化(vLLM/GPU),也有业态与增长抽象(BBS/O2O/PMF),利于“能跑起来、能落地”的闭环。
- 趋势
- 命名与 MOC 收口明显($ 与 @ 的使用增加);Lab 与项目分层更清晰;周报开始承载“全库级导航/复盘”,成为二级入口。
- 经典问题的变体与解法
- 变体1:硬件代际差异导致“性能不达预期”(T4 无 FA2)→ 解法:运行前能力探测、后端回退、参数兜底(max_model_len/gpu_memory_utilization)、设备基线
说明。
- 变体2:方法散落与评测碎片化 → 解法:以 [[Kaggle$]]/[[LLM 评估@]] 为锚点建立“任务→特征/模型→评测→部署”一体化 MOC。
- 变体3:环境/实践路径割裂 → 解法:把 [[orbstack]]、[[Shell]]、[[Linux@]] 作为“启动脚手架”,所有 Lab/项目统一入口。
待办事项与改进建议
- vLLM 实证基线与兼容矩阵
- 建立“GPU 架构×后端×并发×长上下文”的简表(建议收录到 [[vLLM]] 顶部),并记录各设备的推荐参数组合与退化路径。
- Kaggle 方法库打样
- 在 [[Kaggle$]] 下新增“启动清单”:数据清洗模板、特征库清单、阈值/多标签策略、复现脚本目录结构;对接 [[LLM 评估@]] 输出一页总结卡。
- CS Labs 索引一体化
- 为 CS144/6.828/6.824 增加聚合页 [[做CS的经典lab$]],统一环境准备、常见坑、提交规范;Lab 笔记内统一命名(去除 Key/Value vs Key Value 的差异)。
- 环境与工具链
- 新增《GPU/驱动/容器一键诊断》脚本笔记条目;把 [[nvm]]、[[conda]]、[[Anaconda]] 的“最小上手流程”抽成 10 步清单。
- 双链与 MOC 规范
- 统一“$=目录索引(Folder Note)、@=领域 MOC(Map of Content)”,在每个“深层目录”补一个 @ 级 MOC,把经典问题/最佳实践挂进去。
提问与下周展望
- 思考题
- 你期望在“同一张显卡”上达到怎样的“延迟/吞吐”基线?这决定了 [[vLLM]] 的参数侧重点(并发 vs 长上下文)。
- [[Kaggle$]] 的方法库能否抽象为“任务模板”(文本分类/匹配/多标签)?与 [[LLM 评估@]] 的接口如何统一?
- CS Labs 的目标是“通关”还是“沉淀可复用工程基线”?如果是后者,哪些脚手架/脚本值得固化?
- 下周重点
- 完成 vLLM 设备基线表与一套最小可运行 Demo(OpenAI 兼容端口 + 压测脚本),沉淀到 [[vLLM]]。
- 把 Kaggle 方法库做一次“从 0 到提交”的端到端演练记录,补全到 [[Kaggle$]]。
- 为 CS Labs 增加唯一入口 [[做CS的经典lab$]] 并统一 Lab 笔记命名。
目录结构建议(轻量)
- 继续保持当前“1 一切皆项目 / 2 第二大脑 / 3 博客 / 4 复盘”的顶层结构,不建议大改。
- 规范化索引标记:建议“$ = 目录/项目索引,@ = 领域 MOC”,并在每个三级目录至少放一个“@”把该层核心卡片串起来。
- 命名统一化:统一中文全角符号(:,、)与英文空格;去除“r n.md”等历史命名;Lab 系列采用统一前缀(Lab N xxx.md)。
如果你愿意,我可以:
- 生成一份“vLLM 基线测评模板”(含 ab/ohy/generation 压测命令与记录表)
- 为 CS Labs 自动生成聚合 MOC(扫描 Lab 笔记并写入 [[做CS的经典lab$]])
- 批量规范“Lab 笔记命名/符号风格”的脚本(dry-run 预览后执行)