好的,非常乐意为你进行这次基于 Git 记录的 Obsidian 知识库周度复盘。本周你的知识库活动展现了从底层技术原理到顶层哲学思考的全面探索,并且在知识的结构化和深度上迈出了重要一步。 以下是为你准备的详细复盘: # 1. 主要新增/修改内容概览 本周你的知识库更新呈现出三大核心主题:**AI 工程化深度实践**、**底层技术与设计模式的系统化梳理**,以及**个人成长与语言学习的持续迭代**。 * **AI 工程化深度实践 (AI Engineering in Practice):** * **模型部署与量化:** 在 [[我的解法]] 和 [[量化]] 笔记中,你详细对比了 Qwen2.5 0.5B 和 32B 两种模型的部署方案,并深入研究了 GPTQ 与 AWQ 量化技术的差异,显示出对模型性能与成本权衡的深度思考。 * **微调与推理:** 在 [[微调]] 笔记中,你补充了大量关于 SFT 和 RL 的宝贵实践经验(“SFT就不用加思维链和fewshot了,直接用样本堆死它”),并创建了 [[logit 分类]] 和 [[推理框架]] 笔记,对比了 Transformers 原生框架与 [[vLLM]] 的巨大性能差异。 * **面试驱动的技术梳理:** 创建了 [[实习生 悉尼大学]] 和 [[科大讯飞面试]] 等笔记,系统性地整理了面试中可能遇到的技术点,从 [[BERT+CRF]] 到 [[Java线程池]],展现了极强的目标导向学习能力。 * **底层技术与设计模式系统化 (Systematizing Fundamentals):** * **编程语言与环境:** 创建了 [[构建工具]] 笔记,清晰地对比了 Taskfile、Makefile 和 Maven。同时,通过 [[python虚拟环境]] 和 [[语言服务]] 等笔记,深化了对开发环境背后工作原理的理解。 * **设计模式与架构:** 新增了 [[响应式编程]]、[[背压]]、[[拉取模式]] 和 [[生产者-消费者模式]] 等一系列关于异步和数据流处理的笔记,并创建了 [[异步回调]] 笔记用生活化案例来解释其原理。 * **CS 核心概念:** 补充了 [[F1 分数]]、[[BM25]]、[[AC-Tree 过滤]] 等算法笔记,并对 [[数据结构和算法]] 的本质进行了新的思考(“电脑是听话的傻子”)。 * **个人成长与语言学习 (Personal Growth & Language Learning):** * **哲学思考:** 新增了 [[萨特]] 和 [[存在主义]] 笔记,并与 [[向死而生]] 关联,形成了关于存在主义的知识簇。 * **英语学习深化:** 在 [[英语 shadowing 计划$]] 中,你不仅更新了进度,更重要的是创建了 [[跨语言不等价,短语]] 和 [[语言不对等现象]] 笔记,从理论层面探究了听力困难的根源,这是从“实践”到“理解”的质变。 # 2. 知识点与想法的关联分析 本周的更新中,不同领域的知识点之间产生了强烈的共鸣和化学反应: 1. **从“语言不对称”到“技术选型”的思维迁移:** 你在 [[跨语言不等价,短语]] 中深入分析了两种语言在表达同一思想时,词汇、结构和策略的“非一一对应”关系。这种对“不对称性”的深刻理解,可以完美映射到你对技术选型的思考上。例如,在 [[我的解法]] 中对比两种模型部署方案,你不再是简单看“功能”,而是在分析不同技术栈(Transformers vs [[vLLM]])在处理同一问题(模型推理)时,其内部机制(静态批处理 vs 连续批处理)的“不对称”优势。**你正在将语言学中的分析框架,巧妙地应用到了技术决策中。** 2. **“异步与流式”成为贯穿后端的统一设计思想:** 本周你创建了大量关于 [[响应式编程]]、[[背压]]、[[异步回调]] 和 [[流式处理]] 的笔记。这些看似分散的概念,实际上共同构成了现代高性能后端的基石。你在 [[四渡赤水-多Agent]] 项目中对 StreamingResponse 和 [[python异步生成器]] 的应用,正是这些理论的实践落地。你正在构建一个关于“如何处理并发和数据流”的统一心智模型。 3. **“面试”成为知识体系的“压力测试器”:** 你通过 [[科大讯飞面试]] 和 [[实习生 悉尼大学]] 等笔记,将面试场景作为了检验和驱动自己知识体系完善的强大工具。面试题中涉及的 [[BERT+CRF]]、[[ELECTRA]]、[[Java线程池]] 等具体技术点,促使你创建或完善了相应的原子笔记。这形成了一个**“实践(面试)-> 发现短板 -> 学习/整理 -> 完善体系 -> 指导实践”**的良性闭环。 # 3. 复盘与思考 * **本周洞见:** 你正在从“**知道是什么(What)**”向“**知道为什么(Why)**”和“**知道如何做得更好(How to Optimize)**”深度转变。例如,你不仅知道 [[vLLM]] 比 [[Transformers]] 快,还通过 [[推理框架]] 笔记去探究其背后的 PagedAttention 和连续批处理等核心技术。这种对底层原理的探究,是从普通工程师到高级工程师的关键一步。 * **经典问题的变体与解法:** * **问题变体:** 你遇到了一个经典的“**性能优化**”问题,其变体是:“在资源有限的情况下,如何最大化AI服务的吞吐量和效率?” * **你的解法:** 你没有停留在应用层面,而是深入到了**系统设计和算法选择**的层面。通过研究 [[量化]]、[[推理框架]] 和 [[背压]] 等技术,你正在从多个维度(模型大小、计算方式、数据流控制)寻找最优解。这是一种系统性的、多层次的解法,远比单纯调整代码更根本。 # 4. 待办事项与改进建议 1. **为“四渡赤水”项目创建顶层架构图:** * **行动:** 在 [[四渡赤水@]] 笔记中,使用 Mermaid 图或 Excalidraw 插件,绘制一幅简化的系统架构图。 * **说明:** 将本周梳理的 [[SSE协议]]、[[python异步生成器]]、[[生产者-消费者模式]]、[[四渡赤水-多Agent]] 等概念在图上串联起来,清晰地展示从前端请求到后端流式响应的完整数据流。这将帮助你从全局视角审视项目,发现潜在瓶颈。 2. **将“搜广推”知识体系化:** * **行动:** 创建一个顶层入口笔记 [[搜广推@]]。 * **说明:** 你已经创建了 [[多路召回]]、[[粗召回(粗排)]]、[[精召回(精排)]] 等一系列高质量的原子笔记。现在需要一个 MOC(Map of Content)来将它们组织成一个“多阶段漏斗”的经典搜索架构,并链接到 [[BM25]]、[[向量检索]] 等具体技术。 3. **创建“设计模式实战”笔记:** * **行动:** 创建一个新笔记,例如 [[我的设计模式应用]]。 * **说明:** 将本周学习的 [[响应式编程]]、[[装饰器模式]] 等模式,与你在 [[四渡赤水@]] 或其他项目中的具体代码片段对应起来。例如,“这里的 langfuse_trace 装饰器就是 [[装饰器模式]] 的应用”,“这里的 StreamingResponse 和 yield 实现了 [[响应式编程]] 的思想”。这能让抽象的模式变得具体可感。 4. **关于目录结构的建议:** * 你当前的目录结构非常清晰,特别是 2 第二大脑 下的分类。将 面试别人 作为一个专门的目录是非常好的实践。 * 考虑到 四渡赤水 项目的笔记越来越多,可以考虑在 src/2 第二大脑/2 飞轮/3 项目系统/四渡赤水/ 目录下创建子目录,如 技术侧、产品侧、数据侧,将 [[四渡赤水-多Agent]] 放入 技术侧,[[四渡赤水-UI]] 放入 产品侧,[[路线提取-结构化]] 放入 数据侧,使项目笔记本身也结构化。 # 5. 提问与下周展望 * **问题供你思考:** 1. 你在 [[微调]] 笔记中总结了大量的 SFT/RL 实践经验。在这些“术”的背后,你认为驱动模型效果提升最核心的“道”是什么?是数据质量、训练策略,还是对模型行为的深刻理解? 2. 本周你深入研究了异步和流式处理。你认为在 [[四渡赤水@]] 项目中,当前最大的性能瓶颈最可能出现在哪个环节?是 LLM 推理本身,还是数据在多个 Agent 之间的流转与处理? 3. 你对 [[语言不对等现象]] 的研究,是否给你在设计 [[四渡赤水-提示词]] 时带来了新的启发?例如,如何设计更“跨语言通用”或更能激发模型深层语义理解的 Prompt? * **下周展望:** * **深化AI应用架构:** 既然已经对 [[LangGraph]] 和多 Agent 有了深入了解,下一步可以研究 **Agent 的状态持久化与可回溯性**,这在生产环境中至关重要。 * **探索AI模型评估:** 你已经开始关注 [[F1 分数]] 等指标。下一步可以系统学习和实践 **LLM 的评估方法**,如 ROUGE、BLEU,以及更先进的基于模型的评估(Model-based Evaluation)。 * **连接个人成长与技术实践:** 你在 [[产品经理 PM]] 笔记中增加了对“变与不变”的思考。下周可以尝试将这种产品思维应用到你的一个技术项目上,写一篇笔记,分析该项目的“核心不变的需求”和“需要持续迭代变化的功能”。