# 💡 Summary 1. 各家都在喊[[HSTU]],想象力是拉满了的,而落地过程却是异常艰难的。自HSTU开始,我们也在follow行业内各式各样的解决方案:沿着HSTU,我们看到了美团HSTU GR和小红书HSTU落地的技术报告;在用户建模上,我们看到了阿里LUM的系列工作;语义ID建模路线上,我们看到从Google的Tiger到快手的 One 系列;其它类型的探索上,我们也调研了字节的HLLM、Longer、Rank Mixer等等。直到今年上半年,我们有了一定富余的人员和资源支持后,也开始紧锣密鼓地投入到路线验证的工作中去。在我们初期的尝试中,有对前文提到的优秀工作进行借鉴, 2. 但在实际落地过程中都没有取得显著的效果。我们总结了失败的经验,发现问题主要出在以下几个方面: 1. 各家的Baseline优化程度、用户习惯、场景特性、建模目标、数据规模各不相同,落地方案的经验难以迁移,例如我们尝试HSTU 原文的平铺式特征注入得到了比较差的效果,后来测试有效的 side info 融合效果和美团GR的方案比较接近。 2. 各家的特征服务、样本服务、模型推理服务、业务架构各不相同,一些方案“过拟合“到了对应的具体系统的研发经验中,就很强的路径依赖。这种情况下,不是不想试,而是不敢试,缺少低成本的MVP方案来快速试错。 3. 一些方案缺少关键的技术细节,尝试的ROI太低。例如我们尝试HLLM的时候,按照原文揣摩复现的时候,取得的效果远低于baseline 双塔。我们猜测文本样本的构造可能是关键,但苦于东南亚小语种的样本试错难度过大,只能浅尝辄止。 4. 注意力机制在DLRM(传统深度神经网络推荐范式)已经深度集成,从I日范式到新范式,一些长期积累下来的特征工程和网络结构优化需要被“取舍”,结构优化带来的增益不一定能磨平范式切换带来的损失。 # 🧩 Cues # 🪞Notes --- ## 📌📌📌 高德生成式推荐大模型,为你推荐更合适的POI 有没有想... 执行时间:2026-01-28 21:23 执行结果:✅ 成功 摘要:下载5张技术架构图 + 生成1.9万字深度报告 产出文件 (保存于 `~/Downloads/social_media/`): 1. 技术架构图: gaode_rec_01-05.jpg (5张) 2. 完整报告: gaode_generative_recommendation_report.md (19KB) 3. 调研数据: perplexity_research.md 核心技术创新: 1. Spacetime-GR 架构 - 地理感知的分层POI索引 2. 时空信息token化 - 将时空信息作为序列一部分 3. 多模态POI表征 - LLM融合文字+图片信息 4. DPO对齐训练 - 召回和排序联合优化 对比传统推荐的优势: • 强 Scaling Law 效应 • LLM 原生支持多模态融合 • 冷启动问题明显改善 • 端到端建模减少信息损失 商业价值: • 用户层面: CTR提升5-15%,转化率提升10-20% • 商业层面: 推荐位价值提升,商家ROI增加 • 行业层面: 推荐范式从判别式向生成式转变 可借鉴的产品思路: 1. 适用场景:    - ✅ 时空强相关的推荐(出行、外卖、到店)    - ✅ 多模态信息丰富(POI有文字、图片、位置)    - ✅ 长尾问题严重(大量POI缺少历史数据) 1. 技术落地路径:    - 第一阶段: LLM Embedding增强(复杂度低)    - 第二阶段: 生成式排序SFT(复杂度中)    - 第三阶段: 完全生成式推荐(复杂度高) 1. ROI估算:    - 成本: 模型训练(数十万GPU时) + 在线推理增加20-50%    - 收益: CTR提升10% → 广告收入增加数亿元/年 后续建议: 1. 关注高德是否开源Spacetime-GR模型 2. 研究相关论文(RecSys、KDD、WWW顶会) 3. 调研竞品(美团、大众点评)的生成式推荐探索 技术说明: 原文链接: [http://xhslink.com/o/654MIucGjBv](http://xhslink.com/o/654MIucGjBv) 使用小红书MCP工具下载内容 + Perplexity Deep Research深度调研,生成了包含技术架构、业务价值、产品思路的全面分析报告。