# 💡 Summary
1. 各家都在喊[[HSTU]],想象力是拉满了的,而落地过程却是异常艰难的。自HSTU开始,我们也在follow行业内各式各样的解决方案:沿着HSTU,我们看到了美团HSTU GR和小红书HSTU落地的技术报告;在用户建模上,我们看到了阿里LUM的系列工作;语义ID建模路线上,我们看到从Google的Tiger到快手的 One 系列;其它类型的探索上,我们也调研了字节的HLLM、Longer、Rank Mixer等等。直到今年上半年,我们有了一定富余的人员和资源支持后,也开始紧锣密鼓地投入到路线验证的工作中去。在我们初期的尝试中,有对前文提到的优秀工作进行借鉴,
2. 但在实际落地过程中都没有取得显著的效果。我们总结了失败的经验,发现问题主要出在以下几个方面:
1. 各家的Baseline优化程度、用户习惯、场景特性、建模目标、数据规模各不相同,落地方案的经验难以迁移,例如我们尝试HSTU 原文的平铺式特征注入得到了比较差的效果,后来测试有效的 side info 融合效果和美团GR的方案比较接近。
2. 各家的特征服务、样本服务、模型推理服务、业务架构各不相同,一些方案“过拟合“到了对应的具体系统的研发经验中,就很强的路径依赖。这种情况下,不是不想试,而是不敢试,缺少低成本的MVP方案来快速试错。
3. 一些方案缺少关键的技术细节,尝试的ROI太低。例如我们尝试HLLM的时候,按照原文揣摩复现的时候,取得的效果远低于baseline 双塔。我们猜测文本样本的构造可能是关键,但苦于东南亚小语种的样本试错难度过大,只能浅尝辄止。
4. 注意力机制在DLRM(传统深度神经网络推荐范式)已经深度集成,从I日范式到新范式,一些长期积累下来的特征工程和网络结构优化需要被“取舍”,结构优化带来的增益不一定能磨平范式切换带来的损失。
# 🧩 Cues
# 🪞Notes
---
## 📌📌📌 高德生成式推荐大模型,为你推荐更合适的POI 有没有想...
执行时间:2026-01-28 21:23
执行结果:✅ 成功
摘要:下载5张技术架构图 + 生成1.9万字深度报告
产出文件 (保存于 `~/Downloads/social_media/`):
1. 技术架构图: gaode_rec_01-05.jpg (5张)
2. 完整报告: gaode_generative_recommendation_report.md (19KB)
3. 调研数据: perplexity_research.md
核心技术创新:
1. Spacetime-GR 架构 - 地理感知的分层POI索引
2. 时空信息token化 - 将时空信息作为序列一部分
3. 多模态POI表征 - LLM融合文字+图片信息
4. DPO对齐训练 - 召回和排序联合优化
对比传统推荐的优势:
• 强 Scaling Law 效应
• LLM 原生支持多模态融合
• 冷启动问题明显改善
• 端到端建模减少信息损失
商业价值:
• 用户层面: CTR提升5-15%,转化率提升10-20%
• 商业层面: 推荐位价值提升,商家ROI增加
• 行业层面: 推荐范式从判别式向生成式转变
可借鉴的产品思路:
1. 适用场景:
- ✅ 时空强相关的推荐(出行、外卖、到店)
- ✅ 多模态信息丰富(POI有文字、图片、位置)
- ✅ 长尾问题严重(大量POI缺少历史数据)
1. 技术落地路径:
- 第一阶段: LLM Embedding增强(复杂度低)
- 第二阶段: 生成式排序SFT(复杂度中)
- 第三阶段: 完全生成式推荐(复杂度高)
1. ROI估算:
- 成本: 模型训练(数十万GPU时) + 在线推理增加20-50%
- 收益: CTR提升10% → 广告收入增加数亿元/年
后续建议:
1. 关注高德是否开源Spacetime-GR模型
2. 研究相关论文(RecSys、KDD、WWW顶会)
3. 调研竞品(美团、大众点评)的生成式推荐探索
技术说明:
原文链接: [http://xhslink.com/o/654MIucGjBv](http://xhslink.com/o/654MIucGjBv)
使用小红书MCP工具下载内容 + Perplexity Deep Research深度调研,生成了包含技术架构、业务价值、产品思路的全面分析报告。