# Summary
# Cues
# Notes
为什么做NLP算法让我痛苦呢,主要就是因为理想与现实的差距,我学习算法的时候以为到工作岗位就是自己动手搭建模型,然后对模型进行结构调优、参数调优,然后做出一个比之前效果更好的模型;
而实际情况就是NLP的算法模型都是非常通用的,开源的代码和调好的参数国外的大学和顶级科研机构早就帮你写好了,在工作场景中在模型层面根本没有你发挥的空间,每天的工作就是在清洗训练语料库,修正badcase,加缓存cache,尝试不同分词策略;做的事情可以说是让我觉得无聊至极,所以那段时间每天一边在继续学习各个领域的算法知识,一遍在找工作岗位中哪些方向可以做和模型相关的算法;后面发现向NLP、图像领域这种通用型强的算法,绝大多数最优秀的论文都是出自大学或者研究机构,很少有研究成果是由科技公司的算法部门做出来的,而广告、推荐、搜索相关的算法一般都是各个科技公司的算法部门提出的;这可能是因为图像和NLP属于通用科学,不依赖应用场景且有很多开源的高质量训练数据集,所以科研机构和大学做这些方向上的探索就会更加方便;而搜索、广告、推荐和业务相关性很强,通用型不强,非常依赖自有业务数据,所以前沿的模型一般都是由各个公司的业务算法团队提出的;结合我个人的偏好,最终决定转去做推荐相关的算法公司;后面就跳槽去了其他公司做推荐算法,而事实证明确实推荐算法就比较符合我对算法工作的预期,虽然大部分时间还是在做特征工程+相关的数据工作,但是至少有20%-40%的时间是要去做模型优化相关的工作的,所以整体工作内容还是非常符合自己的预期;而且推荐算法的工作不确定性非常的强:一个模型结构在谷歌的业务场景效果很好,但是在自己的业务场景效果好不好就不一定了,一个看似很重要的特征加了可能不一定有效果,而一个看似很简单的label修正操作带来的效果提升可能比优化两个月模型结构带来的提升很大;还有每年都有一大堆算法相关的新论文发表,你需要结合自己的业务去筛选那些可能会来收益的点去进行尝试,可以说基本每天都要学习;而就我个人而言我很喜欢这种不确定性,他不会让工作变的成枯燥无味;