# 参考方案 https://www.kaggle.com/code/luisleonardll/qwen2-5-32b-qwen3-embed-improved-prompt-engg/edit --- # 比赛方案简述 本方案围绕 **Reddit 评论是否违反子版块规则** 的判定任务,设计了两条不同的预测路线,并在最终阶段进行融合。 --- ## 1. 大模型直接分类(Qwen-32B 推理) * 使用 Qwen-32B-Instruct(AWQ 量化),配合 LoRA 适配器。 * 输入格式:`系统提示 + 规则 + 正反例子 + 待判定评论`。 * 输出限定为 "Yes" 或 "No",通过 `MultipleChoiceLogitsProcessor` 控制生成。 * 得到的结果是每条评论违规的概率预测。 👉 优点:模型理解力强,能直接结合规则语境做出判断。 👉 缺点:推理成本高,对边缘样本有时不稳定。 --- ## 2. 语义相似度投票(Embedding 检索) * 构建训练+示例语料库,并为每条评论生成 embedding。 * 使用微调后的 Qwen Embedding 模型,把测试评论与语料库对齐。 * 检索 Top-K 最相似的样本,并用相似度 × 样本标签(违规=+1 / 不违规=-1)加权。 * 得分为正 → 倾向违规;为负 → 倾向不违规。 👉 优点:基于相似案例,结果可解释且稳定。 👉 缺点:对语料质量依赖大,单独使用时区分度有限。 --- ## 3. 融合策略 * **思路**:结合大模型的“直接理解”与嵌入模型的“相似投票”。 * **方法**:采用 **rank 加权融合** * 将两个分支的预测转化为排名(归一化到 0\~1)。 * 以固定比例加权(如 0.55×LLM + 0.45×Embedding)。 * 得到最终的违规概率。 👉 这样既能利用大模型的强表达,又能借助相似度检索的稳健性。 --- ## 4. 总结 整体 pipeline: 1. LLM 直接分类给出概率; 2. Embedding 检索投票给出相似度分数; 3. 通过 rank 融合获得最终提交结果。 这种“双路+融合”的设计思路,既保证了模型的理解力,又提升了整体的鲁棒性与稳定性。