本文介绍了一种用于欺诈检测的混合神经符号(HNS)方法,该方法通过可微分损失函数将领域特定规则集成到神经网络训练中,以提高在高度不平衡数据集上的性能。
📝 详细摘要
作者探讨了标准神经网络在信用卡欺诈检测中的局限性,在这种场景下,极端的类别不平衡(0.17%)往往导致模型忽略领域特定的“危险信号”。提出的解决方案是一个混合神经符号(HNS)框架,它在标准的二元交叉熵(BCE)目标函数中增加了一个可微分的“规则损失”。通过使用 Sigmoid 函数来近似交易金额和 PCA 特征的硬阈值,即使在缺乏标记欺诈样本的批次中,模型也能接收到一致的梯度信号。文章强调了严谨的评估,通过 5 个种子的方差分析证明,虽然像 F1 这样依赖阈值的指标对初始化非常敏感,但 HNS 方法在 ROC-AUC 上提供了持续且具有统计学意义的提升。此外,文章还提供了关于对称阈值调优以及在不平衡场景下 Batch Normalization 重要性的实用建议。
💡 主要观点
- 标准损失函数无法捕捉高度不平衡数据中的领域特定“危险信号”。 在欺诈样本占比小于 0.2% 的数据集中,模型通常只需简单地预测“非欺诈”即可获得高准确率。标准的 BCE 无法融入分析师的直觉,例如对高额交易天生的怀疑。
💬 文章金句
- 模型已经悄悄地发现,对任何模糊的情况预测“非欺诈”是阻力最小的路径——而且损失函数中没有任何内容反对这一决定。
- 诀窍在于使规则可微分……陡峭的 Sigmoid 函数可以近似相同的阈值行为,但保持处处平滑且可微。
- 无论标签如何,规则损失都会在每笔可疑交易上触发——它在那些原本无法向优化器提供任何欺诈信息的批次中生成了梯度信号。
- 教训并不是规则取代了学习,而是规则可以引导学习——尤其是在标记样本稀缺的情况下。
- 如果使用不同的阈值策略评估两个模型……你不是在比较模型,而是在衡量阈值差距。
📊 文章信息
AI 评分:86
来源:Towards Data Science
作者:Emmimal P Alexander
分类:人工智能
语言:英文
阅读时间:12 分钟
字数:2971
标签: 神经符号 AI, 欺诈检测, 不平衡分类, PyTorch, 损失函数工程