|
类不平衡平衡批量平衡批量加权训练词向量无NoNr节点125 100辍学分数0.25 0.5注:在不平衡验证集中评估每个模型类型的屏蔽He/she数据的超参数优化结果。表A4:验证总结结果表A4列出了每种模型类型的超参数优化结果的总结。神经网络框架中提出的NB模型表现出较差的性能(未显示)。NB模型的准确度为0.754,准确地击败了简单的分类规则,即预测任何样本到he类,其准确度为0.749。专栏介绍了表现最好的模型,即LSTM神经网络模型,ROC AUC得分为0.7640.758,准确度为0.772。因此,表A4的内省表明,当NLSTM模型ROC AUC得分比NB模型高0.03分,准确度比NB模型高0.02分时,主要的性能提高。Moreare分别为0.7372和0.7629。表A5显示了迭代的主要超参数集的结果,如果应该重新训练单词向量,并使用它来处理类不平衡,则重新训练单词向量会影响性能。一个可能的原因是,theA5还表明,无论是否对词向量进行再培训,都可以获得更高的性能,因为LSTM模型一得出的结论是,加权可以提高性能。对于BoW WV模型是离散的,为什么LSTM模型类型的方法之间的差异更大,可能是LSTM节点“detrend”输入数据,使其对不平衡数据更敏感。预印本-2019年3月5日LSTMROC AUC 0.7410 0.7540 0.6486 0.7061精度0.7672 0.7698 0.7664 0.7651词向量训练是否训练w。
|