Feature Selection

特征选择

  特征选择在特征提取得到的众多特征中选择有意义的特征输入机器学习的算法和模型进行训练。特征选择有三个目的: 简化模型,是模型更易于研究人员和用户理解。 可解释性不仅让我们对模型效果的稳定性有更多把握,也能为业务运营等工作提供指引和决策支持。 改善性能,节约存储和计算开销。 改善通用性、降低过拟合风险。 特征的增多会大大提高模型的搜索空间,大多数模型需要的样本数目随着特征数量的增加而显著增加,特征的增加虽然能更好地拟合训练数据,但也可能增加方差。 [Read More]

Information Theory

KL 散度(Kullback-Leibler Divergence)   KL 散度(相对熵),是一种量化两种概率分布 P 和 Q 之间差异的方式,又叫相对熵。在概率学和统计学上,我们经常会使用一种更简单的、近似的分布来替代观察数据或太复杂的分布。K-L散度能帮助我们度量使用一个分布来近似另一个分布时所损失的信息。 [Read More]