Information Theory

KL 散度(Kullback-Leibler Divergence)   KL 散度(相对熵),是一种量化两种概率分布 P 和 Q 之间差异的方式,又叫相对熵。在概率学和统计学上,我们经常会使用一种更简单的、近似的分布来替代观察数据或太复杂的分布。K-L散度能帮助我们度量使用一个分布来近似另一个分布时所损失的信息。 [Read More]

Outline of Algorithms

In order to facilitate the search, I wrote this blog. I’ve collected all algorithms that I learned or want to learn in Machine Learning, Deep Learning, Mathematics and Data Structure and Algorithms. I hope I can improve my skills and knowledge in these area with writing the interpretation about these... [Read More]
Tags: Outline

Python Level Up

字符串相关处理 找到字串位置 找到字串的第一个位置:str_.find('it') 找到字串的最后一个位置:str_.rfind('it') [Read More]
Tags: Python

Learn Numpy From Scratch

数据处理 用交叉验证选择最后的投票结果如何快速选择得到最终结果 可以先利用 numpy.bincount 来找出所有出现值的次数,然后再找到出现次数最多的那个数,注意numpy.bincount的结果是np.amax(x)+1。 # voting submit = [] for line in cv_pred: submit.append(np.argmax(np.bincount(line))) [Read More]
Tags: Python