谁能比较一下卡方距离、KL距离和互信息
卡方我不熟悉,KL Divergence和 MI是有关联的: 【谁能比较一下卡方距离、KL距离和互信息】
KL Divergence 衡量的是两个概率分布的相似度,那么MI衡量的就是两个概率分布的独立性。这两个区别还是很大的,需要根据具体需求来选择。比如feature selection的时候应该用MI,但是选择loss function的话直接用KL Divergence才是合适的。
推荐阅读
- 在上海陆家嘴附近工作,请问去哪边租房会比较好
- 设计专业学生上传自己的作品,用哪个网站比较好
- 学的自动化却对IT比较感兴趣。。感觉对自己的专业帮助不大,好苦恼,要不要继续是专精还是学点感兴趣的?
- 大三学生准备日本留学过程中要不要准备考研
- 电话营销机器人哪个比较好用
- 非计算机专业想要利用课余时间深入自学C++,想要找到比较体面的工作大概需要啥水平
- 建议|育婴师给出这几点建议,来了解一下小孩发烧咳嗽怎么办
- |PHEV车款没比较环保,新能源是否存在谎言呢?
- 最近有啥样的交友软件比较好玩呢
- 车祸违驾|为什么交警在查车时,会用手摸一下车尾,你知道是什么意思吗?