有没有线性分类器可以最小化错误分类的个数
logistic regression和SVM都可以表述成“损失函数+正则化”的形式(参见:SVM中的正则化和损失是什么? - 机器学习),其中的损失函数可以任意设计。理想的情况,当然是采用zero-one loss,不过这种损失函数没法优化。你可以采用sigmoid loss来近似它。不过我不知道效果会不会好,因为在训练过程中,对于那些分类错误又离判决边界比较远的数据,并没有足够的梯度促使其改正。
■网友
首先Logistic regression并不是最小化距离的, 那是Linear regression最小二乘法的做法.其次最小化残差通过距离来理解我认为不太准确先说为什么是最小二乘法与最小欧式距离:模型具有如下形式:
残差满足正态分布
于是有:
对于N个独立的训练样本
最大似然估计:
这里便是最小欧式距离
推荐阅读
- 知乎有没有必要增加一个特别关注功能
- 趣头条|幻影提车小记…有没有车主群加一个
- 基因是主动表达还是受某种场的影响被动表达,又或两者都有有没有隔绝所有电磁场来研究基因表达的实验
- 有没有网站能够搜出我给的类似风格图片的网站
- 有没有突如其来很好的小创意
- 上海或苏州有没有比较好的大数据培训机构
- 在平台购买网店时,签订网店转让合同有没有法律效应
- 钙奶|到底有没有营养?医生:不如白开水孩子爱喝的AD钙奶
- 有没有办法下有版权的歌
- 有没有比较好的商业计划书模板