有没有线性分类器可以最小化错误分类的个数

logistic regression和SVM都可以表述成“损失函数+正则化”的形式(参见:SVM中的正则化和损失是什么? - 机器学习),其中的损失函数可以任意设计。理想的情况,当然是采用zero-one loss,不过这种损失函数没法优化。你可以采用sigmoid loss来近似它。不过我不知道效果会不会好,因为在训练过程中,对于那些分类错误又离判决边界比较远的数据,并没有足够的梯度促使其改正。
■网友
首先Logistic regression并不是最小化距离的, 那是Linear regression最小二乘法的做法.其次最小化残差通过距离来理解我认为不太准确先说为什么是最小二乘法与最小欧式距离:模型具有如下形式:有没有线性分类器可以最小化错误分类的个数
有没有线性分类器可以最小化错误分类的个数
残差满足正态分布有没有线性分类器可以最小化错误分类的个数
于是有:有没有线性分类器可以最小化错误分类的个数
对于N个独立的训练样本有没有线性分类器可以最小化错误分类的个数
有没有线性分类器可以最小化错误分类的个数
有没有线性分类器可以最小化错误分类的个数
最大似然估计:有没有线性分类器可以最小化错误分类的个数
有没有线性分类器可以最小化错误分类的个数
有没有线性分类器可以最小化错误分类的个数
这里便是最小欧式距离有没有线性分类器可以最小化错误分类的个数


推荐阅读