文章插图
原创 | CDA数据分析研究院,转载需授权介绍
如果说在机器学习领域有哪个优化算法最广为认知,用途最广,非梯度下降算法莫属 。梯度下降算法是一种非常经典的求极小值的算法,比如在线性回归里我们可以用最小二乘法去解析最优解,但是其中会涉及到对矩阵求逆,由于多重共线性问题的存在是很让人难受的,无论进行L1正则化的Lasso回归还是L2正则化的岭回归,其实并不让人满意,因为它们的产生是为了修复此漏洞,而不是为了提升模型效果,甚至使模型效果下降 。但是换一种思路,比如用梯度下降算法去优化线性回归的损失函数,完全就可以不用考虑多重共线性带来的问题 。其实不仅是线性回归,逻辑回归同样是可以用梯度下降进行优化,因为这两个算法的损失函数都是严格意义上的凸函数,即存在全局唯一极小值,较小的学习率和足够的迭代次数,一定可以达到最小值附近,满足精度要求是完全没有问题的 。并且随着特征数目的增多(列如100000),梯度下降的效率将远高于去解析标准方程的逆矩阵 。神经网络中的后向传播算法其实就是在进行梯度下降,GDBT(梯度提升树)每增加一个弱学习器(CART回归树),近似于进行一次梯度下降,因为每一棵回归树的目的都是去拟合此时损失函数的负梯度,这也可以说明为什么GDBT往往没XGBoost的效率高,因为它没办法拟合真正的负梯度,而Xgboost 的每增加的一个弱学习器是使得损失函数下降最快的解析解 。总之梯度下降算法的用处十分广泛,我们有必要对它进行更加深入的理解 。
关于梯度下降算法的直观理解
文章插图
关于梯度下降算法的直观理解,我们以一个人下山为例 。比如刚开始的初始位置是在红色的山顶位置,那么现在的问题是该如何达到蓝色的山底呢?按照梯度下降算法的思想,它将按如下操作达到最低点:
第一步,明确自己现在所处的位置
第二步,找到相对于该位置而言下降最快的方向
第三步, 沿着第二步找到的方向走一小步,到达一个新的位置,此时的位置肯定比原来低
第四部, 回到第一步
第五步,终止于最低点
按照以上5步,最终达到最低点,这就是梯度下降的完整流程 。当然你可能会说,上图不是有不同的路径吗?是的,因为上图并不是标准的凸函数,往往不能找到最小值,只能找到局部极小值 。所以你可以用不同的初始位置进行梯度下降,来寻找更小的极小值点,当然如果损失函数是凸函数就没必要了,开开心心的进行梯度下降吧!比如下面这种:
文章插图
问题是,如何用数学语言去描述以上5步呢?
梯度下降算法的理论推导一元函数
一元函数的导数我相信大家都学过,其几何意义是某点切线的斜率,除此之外它还能表示函数在该点的变化率,导数越大,说明函数在该点的变化越大 。
文章插图
文章插图
则导函数本身则代表着函数沿着x方向的变化率
二元函数
对于二元函数,z=f(x,y),它对x和y的偏导数分别表示如下:
函数在y方向不变的情况下,函数值沿x方向的变化率
函数在x方向不变的情况下,函数值沿y方向的变化率
有了以上的了解,我们分别知道了函数在单独在x和y方向上的变化率
现在有一个问题,我想知道函数在其他方向上的变化率怎么办?
比如下图中的u方向上:
文章插图
其实是可以做到的,我们都学过,在一平面中,任意一向量都可以用两个不共线的基向量表示,也就是说任意一方向上的变化,都可以分解到x和y两个方向上 。
比如,我想求u方向上的变化率,根据导函数的定义
若:
文章插图
其中α是u方向与x正方向的夹角
极限存在,可用洛必达法则,分子分母同时对▲u求导
原式等于:
推荐阅读
- 国密算法在数据存储中的安全应用
- 直通车点击转化率多少正常 直通车转化率突然下降了很多
- 图解机器学习:人人都能懂的算法原理
- 超级推荐点击率突然下降 超级推荐点击率要达多少及格
- KMP算法的原理和实现
- 人工智能编程:如何可视化神经网络算法模型的训练过程?
- 详细解释,从入门到实践,逐步讲解 经典中的经典算法,动态规划
- 分布式系统ID的生成方法之UUID、数据库、算法、Redis、Leaf方案
- 飓风算法3.0即将上线,控制跨领域采集及站群问题
- 养肝护肝10原则