文章插图
【Logistic Regression:最基础的神经网络】
这个方法通俗一点就是,先随机在曲线上找一个点,然后求出该点的斜率,也称为梯度,然后顺着这个梯度的方向往下走一步,到达一个新的点之后,重复以上步骤,直到到达最低点(或达到我们满足的某个条件) 。如,对w进行梯度下降,则就是重复一下步骤(重复一次称为一个「迭代」):
其中:=代表“用后面的值更新”,α代表「学习率(learning rate)」,dJ/dw就是J对w求偏导 。
回到我们的Logistic Regression问题,就是要初始化(initializing)一组W和b,并给定一个学习率,指定要「迭代的次数」(就是你想让点往下面走多少步),然后每次迭代中求出w和b的梯度,并更新w和b 。最终的W和b就是我们学习到的W和b,把W和b放进我们的模型中,就是我们学习到的模型,就可以用来进行预测了!
需要注意的是,这里我们使用的损失是全体训练样本的损失 。实际上,使用全部样本的损失进行更新的话会太慢,但使用一个样本进行更新,误差就会很大 。所以,我们更常用的是选择「一定大小的批次」(batch),然后计算一个batch内的损失,再进行参数更新 。
总结一下:
- Logistic Regression模型:,记住使用的激活函数是sigmoid函数 。
- 损失函数:衡量预测值与真实值的差距,越小越好 。
- 我们一般对一个批次的样本求总损失,然后使用梯度下降法进行更新 。
- 「训练模型的步骤」:
- 初始化W和b
- 指定learning rate和迭代次数
- 每次迭代,根据当前W和b计算对应的梯度(J对W,b的偏导数),然后更新W和b
- 迭代结束,学得W和b,带入模型进行预测,分别测试在训练集合测试集上的准确率,从而评价模型
推荐阅读
- 2021年最值得推荐的13个提高开发效率工具,程序员必备
- 生普洱茶饼放几年最佳,普洱茶冲泡原理
- 最好的花茶,勿忘我花茶禁忌
- 槐花怎么吃最好,槐花怎么吃最好有哪些营养价值
- |钓鱼人夜钓为何最怕“死鱼正口”死鱼为何能“咬钩”?
- 排油减肥茶都有哪些,最有效的自制减肥茶都有哪些
- 世界上最大最美最奇最全的熔岩洞是织金洞?织金洞是世界第几大洞
- 生肖|瓶颈之后,有最强的转运动力的生肖
- 啤酒花的吊绳方法,鼻窦炎的治疗方法(治疗鼻窦炎最佳方法
- 干蒸和湿蒸的区别