神经网络|神经网络原来这么简单,机器学习入门贴送给你( 三 )
那么它的权重w跟偏差b , 在图上标示 , 那么就有6个权重变量 , 3个偏差变量 。
本文插图
于是 , 便将损失函数写为多变量函数 。
本文插图
想象一下 , 我们只要调整w1 , 就可能导致L的变化 。 那具体是如何变化的呢?这就需要计算偏导数了 。
本文插图
利用链式求导法则进行反向求导 , 而这一过程就叫做反向传播 。
详细计算过程就不放在这里了 , 大家去他个人网站去看哦~(链接已附文末)
作者温馨提示 , 看这个过程的时候不要着急 , 拿出手中的笔和纸 , 能够帮助你理解 。
接下来 , 使用随机梯度下降的优化算法 , 公式表示如下(以w1为例):
本文插图
其中的“学习速率”控制着训练速度 , 过大或者过小都不合适 。
如果我们将所有的变量都进行这样的优化 , 那么损失函数将逐渐减少 , 神经网络就能够得到改善 。
本文插图
简单来说 , 整个训练过程是这样的:
1、数据集中选择一个样本 , 就如Alice 。
2、利用反向传播计算所有变量的偏导数 。
3、使用随机梯度下降来训练神经网络 , 更新变量 。
4、返回步骤1 。
神经网络的部分就介绍到这里 , 怎么样?看完之后 , 有什么感想?
【神经网络|神经网络原来这么简单,机器学习入门贴送给你】是不是觉得神经网络也还好了 。 还有其他概念等着你来学习呢!
推荐阅读
- 中年|探索城市的“未来模样”,腾讯政务接下来这么干
- |为什么我店铺流量狂掉?淘宝竞争这么激烈还能不能做?
- work|分布式系统设计理念为何这么难学?
- 中国电子报|关于5G R16标准和车联网,中国联通这么看
- 青年|辣妈这么有气质,看不出有40岁了吧
- |为什么开车会这么累,到底是哪里出了问题?
- GPD掌机|终于明白PS4不开机的原因了,原来中年人是这样玩游戏的
- 中年|现实生活中的“卡通房子”,原来海绵宝宝的“菠萝屋”,真的存在!
- 中年|吃葡萄干前到底用不用洗?很多人原来都吃错了,来看看专家怎么说
- 三星手机|论视频拍摄稳定性,这四大热门手机实力竟相差这么多