负载均衡?看这一篇就够了( 二 )


文章插图
这是一种根据实时的负载情况 , 进行动态负载均衡的方式 。维护好活动中的连接数量 , 然后取最小的返回即可 。大致的代码如下:

负载均衡?看这一篇就够了

文章插图
最快响应
负载均衡?看这一篇就够了

文章插图
这也是一种动态负载均衡策略 , 它的本质是根据每个节点对过去一段时间内的响应情况来分配 , 响应越快分配的越多 。
具体的运作方式也有很多 , 上图的这种可以理解为 , 将最近一段时间的请求耗时的平均值记录下来 , 结合前面的加权轮询来处理 , 所以等价于 2:1:3 的加权轮询 。
题外话:一般来说 , 同机房下的延迟基本没什么差异 , 响应时间的差异主要在服务的处理能力上 。
如果在跨地域(例:浙江->上海 , 还是浙江->北京)的一些请求处理中运用 , 大多数情况会使用定时「Ping」的方式来获取延迟情况 , 因为是 OSI 的 L3 转发 , 数据更干净 , 准确性更高 。
Hash 法
负载均衡?看这一篇就够了

文章插图
Hash 法的负载均衡与之前的几种不同在于 , 它的结果是由客户端决定的 。通过客户端带来的某个标识经过一个标准化的散列函数进行打散分摊 。上图中的散列函数运用的是最简单粗暴的取余法 。
题外话:散列函数除了取余之外 , 还有诸如变基、折叠、平方取中法等等 , 此处不做展开 , 有兴趣的小伙伴可自行查阅资料 。
另外 , 被求余的参数其实可以是任意的 , 只要最终转化成一个整数参与运算即可 。
最常用的应该是用来源 IP 地址作为参数 , 这样可以确保相同的客户端请求尽可能落在同一台服务器上 。
常用负载均衡策略优缺点和适用场景
我们知道 , 没有完美的事物 , 负载均衡策略也是一样 。上面列举的这些最常用的策略也有各自的优缺点和适用场景 , 我稍作了整理 , 如下 。
负载均衡?看这一篇就够了

文章插图
这些负载均衡算法之所以常用也是因为简单 , 想要更优的效果 , 必然就需要更高的复杂度 。
比如 , 可以将简单的策略组合使用、或者通过更多维度的数据采样来综合评估、甚至是基于进行数据挖掘后的预测算法来做 。
用健康探测来保障高可用
不管是什么样的策略 , 难免会遇到机器故障或者程序故障的情况 。所以要确保负载均衡能更好的起到效果 , 还需要结合一些健康探测机制 。定时的去探测服务端是不是还能连上 , 响应是不是超出预期的慢 。
如果节点属于“不可用”的状态的话 , 需要将这个节点临时从待选取列表中移除 , 以提高可用性 。一般常用的健康探测方式有 3 种 。
HTTP 探测
使用 Get/Post 的方式请求服务端的某个固定的 URL , 判断返回的内容是否符合预期 。一般使用 HTTP 状态码、Response 中的内容来判断 。
TCP 探测
基于 TCP 的三次握手机制来探测指定的 IP + 端口 。最佳实践可以借鉴阿里云的 SLB 机制 , 如下图:
负载均衡?看这一篇就够了

文章插图
值得注意的是 , 为了尽早释放连接 , 在三次握手结束后立马跟上 RST 来中断 TCP 连接 。
UDP 探测
可能有部分应用使用的是 UDP 协议 。在此协议下可以通过报文来进行探测指定的 IP + 端口 。最佳实践同样可以借鉴阿里云的 SLB 机制 , 如下图:
负载均衡?看这一篇就够了

文章插图
结果的判定方式是:在服务端没有返回任何信息的情况下 , 默认是正常状态 。否则会返回一个 ICMP 的报错信息 。
结语
用一句话来概括负载均衡的本质是:将请求或者说流量 , 以期望的规则分摊到多个操作单元上进行执行 。
通过它可以实现横向扩展(scale out) , 将冗余的作用发挥为高可用 。另外 , 还可以物尽其用 , 提升资源使用率 。
知识在于分享 , 转发这篇文章 , 让更多的人看到 。喜欢的朋友也可以点关注收藏!


推荐阅读