负载均衡解析与Nginx实战( 三 )

  • 优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG-IP 用户的请求,分配给优先级最高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求),当最高优先级中所有服务器出现故障,BIG-IP 才将请求送给次优先级的服务器组 。这种方式,实际为用户提供一种热备份的方式 。
  • 动态负载均衡算法包括:最少连接数、最快响应速度、观察方法、预测方法、动态性能分配、动态服务器补充、服务质量、服务类型、规则模式
    • 最少的连接方式(Least Connection):传递新的连接给那些进行最少连接处理的服务器 。当其中某个服务器发生第二层到第七层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常 。
    • 最快模式(Fastest):传递连接给那些响应最快的服务器 。当其中某个服务器发生第二层到第七层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求分配,直到其恢复正常 。
    • 观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请求选择服务器 。当其中某个服务器发生第二层到第七层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求分配,直到其恢复正常 。
    • 预测模式(Predictive):BIG-IP 利用收集到的服务器当前的性能指标,进行预测分析,选择一台服务器在下一个时间片内,其性能将达到最佳的服务器响应用户的请求 。(被BIG-IP进行检测) 。
    • 动态性能分配(Dynamic Ratio-APM):BIG-IP 收集到的应用程序和应用服务器的各项性能参数,动态调整流量分配 。
    • 动态服务器补充(Dynamic Server Act.):当主服务器群中因故障导致数量减少时,动态地架构备份服务器补充至主服务器群 。
    • 服务质量(QoS):按不同的优先级对数据流进行分配 。
    • 服务类型(ToS):按不同的服务类型(在Type of Field 中标识)负载均衡对数据流进行分配 。
    • 规则模式:针对不同的数据流设置导向规则,用户可自行 。
    以上,就是目前实现负载均衡的主流算法,不同的负载均衡服务器会选择不同的算法 。
    1.6 软件负载均衡和硬件负载均衡的比较使用软件提供的负载均衡服务和使用硬件提供的负载均衡服务目前都有大规模的应用案例 。
    软件负载均衡服务一般都运行在标准的 x86 服务器上,成本往往比硬件负载均衡设备更便宜,同时能更好适应目前流行的云端服务 。
    而硬件负载均衡服务则需要特殊设备支持,性能和安全性方面可能会比软件负载服务更好 。


    推荐阅读