简明应用交付技术:从负载均衡到应用引擎

978-7-115-67370-1
作者: 吴若松张刚李崇民
译者:
编辑: 邓昱洲

图书目录:

详情

本书全面回顾和展望负载均衡技术的演进,从历史与技术的双重视角,展现负载均衡如何从简单的流量分发工具发展为应用交付,并最终成为云原生架构的核心—应用引擎。 本书首先从负载均衡的概念讲起,追溯它在互联网用户数量激增背景下的崛起,详述从提升服务器处理能力到演化出链路负载均衡和全局负载均衡的历程;然后介绍负载均衡向应用交付的演进,剖析产业巨头如何通过创新推动技术突破;最后介绍作为云原生架构数据平面的应用引擎。本书还探讨硬件技术(如数据处理单元、智能网卡)和新兴技术(如人工智能、零信任安全)对负载均衡的影响。 本书不仅记录了负载均衡从小众工具到网络核心技术的转型历程,还展望了它在未来高效、安全通信应用中的广阔前景,是从业者不可或缺的参考用书。

图书摘要

版权信息

书名:简明应用交付技术:从负载均衡到应用引擎

ISBN:978-7-115-67370-1

本书由人民邮电出版社发行数字版。版权所有,侵权必究。

您购买的人民邮电出版社电子书仅供您个人使用,未经授权,不得以任何方式复制和传播本书内容。

我们愿意相信读者具有这样的良知和觉悟,与我们共同保护知识产权。

如果购买者有侵权行为,我们可能对该用户实施包括但不限于关闭该帐号等维权措施,并可能追究法律责任。

版  权

著    吴若松  张 刚  李崇民

责任编辑 邓昱洲

人民邮电出版社出版发行  北京市丰台区成寿寺路11号

邮编 100164  电子邮件 315@ptpress.com.cn

网址 http://www.ptpress.com.cn

读者服务热线:(010)81055410

反盗版热线:(010)81055315

内容提要

本书全面回顾和展望负载均衡技术的演进,从历史与技术的双重视角,展现负载均衡如何从简单的流量分发工具发展为应用交付,并最终成为云原生架构的核心——应用引擎。

本书首先从负载均衡的概念讲起,追溯它在互联网用户数量激增背景下的崛起,详述从提升服务器处理能力到演化出链路负载均衡和全局负载均衡的历程;然后介绍负载均衡向应用交付的演进,剖析产业巨头如何通过创新推动技术突破;最后介绍作为云原生架构数据平面的应用引擎。本书还探讨硬件技术(如数据处理单元、智能网卡)和新兴技术(如人工智能、零信任安全)对负载均衡的影响。

本书不仅记录了负载均衡从小众工具到网络核心技术的转型历程,还展望了它在未来高效、安全通信应用中的广阔前景,是从业者不可或缺的参考用书。

前  言

2001年7月,我刚加入美国F5公司(后文简称F5),负责开拓华南地区的业务。我的第一个客户是华南地区一家很大的保险公司。这个公司采购了F5为戴尔提供的OEM负载均衡网关设备,但在采购流程中遇到了一些问题,于是联系F5公司的业务人员寻求解决方案。我欣然接受任务,前往现场与客户沟通。我和这家公司技术经理的洽谈非常顺利,中午我和技术经理与研发经理在他们公司的食堂共进午餐。席间我们谈到了负载均衡,这位研发经理表示,负载均衡很简单,开源产品LVS就可以满足大部分需求,加上服务器硬件,整体成本应该不超过2万元。这一观点令我感到一丝尴尬,因为即便是在2024年,F5的负载均衡设备价格也动辄数十万元。然而,这位研发经理提出的问题却极具深意:在开源技术(如LVS、HAProxy)已足够强大的背景下,企业为何还要采购昂贵的商用负载均衡产品?

自那时起,我的脑海中就始终萦绕着这个问题。至今业界对这个问题仍热议不休。关于负载均衡选择的争论,仿佛武侠小说中“剑道”与“气道”的博弈——双方均有拥趸,这场较量已持续了几十年之久。

负载均衡的出现可追溯至20世纪90年代中期。这一技术横跨网络通信与应用软件两大领域,因而格外复杂且变化迅速。相比传统网络设备,负载均衡的演进速度显得尤为迅猛;而相较灵活多变的应用软件,负载均衡则显得相对保守并具有较高黏性。

从技术起源看,专注于网络技术的厂商(如Foundry Networks、思科、Juniper Networks、北电网络、Radware等)率先推出了四层网络交换机(Layer 4 Switch);而以F5、Citrix、Redline Networks、IPVIP为代表的企业,则以应用代理软件为基础开发出应用交付控制器。这两大阵营在技术实现及硬件架构方面存在巨大差异,曾就“何为优秀负载均衡产品”展开长达数十年的争论。

随着时间推移,这场“华山论剑”逐渐分出胜负。从2009年开始,思科、北电网络等厂商相继淡出负载均衡市场,以F5为代表的应用交付派取得了关键性胜利。然而,近年来随着P4芯片、数据处理单元、智能网卡等新型硬件的涌现,负载均衡领域再度波澜迭起,新的技术浪潮正在孕育。这场IT领域的技术争论,显然还未终结。

尽管负载均衡(应用交付)在整个IT领域仅是一个小众分支,但其影响力不容忽视。这本书可以更好地帮助从业者理解这一技术。

我们所处的时代,是一个“无应用不网络、无应用不负载、无应用不交付”的时代。随着数据中心与云计算的重要性日益提升,负载均衡(应用交付)已然成为数据中心与云计算的战略控制点,为数据、应用和服务的安全、高效、稳固交付提供了不可或缺的技术支持。这正是我和同事撰写此书的初衷:以我们20余年负载均衡(应用交付)领域的从业经验为基础,将知识精华呈献给广大的IT从业人员。

本书希望通过浅显易懂的方式介绍负载均衡(应用交付)的发展历程、基础知识、基本原理、应用场景及未来展望,给读者提供一本关于负载均衡和应用交付的入门参考书。全书共5章,具体内容如下。

第1章介绍应用交付的前世今生,涵盖负载均衡的沿革、技术演进,涉及服务器负载均衡、链路负载均衡、全局负载均衡等技术,同时还介绍应用交付领域的主要厂商及主流开源负载均衡软件。

第2章从IT基础架构的角度,说明应用交付在信息系统中的定位和重要作用。在互联网架构中,应用交付填平了网络和应用的鸿沟,在企业数据中心和用户之间构建了一个安全、高效、稳固、可控的应用(内容、服务)管道,确保企业关键应用随时在线,并提供优秀的用户访问体验。在云原生架构中,应用交付不仅管理客户端到应用的南北向网络通信,还负责各个微服务实例之间的东西向网络通信。这种转变使应用交付不仅支持传统客户端与应用间的交互,还在优化和协调微服务架构内部的通信方面发挥了重要作用,从而增强了系统的整体灵活性和响应能力。应用交付演进成云原生架构数据平面的应用引擎,其作用变得更加关键。

第3章针对在互联网时代和云原生时代信息系统架构面临的对高效、安全、稳固与可控的需求,比较详细地介绍负载均衡的核心技术、工作原理,以及应用性能优化、应用安全、可编程控制等与应用交付相关的技术原理和应用场景。通过阅读这一章,读者可以对负载均衡的核心技术有一个整体的把握。对于IT售前工程师或技术顾问,这一章内容将助其理解完整的负载均衡和应用交付。

第4章主要介绍应用引擎。在云原生架构的范式变革中,应用交付正逐步演进为应用引擎。这一章将详细阐述应用引擎的定义、负载均衡向应用引擎演化的过程、应用引擎的技术实现,以及应用引擎在云原生架构中的重要作用。通过阅读这一章,读者将对应用引擎有一个全面的理解。

第5章从IT前沿的视角探讨负载均衡的发展及未来趋势,涵盖零信任安全网关、语义网络、智算资源调度网络、人工智能网关等技术方向。这一章深入介绍零信任安全网关的起源及其核心功能,以及集网络、计算、存储于一体的语义网络构想。同时,这一章提出了在数智时代实现CPU与GPU统一算力调度的前沿理念,希望能够为读者提供启发。

我希望本书能够使读者对负载均衡、应用交付乃至应用引擎有一个全局的了解,同时关注未来的IT架构及应用交付的发展趋势。此外,我也希望本书是一本客观的、可以用于参考的技术类工具书,能够帮助读者在构建IT系统时有效利用负载均衡和应用交付解决遇到的各类问题。

吴若松

2025年5月于北京

第1章 应用交付的前世今生

应用交付,顾名思义就是关于将企业开发的应用或内容安全可靠地交付到最终用户终端的方法论和技术工具。应用交付源自负载均衡,并对负载均衡的外延和意义进行了拓展。随着互联网的不断演进和发展,负载均衡逐渐被应用交付所替代。应用交付虽然源自负载均衡,然而两个技术在侧重点、实现原理等方面有诸多不同。本章介绍负载均衡的历史演进,读者对负载均衡、应用交付有一个概括的了解。

1.1 什么是负载均衡

负载均衡是解决负载压力的技术和方法论,通过增加处理事务的单元和分配事务的算法,实现多个单元并行处理,解决单个单元处理事务量低的问题。负载均衡普遍应用于我们生活、工作的各个方面。

在一项事务不能够进行有效分割,且工作量超过一个单元处理能力时,我们采用协作共担的方式完成,如图1.1所示。

图1.1 协作共担

在一项事务能够进行有效分割,且工作量超过一个单元处理能力时,我们采用负载分担的方式完成,如图1.2所示。

图1.2 负载分担

在互联网的初期,ARPANET的设计就是将网络传输的数据以报文的方式,而不是以流的方式传递。这个设计使内容和应用在网络中以一个一个包裹的方式传递,因此,互联网的模型顺理成章地按照邮递网络的模型来设计,而不是以自然界河流的模式来构建。这样一来,在网络中解决应用和内容的负载压力的方法就是采用负载分担的方式完成高负荷的工作。

我们思考一下,在20世纪90年代,哪些“压力点”造成了互联网的阻塞?

1.1.1 服务器负载均衡

第一个“压力点”来自服务器。早期的一台服务器设备只能处理2000个左右的客户端连接,而在20世纪90年代,互联网客户端蜂拥而至造成每个网站的平均在线访问量超过了20000。

1999年10月的一天,笔者(本章笔者为吴若松)坐车去北京首都国际机场,印象最深的就是沿途的大型广告牌被改成FM365的广告牌,歌星头像下面是FM365的网址。这让我感觉新媒体时代即将到来。后来,我从FM365的技术经理处得知,该网站在开启的第1小时内就有超过200万个在线连接,当时部署的高端Sun Web服务器立刻瘫痪!之后,通过负载均衡部署了几十台顶级服务器组成服务器集群,才有效处理了这个事故。

所以第一个“压力点”就是服务器处理能力不足造成的互联网阻塞,这给了负载均衡第一次大放异彩的时机。

服务器负载均衡通过将来自网络的数据报文合理分配给健康的服务器节点,来解决高并发的网络访问问题。服务器负载均衡的原理如图1.3所示。

图1.3 服务器负载均衡的原理

要实现较好的服务器负载均衡,需要考虑以下几个技术问题。

1.如何确定服务器是健康的

服务器的健康决定着每一个客户端的访问质量,将用户请求导向到故障的服务器节点将造成访问失效、客户满意度下降及经济损失等后果。因此,负载均衡需要设计自动化的、频率适当的健康检查技术来持续检测服务器的健康状态,并将故障的服务器节点移除。负载均衡的健康检查如图1.4所示。

图1.4 负载均衡的健康检查

2.如何合理分配访问压力

若服务器节点是健康的,即使我们平均分配所有的访问压力,在运行一段时间之后我们就会发现:由于不同客户在服务器上的停留时间存在差异,有的节点保有的在线客户多,有的节点保有的在线客户少。这种情况因不同的应用场景而异。因此,我们需要设计多种负载均衡算法(见图1.5)以应对不同应用场景下的压力不均衡问题。

图1.5 负载均衡算法

图1.5所示的算法简单明了,如果服务器节点1的在线用户最少,就将新用户的请求直接发给服务器节点1。现实场景中情况要复杂得多,例如由于企业部署的服务器可能是分批分次采购的,有的服务器采用单路CPU架构,有的服务器采用双路CPU架构,有的服务器采用四路CPU架构,这样不同服务器节点的处理能力可能完全不同。因此,负载均衡算法是负载均衡的核心要素。

3.如何确保用户访问的一致性

假设一个用户在一个购物网站购物,经过精挑细选之后,将喜欢的商品放到购物车中,并继续浏览,直到将所有要采购的商品都选好并放到购物车中。接下来,用户要前往结账网页进行付款。然而万维网的设计初衷只是用于分享文档和技术资料,研究人员在设计HTTP时并没有预见购物等场景!所以HTTP被设计为无状态的协议。而且,上述购物过程会被分成多个TCP会话来完成。在采用负载均衡解决电子商务网站访问量急剧增长问题的初期,奇怪的事件经常发生。如图1.6所示,有的用户在访问网站时在服务器节点1选择好了商品并放到购物车中;在后续结账的时候发起了一个新的请求,被负载均衡分配到另一个服务器节点(服务器节点3),结果用户发现在这个服务器节点运行的会话没有之前选好的商品!

图1.6 会话一致性问题

HTTP将购物车中的商品这样的临时数据以Cookie的方式保存在具体被访问的服务器节点中,除非将所有Cookie的内容在服务器节点间进行同步,否则在服务器节点3上是看不到服务器节点1保存的购物车中的商品信息的。然而,如果进行同步,服务器节点的性能就会因为不间断的实时同步而迅速下降,因此完全达不到负载均衡的目的。如果负载均衡网关能够将请求1做出的决策记住并在请求2到来时按照原来的决策将其分配到服务器节点1,我们就既完成处理能力的提升,又保持了客户访问的一致性。这个技术被称为会话保持技术,如图1.7所示。会话保持与负载均衡算法、健康检查算法成为负载均衡的三大核心要素之一,以确保用户访问的一致性!

图1.7 会话保持技术

1.1.2 链路负载均衡

第二个“压力点”来自互联网链路。早期的互联网带宽是非常稀缺的资源。不同国家对互联网基础设施的管理方式有很大的不同,对互联网这样的基础设施也有非常不同的观点和看法。

近几年,国内外产业经济学和竞争法学界一直存在这样一个争论,那就是互联网主干(宽带)网络的自由开放性和非歧视性,是否应通过规制干预,强制要求满足网络中性原则来确保公平?这个争论也是学院派经济学家的议题。这个争论意义非凡,可能直接影响政策走向。

什么是网络中性原则?在网络产业领域,网络中性原则是指通信网络(如美国AT&T、Verizon和中国三大电信运营商)和有线电视(如歌华有线)等网络接入服务运营商、互联网服务提供商(Internet Service Provider,ISP),以及政府应对所有网络资料数据传输一视同仁,不应因使用者、内容、网站、平台、应用程序、连接设备或通信模式的不同,在网速和收费上差别对待或进行过滤阻挡。

简言之,网络中性原则涵盖同等对待原则、零定价原则和非歧视性定价原则。其中,同等对待原则是指,只要网络运营商不界定和明示各种数据报文的来源,所有数据报文应被同等对待。零定价原则是指,网络运营商不能向数据内容发送方收费,只能按照接收方付费原则向数据内容接收方(如互联网用户)收取在线内容传输费。非歧视性定价原则是指,在同等情况下收取同等传输费。若将网络比作一条公路,网络中性原则就是要求“一条公路大家用”,所有人拥有相同路权,不应有所谓快车道或慢车道之分或让额外付费者优先,也不能限制只有特定车种、载运特定货物的车辆才能通行。

然而,在原中国电信分割成中国电信与中国联通的时候,并没有考虑和设定网络中性原则,除了中国电信、中国联通、中国移动、中国教育和科研计算机网(China Education and Research Network,CERNET)等全国性的ISP,国内还有几百家大大小小的ISP。这些ISP并没有遵守网络中性原则,相互之间的互联网速低并且经常发生阻塞,成为互联网访问的瓶颈。

企业都是通过ISP提供的接口与互联网连接的,不同的ISP通常会部署自己的互联网数据中心(Internet Data Center,IDC),而互联网内容提供商(Internet Content Provider,ICP)则在IDC部署自己的服务器、内容和应用。如果企业接入的链路属于ISP1,而ICP的网站托管在ISP2的数据中心IDC2,那么网络通信的速率就会显著降低甚至发生阻塞,如图1.8所示。当然,即使在立法采取网络中性原则的国家,用户在互联网跨越多个不同的域(Domain)时,也可能因经过的路由器节点过多导致延迟时间过长,从而降低访问效率。

图1.8 互联网链路阻塞

我们可以采用路由器来解决多个ISP接口的负载均衡问题,一个比较重要的协议是边界网关协议(Border Gateway Protocol,BGP),它就是在不同的ISP之间实现链路负载均衡的路由协议,如图1.9所示。BGP提供了方向,以便流量尽可能高效地从一个IP地址传输到另一个IP地址。每个BGP路由器存储一个路由表,其中包含自治系统(Autonomous System,AS)之间的最佳路由信息。每个AS(通常是ISP)广播其拥有的新IP地址前缀,它们不断更新这些内容。BGP总是倾向于采用从一个AS到另一个AS的最短和最直接的路径,以便在网络中通过尽可能少的跳跃来到达目的IP地址。互联网是一个网络,它被分解成数十万个称为AS的小型网络。

图1.9 BGP示意

AS是互联网架构中具有独立管理边界的网络单元,通常由单一组织实体(如大型企业、科研机构或互联网服务提供商)通过统一的路由策略集中管控网络资源。这类网络可能包含多个子网,每个子网在遵循组织内部路由规则的同时,通过标准化协议与外部网络建立通信。

典型的AS往往具备多宿主连接能力,即通过多个上游链路与不同ISP相连。这种设计不仅增加了网络冗余性,还能通过BGP动态优化数据传输路径。为实现全球路由寻址,每个AS都被分配唯一的自治系统编号(Autonomous System Number,ASN),该编号如同网络世界的身份证号码,在互联网路由表中用于精确标识路径。

从技术实现来看,AS内部采用内部网关协议(Interior Gateway Protocol,IGP)处理子网间通信,而与其他AS的交互则依赖BGP。这种分层架构既保证了组织内部网络管理的灵活性,又通过标准化协议实现了全球互联网的互联互通。当前ASN的分配遵循因特网编号分配机构(Internet Assigned Numbers Authority,IANA)规范,支持2字节(1~65535)和4字节(65536~4294967295)两种编号格式,以满足日益增长的网络规模需求。

然而,企业采用BGP时需要向IANA购买非常昂贵的ASN。BGP需要核心路由器定时广播最佳路由信息,几乎所有的运营商都不希望过多的AS在主干网络中广播。有时候,即使资金充足,运营商也不愿意提供ASN给企业客户,原因是每个ISP的ASN资源是非常有限的。ASN属于IANA的核心资源,它们将有限的ASN分配给地区性互联网注册机构(Regional Internet Registry,RIR),然后RIR将其分配给不同的ISP。

此外,BGP使用不当会给互联网造成巨大的损害。2004年,一家名为TTNet的土耳其ISP意外向其邻居发布了错误的BGP路由。这些路由声称TTNet本身是互联网上所有流量的最佳目的地。随着这些路由传播到更多AS,网络发生了为期一天的大规模中断,世界上许多人无法访问部分或全部互联网。

这种被称为BGP劫持的案例,并不总是偶然发生的。在2018年4月,攻击者故意创建错误的BGP路由来重定向亚马逊DNS的流量。通过将此流量重定向到自己的网址,攻击者窃取了价值超过10万美元的加密货币。类似事件可能还会持续发生,因为BGP的路由共享功能依赖信任,而AS隐含地信任与它们共享的路由。尽管有许多雄心勃勃的提案旨在使BGP更加安全,但这些提案很难实现,因为它们需要所有AS同时更新其行为。这需要数十万个组织的协调,并可能导致整个互联网的短暂中断,因此这些提案似乎不太可能很快实施。

有一种经济实惠的解决方案则是企业通过两个或者多个ISP接入互联网,然后通过部署链路负载均衡网关来根据客户端和其所访问的目的站点,采用合适的负载均衡算法实现多出口访问的负载均衡,如图1.10所示。

图1.10 链路负载均衡

链路负载均衡同样包含三大核心要素,即链路的健康检查方法、链路的负载均衡算法、链路的会话保持技术。它们的技术原理和服务器负载均衡非常相似,在此不做过多说明。需要指出的是,链路负载均衡以会话为单位,工作在传输层,并且采用源网络地址转换(Source Network Address Translation,SNAT)这一非常重要的技术来实现多出口访问的负载均衡。负载均衡需要采用端口复用技术解决公网IP地址的链路出口有限和互联网目的站点访问无限之间的矛盾。

1.1.3 全局负载均衡

第三个“压力点”来自安全容灾。2001年9月11日,我当时加入美国F5不久,去珠海出差拜访合作伙伴和客户。当天晚上,几乎所有的电视频道都在播放美国纽约世界贸易中心被撞、燃起大火、最终倒塌的全过程。世界贸易中心有上百家金融机构,这些金融机构的数据中心都部署在那两栋大楼中,很多金融机构还没有部署容灾中心,灾难的发生导致大量用户无法使用金融服务(见图1.11),大楼中数据中心的损毁使几十家金融机构倒闭。痛定思痛之后,所有的企业和政府都开始部署多个跨越不同地域的数据中心,以面对可能的数据中心灾难和事故,全局负载均衡的技术也应运而生。

图1.11 数据中心故障

全局负载均衡通过针对DNS请求进行动态解析来实现将客户请求分配到不同的互联网站点的目的。我们在访问互联网网站的时候,绝大多数情况下是不知道某个网站的IP地址的,这是因为复杂的IP地址,比如IPv4地址192.168.123.56、10.127.134.15,或者IPv6地址fec0:ff00:1212:50e0:89ab:129e:ef03:2e45枯燥无味且难以记忆。但是,我们却比较容易记住域名,比如www.abc.com、www.def.com、www.xyz.com等,我们可以随时记住几十个常用的域名,然而基本上记不住任何一个流行网站的IP地址。

域名要能够被正常访问,就需要通过DNS服务器翻译成路由器可以理解的IP地址。正因为有专门的DNS服务器将域名翻译成匹配的IP地址,我们可以采用动态解析指定域名为不同的IP地址的方式实现在互联网全局范围内的请求负载均衡。

如图1.12所示,步骤①,客户端需要访问www.abc.com,向DNS服务器发起www.abc.com的记录查询请求;步骤②,DNS服务器发现www.abc.com的Primary DNS是负载均衡网关,因此将请求转发给负载均衡网关;步骤③,负载均衡网关对IDC1和IDC2两个数据中心进行健康检查;步骤④,负载均衡网关经过决策将IDC1的www.abc.com的IP地址22.22.22.22发送给DNS服务器;步骤⑤,DNS服务器将结果转发给客户端;步骤⑥,客户端通过22.22.22.22访问www.abc.com网站在IDC1的Web服务器。

图1.12 全局负载均衡

同服务器负载均衡一样,全局负载均衡也包括负载均衡算法、健康检查方法和会话保持技术等核心要素。

1.2 从负载均衡到应用交付

根据1.1节介绍的内容,我们了解到,无论是服务器负载均衡、链路负载均衡还是全局负载均衡,都是为了实现互联网应用和内容服务的高可用性和高性能的方法论和技术工具。在21世纪初,IT专家们扩展了负载均衡的功能以适应互联网的新发展。

我们如果在业务信息和用户之间设想出一个管道,客户端、互联网链路、数据中心、门户、应用乃至服务器共同组成了这个管道,如图1.13所示。业务信息以数据报文的形式在这个管道中源源不断地传输到用户处。

图1.13 互联网是连接服务器和客户端的管道

但是,这个管道并不总是畅通无阻的。真实情况是,这个管道经常面临各种挑战,其中包括来自互联网的黑客攻击、服务器资源集中于一处产生的单点故障隐患、世界各地的用户之间的网络延迟、业务中断等问题,如图1.14所示。

图1.14 业务信息到用户的管道并不总是畅通无阻的

然而,随着用户对互联网的依赖程度越来越高,用户希望可以在任何地点、通过任何终端设备、在任何时候,安全、高效、稳固、可控地访问业务信息,如图1.15所示。

图1.15 用户对互联网的期望非常高

在20世纪90年代,互联网高速发展,互联网用户呈现几何级数式的爆炸性增长,互联网带宽的发展迅猛,但是承载互联网应用的服务器处理能力并不能快速适应这种增长速度,服务器成为互联网发展的瓶颈。因此,负载均衡应运而生。负载均衡首先将多台服务器组建成服务器集群,在服务器集群前端部署负载均衡,将客户的请求根据特定的算法分发到不同的服务器节点来处理以满足成倍增长的互联网访问需求。

负载均衡的概念最早于1996年由Foundry Networks提出,着眼于在传输层(OSI参考模型第四层)将负载均衡集成在自己的设备中。同年,F5成立,将负载均衡作为核心业务,在成立之初便开始关注传输层、应用层(OSI参考模型第七层)业务,并在后来长期“统治”该市场。

从2000年到2003年,负载均衡厂商进入“生存中求发展”的阶段,很多互联网公司认识到负载均衡的重要性,纷纷以收购负载均衡厂商的方式进入该市场,如思科在2000年5月收购Arrowpoint,北电网络在2000年10月收购Alteon。也正是在这个时期,“互联网泡沫”破裂,许多负载均衡公司面临着生存的考验。

熬过了“互联网寒冬”,整个行业从2003年开始迎来了复苏,由互联网引导的客户经济在这个时期开始产生真正的经济效益并逐步发展。随之而来的则是各种网络应用遭遇流量瓶颈的问题,单纯依靠升级传统设备已经无法解决这个问题。负载均衡便在此时大显身手,很多负载均衡厂商,如F5、Radware、NetScaler等得到了快速发展。

从2006年开始,国内互联网市场火爆了起来,电子商务平台、视频网站、流媒体软件等产生了巨大的访问量。互联网也从提供简单的内容升级为提供更多的互动性、更多的业务承载、更多的媒体模式,从而形成了“互联网第二次浪潮”。以多媒体、电子商务为代表的互联网第二次浪潮对负载均衡提出了新的需求,这些需求可以分为以下两大类。

第一类需求源于互联网从科学家分享静态网页的小众超文本传输网络升级为拥有文本、视频、声音的富媒体综合服务系统。在服务器处理能力还远远不能满足大众的互联网使用需求的情况下,只建立服务器集群来解决问题显得有点不足。为了避免重复读取服务器的固定内容,互联网企业客户希望可以将一些静态的内容以文件的形式缓存到负载均衡网关中,以减小对服务器的负荷。同时,人们也发现,TCP通过复杂的3次握手建立四层会话,通过4次挥手来结束会话的方式非常低效且消耗服务器有限的计算资源,也希望负载均衡将成千上万的互联网客户端的传输层访问连接压缩成几个传输层会话连接以降低服务器和客户端的握手、挥手数量和频率,让服务器可以更有效地提供内容和服务。这两个需求可以归纳为HTTP缓存、HTTP连接复用,我们将它们统一称为HTTP应用性能优化需求。

第二类需求源于一些互联网企业开始考虑将互联网技术应用于业务和商务活动。人们通过互联网技术实现交易是一个非常高效的想法,互联网使交易双方可以在很远的距离上开展交易,但同时带来了安全风险。1993年7月5日,《纽约客》刊登了一则网络格言:“在互联网上没人知道你是一条狗。”,并配有图1.16所示的漫画。

图1.16 《纽约客》1993年互联网的漫画

在互联网开展电子商务、电子业务的同时,黑客入侵和安全威胁如影随形,如何保障互联网电子商务应用、电子业务应用的安全性成为一个非常重要的课题。根据开放式Web应用程序安全项目(Open Web Application Security Project,OWASP)2017年发布的KC2版本“十大安全漏洞列表”,Web应用程序最常见、最危险的十大漏洞如下。

1.注入漏洞

将不受信任的数据作为命令的一部分发送到解析器时,会产生诸如结构查询语言(Structure Query Language,SQL)注入、操作系统(Operating System,OS)注入和轻目录访问协议(Light Directory Access Protocol,LDAP)注入的注入漏洞。攻击者的恶意数据可以诱使解析器在没有适当授权的情况下执行非预期命令或访问数据。

2.敏感数据泄露

近年来,敏感数据泄露成为最常见、最具影响力的漏洞之一。敏感数据通常包括密码、财务数据、医疗数据等。由于Web应用受攻击、API未加密或不正确地使用敏感数据,这些数据极易被攻击者利用,攻击者可能使用这些数据进行犯罪。现在敏感数据泄露已经成为OWASP“十大安全漏洞列表”中排名前三的漏洞之一。

3.失效的身份认证

通过使用应用程序的身份认证和会话管理功能,攻击者能够破译密码、密钥或会话令牌,暂时或永久地冒充其他用户的身份。身份认证常用于系统登录,一般为用户名加密码的认证方式,在安全性要求较高的情况下,还有验证码、客户端证书、UKey等认证方式。HTTP利用会话机制实现身份认证,HTTP身份认证的结果往往是获得一个令牌并存放在Cookie中,之后的身份认证只需要读取授权令牌,如果授权令牌认证成功,那么无须再次进行登录认证。

4.跨站脚本攻击

恶意攻击者向Web页面插入恶意脚本代码,当用户浏览该页面时,嵌入其中的脚本代码会被执行,从而达到恶意攻击用户的目的。跨站脚本(Cross Site Script,XSS)攻击是针对用户层面的攻击。

5.XML外部实体漏洞

在引用可扩展标记语言(Extensible Markup Language,XML)外部实体的时候,攻击者可以构造恶意的XML代码,读取任意文件、执行命令甚至造成服务器中断。XML是使电子文件具有结构性的标记语言,可以用来标记数据、定义数据类型,是一种允许用户对自己的标记语言进行定义的源语言。XML文档结构包括XML声明、文档类型定义、文档元素等。

6.安全配置错误

安全配置错误是比较常见的漏洞,由于操作者的不当配置(默认配置、临时配置、开源云存储配置、HTTP报文头配置,以及包含敏感信息的详细错误),攻击者可以利用这些配置获取更高的权限。安全配置错误可以发生在各个层面,包含平台、Web服务器、应用服务器、数据库、架构和代码等。

7.失效的访问控制

访问控制用于保护资源不被非法访问和使用,目前应用最多的是基于角色的访问控制。失效的访问控制就是攻击者通过各种手段提升自己的权限,越过访问控制机制,使访问控制失效,这样攻击者就可以冒充用户、管理员或拥有特权的用户,创建、访问、更新或删除任何记录。

8.不安全的反序列化

序列化(Serialization)是将对象的状态信息转换为可以存储或传输的形式(一般是二进制的形式)的过程。反序列化与序列化的过程刚好相反。

9.使用含有已知漏洞的组件

现在的服务器都需要使用很多组件,组件(例如库、框架和其他软件模块)运行时具有和应用程序相同的权限。如果使用含有已知漏洞的组件,可能会导致严重的数据丢失或服务器被接管。应用程序和API使用含有已知漏洞的组件,防御系统可能会被破坏、受到各种攻击并产生严重影响。

10.日志记录和监控不足

日志记录和监控不足,事件响应信息的丢失或失效,使攻击者能够进一步攻击系统(持续攻击或转向更多系统),篡改、提取或销毁数据。对大多数缺陷的研究显示,缺陷被检测出的时间超过200天,并且通常由外部检测方检测出,而不是通过内部进程或监控检测出。日志记录是一个系统最重要的功能之一。日志记录包括登录成功记录、登录失败记录、访问控制记录等,用来记录服务器的各种信息。

为了应对日益增长的电子商务和电子业务网络应用需求,F5率先对传统负载均衡进行升级、扩展,在2001年提出应用交付网络(Application Delivery Network)的概念,在负载均衡的基础上增加了HTTP压缩、HTTP缓存、HTTP多路复用、防范分布式拒绝服务(Distributed Denial of Service,DDoS)攻击、Web应用防火墙(Web Application Firewall,WAF)、网络防火墙、HTTP Flood防护等应用安全与应用优化功能。这是一种将关键应用与基础网络设备关联起来的系统解决方案,并逐渐成为负载均衡的发展方向,如图1.17所示。

图1.17 从负载均衡到应用交付

负载均衡增加了应用安全、应用优化后就有了一个新名字——应用交付(Application Delivery)。应用交付控制器(Application Delivery Controller,ADC)应运而生,也被称为应用交付网关。如图1.18所示,Gartner在2017年发布的对负载均衡发展趋势的预测报告中,指明了在2005年左右,负载均衡结合应用性能优化和安全形成了应用交付网关。

图1.18 Gartner在2017年发布的对负载均衡发展趋势的预测报告

1.3 应用交付领域的主要厂商

在当今的数字化时代,负载均衡和应用交付解决方案对于确保应用程序的高可用性和高性能至关重要。这些解决方案通过智能地分配网络流量和优化应用交付,帮助企业应对不断增长的用户需求和复杂的应用架构。各大厂商在这一领域提供了多种创新的产品,旨在提升性能、增强安全性和简化管理。本节将深入探讨应用交付领域的主要厂商的产品特点,揭示它们如何通过先进技术满足不断演变的业务需求。

1.3.1 F5

谈及全球领先的应用交付厂商,无疑是绕不开F5的。这家成立于1996年、总部位于美国华盛顿州西雅图的网络技术企业,是负载均衡、安全防护和性能优化领域的先锋之一。F5的解决方案广泛应用于金融、医疗、电子商务等行业,为全球企业的数字化转型提供了强有力的技术支撑。

F5的名称有着别具一格的象征意义。这家公司由杰夫·赫西(Jeff Hussey)和另外两位创始人共同创立。在完成第一款产品的开发后,创始团队去观看了一部名为《龙卷风》的电影。电影中,龙卷风以不同等级进行划分,其中最高级别“F5”代表着最强烈、最具破坏性的风暴。这一形象深深打动了创始团队,他们希望F5的产品也能具备类似的强大力量与速度,席卷互联网并成为行业领导者。于是,团队将公司命名为“F5”,寓意它在网络技术领域无与伦比的影响力。图1.19是2013年,F5创始人杰夫·赫西在上海与笔者(吴若松)重逢时的留影,当时他正致力于创办一家物联网安全领域的公司。

在ADC市场,F5多年来稳居领导者地位。根据Gartner的评估,F5连续多年被评为ADC魔力象限的领导者。这一持续的认可反映了F5在技术创新、市场影响力和客户满意度方面的卓越表现。

图1.19 笔者(吴若松)与美国F5创始人杰夫·赫西于2013年在上海重逢

F5的核心产品BIG-IP是其应用交付平台的代表,集成了负载均衡、流量管理与安全防护功能,能够满足从小型企业到大型数据中心的各种业务需求。通过智能分配网络流量至多个服务器,BIG-IP保障了应用的高可用性与高可靠性,避免了单点故障的发生,并支持多种负载均衡算法,如轮询和最少连接等,充分适配不同场景。该产品还具备安全套接字层(Secure Socket Layer,SSL)加速、流量压缩、内容缓存和WAF等功能。其中,SSL加速通过硬件加密减轻了服务器的负担,大幅提升系统性能;WAF则能够有效抵御SQL注入和跨站脚本攻击等网络威胁,保障网络服务的持续性。此外,通过在网络边缘缓存常用内容和优化带宽使用,BIG-IP的内容缓存与流量压缩功能显著提升了用户体验。

F5在负载均衡硬件方面表现出卓越的技术优势,其核心竞争力之一是自研的PVA。PVA作为F5硬件架构的基础,专为高性能四层负载均衡设计,能够以硬件加速方式处理大规模并发连接和海量流量,显著提升了数据报文的处理效率和吞吐率。相比传统的软件处理方案,PVA通过硬件优化实现了极低的延迟和高性能,特别适用于对传输速率和稳定性要求极高的应用场景。

PVA的设计充分考虑了四层负载均衡的核心需求。通过将关键的流量分发任务直接交由芯片完成,PVA能够高效地解析TCP和UDP,在毫秒级时间内完成客户端请求与后端服务器的连接映射。无论是轮询、加权轮询,还是最少连接等负载均衡算法,PVA均能以极高的效率运行,从而保障流量的实时分发和网络的高可靠性。

除了四层负载均衡,PVA还为F5的硬件设备提供了更强大的性能扩展能力。通过硬件并行化处理,PVA可支持数百万次并发连接和超高吞吐率,这使得F5设备在应对大流量场景(如视频流媒体、在线交易和高并发电子商务平台)时表现尤为出色。同时,PVA芯片的低功耗设计和高效散热机制进一步降低了设备的运行成本,为企业提供了性能与成本的最佳平衡。

随着云计算的发展,F5进一步推出了BIG-IP的虚拟化版本,它支持在虚拟化和云环境中灵活部署。特别是BIG-IP与Kubernetes等容器编排平台集成,使其能够为微服务架构提供精细化的流量管理,确保服务间的高效通信。通过不断升级,BIG-IP已经成为企业在多云和混合云环境中进行流量管理与安全防护的核心工具。

2019年,F5收购了高性能Web服务器与反向代理软件NGINX。这一整合显著增强了F5在负载均衡、反向代理及内容缓存领域的能力。NGINX以其独特的事件驱动架构和卓越的高并发性能而广受欢迎,与F5的技术结合后,能够为传统应用与现代云原生环境提供全方位的解决方案,满足多样化的流量管理需求。NGINX现已成为F5产品家族的重要组成部分,为推动应用交付与网络优化的持续创新做出了重要贡献。

F5的解决方案在多个行业得到了广泛应用。在金融行业,F5通过负载均衡与安全技术帮助银行等机构应对高并发与高安全性要求的业务需求,确保交易稳定与数据安全;在医疗行业,F5为医院提供高可用性与高安全性的网络支持,保障医疗应用和数据的持续性;在电子商务行业,F5的智能流量分配技术在促销高峰期间保证电子商务平台的稳定运行,为用户提供流畅的购物体验;在公共服务行业,F5通过安全可靠的网络基础设施保障了公共服务的持续性。

在技术创新方面,F5始终走在负载均衡与应用交付领域的前沿。F5基于人工智能的流量分析和自动化优化工具帮助企业智能管理网络流量,不仅降低了运营成本,还显著提升了业务的稳定性。

1.3.2 Citrix

Citrix成立于1989年,总部位于美国佛罗里达州劳德代尔堡,是全球应用交付和虚拟化技术领域的领导者之一。作为一家致力于帮助客户安全高效访问应用与数据的公司,Citrix服务于全球超过40万家企业客户,其中包括众多世界500强公司。它的技术涵盖桌面虚拟化、应用虚拟化、网络优化、云计算及负载均衡等领域,其中NetScaler系列产品作为其网络优化与应用交付的核心产品,具有里程碑式的意义。

2005年,Citrix以约3亿美元收购NetScaler公司,此举极大地增强了该公司在网络优化和应用交付领域的竞争实力。NetScaler专注于高性能应用流量管理和安全解决方案,帮助客户优化Web应用性能、降低运营成本并提升安全性。作为Citrix ADC产品的重要组成部分,NetScaler提供了包括负载均衡、应用加速和安全防护在内的全面解决方案,不仅巩固了Citrix在ADC领域的市场地位,也提升了产品在企业应用交付中的影响力。

NetScaler并不仅仅是一个负载均衡设备,更是一个集成多种先进网络功能的应用交付平台。通过全局负载均衡、内容加速、SSL加速和WAF等技术,NetScaler能够在全球范围内智能分配流量,将用户请求路由至最优的服务器,从而提升用户访问的速度和可靠性。在服务器负载均衡方面,NetScaler能够高效地分配流量,避免单一服务器的性能瓶颈或故障,确保应用的高可用性。

在应用加速方面,NetScaler通过内容缓存、数据压缩和SSL加速显著提升网络性能。内容缓存功能减轻了后端服务器的负担,从而提升用户访问速度;数据压缩功能有效减少了数据传输量,尤其在带宽有限的情况下表现出色;内置的SSL加速器则通过减轻服务器在加密与解密过程中的计算负担,大幅提高整体性能。这些功能使NetScaler成为企业提升网络效率和优化用户体验的关键工具。

在负载均衡领域,NetScaler具备显著的优势,它的高性能得益于先进的硬件架构和优化的软件算法,可以处理大规模并发请求,适用于高流量场景。同时,NetScaler支持灵活的部署模式,无论是物理设备还是虚拟设备,均能满足多样化的业务需求。通过冗余配置和故障转移机制,NetScaler确保了系统的高可靠性,能够快速切换至备用设备或路径,保障业务持续性。

作为一款全面的应用交付解决方案,NetScaler还集成了WAF,帮助企业防御SQL注入和跨站脚本攻击等常见威胁,并提供DDoS防护、双因素认证和单点登录等安全功能。通过智能流量分析和流量限制,NetScaler能够在网络遭受攻击时保障应用的持续性。此外,NetScaler与亚马逊网络服务(Amazon Web Service,AWS)、Azure和谷歌云(Google Cloud)等主要云服务提供商深度集成,为多云环境中的统一负载均衡和流量管理提供支持。它提供的丰富的API使自动化配置成为可能,并能与DevOps工具链无缝集成,满足现代化应用的开发与交付需求。

在企业级应用场景中,NetScaler作为核心的负载均衡和应用交付设备,无论是在传统数据中心还是在多云和混合云环境中,均表现出色。它为内部员工访问应用或外部客户使用Web服务提供高性能交付和可靠安全防护。在虚拟桌面基础架构中,NetScaler通过优化虚拟应用的流量交付,确保远程办公用户获得与本地办公用户相同的体验,大幅提升了远程办公的效率。

1.3.3 Radware

Radware是一家成立于1997年的以色列科技公司,专注于网络安全和应用交付解决方案,致力于为企业的数据中心和云计算环境提供卓越的安全性、可用性和性能支持。Radware的产品涵盖负载均衡、DDoS防护和WAF等多个领域,广泛应用于金融、电信和云服务行业,帮助企业在数字化转型的过程中确保网络的稳定与安全。

凭借创新的技术架构,Radware为客户提供全面的网络保护解决方案,包括实时攻击检测、智能流量管理和应用交付优化。在瞬息万变的网络环境中,Radware的解决方案表现尤为出色,尤其适用于对高可用性和高安全性要求极高的行业,如金融、电信和公共服务。Radware在全球50多个国家或地区设有分支机构,在ADC领域的领先地位使其连续多年被Gartner评为行业领导者。

2009年,Radware通过收购北电网络的四层到七层应用交付业务(包括Alteon产品线)大幅增强了在流量管理和应用交付领域的技术实力。这一收购不仅为Radware带来了先进的技术,还使其继承了北电网络的客户群和服务网络。Alteon产品线被整合进Radware品牌后,成为企业级负载均衡领域的旗舰解决方案,为数据中心、云计算和多云环境中的应用交付需求提供了强有力的支持。

Alteon负载均衡解决方案以其卓越的性能和灵活性满足了现代企业对网络可靠性和效率的严格要求。通过智能流量管理和动态资源分配,Alteon能够在高并发环境下支持数百万次连接和高达几十Gbit/s的吞吐率,尤其适用于电信和金融行业等对流量处理和持续性要求极高的场景。其线性扩展能力让企业能够根据业务需求灵活调整容量,优化资源使用,降低初始部署成本。

在智能流量管理方面,Alteon支持多层次的流量调度和优化算法,能够基于内容(如URL和Cookie)实现精确的流量分配。它的全局负载均衡通过动态分配用户请求,在多数据中心之间高效分配流量,提升网络的可用性和灾备能力。结合故障转移和健康检查功能,Alteon在服务器出现故障时能够自动切换流量至健康节点,从而避免业务中断。Alteon支持无缝在线升级和热备份的特性,使企业在系统维护和升级期间也能确保业务持续性。

在安全性方面,Alteon内置了多层次的防护功能,包括应用层DDoS防护、SSL加速和WAF,与Radware的DefensePro解决方案深度集成,为企业提供全面的网络安全平台。面对DDoS攻击、SQL注入和跨站脚本攻击等复杂威胁,Alteon能够实时检测并阻断恶意流量,保障网络和应用的正常运行。

此外,Alteon在云原生和混合云环境中的表现同样卓越。其虚拟化版本支持在AWS、Azure和谷歌云等主流云平台中部署,并与Kubernetes等容器编排平台无缝集成,为现代化的应用开发和交付提供了可靠支持。

Alteon还具备多租户管理能力,适用于托管服务提供商和企业内部IT部门,为不同部门或应用提供隔离服务,极大提高了资源利用率。同时,友好的图形化管理界面和基于人工智能的自动化运维工具使用户能够轻松监控网络流量、快速排查故障,并通过智能优化建议进一步提升网络性能。

1.3.4 A10 Networks

A10 Networks由陈澧于2004年在美国加利福尼亚州圣何塞创立,专注于应用交付、网络安全和云计算领域的创新解决方案。通过为企业、数据中心、云服务提供商及电信运营商提供高性能的ADC、负载均衡和安全服务,A10 Networks助力客户提升应用性能、增强网络安全性,并加速数字化转型。标志性的Thunder ADC系列产品及在SaaS和多云管理方面的技术布局,使其在全球市场中占据了重要地位,广泛服务于金融、电信和医疗等多个行业。

Thunder ADC系列产品是A10 Networks的核心解决方案,专注于高效的应用交付和负载均衡,帮助企业在传统和现代化应用场景中实现高可用性、高性能和强大安全性。通过智能流量分发和优化技术,Thunder ADC提升了服务器资源利用率,并保障了应用的高可用性和响应速度。多样化的负载均衡算法(如轮询、加权轮询和最少连接)可灵活应对不同业务需求,广泛适用于各种复杂的应用场景。

Thunder ADC具备一系列核心功能特性,为企业提供全方位支持。其高可用性与故障切换功能,通过主动—被动或主动—主动模式的配置,在设备发生故障时实现流量的无缝切换,确保服务的持续运行。这种全天候的业务保障能力尤其适用于金融、电信和电子商务等对不间断服务需求高的行业。与此同时,Thunder ADC的应用加速与SSL卸载功能通过TCP优化、内容缓存和压缩等技术,显著减轻服务器负担,提升用户访问速度。在SSL卸载方面,Thunder ADC将SSL加解密任务从服务器卸载,不仅降低了服务器的计算负担,还保障了数据传输的安全性,在当今SSL/TLS加密普及的网络环境中尤为关键。

在网络安全方面,Thunder ADC内置WAF,能够有效防御SQL注入和跨站脚本攻击等常见Web攻击,同时具备强大的DDoS防护能力。通过与A10 Networks的威胁防护系统集成,Thunder ADC可以应对大规模DDoS攻击,保护应用和数据的安全。此外,Thunder ADC专为现代化的云计算环境设计,支持私有云、公有云和混合云部署,确保负载均衡服务的灵活性与可扩展性。它无缝集成AWS、Azure和谷歌云等主流云平台,为企业提供一致的应用交付体验。基于容器的ADC解决方案还支持Kubernetes等容器编排平台,满足现代云原生应用的动态负载均衡与交付需求。

Thunder ADC以技术创新为驱动,展现了卓越的性能和灵活性。其高性能硬件加速技术,结合FPGA架构,能够处理大规模并发连接和高吞吐率数据流,适用于电信和视频流媒体等高流量场景。同时,Thunder ADC支持物理设备、虚拟设备和云端部署,满足不同企业的多样化需求。A10 Networks还提供丰富的RESTful API,使Thunder ADC能够与企业自动化管理工具深度集成,实现应用交付和运维管理的全面自动化。

为应对多云环境的复杂性,A10 Networks推出了aCloud Harmony管理和分析工具,为多云环境下的应用交付提供统一管理。通过实时监控流量、分析性能并提出智能优化建议,aCloud Harmony大幅降低了多云管理的复杂性,帮助企业高效运营其网络和应用服务。

A10 Networks的负载均衡解决方案在企业应用、电子商务、视频流媒体和网络服务等场景中发挥了关键作用。Thunder ADC不仅以高性能和高可用性保障了网络的稳定运行,还凭借云原生兼容性和全面的安全防护功能,帮助企业在快速发展的数字化环境中保持业务的敏捷性和安全性。

1.3.5 深信服

深信服成立于2000年,总部位于中国深圳,是网络安全、云计算和IT基础设施解决方案领域的领先企业之一。在负载均衡领域,深信服凭借卓越的技术和丰富的产品线,广泛服务于金融、教育、医疗等行业,为企业提供高可用性、高性能和高安全性的网络支持,在快速变化的网络环境中保持稳定性和竞争力。

深信服的ADC专注于流量管理的优化与关键应用的高可用性。它的智能流量管理功能能够实时感知网络状态,并自动调整流量策略,显著减少延迟和拥塞,提升整体网络性能。在安全方面,深信服的ADC集成了WAF和DDoS防护功能。WAF有效保护企业免受SQL注入和跨站脚本攻击等常见攻击,而DDoS防护在高流量攻击下自动识别并阻断异常流量,确保应用的可靠性与网络的持续性。此外,深信服的ADC支持与阿里云、腾讯云和华为云等主流云平台无缝集成,为多云和混合云环境提供一致的负载均衡与安全管理,帮助企业在复杂网络中实现灵活的统一管理。

在链路负载均衡方面,深信服通过多链路智能调度和动态流量分配技术,确保了网络连接的高可用性与带宽资源的高效利用。它的解决方案支持多个ISP链路的接入,根据实时链路状态优化流量分配,避免拥塞并提升用户访问速度。同时,链路负载均衡具备故障切换功能,在某条链路出现故障时,流量可自动切换至备用链路,从而避免服务中断,保障网络的高可用性。此外,链路负载均衡还通过策略化的带宽分配为关键业务提供优先支持,特别适用于多分支机构和高流量需求的场景。结合多种负载均衡算法(如轮询、带宽优先、会话保持等),深信服的链路优化方案展现出卓越的灵活性与可靠性。

深信服的负载均衡以其广泛的应用场景和强大的功能优势,在全球市场上占据了一席之地。无论是对企业本地还是全球范围的流量管理,它的负载均衡方案都能灵活适应企业的不同需求。通过智能调度和高效的故障切换功能,深信服的产品在降低单点故障风险的同时,确保了高可用性。尤其是多租户管理和跨地域流量优化功能,为全球化运营的企业和多分支机构提供了理想的解决方案。

在运维管理方面,深信服的负载均衡产品提供了直观的可视化界面和强大的自动化运维功能。企业可以实时监控链路状态、流量分布和带宽利用率,轻松实现流量管理与故障排查。结合基于人工智能的自动优化建议,深信服的方案有效减少了运维复杂性与成本,帮助企业更高效地管理其网络基础设施。

1.3.6 迪普科技

迪普科技是一家专注于网络安全与应用交付领域的高新技术企业,成立于2008年,总部位于中国杭州。自成立以来,迪普科技致力于为企业客户提供高效、安全、易用的网络解决方案,帮助客户应对日益复杂的网络环境挑战。凭借卓越的技术研发能力和丰富的行业经验,迪普科技在短短十余年内成长为国内领先的网络安全与应用交付解决方案提供商之一。

迪普科技的核心团队汇聚了一批来自国内外知名企业和研究机构的专业人士,涵盖网络安全、数据通信和云计算等领域。这些技术专家拥有深厚的理论积累与实践经验,驱动公司秉承“创新引领未来”的理念,持续加大研发投入,不断优化产品性能和提升技术水平,以为客户提供卓越的服务与支持。

在迪普科技的产品线中,负载均衡解决方案是最具代表性和竞争力的产品之一。这一解决方案旨在帮助企业高效利用网络资源、提升系统可用性和响应速度,同时保障网络安全,广泛应用于金融、教育、医疗等多个行业。

迪普科技的负载均衡产品以高性能与高稳定性著称。采用先进的硬件架构和优化的软件算法,能够在高并发访问环境下提供卓越的性能表现。无论是面对海量请求还是应对突发流量,产品均能保障系统的平稳运行。此外,通过智能健康检查机制,产品能够快速发现并隔离故障节点,确保业务的持续性与可靠性。

为了满足不同应用场景的需求,迪普科技提供了多样化的负载均衡算法,包括轮询、最少连接、源地址哈希等经典算法,用户还可以根据自身需求灵活选择或定制策略。针对复杂场景,产品支持自定义算法配置,为高级用户提供精准的流量分配功能,满足特定业务需求。

在安全防护功能方面,迪普科技的负载均衡产品内置了多种先进的安全措施,DDoS防护功能能够有效缓解大规模恶意攻击,WAF为企业应用抵御SQL注入、跨站脚本攻击等攻击提供有力保护。SSL加密支持则确保数据传输的安全性。通过与迪普科技的其他安全产品联动,负载均衡产品形成了多层次、全方位的网络安全防护体系。

迪普科技注重用户体验,其负载均衡产品以易于管理和维护为核心设计原则,用户界面友好,操作简便,无论是初次部署还是日常维护,用户均能快速上手。产品支持集中管理和远程配置,尤其适用于多站点的复杂环境。通过直观的图形化监控仪表板,管理员能够实时查看系统状态与性能指标,快速发现问题并采取措施。

在部署灵活性方面,迪普科技的负载均衡产品适配广泛的环境需求,不仅适用于传统物理服务器架构,还支持在虚拟化和云计算平台上(包括私有云、公有云及混合云环境)部署。产品具备良好的可扩展性,能够随着业务增长轻松扩容,满足企业未来发展的多样化需求。

迪普科技的负载均衡产品已成功应用于众多行业。例如,在某大型金融机构的项目中,该产品显著提升了网上银行系统的响应速度,同时有效抵御了多次大规模DDoS攻击,保障了系统的稳定运行和业务连续性。这种高性能与强大安全性的结合,使迪普科技在行业中树立了卓越的口碑。

1.3.7 通明智云

通明智云是一家专注于网络安全与负载均衡的中国高新技术企业,总部位于北京。自成立以来,通明智云致力于提供高效、可靠的应用交付与网络优化解决方案,助力各行业数字化转型的同时,推动IT的自主创新。作为未来IT应用创新产业负载均衡领域的有力竞争者,通明智云凭借强大的研发能力和对行业需求的深入理解,在短时间内迅速成为行业内的领先者。通明智云的核心产品包括TML-ADC和NJet应用引擎开源软件,在负载均衡与应用交付领域展现出了卓越的技术实力。

TML-ADC是通明智云的旗舰应用交付控制器产品,被誉为“网络流量的指挥官”。通过智能化的流量调度,TML-ADC帮助企业实现应用的高可用性与高稳定性,适配复杂的网络环境与高流量场景。解决方案涵盖全局负载均衡、服务器负载均衡以及链路负载均衡,为企业提供全面的流量管理能力。

在全局流量管理方面,TML-ADC的全局负载均衡功能能够在不同地理位置的数据中心之间高效分配流量,为国际用户提供更快的访问速度和更高的可靠性;而服务器负载均衡专注于单一数据中心内部的资源优化,保障应用的平稳运行与高性能。此外,链路负载均衡功能支持多ISP链路接入,通过智能链路调度和故障切换机制,确保在网络连接中断时流量自动切换到备用链路,业务运行不受影响。

在安全性方面,TML-ADC内置了多层次的安全防护功能,包括网络状态防火墙、WAF、DDoS防护、HTTP清洗及SSL加密通信等技术,为企业构建全方位的应用防护体系,进一步提升网络的安全性与可靠性。

NJet应用引擎开源软件是通明智云面向云原生架构的一个重要核心产品。作为一款开源的应用引擎,NJet专为云原生应用与互联网服务设计,支持流量控制、环境感知、安全管控等关键功能,覆盖Web服务、流媒体服务、API网关和应用中间件等多种应用场景。在南北向通信中,NJet提供精准的流量分发与优化支持;在东西向流量管理中,透明流量劫持、熔断机制、链路追踪和蓝绿发布等功能则为分布式应用架构提供了强大的支持。

NJet以容器化和微服务架构为基础,能够与Kubernetes等主流容器编排平台无缝集成,适应高度动态的负载均衡和应用交付需求。其开源与开放特性让开发者和企业能够基于NJet灵活定制流量管理策略,为现代分布式系统提供更加灵活的流量控制与管理能力。

在IT自主创新方面,通明智云展现了强大的竞争优势,它是一家全面支持多种国产硬件架构的负载均衡厂商,产品已适配华为鲲鹏(ARM架构)、飞腾(ARM架构)、龙芯(MIPS架构)、海光(x86/x64)、兆芯(x86/x64)等国产处理器平台,满足国家IT应用创新产业标准的严格要求。其负载均衡与应用交付解决方案受到政府机构、大型企业等需要高安全性与自主可控技术的客户的广泛青睐,为实现数据安全和业务稳定性提供了坚实的支持。

1.4 思科、华为等网络设备大厂为什么没有推出负载均衡产品

负载均衡作为一种关键的网络基础设施技术,在互联网快速发展的20世纪90年代成为网络厂商争相进入的领域。全球多家大型网络设备公司,如思科、北电网络公司、英特尔及Foundry Networks,曾投入巨资研发负载均衡设备或通过收购进入该市场。然而,随着市场竞争的加剧和行业重心的转移,这些厂商陆续退出了负载均衡市场。

1.Foundry Networks从负载均衡的先驱到退出

Foundry Networks是负载均衡领域的早期探索者和创新者之一,它的贡献对网络基础设施的发展具有重要意义。Foundry Networks于1996年在美国加利福尼亚州圣何塞成立,专注于高性能交换机和路由器的研发。1998年,Foundry Networks推出了业界首款四层和七层交换机ServerIron XL,这是负载均衡设备的一次重要技术突破。ServerIron XL不仅能够进行流量分发,还具备应用层的智能流量管理功能,开创了负载均衡设备的新纪元。

Foundry Networks的ServerIron系列产品因高性能、高可扩展性和高可靠性,迅速被市场认可,广泛应用于企业数据中心和互联网服务提供商的网络中。该产品支持从四层到七层的全栈负载均衡功能,适用于Web应用、内容分发和安全优化等多种场景。Foundry Networks在负载均衡上的创新为行业树立了标杆,也推动了ADC设备的兴起。

然而,随着互联网泡沫的破裂和市场环境的变化,负载均衡市场需求下降,Foundry Networks的业务面临挑战。为了应对这些变化,Foundry Networks决定将更多资源投入核心网络硬件领域,同时削减对负载均衡产品线的支持。最终,2008年,Foundry Networks被Brocade以约30亿美元收购,其负载均衡业务成为Brocade网络解决方案的一部分。

Foundry Networks在负载均衡领域的探索不仅推动了技术的进步,还为后来者奠定了基础。尽管Foundry Networks的负载均衡业务因市场调整而退出历史舞台,但其技术创新对网络设备和应用交付领域的发展产生了深远影响。

2.思科的尝试与退出

思科是负载均衡领域的重要参与者之一,在这一领域的探索涵盖了自主研发、收购扩展和战略调整等多个阶段,为行业发展留下了深刻印记。1996年,思科推出了自主研发的LocalDirector设备,这是业界早期的负载均衡解决方案之一。LocalDirector通过将客户端请求智能分发到多台服务器上,有效提升了系统的可靠性和可用性。这标志着思科正式进入负载均衡领域,并开始探索如何为企业用户提供高性能的流量管理技术。

为了进一步增强负载均衡的技术水平,思科于2000年以约60亿美元收购了Arrowpoint。Arrowpoint是内容交换和负载均衡的行业领导者,其产品支持智能分发基于内容的流量。通过整合Arrowpoint的技术,思科推出了应用控制引擎(Application Control Engine,ACE)系列产品,覆盖从四层到七层的负载均衡功能,广泛应用于企业级数据中心和应用交付场景。ACE系列产品一度成为思科负载均衡业务的核心。

尽管在负载均衡领域取得了一定的市场地位,但由于行业竞争的加剧及企业战略调整,思科于2012年宣布停止生产ACE系列产品,正式退出传统负载均衡市场。这一举措表明思科将更多资源投入云原生技术和软件定义网络解决方案中,以适应市场新趋势。

尽管退出了硬件负载均衡市场,思科在相关技术领域的持续布局展现了其灵活的战略眼光。近年来,思科通过专注于eBPF驱动的网络与安全技术等新兴领域,继续推动网络基础设施的创新,显示出其在技术探索中的前瞻性和持续竞争力。

3.北电网络公司从巨资投入到破产退出

加拿大的北电网络公司是负载均衡领域的早期重要参与者,该公司在这一领域的尝试包括大规模收购、技术整合,最终退出。2000年,北电网络以78亿美元收购了当时负载均衡的行业领导者Alteon。值得一提的是,Alteon首次提出内容交换机(Content Switch)的概念,凭借卓越的技术和市场份额,成为负载均衡领域的标杆企业。

通过收购Alteon,北电网络将其先进的负载均衡技术整合到自身产品线中,推出了多款负载均衡和应用交付产品。这些产品试图在快速增长的互联网基础设施市场中占据一席之地,并为北电网络开拓新业务提供技术支持。然而,尽管整合了领先技术,北电网络在负载均衡市场未能建立持久的竞争优势。

随着市场竞争加剧和技术快速演进,北电网络的负载均衡业务逐渐失去增长动力。2009年,在公司破产重组期间,北电网络将Alteon业务以1800万美元出售给Radware,标志着它正式退出负载均衡市场。这一退出不仅体现了负载均衡市场的激烈竞争,也反映出传统通信“巨头”在快速变化的技术环境中难以适应挑战。Alteon的成功与北电网络的失败形成了鲜明对比,为行业发展提供了宝贵的经验和教训。

4.英特尔的短暂涉足与退出

英特尔在负载均衡领域曾进行过短暂但重要的探索,通过产品开发和战略收购试图在这一市场占据一席之地。20世纪90年代末,英特尔推出了网擎(NetStructure)系列产品,旨在为企业提供高性能的负载均衡解决方案。为了进一步强化技术能力,英特尔于1999年以5亿美元收购了IPVIP公司。IPVIP是一家专注于应用交付和负载均衡的公司,以在SSL卸载和内容切换方面的技术优势而闻名,这一收购为英特尔的NetStructure系列产品提供了关键支持。

尽管英特尔通过NetStructure和IPVIP的整合展现了在负载均衡市场的技术潜力,但面对激烈的市场竞争,英特尔未能获得显著的市场份额。2003年前后,英特尔逐步宣布停止NetStructure系列产品的开发,将战略重点转回其核心业务——芯片和处理器设计。

英特尔最终退出负载均衡市场的原因包括激烈的市场竞争、相对较低的利润率及公司内部战略优先级的调整。尽管如此,这段经历为英特尔积累了宝贵的技术经验,特别是在流量管理和高性能计算方面,为其后续数据中心和云计算芯片的设计提供了重要启发。这一退出反映了英特尔在快速变化的技术市场中果断的战略调整能力。

5.华为的战略选择与软件负载均衡云服务

华为在负载均衡领域选择了一条与众不同的路径,通过战略合作和技术转型满足市场需求。早期,由于F5等厂商在负载均衡硬件市场中占据主导地位,华为长期选择与这些厂商合作,为客户提供负载均衡硬件解决方案,而未自行开发相关设备。这种合作模式使华为能够专注于核心业务,同时利用第三方技术满足客户需求。

2019年,美国对华为实施制裁,华为的传统合作模式受到严重影响。为应对这一挑战,华为与国内厂商展开紧密合作,探索替代方案。同时,华为在云服务领域发力,推出了基于云的弹性负载均衡(Elastic Load Balance,ELB)服务,将其作为华为云的重要基础组件。ELB服务为用户提供弹性扩展、智能流量管理和高可靠性支持,成为华为云生态的重要组成部分。

在硬件研发方面,华为选择了谨慎而务实的策略。由于硬件研发周期长、技术门槛高,且负载均衡硬件市场份额有限,华为决定专注于云端负载均衡的创新与生态构建。这一战略不仅降低了研发成本,还提升了华为在复杂国际环境中的业务持续性和灵活性,彰显了其应对挑战的适应力和前瞻性。

6.Juniper Networks公司在负载均衡的尝试

Juniper Networks曾积极投入负载均衡领域,通过研发和收购增强其产品线。2005年,Juniper Networks以3.37亿美元收购了Redline Networks,这是一家专注于应用加速和负载均衡的公司。值得一提的是,Redline Networks在2005年Gartner负载均衡魔力象限中位于领导者象限,是当时负载均衡领域的先锋之一。该公司首次提出了应用前端(Application Front End,AFE)的概念,强调通过前端设备实现应用性能的优化、流量的智能分发和负载均衡的深度集成,开启了负载均衡设备从基础流量管理到应用性能优化的演进之路。

2005年,Juniper Networks还收购了Peribit Networks和Acorn Packet Solutions,进一步丰富其应用交付和优化产品线。这些收购使Juniper Networks得以快速进入负载均衡和应用性能优化市场,并推出了应用加速平台(Application Acceleration Platforms,AAP)系列产品,旨在提供全面的负载均衡和应用加速功能。笔者(吴若松)曾于2005年担任Juniper Networks公司大中国区新兴技术产品线总经理(见图1.20)。

然而,尽管Juniper Networks拥有强大的技术和市场潜力,但面对F5、Citrix等竞争对手的激烈竞争及市场需求的快速变化,其负载均衡业务未能达到预期的增长目标。最终,2008年,Juniper Networks关停了DX系列的产品线,正式退出负载均衡市场,将战略重心重新聚焦于核心的路由、交换和安全业务。

图1.20 笔者(吴若松)曾于2005年担任Juniper Networks公司大中国区新兴技术产品线总经理

Redline Networks的技术和创新理念为行业发展做出了重要贡献,AFE概念的提出对现代负载均衡设备的功能和架构设计产生了深远影响。然而,Juniper Networks未能在这一领域实现长期竞争优势,退出负载均衡市场成为其发展中的一次重要战略调整。

1.5 主流开源负载均衡软件

开源负载均衡软件在现代IT架构中发挥着至关重要的作用。它通常和Web服务器软件融为一体,通过分配网络流量到多个服务器上,确保系统的高可用性和高可靠性。主流的开源负载均衡软件包括LVS、NGINX和HAProxy等。这些软件不仅能够处理大规模并发请求,还提供丰富的功能,如SSL终止、健康检查、动态配置等。此外,开源特性使其具备灵活的定制能力和活跃的社区支持,用户可以根据需求自由调整,在降低运营成本的同时提高系统的性能和安全性。2015年,国际IT市场研究和咨询公司Gartner预测,以应用为中心的软负载将迅猛增长,如图1.21所示。

1.LVS

Linux虚拟服务器(Linux Virtual Server,LVS)是一个流行的开源负载均衡软件项目,旨在通过负载均衡提高服务器的可扩展性和可用性。LVS项目由章文嵩博士于1998年创建,至今已发展为一个功能强大且稳定的负载均衡解决方案,广泛应用于各类互联网服务和企业。

图1.21 Gartner认为以应用为中心的软负载将迅猛增长

LVS的核心概念是通过虚拟服务器技术,将多个物理服务器组成一个高性能、高可用的虚拟服务器集群。它通过分配网络请求到后端服务器,实现负载均衡和故障转移,从而提高系统的性能和可靠性。LVS主要包括IP虚拟服务器(IP Virtual Server,IPVS)和内核传输控制协议虚拟服务器(Kernel TCP Virtual Server,KTCPVS)两个组件。

IPVS是LVS的核心组件,运行在Linux内核中,提供了高效的IP层负载均衡功能。IPVS可以根据预设的调度算法(如轮询、最少连接、源地址哈希等)将客户端请求分配到后端的应用服务器上。IPVS支持多种传输协议,包括TCP、UDP和流控制传输协议(Stream Control Transmission Protocol,SCTP),能够满足不同应用场景的需求。

KTCPVS是LVS的应用层负载均衡组件,专门用于处理TCP的负载均衡。它通过在内核空间实现高效的TCP连接管理,进一步提升了负载均衡的性能和可扩展性。KTCPVS尤其适用于需要处理大量并发连接的应用,如Web服务器和数据库服务器。

LVS具有许多显著的优势。首先,它是开源的,用户可以自由地获取、使用和修改源代码,从而节省了许可费用。其次,LVS具有高性能和高可用性,能够处理大规模的网络流量,确保服务的持续性。最后,LVS支持多种调度算法和传输协议,灵活性强,适用于各种复杂的网络环境和应用。

LVS的部署和配置也相对简单。用户可以通过配置ipvsadm工具来管理和调试LVS集群,设定不同的负载均衡策略和健康检查机制。LVS还支持与其他开源项目(如Keepalived和HAProxy)集成,进一步增强了系统的稳定性和功能性。

2.NGINX

NGINX是一个高性能的开源Web服务器和反向代理服务器,最早由伊戈尔·赛索耶夫(Igor Sysoev)于2004年发布。NGINX凭借高并发性、低资源消耗和灵活的配置选项,迅速成为全球最受欢迎的Web服务器之一。除了Web服务器功能,NGINX还具备强大的负载均衡和反向代理功能,被广泛应用于各种互联网服务和企业应用中。

NGINX的核心功能包括Web服务器、负载均衡和反向代理。作为Web服务器,NGINX能够处理大量并发连接,提供高性能的静态内容服务。其事件驱动的架构设计,使NGINX在高并发场景下依然能够保持低资源消耗和高响应速度。

在负载均衡方面,NGINX提供了多种负载均衡策略,如轮询、最少连接和源地址哈希。这些策略能够根据实际需求,智能地将客户端请求分配到后端服务器上,确保资源的最优利用和应用的高可用性。NGINX还支持健康检查功能,通过定期检查后端服务器的状态,确保只有健康的服务器参与负载均衡。

NGINX的反向代理功能使其能够作为客户端和后端服务器之间的中介,分担后端服务器的负载,并提供SSL终止、缓存和压缩等功能。这不仅提高了系统的性能,还增强了安全性和可管理性。通过反向代理,NGINX可以有效地隐藏后端服务器的结构,提供统一的入口,从而简化了架构设计。

NGINX还支持模块化扩展,用户可以根据需求加载不同的模块,如HTTP、TCP和UDP负载均衡模块,进一步增强其功能和适应性。它的配置文件采用简洁的语法,便于用户快速上手和定制化配置。

3.HAProxy

HAProxy是一个开源的高性能TCP/HTTP负载均衡设备和代理服务器,最早由威利·塔罗(Willy Tarreau)于2001年发布。凭借卓越的性能和稳定性,HAProxy迅速成为全球最流行的负载均衡解决方案之一,被广泛应用于各类高流量网站和关键业务系统。

HAProxy的核心功能包括TCP和HTTP负载均衡、反向代理和健康检查。作为负载均衡设备,HAProxy能够根据多种调度算法(如轮询、最少连接、源地址哈希等)智能地分配客户端请求到后端服务器上,确保系统的高可用性和资源的高效利用。

在HTTP负载均衡方面,HAProxy提供了高级的请求路由和内容切换功能。通过细粒度的配置,用户可以根据请求的URL、头信息、会话信息等条件,将请求路由到不同的后端服务器或服务器组。这种灵活的请求处理能力,使HAProxy能够应对复杂的业务需求和应用场景。

安全性是HAProxy的一大优势。它支持SSL终止和传递,能够有效地保护数据传输的安全。通过与现代加密算法的集成,HAProxy确保了通信的安全性和完整性。此外,HAProxy的访问控制列表(Access Control List,ACL)和防火墙功能,可以帮助用户实现细粒度的访问控制和流量过滤,进一步提升系统的安全性。

HAProxy的健康检查功能是确保系统高可用性的关键。它可以对后端服务器进行定期的健康检查,根据服务器的健康状态动态调整流量分配策略,避免将请求发送到故障服务器上。这不仅提高了服务的稳定性,还保证了用户体验的持续性。

在云计算和容器化应用中,HAProxy也表现出色。它能够无缝集成主流的云平台和容器编排平台,如Kubernetes和Docker,为云原生应用提供高效的负载均衡和流量管理解决方案。HAProxy具备灵活的配置和扩展能力,能够适应各种复杂的网络环境和应用需求。

4.Envoy

Envoy是由Lyft于2016年开源的一款高性能云原生边车代理(Sidecar Proxy)和服务网格核心组件。作为云原生应用架构中的关键部分,Envoy专为现代分布式系统设计,具有流量管理、负载均衡、服务发现、可观测功能和安全功能,被广泛应用于微服务、容器化应用和服务网格场景。

Envoy的核心功能之一是强大的流量管理和代理能力。作为一个四层/七层负载均衡代理,Envoy支持HTTP/1.1、HTTP/2和gRPC等协议,可以灵活处理和路由应用流量。借助高级路由功能,Envoy能够基于内容(如路径、头部、参数等)动态分配流量,支持蓝绿发布、金丝雀发布和分阶段流量迁移,从而在应用升级和部署过程中最大程度减少风险。

在负载均衡方面,Envoy提供了多种策略,包括轮询、最少请求、随机分配等。同时,Envoy的健康检查功能能够实时监控后端服务的可用性,在检测到故障时自动从负载均衡池中剔除问题节点,保障流量分配的高可靠性。此外,Envoy支持全局速率限制和动态限流,帮助开发者保护系统免受过载攻击或流量激增的影响。

Envoy的可观测性和可追踪性能力是其一大亮点。它内置了丰富的遥测和监控功能,包括统计指标、日志和分布式追踪,支持与Prometheus、Grafana和Jaeger等主流工具的无缝集成。通过这些工具,开发者可以清晰了解服务间的流量路径、性能瓶颈和潜在问题,为系统优化提供数据支持。

在安全性方面,Envoy内置了强大的TLS支持,可实现服务间的安全通信。此外,通过与SPIFFE和Istio等服务网格平台集成,Envoy可以实现自动化的证书管理和身份验证,进一步提升分布式系统的安全性。

Envoy的高度模块化设计和灵活性使其成为服务网格架构的核心组件,尤其是在Istio和AWS App Mesh等平台中得到了广泛应用。作为一个轻量级的边车代理,Envoy能够以透明的方式集成到现有应用中,为分布式系统提供全面的流量管理和监控支持。

5.NJet

NJet是一款开源的高性能Web服务器、应用代理、负载均衡软件,旨在为企业提供高效、灵活且经济的负载均衡解决方案。它基于NGINX 1.23开源版本进行内核重构、安全加固和功能增强。NJet扩展了NGINX的功能,增加了更多的负载均衡算法,以及会话保持、健康检查等功能,更适配云原生架构下的动态配置加载和安全需求。NJet不仅可以处理HTTP请求,还支持TCP、UDP和SSL协议,能够满足多种应用场景的需求。值得一提的是,NJet项目是通明智云公司与俄罗斯原NGINX研发团队联合打造的一款遵循开源木兰许可证协议的开源Web服务器与应用代理软件。

相比于Envoy,NJet通过精简、优化设计实现了3倍的性能提升,得益于采用C语言开发的高效架构,NJet能够在高并发、低延迟的场景中表现卓越。

与传统的NGINX不同,NJet实现了运行时动态配置加载能力,无须停机即可实时调整配置。这一特性显著提高了系统的灵活性和可维护性,成为现代应用引擎的重要优势。

在安全性方面,NJet提供了全面的保护机制,包括对国密算法的支持、业务安全保障以及数据加密传输等功能,确保应用引擎在各种复杂环境下的安全、可靠运行。

在功能特性方面,NJet不仅支持南北向通信网关,还覆盖东西向通信场景,适用于服务网格架构。此外,NJet集成了透明流量劫持、熔断、遥测与故障注入等高级功能,为现代微服务架构提供了全面的支持。

为了进一步优化管理和控制功能,NJet引入了独特的副驾驶(Copilot)服务框架。该框架支持集群管理、高可用性、主动健康检查、声明式API和xDS服务发现等功能,显著提升了功能扩展能力,同时隔离了管理和控制功能对业务的潜在影响。

NJet还兼容NGINX的扩展性插件,具备充分利用NGINX开源生态的潜力。这一兼容性使NJet能够快速集成第三方插件和工具,大幅拓展其功能和应用场景,成为应用引擎的重要选择。

为了推动NJet应用引擎的广泛应用和发展,通明智云积极开展生态建设工作。2023年6月,OpenNJet 1.0开源版本正式捐赠给开放原子开源基金会,成为基金会第一批云原生开源孵化项目。此举不仅增强了NJet的开源生态,也为国内开发者和企业提供了一个自由、开放的技术平台。

此外,通明智云还联合中国信息通信研究院、通明湖信息城、神州数码等单位共同发布了《云原生应用引擎技术发展白皮书》,梳理了产业现状,推动了应用引擎技术的发展。同时,成立了应用引擎专业委员会和云原生工作委员会,组织了一系列的技术交流和培训活动,吸引了大量企业和个人开发者参与。2023年OpenNJet开源社区荣获了OSCHINA“2023年度优秀开源技术团队”称号。

1.6 云计算企业在负载均衡领域的布局

随着互联网应用的广泛普及和云计算的快速发展,负载均衡成为全球各大云计算企业的关键技术组件。负载均衡不仅提升了应用的可靠性和可扩展性,还大幅提高了应用的可用性和响应速度。作为全球领先的云计算企业,亚马逊、阿里巴巴、VMware、腾讯、谷歌、百度和Webscale等在负载均衡领域的产品开发和并购上投入了大量资源,为全球客户提供了稳定、灵活的负载均衡解决方案。

1.亚马逊

AWS是全球最大的云服务提供商之一,在负载均衡领域通过自主研发和持续创新,构建了强大的服务能力。AWS推出了ELB,这是其核心基础设施服务之一,为用户提供了多样化的负载均衡选项,适应不同的应用场景需求。

其中,应用程序负载均衡器(Application Load Balancer,ALB)专为七层负载均衡设计,能够处理HTTP和HTTPS流量,并支持基于内容的路由和高级规则配置,为现代Web应用提供高效的流量管理方案。网络负载均衡器(Network Load Balancer,NLB)则针对四层负载均衡场景,具备超低延迟和大规模并发连接能力,是高性能和实时性要求场景的理想选择。网关负载均衡器(Gateway Load Balancer,GLB)支持通过第三方虚拟网络设备对流量进行监控和过滤,满足复杂网络环境中的安全和流量管理需求。

AWS通过自主开发ELB系列产品,不断优化其功能和性能,以满足大规模云计算场景中对高可用性和稳定性的需求。这些负载均衡服务被深度集成到AWS云平台,为企业提供弹性扩展、智能流量分发和可靠运行支持。

AWS的ELB是其云平台的核心服务之一,提供多种负载均衡类型供用户按需选择,从Web应用到高性能计算的多种场景,均能灵活应对。

2.阿里巴巴

阿里巴巴集团旗下的阿里云是中国最大的云服务提供商之一,在负载均衡领域通过自主研发和技术创新,为用户提供了强大的解决方案——阿里云负载均衡。这一服务是阿里云基础设施的重要组成部分,为企业在复杂的应用场景中提供高效的流量管理支持。

阿里云负载均衡具备卓越的高可用性和弹性扩展能力,能够根据流量需求自动调整资源分配,特别适用于高并发业务场景,帮助企业应对流量高峰。阿里云负载均衡同时支持四层(TCP/UDP)和七层(HTTP/HTTPS)负载均衡,为不同应用层级的需求提供灵活的流量分发方式。此外,阿里云负载均衡提供多可用区容灾能力,支持跨地域的故障切换和冗余设计,确保关键业务的持续运行和高可用性。

阿里云负载均衡通过自主开发,集成了智能流量管理、安全防护和健康检查等功能,为用户提供了一个稳定、灵活且高效的负载均衡解决方案。通过引入机器学习和数据分析技术,阿里云持续优化阿里云负载均衡的智能化能力,提高流量分发效率,为电子商务、金融和公共事业等行业的大规模应用提供可靠支持。

3.VMware

在负载均衡领域,VMware的成长历程宛如一场精心布局的技术探险。最初,这家以虚拟化技术和数据中心解决方案闻名的公司,并未涉足负载均衡的“深水区”。然而,随着多云环境的崛起和应用交付需求的爆发式增长,VMware意识到,负载均衡不仅是技术上的延伸,更是完善其网络和应用服务体系的关键一步。

为此,VMware从研发起步,推出了NSX Data Center平台,并以其中的NSX Edge模块作为负载均衡功能的基础。这一阶段,NSX Edge主要聚焦于基础的四层负载均衡功能,用以满足网络层的流量管理需求。然而,市场的声音很快证明,这还远远不够。企业对于应用层的复杂需求,如流量分配、性能优化和动态响应,超越了传统负载均衡的能力范围。VMware敏锐地捕捉到这一趋势,决意进一步拓展自己的技术版图。

2019年,VMware将目光锁定在Avi Networks——一家专注于负载均衡和多云应用交付的公司。通过这次战略性收购,VMware不仅获得了Avi Networks的核心技术,还将其领先的全栈负载均衡能力融入自身的产品体系。Avi Networks的独特之处在于其软件定义的应用交付平台,这个平台通过机器学习,实现了自动流量调配和故障检测,并能无缝支持多云和混合云环境。

整合Avi Networks的技术后,VMware推出了NSX Advanced Load Balancer。这个创新平台不仅具备从四层到七层的全栈负载均衡能力,还引入了全局流量管理和WAF功能,为用户提供了多维度的流量管理和安全防护。更重要的是,它在智能化和自动化方面表现突出,能够通过机器学习优化流量路径,提升应用的响应速度,同时增强用户体验。

凭借这一组合,VMware在负载均衡领域实现了多项重要突破。NSX Advanced Load Balancer提供从基础流量管理到应用层流量调配的全方位支持,它灵活的设计让企业能在多云和混合云环境中无缝部署和管理负载均衡服务。基于机器学习的智能调度和健康检查,让流量优化变得更加高效。同时,通过内置的WAF功能,平台为用户的应用提供了强有力的安全保护。

4.腾讯

腾讯云在负载均衡领域进行了深度投入,推出了腾讯云负载均衡,以高可用性和高灵活性为特点,为用户提供全面的流量管理和分发能力。这一服务是腾讯云生态系统的核心组件,适用于广泛的应用场景。

腾讯云负载均衡支持四层和七层负载均衡,能够根据应用需求智能分发流量。通过高弹性扩展能力,腾讯云负载均衡可以在流量高峰时自动扩展资源,在流量减少时适时释放资源,从而帮助用户实现高效的成本控制。多可用区容灾设计支持跨区域部署,即使在数据中心发生故障时,也能依靠冗余机制确保服务的持续性。

此外,腾讯云负载均衡集成了先进的智能流量管理和安全防护功能。它内置DDoS防护、流量清洗和WAF,为用户提供全面的安全保障,有效应对复杂的网络攻击威胁。这一功能特别适用于游戏、社交媒体和金融等有高安全性和高并发需求的行业。

腾讯云负载均衡深度嵌入腾讯云的整体架构,提供灵活的弹性扩展和智能流量管理能力,支持多层次的负载均衡功能,被广泛应用于高并发业务场景。

5.谷歌

谷歌云平台(Google Cloud Platform,GCP)的负载均衡服务——谷歌云负载均衡是其基础设施服务的核心组件之一,以高性能、全球分布和灵活性著称,为用户提供卓越的流量管理能力。

谷歌云负载均衡是谷歌云平台的关键负载均衡器即服务(Load Balancer as a Service,LbaaS),具备全球范围的负载均衡能力和自动扩展特性,能够无缝连接谷歌云平台的其他基础设施,支持构建全球化应用。

谷歌云负载均衡提供全局负载均衡和跨区域支持,使用户无须受地理位置限制即可部署应用。在全球范围内,谷歌云负载均衡会根据用户的地理位置和可用实例的健康状态,自动分配流量到最近的实例,从而最大限度地减少延迟,提升用户体验。

谷歌云负载均衡支持多种负载均衡类型,包括HTTP/HTTPS、TCP/SSL和UDP负载均衡,适配从Web应用到高性能计算的多样化场景。这种多层次负载均衡设计确保了应用在不同场景下都能获得优化的流量分发能力。

通过其自动扩展和智能流量管理功能,谷歌云负载均衡能够根据动态流量需求自动调整后端实例的数量,确保服务的高效性和稳定性。同时,其健康检查和智能路由功能可以自动识别健康的实例,将流量优先分发到可用的目标节点,进一步提高应用的可用性。

6.百度

百度智能云作为中国领先的云服务提供商之一,通过推出百度智能云负载均衡,为其云平台提供了高效可靠的流量管理服务。这一服务被广泛应用于各种业务场景,是百度智能云生态系统的重要组成部分。

百度智能云负载均衡支持多种负载均衡模式,包括四层(TCP/UDP)和七层(HTTP/HTTPS)负载均衡,可适配从Web应用到移动应用及实时通信等不同场景,满足多样化的业务需求。它的弹性伸缩能力能够根据流量波动自动调整后端服务器的资源分配,确保应用服务的持续性和快速响应,即使在流量高峰时期也能稳定运行。

百度智能云负载均衡的智能流量分配功能通过健康检查实时监控后端服务器状态,将流量引导至健康节点,并支持自动故障转移,以保障服务的高可用性和高可靠性。特别是在搜索引擎、视频软件、广告平台等具有高并发、低延迟需求的应用中,百度智能云负载均衡展现了卓越的性能和稳定性。

百度智能云负载均衡进一步利用机器学习技术优化流量分发和资源利用效率,为用户提供智能化的流量管理能力。这种技术增强使百度智能云负载均衡能够满足大规模数据处理场景的复杂需求,为企业的高效运营提供了坚实支撑。

7.Webscale

Webscale是一家美国公司,专注于为电子商务和企业网站提供云端LBaaS解决方案,其服务致力于提升网站的性能、可用性和安全性,为用户提供卓越的在线体验。

Webscale的LBaaS通过智能流量管理功能,根据实时流量状况将用户请求高效分配到合适的服务器,确保系统负载均衡并显著提升响应速度。同时,它的自动扩展能力能够根据流量波动动态调整资源配置,确保网站在流量高峰期也能稳定运行,为企业提供无缝的服务支持。

在安全性方面,Webscale的服务集成了DDoS防护和WAF等功能,全面保护网站免受各种网络攻击。此外,依托全球分布的云基础设施,Webscale的负载均衡服务为用户提供低延迟和高可用性的访问体验,确保全球范围内的优质服务。

凭借智能化、高弹性和强安全性的特点,Webscale的LBaaS解决方案为企业在竞争激烈的市场中提供了强大的支持,使其能够高效、可靠地满足用户需求。

相关图书

企业WLAN架构与技术(第2版)
企业WLAN架构与技术(第2版)
白话AI安全:32个故事带你读懂AI的攻防博弈
白话AI安全:32个故事带你读懂AI的攻防博弈
迈向自智网络时代:核心网自动驾驶网络
迈向自智网络时代:核心网自动驾驶网络
个人信息保护治理体系及技术应用
个人信息保护治理体系及技术应用
揭秘网络勒索攻击从基础知识到应对策略全解析
揭秘网络勒索攻击从基础知识到应对策略全解析
内网渗透技术
内网渗透技术

相关文章

相关课程