数据库服务器租用设计负载均衡的方法
发布时间:2018-10-19 点击数:2020
很多大项目用户都会选择使用服务器租用的方式来存放所有的数据,可是由于服务器的数据量实在太大了所以加载过慢是个头痛的问题,进行小编就特意整理了数据库服务器租用设计负载均衡的方法可以有效的防止数据的加载过慢的问题。

负载均衡服务器:一种 HTTP 请求分发装置,可以感知或者可以配置集群的服务器数量,可以及时发现集群中新上线或者下线的服务器,并能向新上线的服务器分发请求,停止向已下线的服务器分发请求,这样负载均衡服务器就实现了应用服务器集群的伸缩性了。
HTTP 重定向负载均衡
HTTP 重定向服务器是一台普通的应用服务器,其唯一的功能就是根据用户的 HTTP 请求计算一台真实的服务器地址,并将真实的服务器地址写入 HTTP 重定向响应中(响应状态吗 302)返回给浏览器,然后浏览器再自动请求真实的服务器。
HTTP 重定向负载均衡原理
在图中,浏览器请求访问域名www.mysite.com,DNS 服务器解析得到 IP 地址是 114.100.80.10,即 HTTP 重定向服务器的 IP 地址。然后浏览器通过 IP 地址 114.100.80.10 访问 HTTP 重定向负载均衡服务器后,服务器根据某种负载均衡算法计算获得一台实际物理服务器的地址(114.100.80.3),构造一个包含该实际物理服务器地址的重定向响应返回给浏览器,浏览器自动重新请求实际物理服务器的 IP 地址 114.100.80.3,完成访问。
这种负载均衡方案的优点是比较简单,缺点是浏览器需要每次请求两次服务器才能拿完成一次访问,性能较差;重定向服务器自身的处理能力有可能成为瓶颈,整个集群的伸缩性规模有限;使用 HTTP 302 响应吗重定向,可能使搜索引擎判断为 SEO 作弊,降低搜索排名。因此这种方案在实际使用中并不见多。
DNS 域名解析负载均衡
DNS 域名解析负载均衡
在 DNS 服务器中配置多个 A 记录,如:www.mysite.com IN A 114.100.80.1、www.mysite.com IN A 114.100.80.2、www.mysite.com IN A 114.100.80.3。
每次域名解析请求都会根据负载均衡算法计算一个不同的 IP 地址返回,这样 A 记录中配置的多个服务器就构成一个集群,并可以实现负载均衡。图中的浏览器请求解析域名www.mysite.com,DNS 根据 A 记录和负载均衡算法计算得到一个 IP 地址 114.100.80.3,并返回给浏览器;浏览器根据该 IP 地址,访问真实物理服务器 114.100.80.3。
优点
将负载均衡的工作交给了 DNS,省掉了网站管理维护负载均衡服务器的麻烦,同时许多 DNS 还支持基于地理位置的域名解析,即会将域名解析成距离用户地理最近的一个服务器地址,这样就可以加快用户访问速度,改善性能。
缺点
目前的 DNS 是多级解析,每一级 DNS 都可能缓存 A 记录,但下线某台服务器时,即使修改了 DNS 的 A 记录,要使其生效也需要较长时间,这段时间,DNS 依然会将域名解析到已经下线的服务器,导致用户访问失败,而且 DNS 负载均衡的控制权在域名服务商那里,网站无法对其做更多的改善和针对于自己网站的一些修改。
事实上,大型网站总是部分使用 DNS 域名解析,利用域名解析作为第一级负载均衡手段,即域名解析得到的一组服务器并不是实际提供 Web 服务的物理服务器,而是同样提供负载均衡服务的内部服务器,这组内部负载均衡服务器再进行负载均衡,再将请求分发到真实的 Web 服务器上。
反向代理负载均衡
利用反向代理缓存资源,可以改善网站性能。实际上,在部署位置上,反向代理服务器处于 Web 服务器前面(这样才可能缓存 Web 响应,加速访问),这个位置也正好是负载均衡服务器所在的位置,所以大多数的反向代理服务器同时提供了负载均衡的功能。Web 服务器处理完的响应也需要通过反向代理服务器返回给用户。由于 Web 服务器不直接对外提供访问,因此 Web 服务器不需要使用外部 IP 地址,而反向代理服务器则需要配置双网卡和内部外部两套 IP 地址。
反向代理负载均衡
优点
由于反向代理服务器转发请求在 HTTP 协议层面,因此也叫应用层负载均衡,其优点是和反向代理服务器功能集成在一起,部署简单。
缺点
反向代理服务器是所有请求和响应的中转站,其性能可能会成为瓶颈
IP 负载均衡
用户请求数据包到达负载均衡服务器 114.100.80.10 后,负载均衡服务器在操作系统内核进程获取网络数据包,根据负载均衡算法计算得到一台真实 Web 服务器 10.0.0.1,然后将数据目的 IP 修改为 10.0.0.1,不需要通过用户进程处理。真实的 Web 应用服务器处理完成后,响应数据包回到负载均衡服务器,负载均衡服务器再将数据包源地址修改为自身的 IP 地址(114.100.80.10)发送给用户浏览器。
这里关键在于真实物理 Web 服务器响应数据包如何返回给负载均衡服务器。一种方案是负载均衡服务器在修改目的 IP 地址的同时修改源地址,将数据包源地址设为自身 IP,即源地址转换(SNAT),这样 Web 服务器的响应会再回到负载均衡服务器;另一种方案就是将负载均衡服务器同时作为真实物理服务器集群的网关服务器,这样所有响应数据都会到达负载均衡服务器。
优点
IP 负载均衡在内核进程完成数据分发,较反向代理负载均衡(在应用程序中分发数据)有更好的处理性能。
缺点
所有请求响应都需要经过负载均衡服务器,集群的最大响应数据吞吐量不得不受制于负载均衡服务器网卡带宽,对于提供下载服务或者视频服务等需要传输大量数据的网站而言,难以满足需求。(因为响应数据包的源 IP 地址是内网地址不可访问外网,所以数据包必须要经过负载均衡服务器转发给外网)
能不能让负载均衡服务器只分发请求,而使响应数据从真实物理服务器直接返回给用户呢?
数据链路层负载均衡
数据链路层负载均衡是指在通信协议的数据链路层修改 mac 地址进行负载均衡。
数据链路层负载均衡
这种数据传输方式又称作三角传输模式,负载均衡数据分发过程中不修改 IP 地址,只修改目的 mac 地址,通过配置真实物理服务器集群所有机器 IP 和负载均衡服务器 IP 地址一致,从而达到不修改数据包的源地址和目的地址就可以进行数据分发的目的,由于实际处理请求的真实物理服务器 IP 和数据请求目的 IP 一致,不需要通过负载均衡服务器进行地址转换,可将响应数据包直接返回给用户浏览器,避免负载均衡服务器网卡带宽成为瓶颈。这种负载均衡方式又称作直接路由方式(DR)。
使用三角传输模式的链路层负载均衡是目前大型网站所使用的最广的一种负载均衡手段。在 linux 平台上最好的链路层负载均衡开源产品是 LVS(linux virtual server)。
负载均衡算法
负载均衡服务器的实现分为两部分:
根据负载均衡算法和 Web 服务器列表计算得到集群中一台 Web 服务器的地址;
将请求数据分发到该地址对应的 Web 服务器上。
具体的负载均衡算法有以下几种:
轮询
所有请求被依次分发到每台应用服务器上,即每台服务器需要处理的请求数目都相同,适合于所有服务器硬件都相同的场景。
加权轮询
根据应用服务器硬件性能的情况,在轮询的基础上,按照配置的权重将请求分发到每个服务器,高性能的服务器能分配更多的请求。
随机
请求被随机分配到各个应用服务器。可以根据应用服务器硬件配置不同加权随机算法。
最少连接
记录每个应用服务器正在处理的连接数(请求数),将新的请求分发到最少连接的服务器上。同样可以加权。
源地址散列

负载均衡服务器:一种 HTTP 请求分发装置,可以感知或者可以配置集群的服务器数量,可以及时发现集群中新上线或者下线的服务器,并能向新上线的服务器分发请求,停止向已下线的服务器分发请求,这样负载均衡服务器就实现了应用服务器集群的伸缩性了。
HTTP 重定向负载均衡
HTTP 重定向服务器是一台普通的应用服务器,其唯一的功能就是根据用户的 HTTP 请求计算一台真实的服务器地址,并将真实的服务器地址写入 HTTP 重定向响应中(响应状态吗 302)返回给浏览器,然后浏览器再自动请求真实的服务器。
HTTP 重定向负载均衡原理
在图中,浏览器请求访问域名www.mysite.com,DNS 服务器解析得到 IP 地址是 114.100.80.10,即 HTTP 重定向服务器的 IP 地址。然后浏览器通过 IP 地址 114.100.80.10 访问 HTTP 重定向负载均衡服务器后,服务器根据某种负载均衡算法计算获得一台实际物理服务器的地址(114.100.80.3),构造一个包含该实际物理服务器地址的重定向响应返回给浏览器,浏览器自动重新请求实际物理服务器的 IP 地址 114.100.80.3,完成访问。
这种负载均衡方案的优点是比较简单,缺点是浏览器需要每次请求两次服务器才能拿完成一次访问,性能较差;重定向服务器自身的处理能力有可能成为瓶颈,整个集群的伸缩性规模有限;使用 HTTP 302 响应吗重定向,可能使搜索引擎判断为 SEO 作弊,降低搜索排名。因此这种方案在实际使用中并不见多。
DNS 域名解析负载均衡
DNS 域名解析负载均衡
在 DNS 服务器中配置多个 A 记录,如:www.mysite.com IN A 114.100.80.1、www.mysite.com IN A 114.100.80.2、www.mysite.com IN A 114.100.80.3。
每次域名解析请求都会根据负载均衡算法计算一个不同的 IP 地址返回,这样 A 记录中配置的多个服务器就构成一个集群,并可以实现负载均衡。图中的浏览器请求解析域名www.mysite.com,DNS 根据 A 记录和负载均衡算法计算得到一个 IP 地址 114.100.80.3,并返回给浏览器;浏览器根据该 IP 地址,访问真实物理服务器 114.100.80.3。
优点
将负载均衡的工作交给了 DNS,省掉了网站管理维护负载均衡服务器的麻烦,同时许多 DNS 还支持基于地理位置的域名解析,即会将域名解析成距离用户地理最近的一个服务器地址,这样就可以加快用户访问速度,改善性能。
缺点
目前的 DNS 是多级解析,每一级 DNS 都可能缓存 A 记录,但下线某台服务器时,即使修改了 DNS 的 A 记录,要使其生效也需要较长时间,这段时间,DNS 依然会将域名解析到已经下线的服务器,导致用户访问失败,而且 DNS 负载均衡的控制权在域名服务商那里,网站无法对其做更多的改善和针对于自己网站的一些修改。
事实上,大型网站总是部分使用 DNS 域名解析,利用域名解析作为第一级负载均衡手段,即域名解析得到的一组服务器并不是实际提供 Web 服务的物理服务器,而是同样提供负载均衡服务的内部服务器,这组内部负载均衡服务器再进行负载均衡,再将请求分发到真实的 Web 服务器上。
反向代理负载均衡
利用反向代理缓存资源,可以改善网站性能。实际上,在部署位置上,反向代理服务器处于 Web 服务器前面(这样才可能缓存 Web 响应,加速访问),这个位置也正好是负载均衡服务器所在的位置,所以大多数的反向代理服务器同时提供了负载均衡的功能。Web 服务器处理完的响应也需要通过反向代理服务器返回给用户。由于 Web 服务器不直接对外提供访问,因此 Web 服务器不需要使用外部 IP 地址,而反向代理服务器则需要配置双网卡和内部外部两套 IP 地址。
反向代理负载均衡
优点
由于反向代理服务器转发请求在 HTTP 协议层面,因此也叫应用层负载均衡,其优点是和反向代理服务器功能集成在一起,部署简单。
缺点
反向代理服务器是所有请求和响应的中转站,其性能可能会成为瓶颈
IP 负载均衡
用户请求数据包到达负载均衡服务器 114.100.80.10 后,负载均衡服务器在操作系统内核进程获取网络数据包,根据负载均衡算法计算得到一台真实 Web 服务器 10.0.0.1,然后将数据目的 IP 修改为 10.0.0.1,不需要通过用户进程处理。真实的 Web 应用服务器处理完成后,响应数据包回到负载均衡服务器,负载均衡服务器再将数据包源地址修改为自身的 IP 地址(114.100.80.10)发送给用户浏览器。
这里关键在于真实物理 Web 服务器响应数据包如何返回给负载均衡服务器。一种方案是负载均衡服务器在修改目的 IP 地址的同时修改源地址,将数据包源地址设为自身 IP,即源地址转换(SNAT),这样 Web 服务器的响应会再回到负载均衡服务器;另一种方案就是将负载均衡服务器同时作为真实物理服务器集群的网关服务器,这样所有响应数据都会到达负载均衡服务器。
优点
IP 负载均衡在内核进程完成数据分发,较反向代理负载均衡(在应用程序中分发数据)有更好的处理性能。
缺点
所有请求响应都需要经过负载均衡服务器,集群的最大响应数据吞吐量不得不受制于负载均衡服务器网卡带宽,对于提供下载服务或者视频服务等需要传输大量数据的网站而言,难以满足需求。(因为响应数据包的源 IP 地址是内网地址不可访问外网,所以数据包必须要经过负载均衡服务器转发给外网)
能不能让负载均衡服务器只分发请求,而使响应数据从真实物理服务器直接返回给用户呢?
数据链路层负载均衡
数据链路层负载均衡是指在通信协议的数据链路层修改 mac 地址进行负载均衡。
数据链路层负载均衡
这种数据传输方式又称作三角传输模式,负载均衡数据分发过程中不修改 IP 地址,只修改目的 mac 地址,通过配置真实物理服务器集群所有机器 IP 和负载均衡服务器 IP 地址一致,从而达到不修改数据包的源地址和目的地址就可以进行数据分发的目的,由于实际处理请求的真实物理服务器 IP 和数据请求目的 IP 一致,不需要通过负载均衡服务器进行地址转换,可将响应数据包直接返回给用户浏览器,避免负载均衡服务器网卡带宽成为瓶颈。这种负载均衡方式又称作直接路由方式(DR)。
使用三角传输模式的链路层负载均衡是目前大型网站所使用的最广的一种负载均衡手段。在 linux 平台上最好的链路层负载均衡开源产品是 LVS(linux virtual server)。
负载均衡算法
负载均衡服务器的实现分为两部分:
根据负载均衡算法和 Web 服务器列表计算得到集群中一台 Web 服务器的地址;
将请求数据分发到该地址对应的 Web 服务器上。
具体的负载均衡算法有以下几种:
轮询
所有请求被依次分发到每台应用服务器上,即每台服务器需要处理的请求数目都相同,适合于所有服务器硬件都相同的场景。
加权轮询
根据应用服务器硬件性能的情况,在轮询的基础上,按照配置的权重将请求分发到每个服务器,高性能的服务器能分配更多的请求。
随机
请求被随机分配到各个应用服务器。可以根据应用服务器硬件配置不同加权随机算法。
最少连接
记录每个应用服务器正在处理的连接数(请求数),将新的请求分发到最少连接的服务器上。同样可以加权。
源地址散列
根据请求来源的 IP 地址进行 Hash 计算,得到应用服务器,这样来自同一 IP 地址的请求总在同一个服务器上处理,该请求的上下文信息可以存储在这台服务器上,在一个会话周期内重复使用,从而实现会话黏滞。
通过这样实现负载均衡就可以很好的解决数据加载过慢的问题,云网时代在这方面也有很好的解决方案,云网时代是深圳地区比较有实力的IDC服务商,秉承诚信、合法、规范的企业原则,为用户提供深圳服务器托管,深圳服务器租用,深圳主机托管,广州服务器租用等服务,详情可咨询客服了解。