来自 防护 2022-06-28 08:50 的文章

服务器高防_cdn高防免备案_怎么办

服务器高防_cdn高防免备案_怎么办

选择您所在的国家/地区查看联系人详细信息。

管理您的帐户或获取工具和信息。

有助于缓解延迟的六项设计原则

作者:Rajesh Varghese

云实现了全球访问、大规模、简化管理和降低成本。虽然这些都是显著的优势,但向云移动的工作负载的一个副作用是,基于云的应用程序和终端设备之间的距离扩大导致延迟增加。

今天,企业云架构师面临着解决分布式环境中出现的延迟问题的挑战,云应用程序的全球性质。

之前我们考虑了延迟的五个C(连接、接近、容量、争用、一致性)。在本文中,我们将回顾有助于缓解延迟挑战的六项设计原则。

最小化跳数并在尽可能接近的点上满足请求

随着基于云的应用程序的广泛采用,与内部部署应用程序相比,跳数显著增加,由于在请求者和处理请求的服务之间增加了广域网。每个跃点都可能是延迟的潜在因素。当跳数增加时,延迟也可能增加;此外,由于每个跃点的性能特征的可变性,保持延迟的一致性成为一个挑战。

今天,云架构师的工作重点是优化跃点的数量,并在请求到达云提供商的网络后尽可能在最近的点进行处理。通常使用缓存、直接路由和基于地理位置的路由等方法。这些方法有助于改善后端处理延迟,但从最终用户到云计算的路径包括通过运营商网络和互联网的更多跳数。

为了进一步降低总体延迟,5G和边缘计算已经成为潜在的游戏规则改变者。它不仅减少了跳数,还可以通过最后一英里、传输网络和后端云服务影响请求的整个过程。

通过设计水平可扩展的弹性基础设施缓解竞争

客户需求和流量随时间的变化。这对延迟有何影响?如果设计允许动态缩放资源以处理流量的增加或减少,则应用程序可能会提供一致的延迟。

云架构师通常使用自动缩放组、负载平衡器、读取副本、API和服务器缓存等结构来缓解延迟。自动缩放组允许在流量增加或达到策略定义时启动其他计算实例,从而创建处理请求的额外容量。负载平衡器在实例之间分配负载,并减少各个服务器上的争用。API缓存和资源缓存允许在事务流中的第一个可能点处理通常调用的请求,cc防御会拦截蜘蛛,而无需为后端服务器和数据库创建额外流量。随着流量的增长,这减少了下游资源的争用。

为确保低延迟,可扩展资源不应仅限于计算服务器。设计必须考虑每个网络资源。5G凭借其超宽数据吞吐量能力减少了最后一英里的竞争。在边缘处理请求进一步减少到后端的流量。

识别瓶颈并将请求委托给位置和应用程序感知优化资源

瓶颈限制了访问和消耗可用资源的能力,并影响延迟。但是,如果在潜在的瓶颈点将负载委托给处理请求的最佳资源,则处理性能可以提高。

常用功能包括基于地理位置的路由和请求类型特定实例。对于读请求多于写请求的应用程序,可以将读请求委托给读副本池,从而消除主服务器上写操作的瓶颈。某些流量最适合在边缘处理,而其他流量最适合在云中服务。架构良好的设计将使用工作负载的理想位置。

除了可扩展性之外,应用感知基础设施设计也很重要。例如,拥有用于视频分析/机器学习工作负载的图形处理单元(GPU)计算资源可以加快处理速度,而不是通用计算,从而限制处理延迟。

尽可能缓存,更贴近客户,在多个层面

在处理服务器上避免争用(并最小化延迟)的关键因素之一是限制服务器需要处理的请求。对于常用的请求,后端服务可以缓存请求的输出,而不是为每个附加请求重新创建输出。缓存是将数据存储在不同于原始服务器且更靠近最终用户的位置的过程。

缓存可以在不同级别和不同资产上进行。架构师已经使用了内容交付网络(CDN),它允许在更靠近客户的边缘进行缓存,从而减少数据资产请求的延迟。API缓存允许缓存通常调用的请求的结果,而无需后端服务器处理请求。

缓存可以跨多个区域复制,cc防御设置,为特定区域的用户提供更快的响应时间。

通过位置和连接确保依赖基础设施的紧密性

在在分布式体系结构中,处理应用程序请求可能需要多个相关服务(例如,与web服务器对话的数据库应用程序)。如果这些服务彼此非常接近,则可以控制增加延迟的因素。如果数据必须通过多个路由器传输很远的距离,或者如果网络上出现交通堵塞,延迟可能会增加。

具有可扩展的企业主干网对于保持流量通过首选路径路由而不是通过网络外路由以及通过延迟特性难以控制的网络路由非常重要。

架构师使用网络路由概念来保持特定网络中包含的流量,ddos攻击防御多少钱,并使用布局和其他策略使相互依赖的资源彼此更接近。

了解流量的细分,并定义优先顺序和处理策略