来自 CC防护 2021-02-14 06:17 的文章

服务器被打死_怎么处理_怎么解决ddos攻击

服务器被打死_怎么处理_怎么解决ddos攻击

这篇文章最初出现在CUGC的博客上。正如我在2月份关于Silverton项目的更新中所承诺的,"NetScaler VPX on HyperFlex"项目进展顺利,尽管比我预期的要慢。从某些方面来说,这似乎是一个奇怪的项目——毕竟,几乎每一个现代的XenApp/XenDesktop部署都包含NetScaler,而不管使用的是VPX还是物理设备。然而,这个项目为我们提供了一个机会来探索当人们开始考虑为Citrix工作负载投资新的内部虚拟基础设施时出现的许多普遍问题。幸运的是,我有幸和网通大师合作。我已经部署了很多这样的吸管,但从任何人的定义来看,我都不认为自己是NetScaler专家。你越深入地研究它们,你就越能意识到它们不仅功能强大,而且功能强大。你了解得越深,你就越能意识到还有很多功能你一无所知。埃丝特平衡了我的技能,给我们提供了一个很好的基础。在我们目前的技能下降的地方,web应用ddos防御,我们都很幸运有一个由Citrix内外的专家组成的社区来寻求建议。祝福算在内!在我们计划这个项目时,我们确定了我们将尝试回答的以下问题:在HCI设备上运行NetScaler VPX是否正常?如果我在桌面/应用程序工作负载的同时运行它,它对可伸缩性/用户体验有什么影响?这些电器应该有多大?如何配置它们以获得满意的结果?如果我以这种方式部署,我还应该关心什么?正如你所料,我们在这段旅程中学到的不仅仅是我们所寻求的答案!看来我们已经可以写一本关于这个主题的书了,但是既然我们都有"日常工作",我们就必须满足于把它们提炼成一小块一小块,我们可以在这里与大家分享。不用多说了,我们开始吧!1–我们的计划我们的计划一开始很简单,看起来像这样:创建一个可复制的基线工作负载,该工作负载将对由4个节点组成的Cisco HyperFlex群集造成压力(没有NetScaler)。测量这个基准工作量,找出我们的瓶颈所在。通过NetScaler设备(在HyperFlex集群上和之外运行)重新路由会话。衡量对基线工作量的影响。分享我们所学到的。随着我们旅程的细节展开,你会发现我们走了很多我们没有预料到的方向!2–我们的试验台我们的测试集群由4台服务器组成,这些服务器标识为"Cisco HX240c M4SX HyperFlex系统"。它们是2U"披萨盒"外形尺寸的主机,由一对冗余的Cisco UCS 6248以上结构互连进行管理。这是一个非常好的设置,值得一个后续博客给你详细的成品(物理齿轮,高防加速cdn,ESX安装/配置,SDS层安装/配置,等等)远不止这些部分的总和-它是一个配置非常好,生产就绪的虚拟基础设施,随时准备接受您的任何投入。作为完整教程的替代,我将分享一些与我们的测试直接相关的其他相关配置细节。每台主机有两个Xeon E5-2630v3 CPU(2.40GHz各8个核)和256GB RAM(由多个32GB DDR4-2133-MHz RDIMM/PC4-17000/双列/x4/1.2v组成)。每个主机从一对镜像的64GB SD卡引导ESXi 6.0 Patch 3。存储配置很有趣——当我说有趣的时候,我是以积极的方式说的(我讨厌处理存储!)。机箱内有一对(我相信)120GB驱动器,用于Cisco HX Data Platform storage controller VM(用于这些测试的版本为1.8.1.c),以及一组可外部访问的驱动器(包括一个1.6TB 2.5英寸企业性能6G SATA SSD和11个1.2 TB 12G SAS 10K RPM SFF HDD)。所有外部可访问的驱动器都由存储控制器虚拟机管理,存储控制器虚拟机从每个主机"收集"本地存储,将其集中到一大块可调配容量中,cc防御一个页面,并将其作为简单的共享存储返回vSphere。对于那些讨厌思考这些事情的人来说,这简直太棒了。我所要做的就是点击一个简单的UI(基本上,你想要多大的UI?)剩下的工作都是为我完成的。太棒了——这也证明了这个平台能够打破IT部门的管理孤岛。3–我们的基准工作量在我2月份的Silverton项目更新中,我已经透露了工作负载配置的来源:通过MCS配置的带有Office 2016的服务器2012/R2。我们有很多可以选择的选项:我们已经通过自动化框架Eric Haavarstein(@xenapplog)为我们配置了多个操作系统选项,包括Server 2012/R2、Windows 10和Server 2016。此外,该框架使跨操作系统版本复制相同的软件堆栈变得很容易。此外,该框架使跨多种不同的部署方法(包括传统完整克隆、MCS完整克隆、MCS非持久克隆和pv)更容易利用这些构建。Cisco HyperFlex gear还为我们提供了所有这些选项,因为它提供的存储是一流的—它的性能非常好,容量充足,重复数据消除率非常高。我们选择了通过MCS/non-persistent clones部署Office 2016的服务器2012/R2,原因之一是Cisco为其最新的HyperFlex研究(8节点HyperFlex群集上有1200名XenApp用户)而运行的服务器,这为我们提供了一些有效的数字来检查我们的结果,也给了我们一些非常聪明的人,免费ddos集群防御,我们可以与他们进行比较并学习从。在我继续之前,请简要介绍一下服务器2012/R2上的软件堆栈。我们故意使其尽可能简单,排除了我真正想要的一些项目(例如ControlUp代理和Citrix工作区环境管理器代理),这样它不仅易于复制,而且可以最小化这些代理对可伸缩性或性能的影响。因此,我们的堆栈基本上仅限于Citrix VDA、Office 2016、VMware Tools和LoginVSI来宾工具。从"添加/删除程序"中可以看到我们的完整堆栈,如下所示:4–我们的XenApp VM配置我们的下一个问题出现在我们试图决定应该运行多少个VM(哪些CPU/内存配置)来"适当地"饱和HyperFlex集群。我们可能会就此展开争论,但我们利用思科的经验法则开始了这项工作。他们的规则:(包括超线程的内核总数)–(HyperFlex存储控制器虚拟机使用的核心数)–(虚拟机监控程序的4个核心)=(XenApp虚拟机可用的核心数)我们的HyperFlex群集运行的是Intel Xeon E5-2630 v3。如前所述,我们测试群集中的4台主机中的每台都有两个8核CPU,这使我们在每个主机上总共有32个超线程CPU。HX数据平台安装程序用8个vCPU配置虚拟存储控制器。如果我们留下4个vCPU供ESX使用,则剩下(32–8–4=)20个vCPU分配给XenApp server VM。请注意,思科最新的CVD利用了XeonE5-2690v4处理器,每个插槽有14个核,这是一个非常有价值的升级投资!但正如那句老话所说"乞丐不能挑肥拣瘦",所以我们测试了我们所拥有的…所以现在我们有了一个20个vCPU的每个主机的目标核心计数-接下来我们要回答的问题是"每个XenApp服务器有多少个vCPU?"以及"每台主机有多少台XenApp服务器?"因为这远远不是思科的第一个竞技,我们开始了他们的优化/测试配置6个vCPU和24GB的每个虚拟机内存。我们本可以就此罢休,ddos防御是什么,但那太容易了…如果我们使用6个vCPU,那就意味着我们可以为每台主机"安装"3台XenApp服务器,总共消耗了18个vCPU。由于我们计算出有20个vCPU可以使用-这种配置似乎会在桌面上留下一些处理能力…这让我们开始尝试为我们的设置验证"最佳"配置。我们考虑了以下几点,但由于时间限制,仅测试了三种配置中的2种:3台XenApp服务器/主机,每台服务器6台vCPU4台XenApp服务器/主机,每台服务器5个vCPU(未测试)5台XenApp服务器/主机,每台服务器4台vCPU关于VM/主机内存的一个简单说明:我们集群中的每个主机都有256GB的2133GHz RAM,而每个存储控制器VM都使用72GB的现成内存。对于第一轮测试,我们最多只能运行6个虚拟机,所以我们对内存分配并不是很科学,因为我们预计在这个工作负载下,CPU会比内存消耗得快。Cisco的6 vCPU设置使用了24GB/XenApp服务器,因此我们坚持使用它,将其重新调整为20GB,用于4 vCPU配置。在未来的某个时候,我们会对内存的使用进行更科学的研究,但是考虑到我们日常工作中的时间竞争,我们暂时就不谈了。需要注意的是,Cisco建议生产系统的内存永远不要过度订阅,这是我可以欣然接受的建议。5–我们的测试参数正如您所料,我们使用LoginVSI来生成和分析我们的测试。我们确定了他们预定义的"知识工人"工作负载,并在基准模式下运行测试以获得一致性和可重复性。所有会话都是在48分钟的加速时间内启动的,除非少于2%的会话失败,否则我们不会"计算"一次运行是否成功,无论是否已达到VSIMax。对于那些喜欢在这类事情上玩的人,下面是一个常见测试用例的VSI摘要屏幕:还有一些值得分享的小道消息:我们会在这里分享他们的新鲜血液。我们也一样