设计下一代的数据中心(二)
2018-09-29 作者:admin
四、横向扩展
下一代数据中心中的软件控制的基本原则以横向扩展设计为代表。横向扩展被定位成为企业IT部署中的主要架构,究其原因在于其能够提供无缝,透明的资源扩展,而无需涉及到传统基础架构迁移的成本和复杂性。
1、纵向扩展与横向扩展
纵向扩展的架构允许扩展有限的变量集,因为每个组件的功能限制了它们的集体性能。数据和应用程序通常会激增,并最终在纵向扩展架构中达到最大容量。随着应用程序的增加,基础架构资源分散,性能下降也随之而来。通过纵向扩展架构,您企业数据中心所运行的硬件决定了您在业务过程中将受到的限制,更快的硬件可能需要大量的迁移工作。
相比之下,横向扩展的体系结构则是分布式体系结构。它不限于单台机器的资源容量。其提供所有变量的线性扩展,允许您企业数据中心通过群集资源来实现规模化的缩放。横向扩展提供了广泛的资源扩展选项,使企业能够在整个数据中心基础架构和长期的运营过程中始终如一地利用IT投资。
成功的横向扩展体系结构的关键是确保来自额外添加节点的性能可以通过QoS功能进行智能化的配置。
如果工作负载在性能方面无法相互保护,则应用程序的所有者将不会支持这些工作负载的整合。横向扩展体系结构专为企业而设计,其中IT资源的线性增量增长是全球IT战略的一部分。
2、支持横向扩展的趋势
●资源的集群
传统的孤岛式数据中心依赖于具有闲置隔离资源的专用物理服务器。这些服务器及其所占用的空间决定了其所能够管理或存储的最大数据量。例如,VMware vSphere等虚拟化技术就是建立在将隔离资源集群到共享池中的概念之上的。
此策略是云中并行处理应用程序、负载平衡和容错(冗余)的关键。资源池有助于IT通过单一控制的软件实现快速、无中断的修改。向资源池中添加另一台服务器可以有效地扩展CPU和内存,并且可以纵向或横向缩放资源,以满足不断变化的业务需求。
●脊叶架构(Leaf-spine Architecture)
在采用以太网架构之前,网络拓扑构建在类似于分层结构的层中,并且通常被细分为允许虚拟机和其他设备的位置的pod。传统模型设计用于企业网络,由核心路由器,汇聚交换机和接入层交换机组成,传统上需要使用生成树协议(STP)来促进扩展。这种拓扑结构增加了网络设计和故障排除的复杂性。
脊叶架构设计只有两层:叶和脊。叶子层中的接入交换机连接到虚拟机、防火墙、边缘路由器和负载均衡器等设备。网络的主干是具有执行路由的交换机的主干层。每个叶子交换机通过动态第3层路由和使用等价多路径(ECMP)与每个主干交换机互连。最佳路径的调整和确定基于对网络变化的响应。
随着叶脊架构规模化扩展到数千个节点,接入访问层交换机之间的延迟和瓶颈(传统架构中常见)被最小化,因为这些交换机不超过一跳。例如,像Arista Networks的网络供应商就通过这种下一代数据中心的拓扑实现了速度,密度,可预测性和可扩展性。
●固态阵列SSA(Solid-State Array)
即使计算和网络管理员开始充分利用云服务的效率,但存储技术仍然是静态的。在传统存储中,企业别无选择,只能为不同的性能级别和关键应用程序使用单独的存储网络和不同的池。管理传统纵向扩展架构的管理员需要添加固定数量的驱动器架以增加容量。这些磁盘阵列需要预先进行用于满足未来扩展需求的所有资源的预付资本方面的前期支出。
横向扩展的固态阵列正在扩展曾经孤立的、静态存储生态系统。在下一代数据中心中,存储池(GB,IOPS)是共享资源。集群这些资源的能力提供了按需扩展的能力; 使得企业IT仅需要采购和管理当前业务所需的内容即可。
下一代数据中心横向扩展的存储提供了灵活性,可以在一段时间内以可预测的线性模式独立,无中断地扩展容量和性能。这意味着企业数据中心可以战略性地横向或纵向扩展缩放,并在任意数量的节点上分配数据和流量,同时增加数据服务的范围。通过利用云服务在存储层中的弹性并与所有其他服务、资源和云管理平台实现紧密集成,IT可以提高效率。
五、确保性能
在下一代数据中心中,原始性能是解决方案的一半;仅仅只是提供服务还并不足够。必须在整个基础架构中使用QoS资源控制,否则任何性能保证都只能达到最薄弱的环节一样的水平。动态管理CPU、内存、带宽、存储容量和存储性能,以提供预期和所需的应用程序体验。
确保性能的趋势
●监控工具
信息就是力量。自动化的性能监控为数据中心管理人员们提供了管理所有IT资源的使用情况和可用性所需的关键智能。企业正在使用软件来监控,报告和分析云服务中的实时和历史数据。这些工具可以提高服务水平,管理安全风险,并降低运营成本。
Splunk Inc.公司是在监控工具领域处于领先地位的企业之一。该公司所推出的IT服务智能(ITSI)是一款用于基础架构分析和可视化的监控和性能跟踪平台。ITSI在生产环境中运行,其中包含用于显示关键性能指标(KPI)和基础架构的仪表板,并提供用于问题评估的深入数据。该软件是为在企业内部,云中或混合环境中的IT操作运营而开发的。用户表示,部署此类软件产品,能够带来:事件调查,更强的安全性,可用性和关键业务洞察力等诸多方面的好处。
●网络QoS
在下一代数据中心中,企业架构师们通过将网络流量细分为不同优先级的队列来管理性能,同时控制将采用多少管道用于存储或应用程序。网络QoS旨在保证关键应用程序流量的服务交付,而不会破坏其他流量,并实现对带宽利用率的精细控制。
在网络层采用QoS是促进融合和端到端服务水平协议的关键推动因素。来自英特尔的营销计划经理Brian Yoshinaka解释了企业对于网络基础设施的选择所带来的影响:
“今天,随着企业IT部门纷纷积极的准备部署内部云环境,评估对于网络基础架构的选择将如何影响到云服务对于其服务级别协议(SLA)满足的能力非常重要。通常用于描述云计算功能的术语,包括诸如敏捷性,灵活性和可扩展性,也应该绝对适用于底层网络。”
●存储QoS
在存储方面,QoS这一术语在行业供应商中缺乏一致的定义,故而在企业的IT决策者中产生了一定的(可理解的)怀疑。传统存储模型在独立的存储池上运行各种虚拟工作负载。创建该模型是为了在每个应用程序具有必须支持的多样化I / O模式时,保护单个应用程序在单个存储阵列中的性能和可用性。虽然这些系统可以按需提供容量,但他们很难有效地分配性能资源,因为它们不是为了支持集体工作负载的个别容量和性能要求而构建的。然后,企业购买的存储空间超出了他们的需求,从而提升了成本,并降低了效率。来自ESG实验室的分析师Aviv Kaufmann解释了传统平台所面临的挑战:“传统的存储基础架构已经发展到可以通过利用新兴技术来更好地满足企业工作负载的需求。但“不断发展”和“融合”意味着部分的妥协;这与为任务专门构建的某些架构不同。传统的存储架构可以配置为满足当今大多数整合工作负载的SLA,但这样做通常需要过度配置和超支,因为基础设施不灵活,管理复杂,并且对业务需求的响应速度慢。”
在下一代数据中心中,存储QoS意味着通过确保每个应用程序获得保证数量的存储资源,在细粒度级别强制执行性能控制。无论任何其他应用程序的活动、容量级别或I / O模式如何,每个为其配置的应用程序都会分配有保证的IOPS,并且这些分配的IOPS将得到一致的遵守。下一代数据中心使用基于节点,无共享的存储设计,可以在不增加应用程序风险配置文件的情况下扩展和整合工作负载。其根据业务的要求和价值提供一致的、可预测的性能,同时隔离和保护工作负载免受其他工作负载或硬件/软件故障的影响。
下一代数据中心存储设计中的性能和容量之间的精确平衡有助于通过真正的QoS来实现对于性能的确保,并降低OPEX。虚拟化技术的采用为计算资源所带来的益处,现如今在下一代数据中心的存储架构也能够充分实现了,这包括:独立资源的池化和隔离,关键工作负载的资源预留以及动态地将资源在工作负载之间进行迁移。