完美的数据中心工作如何定义
业务需要知道它们后端IT基础架构已经为持续发展作好准备。
现代IT企业与企业业务领导者紧密协作,以飞快的速度创建、扩展甚至拆除数据中心资产。灵活敏捷的IT不仅仅是大规模数据中心运营者,如脸书与谷歌所需求。企业——从大型钢铁公司到咖啡供应商,再到保险公司——都在提升IT运维效率,在数字驱动业务的时代重新规划数据中心。
要在这个不断进化的领域谋求一份数据中心工作,在面试工程师、运维人员或经理等职位时,会涉及到一些与该领域相关的术语。飞快说出DevOps与自动化打动不了面试官,也搞不到一份可以持续晋升的数据中心工作。
为此,我们TehcTarget就热门的数据中心术语用幻灯片制作了一个有趣的视觉提示,帮助你明白与描述现代数据中心运维。构建起IT基础架构扩展性与可靠性、文化与业务趋势,以及给你未来的雇主留下深刻影响的知识。
忘掉90年代!工作负载需要新型服务器
在短短的数十年光阴中,服务器已经从大型的、基于Uinx的系统变成小型的、通用的,基于标准的商业计算平台。
如今,掌控数据中心的服务器类型早已不识起初的计算系统。如上世纪90年代的IBM AS/400 Advanced 36 Model 436服务器技术,搭载单芯片处理器,只有18W功率。现今的中端服务器,如Dell PowerEdge 420都使用多核心处理器,功率达到80W。服务器存储内存翻了四倍,并拥有弹性功能。当前的高端x86服务器运行10个核心以上的处理器,上百个GB内存,并拥有更多的内部存储。摩尔定律从90年代发展到如今,上升轨道已经逐渐趋于平衡。
下一步是匹配服务器架构与工作负载。随着原始的计算能耗增速减慢,对于未来企业服务器类型的首要期望变成更好的可扩展性与效率。每个工作负载都有独特的计算需求。
对诸如Web服务器这样的工作负载来说,x86处理器的复杂指令集比不上精简指令集RISC处理器。减少指令集可提升处理器性能,同时在承载相同工作负载时比商业服务器使用的能耗更少。RISC服务器可在工作负载需要时交付大量的计算能力。这对于可扩展的云计算来说是个核心要求,诸如惠普的登月项目试验系统就是出于这样的目的打造的。
未来的服务器技术将采用模块化,为进程、内存、I/O等提供独立的功能模块,替换完整的机架与刀片系统。这样的分解方式允许组织更换具体的计算元素,而不是替换整个服务器。
大型机走过的这几十年
当IBM在1952年发布700系列时,大型机成为其主要的业务计算,并且这个大铁块是许多概念的基础。尽管早期的大型机技术意味着不兼容,但已随着时间的步伐逐渐与数据中心的其他部分集成。
核心IT原则起源于IBM基于晶体管的System/360业务级大型机。基于硬件的内存保护阻止用户程序破坏操作系统或其他程序,这也是虚拟化的重要原则。仿真技术让新的System/360运行在旧有大型机程序上,这也就是后来的向后兼容性。System/360为读卡器、打印机、早期磁带、磁盘存储与其他设备接口提供通道,这也为外围设备标准化铺平了道路。编辑器与作业队列也是大型机开创的。
现代大型机技术趋势在于搭建起大型机与传统服务器之间的桥梁。IBM的zEnterprise基于System z服务器,结合IBM zEnterprise BladeCenter Extension (zBX) 集成了112个刀片模块,包括使用x86或Power刀片的WebSphere设备,都通过10GB以太网端口通信。该模型提供高达120个zEC12 z/Architecture处理器核心,以及3TB内存,以便在冗余阵列中提升弹性。/span>
操作系统与虚拟化工具也从狭窄专有走向开放。IBM引入对zBX上x86刀片系统Windows Server 2008的支持,还支持专有的或Linux操作系统。在2013年,IBM发布了System z114服务器版本,只在z/VM hypervisor上面运行Linux。
未来的大型机系统模糊了硬件、软件与系统管理之间的界限。管理软件工具将在异构支持中扮演重要角色。第三方工具也开始转向控制异构大型机、x86与Power架构。
以太网的40年:从0到100GBps
过去,以太网与令牌环网在数据中心是共存的,但以太网更有效率更便宜,比令牌环网16MB的数据速率扩展性更佳。随着用户需要更多的数据,以太网仍然可以继续扩展。
令牌环网操作起来像循环赛,围绕着互连设备传递令牌,直到某个节点需要交换数据。以太网引入的是碰撞方式,节点同时角逐对线缆的访问。结果是混沌的,但能有效利用网络,并且早期的同轴电缆被更廉价的双绞线代替。在70与80年代,初生的3Com公司推动了以太网的流行。在80年代中期,电气与电子工程师协会将以太网标准化。
随着线缆与高带宽应用导致延迟引发业界争论,以太网将速率提升到100MB,然后是GB。以太网数据中心采用GigE作为网络主干。如今,GigE成为通用的标准网络适配器,几乎每台服务器或终端计算机都在用。数据中心服务器通常结合GigE与TCP卸载引擎网络适配器,以便处理较高的网络流量。
未来以太网将发展得更快。随着10GigE主要用于高带宽应用,但会逐渐在单台服务器与终端系统上普及。40GigE甚至100GigE的速度目前在IEEE 802.3ba进行了标准化。这些高速率的以太网技术主要基于光纤(40GigE可能需要8类以上的双绞线),有望在数据中心广泛采用,并与软件定义网络协调发展。
从穿孔卡片开始 数据中心达到PB存储
来自二手市场最先进的磁盘驱动甚至都无法存储如今数码相机里的少量高分辨率图片。未来,很多精湛的技术将PB存储带入数据中心中,磁盘驱动就会更加落后。
早期的旋转磁鼓或磁盘数据存储系统,如IBM 350与353运行在50年代的IBM大型机上。磁盘作为存储媒介很快速很可靠,到了80年代可以用在服务器与终端设备上。
如今的磁盘存储系统拥有多TB能力,甚至PB的也开始显现。现代的2U以上的服务器一般装载有四到八个磁盘,使用串行接口而不是并行。即使HP Modular Smart Array 2040这样的中等存储阵列都拥有24个磁盘,完整尺寸的存储系统,如EMC Isilon可跨上千个独立磁盘提供18TB到20TB的存储。
由于固态存储的出现,磁盘存储的角色未来将在企业中发生大的改变。固态磁盘SSD设备,如英特尔的DC S3500系列以及I/O加速设备(有时叫做固态加速器),如Fusion-io的ioDrive2将逐渐承担tier-1存储任务,即最苛刻的企业工作负载。未来的SSD将提供更好的可靠性,以及耗损均衡算法,以最大化设备的工作寿命。
新数据备份系统茁壮成长
数据——客户名单与产品设计——非常有价值,需要受到保护。备份、灾难恢复与业务连续性融合在一起,成为首要的企业数据保护主题。
低成本的持久的磁带自从在IBM System/360大型机时代就成为数据备份系统的主打产品。还记得古老的2400系列使用半英寸的磁带卷写入七个轨道,每英寸数据密度达到600位么?
卡盒式磁带Travan,数字视频母带Linear Tape-Open (LTO)以及其他的最终取代了卷到卷的模式。LTO的设计从21世纪早期的100GB未压缩存储容量,速率20MBps进化成如今的2.5TB未压缩容量,速率达到160MBps。LTO-7与LTO-8版本即将到来,未压缩容量分别是6.4TB与12.8TB。备份期间的压缩能大大提升每卷的有效容量。/span>
在企业数据备份中,由于成本的下降(在2010年每GB大约0.08美元),磁盘驱动已经大幅度取代了磁带驱动,并能按需定位文件。出于冗余与灾难恢复的目的,磁盘内容可以跨网络轻松复制。磁盘存储启迪了其他创意性的数据保护技术,如快照技术在如今的虚拟数据中心中非常有必要。
存储与网络带宽越加丰富多彩,物美价廉并无所不在,IT中的数据备份功能可以外包给第三方服务供应商。基于云的备份与灾难恢复可以作为服务提供,来自Zerto、Latisys与Windstream等厂商的方案可以解决如何备份数据而不是备份什么的问题。
跨数据中心实时同步数据也开始出现在企业中。有了实时数据复制,一个设备中的存储阵列问题不会影响可用性。
CRAC改造下一代设施蓝图
高温扼杀电子设备。在有如房间大小的真空管大型机时代与现代化数据中心中都是如此,不过CRAC冷却与理想的服务器房间温度设置已经变了很多。
机房空调(CRAC)是数据中心冷却的基础,重点在于在机械冷冻下转换为运营效率与降低成本。企业级CRAC冷却占用太多空间、资金与电力。不用冷却整个设施,数据中心可实施遏制战略,尤其是热通道与冷通道遏制。更进取的遏制方式代替集中式CRAC,只需部署在独立单元上或每个机架的后面。
IT专业人士也可以停止冷冻服务器。美国采暖协会建议提升数据中心里服务器机房温度范围。更暖的IT设备操作温度可让冷却系统歇一歇,无需牺牲可靠性。
没有什么制冷冷却方式阻碍甚至取代传统的CRAC冷却。基于环境空气与水的热交换器正受到关注,但很多组织必须等到构建新数据中心时才能部署这种节约成本的新技术。侵入式冷却是将服务器侵泡在无腐蚀性非导电的液体中,是CRAC压缩机与风扇的替代方式之一,并且在遭到破坏时,液体可以实现几小时的故障不间断运行,而当空调制冷崩溃时,设备也就只能再运转几分钟。
PDU、UPS与SMPS越来越智能
在运营数据中心时,驱动服务器与IT系统通常是最难的部分。设计更好的数据中心PDU、UPS与SMPS,智能成为关键。
每个服务器与设备都使用直流电到交流电(DC-to-AC)整流器以及开关电源SMPS调制输出,这项技术一直在发展中。早期的SMPS设计可达到60%到70%的效率,浪费了能源,制造了热量。现代的SMPS产品效率高达95%,使用了更有效率的开关频率与更高级的整流,还由于数据中心经理根据服务器、存储与其他负载精心衡量了能源供应的适当大小。
早期的机架配电装置PDU比多出口电源板小得多。如今的PDU设计使用传感器监控电源使用——通常是每个出口——以及网络搭配,因此PDU可将能源使用情况报告给集中监控系统,如数据中心基础架构管理DCIM服务器。同样的,DCIM平台可以控制每个出口。未来的数据中心PDU将增加智能,使得报告与能源利用监控更加精细化。
备份不间断电源UPS系统的概念数十年未变,为了延长电池寿命,将设备从AC转换到DC,又因为IT设备性能将DC转回AC。监控技术在持续进化,并且电池技术增加了可靠性,提升了效率。
数据中心能源的未来发展方向很多。公用电源成本、可靠性与环境催生了替代性能源,如固体氧化物燃料电池发电机采用天然气或生物燃料,受到很多关注。有些公司非常聪明,使用公用电源作为备份,可再生作为主要能源。新的数据中心采用更高的电压,如208VAC或240VAC,而不是120VAC,这样利于减少转换频率。脸书的开放计算项目正在开发一个直流电源功率分配标准,用于运行数据中心设备,消除每台服务器的电源供应。
IT职业生涯发展与数据中心息息相关
如果不是人在操作,数据中心的每个组件也不会进化。信息技术生涯,就像是承载其上的大型机与服务器,在40年、20年甚至五年后都大有不同。
如同你的数据中心设备一样,你的IT团队不应该努力工作,而是应该智能工作。手动重复性操作的IT团队简直就是活化石。如今的数据中心工作空间应该首先是自动化,其次才是简单乏味的重复工作。IT人员应该是通才而不是专才,可以应对由不同厂商产品、云堆栈与第三方工具构成的相互连通的异构IT环境。对一个组件的更改将涉及到不相关的组件,因为IT人士需要明白网络与服务器集群、存储层与应用等的关系。
新的IT岗位出现,如数据科学家管理大数据分析项目。移动设备的融入意味着企业应用必须工作在移动操作系统上,数据中心必须支持的终端设备比以前多了两到三倍。
无论你选择何种技术生涯,如Linux管理员、应用架构师、安全或者网络管理员,确保在基于云的架构上持续提升技能。即使是最传统的企业数据中心也会使用SaaS、亚马逊Web服务堆栈,或者基于云的架构作为其IT运营的一部分。所以,掌握与云相关的技能非常关键。