变态传奇,btc币今日走势

  

  前天,小枣君发了一篇关于数据中心网络的文章(链接)。很多读者留言表示不理解。   

  

     

  

  本着“将传播学传播到底”的原则,今天,我继续讲这个话题。   

  

  故事还是得从头说起。   

  

  1973年夏天,两位年轻的科学家(温顿CERF和罗伯特卡恩)开始在新的计算机网络中寻找不同机器之间的通信方式。   

  

  不久之后,他们在一个黄色的笔记本上画出了TCP/IP协议族的原型。   

  

     

  

  几乎与此同时,施乐公司的梅特卡夫和博尔赫斯发明了以太网。   

  

  现在我们都知道,互联网最早的雏形是美国人创造的阿帕网(ARPANET)。   

  

  ARPANET使用的初始协议非常糟糕,无法满足计算节点规模不断增长的需求。因此,在20世纪70年代末,老板们用TCP/IP(1978)取代了ARPANET的核心协议。   

  

  80年代末,在TCP/IP技术的支持下,ARPANET迅速扩张,诞生了很多兄弟姐妹。这些兄弟姐妹相互联系,成为举世闻名的互联网。   

  

  可以说,TCP/IP技术和以太网技术是互联网早期兴起的基石。它们成本低、结构简单、易于开发和部署,为计算机网络的普及做出了巨大贡献。   

  

     

  

  然而,随着网络规模的迅速扩大,传统的TCP/IP和以太网技术开始显现出疲态,无法满足互联网大带宽、高速度的发展需求。   

  

  是存储开始出现问题。   

  

  早期存储,我们都知道,就是机器内置的硬盘。通过IDE、SCSI、SAS等接口将硬盘连接到主板上,CPU和内存可以通过主板上的总线访问硬盘数据。   

  

  后来随着对存储容量的需求越来越大,以及对安全备份的考虑(需要RAID1/RAID5),硬盘数量越来越多,几个硬盘都固定不了,服务器内部也装不下。因此,有一个磁性阵列。   

  

     

  

  磁性阵列   

  

  磁阵是存放磁盘的专用设备,一口插几十块。   

  

  数据访问一直是服务器的瓶颈。起初,使用网线或专用电缆来连接服务器和磁阵列,但很快发现这是不够的。因此,使用了光纤。这是FC通道(光纤通道)。   

  

  2000年左右,光纤通道还是比较高的技术,成本也不低。   

  

  当时公众通信网(骨干网)的光纤技术处于SDH 155M和622M阶段,2.5G SDH和WDM技术刚刚起步,还没有普及。后来光纤开始爆发,容量开始快速跃升,向10G(2003年)、40G(2010年)、100G(2010年)、400G(现在)发展。   

  

  数据中心普通网络无法使用光纤,只能继续使用网线和以太网。   

  

  好在当时对服务器之间的通信要求还没有那么高。100M和1000M的网线勉强可以满足一般业务的要求。2008年左右,以太网的速度勉强达到1Gbps的标准。   

  

  2010年后,又出现了一只蛾子。   

  

  除了存储,因为云计算、图形处理、人工智能、超级计算和比特币,人们开始关注计算能力。   

  

  摩尔定律在逐渐弱化,已经无法支撑CPU计算能力的需求。牙膏越来越难挤,于是GPU开始崛起。使用显卡的GPU处理器进行计算已经成为业界的主流趋势。   

  

  得益于AI的快速发展,各大企业纷纷拿出AI芯片、APU、xPU等各种计算板。   

  

  快速膨胀(超过100倍)的直接后果是服务器数据吞吐量的指数级增长。   

  

  除了AI带来的异常的计算能力需求,数据中心还有一个显著的趋势,那就是服务。   

器和服务器之间的数据流量急剧增加。

  


  

互联网高速发展、用户数猛涨,传统的集中式计算架构无法满足需求,开始转变为分布式架构

  


  

  


  

举例来说,现在618,大家都在血拼。百八十个用户,一台服务器就可以,千万级亿级,肯定不行了。所以,有了分布式架构,把一个服务,放在N个服务器上,分开算。

  


  

分布式架构下,服务器之间的数据流量大大增加了。数据中心内部互联网络的流量压力陡增,数据中心与数据中心之间也是一样。

  


  

这些横向(专业术语叫东西向)的数据报文,有时候还特别大,一些图形处理的数据,包大小甚至是Gb级别。

  

综上原因,传统以太网根本搞不定这么大的数据传输带宽和时延(高性能计算,对时延要求极高)需求。所以,少数厂家就搞了一个私有协议的专用网络通道技术,也就是Infiniband网络(直译为“无限带宽”技术,缩写为IB)。

  


  

  

FC vs IB vs 以太网

  


  

IB技术时延极低,但是造价成本高,而且维护复杂,和现有技术都不兼容。所以,和FC技术一样,只在特殊的需求下使用。

  


  

算力高速发展的同时,硬盘不甘寂寞,搞出了SSD固态硬盘,取代机械硬盘。内存嘛,从DDR到DDR2、DDR3、DDR4甚至DDR5,也是一个劲的猥琐发育,增加频率,增加带宽。

  


  

处理器、硬盘和内存的能力爆发,最终把压力转嫁到了网卡和网络身上。

  


  

  


  

学过计算机网络基础的同学都知道,传统以太网是基于“载波侦听多路访问/冲突检测(CSMA/CD)”的机制,极容易产生拥塞,导致动态时延升高,还经常发生丢包。

  


  

TCP/IP协议的话,服役时间实在太长,都40多年的老技术了,毛病一大堆。

  


  

举例来说,TCP协议栈在接收/发送报文时,内核需要做多次上下文切换,每次切换需要耗费5us~10us左右的时延。另外,还需要至少三次的数据拷贝和依赖CPU进行协议封装。

  


  

这些协议处理时延加起来,虽然看上去不大,十几微秒,但对高性能计算来说,是无法忍受的。

  


  

除了时延问题外,TCP/IP网络需要主机CPU多次参与协议栈内存拷贝。网络规模越大,带宽越高,CPU在收发数据时的调度负担就越大,导致CPU持续高负载。

  


  

按照业界测算数据:每传输1bit数据需要耗费1Hz的CPU,那么当网络带宽达到25G以上(满载)的时候,CPU要消费25GHz的算力,用于处理网络。大家可以看看自己的电脑CPU,工作频率是多少。

  


  

那么,是不是干脆直接换个网络技术就行呢?

  


  

不是不行,是难度太大。

  


  

CPU、硬盘和内存,都是服务器内部硬件,换了就换了,和外部无关。

  


  

但是通信网络技术,是外部互联技术,是要大家协商一起换的。我换了,你没换,网络就嗝屁了。

  


  

全世界互联网同时统一切换技术协议,你觉得可不可能?

  


  

不可能。所以,就像现在IPv6替换IPv4,就是循序渐进,先双栈(同时支持v4和v6),然后再慢慢淘汰v4。

  


  

数据中心网络的物理通道,光纤替换网线,还稍微容易一点,先小规模换,再逐渐扩大。换了光纤后,网络的速度和带宽上的问题,得以逐渐缓解。

  


  

网卡能力不足的问题,也比较好解决。既然CPU算不过来,那网卡就自己算呗。于是,就有了现在很火的智能网卡。某种程度来说,这就是算力下沉。

  


  

搞5G核心网的同事应该很熟悉,5G核心网媒体面网元UPF,承担了无线侧上来的所有业务数据,压力极大。

  


  

  


  

现在,UPF网元就采用了智能网卡技术,由网卡自己进行协议处理,缓解CPU的压力,流量吞吐还更快。

  


  

如何解决数据中心通信网络架构的问题呢?专家们想了半天,还是决定硬着头皮换架构。他们从服务器内部通信架构的角度,重新设计一个方案。

  


  

在新方案里,应用程序的数据,不再经过CPU和复杂的操作系统,直接和网卡通信。

  


  

这就是新型的通信机制――RDMA(Remote Direct Memory Access,远程直接数据存取)。

  


  

  


  

RDMA相当于是一个“消灭中间商”的技术,或者说“走后门”技术。

  


  

RDMA的内核旁路机制,允许应用与网卡之间的直接数据读写,将服务器内的数据传输时延降低到接近1us。

  


  

同时,RDMA的内存零拷贝机制,允许接收端直接从发送端的内存读取数据,极大的减少了CPU的负担,提升CPU的效率。

  


  

RDMA的能力远远强于TCP/IP,逐渐成为主流的网络通信协议栈,将来一定会取代TCP/IP。

  


  

RDMA有两类网络承载方案,分别是专用InfiniBand传统以太网络

  


  

  


  

RDMA最早提出时,是承载在InfiniBand网络中。

  


  

但是,InfiniBand是一种封闭架构,交换机是特定厂家提供的专用产品,采用私有协议,无法兼容现网,加上对运维的要求过于复杂,并不是用户的合理选择。

  


  

于是,专家们打算把RDMA移植到以太网上。

  


  

比较尴尬的是,RDMA搭配传统以太网,存在很大问题。

  


  

RDMA对丢包率要求极高。0.1%的丢包率,将导致RDMA吞吐率急剧下降。2%的丢包率,将使得RDMA的吞吐率下降为0。

  


  

  


  

InfiniBand网络虽然贵,但是可以实现无损无丢包。所以RDMA搭配InfiniBand,不需要设计完善的丢包保护机制。

  


  

现在好了,换到传统以太网环境,以太网的人生态度就是两个字――“摆烂”。以太网发包,采取的是“尽力而为”的原则,丢包是家常便饭,丢了就再传。

  


  

于是,专家们必须解决以太网的丢包问题,才能实现RDMA向以太网的移植。再于是,就有了前天文章提到的,华为的超融合数据中心网络智能无损技术

  


  

说白了,就是让以太网做到零丢包,然后支撑RDMA。有了RDMA,就能实现超融合数据中心网络。

  


  

关于零丢包技术的细节,我不再赘述,大家看前天那篇文章(再给一遍链接:这里)。

  


  

值得一提的是,引入AI的网络智能无损技术是华为的首创,但超融合数据中心,是公共的概念。除了华为之外,别的厂家(例如深信服、联想等)也讲超融合数据中心,而且,这个概念在2017年就很热了。

  


  

什么叫超融合?

  


  

准确来说,超融合就是一张网络,通吃HPC高性能计算、存储和一般业务等多种业务类型。处理器、存储、通信,全部都是超融合管理的资源,大家平起平坐。

  


  

超融合不仅要在性能上满足这些低时延、大带宽的变态需求,还要有低成本,不能太贵,也不能太难维护。

  


  

未来,数据中心在整体网络架构上,就是叶脊网络一条路走到黑(到底什么是叶脊网络?)。路由交换调度上,SDN、IPv6、SRv6慢慢发展。微观架构上,RDMA技术发展,替换TCP/IP。物理层上,全光继续发展,400G、800G、1.2T…

  


  

我个人臆测,目前电层光层的混搭,最终会变成光的大一统。光通道到全光交叉之后,就是渗透到服务器内部,服务器主板不再是普通PCB,而是光纤背板。芯片和芯片之间,全光通道。芯片内部,搞不好也是光。

  


  

  

光通道是王道

  


  


  

路由调度上,以后都是AI的天下,网络流量啊协议啊全部都是AI接管,不需要人为干预。大量的通信工程师下岗。

  


  


  

好了,关于数据中心通信网络的介绍就是这么多。不知道大家这次有没有看明白?

  


  

没看明白的话,就再看一次。

相关文章