更新時間:2019年08月05日 9265瀏覽
數據中心行業中對于400G網絡的關注度正在快速上升,與此同時,讓許多傳統數據中心的用戶非常困惑的是:部分傳統數據中心的的主干才剛剛從10G/40G升到100G,難道真的有必要上400G嗎?
2010年以來,不同類型的數據中心的的需求呈現分化的趨勢,需求的層次是多樣化的,用戶選擇不同帶寬的應用是基于業務類型作出的理性的選擇。筆者認為當前對于以下幾種場景對于數據中心400G應用有相對比較迫切的需求。
超大規模數據中心
超大規模數據中心采用扁平的二層葉-脊(Leaf-Spine)架構需要大量的互連,因為每個Leaf與Spine完全互連,最大限度地實現交換機之間的無阻塞網絡連接。數據中心的硬件加速器、人工智能和深度學習功能都消耗高帶寬,迫使高端數據中心快速轉向以更高數據速率運行的下一代互連。
400G在超大規模數中心的網絡葉-脊架構互連應用將具有重要意義,相比較大量100G的互連,采用400G的接口不僅可以實現網絡架構的簡化,同時也可以降低同等速率應用的成本與單位流量的功耗,超大規模數據中心特別是葉-脊架構的網絡對400G具有現實意義與迫切性。
數據中心互連DCI
伴隨著數據流量的爆炸性增長,數據中心網絡逐步走向IP互聯網的中心位置。目前的數據中心早已不再局限于一座或幾座機房,而是一組數據中心集群,為實現網絡業務的正常工作,要求這些數據中心協同運轉,相互之間有海量的信息需要及時交互,這就產生了DCI網絡需求。
云業務從根本上改變了計算模型和流量模型,網絡流向從傳統意義上的南北流量,轉變成了IDC到IDC之間或者資源池之間的橫向流量,數據中心間橫向流量的占比正在逐步提升,這就要求數據中心互聯網絡必須具備大容量、無阻塞和低時延的特征,帶寬成為DCI建設的首要焦點。
對于大型數據中心,為了地理上靠近客戶,提供更好的服務體驗,或者是數據中心之間互為災備,這些數據中心可能分布于同一個園區內,或者同一個城市的不同的區域,甚至分布于不同的城市,通常這些數據中心之間距離在500m到80km范圍內。
芯片到芯片及芯片到模塊的連接
芯片對芯片(C2C)和芯片對模塊(C2M)是最簡單的互連形式,芯片到芯片的電氣接口位于同一PCB平面上的兩個IC之間,而芯片到模塊的接口位于端口ASIC和具有信號調節IC的模塊設備之間。IEEE802.3已經定義了連接單元接口(AUI),該接口基于不同類型光學模塊的每通道50GB/s電氣。根據互連長度和吞吐量要求,網絡實施者可以選擇不同的芯片到模塊接口連接到光學模塊。
硅光子技術是芯片與芯片互連推動力之一。硅光子技術是基于硅和硅基襯底材料(如 SiGe/Si、SOI 等),利用現有CMOS 工藝進行光器件開發和集成的新一代技術,結合了集成電路技術的超大規模、超高精度制造的特性和光子技術超高速率、超低功耗的優勢,是應對摩爾定律失效的顛覆性技術。
硅光子產業發展規劃,產業已經進入快速發展期,對比當前狀態,硅光子技術在每秒峰值速度、能耗、成本方面分別能提高8倍、降低85%、降低 84%。硅光子以傳播速度快和功耗低的特點成為超級計算市場的重要研究方向。
隨著數據中心的核心網絡設備間的傳輸速率的不斷升高,自400G的應用開始,在芯片在芯片(C2C)以及芯片到模塊間的應用自400G,800G甚至1.6T等更高速的傳輸中優秀的技術特性與商業價值將會更多地顯現出來。