OCP24:AI時代需要光學技術同行

訊石光通訊網(wǎng) 2024/10/25 11:38:59

  ICC  2024年10月15日至17日,開放計算項目全球峰會2024(簡稱OCP24)在美國加州圣何塞舉行。OCP是一個專注于計算的展會,在過去幾年里,由于人工智能的發(fā)展,該展會的重要性得到了極大的提升。在OCP24上,盡管多數(shù)參會者聚焦于AI架構、功率、液冷及軟件的討論,但有一個座無虛席的會議,專門探討網(wǎng)絡和光學技術對于當前及未來AI節(jié)點擴展性的重要意義。Meta強調(diào),目前仍不清楚如何在不增加更多GPU的情況下從大型AI模型中獲得更準確的結果(因為更高的準確性意味著需要更多的參數(shù),而更多的參數(shù)則需要更多的GPU資源),這意味著數(shù)據(jù)中心對光學帶寬的需求不會停止。

  今年,首次有兩家光學供應商光迅和Ciena在展會上設有展位。隨著CIOE和ECOC剛剛落幕,而且OCP并不是傳統(tǒng)的光學展覽,因此并沒有任何主要的光學公告。不過,這里有關于數(shù)據(jù)中心內(nèi)部光學技術未來的有趣討論,而OCP可能是聽取初創(chuàng)公司關于AI光學有趣想法的最佳場所。

  本文中涵蓋的主題包括:

  共封裝光學(CPO)離現(xiàn)實更近了一步

  Ciena推出400G/通道 —— 出乎意料

  AI節(jié)點中的光學可靠性和穩(wěn)定性需提升

  LPO——持續(xù)發(fā)展,但問題依然存在

  液冷將改變架構設計

  結論

  共封裝光學(CPO)離現(xiàn)實更近了一步

  近幾年來,CPO幾乎一直由Intel和Broadcom通過51.2T交換機演示進行獨家推廣。去年的OCP會議上,Micas Networks首次推出了基于Broadcom CPO平臺的商用交換機。今年,Micas依然是唯一商用的CPO交換機廠商,但許多其他公司在他們的演講中也開始提及CPO。

  最近,臺積電(TSMC)宣布正在研究在其工藝流程中集成SiPho,而超大規(guī)模企業(yè)也發(fā)表了令人鼓舞的聲明,CPO似乎比以往任何時候都更接近現(xiàn)實——可能在不到五年的時間內(nèi)就能實現(xiàn)大規(guī)模部署。然而,CPO的采用仍然是有些二元化的——要么會被一個主要客戶認可用于大規(guī)模部署,從而引發(fā)大量需求,要么它仍將是一種少數(shù)較小運營商采用的小眾產(chǎn)品。目前這個關鍵的主要客戶尚未出現(xiàn),但鑒于AI是一個核心應用場景,Nvidia和超大規(guī)模企業(yè)的ASICs很可能是早期采用者。

  CPO所宣傳的主要好處仍然是功耗(聲稱每800GbE小于5.5W),但它還提供了穩(wěn)定性和更低的延遲。AI模型中困擾光學連接的偶然錯誤(flapping)隨著鏈路中DSP的減少而降低,這可能以犧牲一致性為代價,換取了鏈路穩(wěn)定性以及較低的誤碼率(BER)。對于短距離鏈接,這種權衡可能是值得的。字節(jié)跳動在展覽會上分享了早期試驗的結果,表明第二層網(wǎng)絡的延遲最高可減少600納秒,第三層網(wǎng)絡的延遲最高可減少1000納秒(不過,字節(jié)跳動并未解釋第三層網(wǎng)絡為何會有更顯著的延遲改善)。

  Micas繼續(xù)開發(fā)其CPO平臺,目前為51.2T,但計劃在Tomahawk 6可用時升級到102.4T。這意味著Broadcom將開發(fā)一個102.4T的CPO板卡。今年Micas已經(jīng)出貨了幾十臺交換機,主要用于評估,并預計到2025年最多也只能出貨幾百臺,因為尋找主要客戶的工作仍在繼續(xù)。騰訊仍然是一個潛在的客戶(Micas雇傭了一名來自該公司的高級工程師),但在短期內(nèi)不會大量采購。

  Broadcom與字節(jié)跳動共同展示了CPO,后者展示了一個潛在的網(wǎng)絡部署方案,其中CPO交換機作為頂級脊柱層,未來將轉移到核心層,直接進入網(wǎng)絡的主要交換基礎設施。服務提供商正在試用一個商用平臺的定制版本,據(jù)推測是Micas,因為它擁有目前唯一的商用平臺。字節(jié)跳動表示還沒有承諾購買和部署,并且仍在評估這項技術。

  Broadcom與字節(jié)跳動共同展示了CPO技術,展示了一種將CPO交換機作為Top Spine層,并在未來過渡到核心層的潛在網(wǎng)絡部署方案,這將使CPO直接成為網(wǎng)絡主交換基礎設施的一部分。服務提供商正在測試商用平臺的定制版本,據(jù)推測該平臺為Micas的產(chǎn)品,因為目前它是唯一可用的商用平臺。字節(jié)跳動表示,他們尚未決定購買和部署,并且仍在評估這項技術。

  Meta表示,他們正在研究將CPO應用于“Scale up域”(即目前使用銅纜連接的機架內(nèi)部)。隨著這一領域擴展到單個機架之外并且需要光學技術時,CPO可能成為一個可行的選擇。Meta相信,由于減少了活動組件的數(shù)量,CPO可以提供一個更可靠的網(wǎng)絡,減少鏈路故障的發(fā)生。值得一提的是,Meta曾是CPO/NPO技術的早期倡導者之一,但在后來停止了內(nèi)部開發(fā)。

  Ciena推出400G/通道 —— 出乎意料

  正如Cignal AI在其最新的ECOC 2024報告中所述,400G/通道電子和光學器件被認為即將公開亮相。實際情況比預期的更早到來。在OCP上,Ciena展示了利用其WaveLogic 6e相干DSP中的SERDES實現(xiàn)的400G/通道PAM4操作。這不是像Marvell或Broadcom這樣的傳統(tǒng)DSP供應商,而是Ciena首先在3nm硅片上公開演示了400Gbps的操作。Ciena的演示應被視為一個測試芯片,而該公司正考慮為其多個組件,包括一個400Gbps/通道的PAM4 DSP,制定未來的商業(yè)化計劃。

  在光學方面,Hyperlight關于薄膜鈮酸鋰(TFLN)的演講表明,該材料有足夠的帶寬來支持400G/通道的光學器件。Hyperlight還提到,在過去兩年中,TFLN晶圓制造商的數(shù)量已經(jīng)從一家增加到了三家。硅光子學(SiPho)幾乎肯定不能在400G/通道條件下工作,即使是InP EMLs也可能面臨性能問題。盡管TFLN在大規(guī)模生產(chǎn)中尚未得到驗證,但它仍然是2028年后實現(xiàn)400Gbps/通道3.2GbE的一個強有力候選者。

  AI節(jié)點中的光學可靠性和穩(wěn)定性需提升

  在Cignal AI的CIOE報告(CIOE24:洞察中國市場)中,該市場調(diào)研公司首次提到了光學器件中的bit error和flapping導致AI模型失敗的問題,這個問題在這次OCP上被多次提及。AI模型中的鏈路錯誤可能會導致整個計算周期失敗,并需要從檢查點重新啟動。然而,光學方面的消息比最初報道的要樂觀:

  Meta展示了其模型數(shù)據(jù),顯示GPU的故障率遠遠高于光學鏈路。在初步數(shù)據(jù)中,約80%的模型故障是硬件問題造成的,其中60%是由于GPU故障。網(wǎng)絡問題是導致故障的第四大因素——雖然這并不理想,但情況并不像最初認為的那樣嚴重。

  Meta還指出,400GbE模塊的故障大多是因為制造問題,而非激光器故障(200GbE模塊的故障主要是由于DML,但400GbE使用了更為可靠的EML)。制造問題相比基本的半導體可靠性問題應該更容易解決。

  此外,Meta表示,所有硬件——無論是光學器件還是ASIC——的故障率隨時間逐漸下降,這表明存在一些尚未確定的早期失效原因。同樣,這應該是一個比可靠性故障更容易解決的問題。

  旭創(chuàng)展示的數(shù)據(jù)表明,基于硅光子學(SiPho)的光學器件的可靠性有了顯著提高。這家公司已經(jīng)售出了數(shù)百萬個可插拔模塊,其現(xiàn)有產(chǎn)品的FIT率低于0.4,這對于1.6Gbps速率下的低成本SiPho光學器件而言是個積極的信號。

  LPO——持續(xù)發(fā)展,但問題依然存在

  線性可插拔光學(LPO)繼續(xù)在各類展覽會上受到關注,特別是在Arista的Andy Bechtolsheim出席的場合。然而,目前還沒有大型客戶正式采用這項技術。即便互操作性問題得到了解決,故障排查和管理方面的問題仍然存在。因此,盡管業(yè)內(nèi)對這項技術的討論持續(xù)不斷,但Cignal AI的預測(800GbE市場中不足10%的份額)自一年前《線性驅(qū)動市場機會》(The Linear Drive Market Opportunity)報告發(fā)布以來,一直未發(fā)生變化。

  在一個光學專題的演講中,Meta表示LPO正處于“積極研究”階段,但從LPO在OFC23上引起關注到現(xiàn)在已接近兩年,研究尚未轉化為實際部署。Meta還報告稱,排查光學鏈路固有的困難很大;據(jù)報告,因故障退回的模塊中有75%被診斷為未發(fā)現(xiàn)問題(NTF),這意味著光學器件并非錯誤來源。由于LPO進一步減少了用于鏈路評估的遙測數(shù)據(jù),問題可能會變得更復雜,盡管鏈路中的活動組件減少可能會提高整體可靠性。

  或許對LPO的最大激勵來自Chris Cole的觀點(Cignal AI也有同樣的看法),即對于當前的AI運營者而言,部署速度遠比在光學器件上節(jié)省一點能耗重要得多——因此,基于DSP的光學器件(MOP)仍將是首選架構。

  1.6T可能會為LPO——或者說更有可能是LRO——提供機會,因為目前還沒有既定的MOP。OCP24上的演講者承認,200G/通道的LPO更具挑戰(zhàn)性,這意味著其部署并不確定。

  液冷將改變架構設計

  下一代AI設施將需要液冷技術,因為單個機架的散熱需求將超過100千瓦。在展會上,可以看到許多液冷供應商及其演示。正如Cignal AI在ECOC報告中討論的,液冷技術將會改變設備的設計。Credo展示液冷技術也將使得電氣連接(如銅線/AEC)更加普及。隨著液冷技術的應用,AI節(jié)點的密度增加,GPU之間的距離變短,從而使得銅連接可以用于更多的地方。一旦不再依賴風冷,設備和網(wǎng)絡設計肯定會經(jīng)歷重大變革。

  結論

  雖然OCP不是一個專門的光學展會,但它展示了未來幾年由AI推動的光學需求和發(fā)展趨勢。雖然銅線在AI節(jié)點內(nèi)部還將長期使用,但隨著速度提升和集群范圍擴大,光學技術變得不可或缺。光學帶寬需求不斷增加,同時由于AI模型參數(shù)持續(xù)增長,功耗問題仍然突出。盡管許多光學互聯(lián)的創(chuàng)新可能不會被廣泛采納,但它們有望挑戰(zhàn)行業(yè)對光學互聯(lián)的看法。這是一個屬于AI的時代,光學技術也被邀請一同前行。

  原文:OCP24: Optical Gets Invited to the AI Party - Cignal AI- https://cignal.ai/2024/10/ocp24-optical-gets-invited-to-the-ai-party/

新聞來源:訊石光通訊網(wǎng)

相關文章