ICC訊 俗話說得好,愛到不能愛,聚到終須散。都2024年了,再不AI就晚啦。時值中國農歷龍年新春,世界的科技大門由 “文生視頻”模型 Sora推開,嶄新的時代來臨,人們對未來充滿了無限遐想。
2024年2月16日凌晨, OpenAI推出了首款文本轉視頻模型——Sora,立即在全球范圍內引發(fā)了軒然大波。據OpenAI官方介紹,Sora可以生成長達60秒的視頻,而且每一幀都充滿了細節(jié),甚至能看清人臉上的法令紋。無論是復雜的攝像機運動,還是多角色的情感表達,Sora都能游刃有余地處理。更難能可貴的是,它還能根據用戶提供的簡單提示詞,生成極具創(chuàng)意和真實感的視頻內容。
自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界。科技的風口誰都想搶占,沒有人希望被時代的洪流拋下,此時人們最關心的莫過于,生成式AI究竟與哪些行業(yè)相關,又將如何滲透進各產業(yè)鏈,受益哪些終端?
毫無疑問,光通信產業(yè)是受益AI的幸運兒。農歷龍年A股開市第一天(2024年2月19日),光通信股受益Sora概念熱潮,全線飄紅,數只漲停。
那光通信產業(yè)鏈的各個環(huán)節(jié)與AI都有哪些深度或間接關聯(lián)呢?
光通信——搶占AI供應鏈高地
2023年以來,科技圈最熱門的話題除了AI大模型以外,還有AI終端設備。大家都關心的一個問題是,AI時代順利開啟后,最適合搭載AI應用的軟硬件是什么?
軟件上自然無需光通信出手了,那硬件有光通信可以努力的方向嗎?
答案是肯定的。
AI通常需要進行大量的計算和數據處理,因此需要使用一些專門針對人工智能應用進行優(yōu)化的硬件設備,主要包括中央處理器(CPU)、圖形處理器(GPU)、專用芯片(ASIC)、神經網絡處理器(NPU)、加速卡(TPU)、內存(RAM)、存儲設備、網絡接口卡(NIC)、機箱、背板、主板、散熱系統(tǒng)和電源等,具體配置則可能會根據不同的應用場景和需求有所變化。
除了以上硬件設備,還有一些專門為AI應用優(yōu)化的服務器、存儲設備和網絡設備,如AI芯片服務器和NVMe SSD等。AI芯片服務器是專為AI應用設計的服務器,通常配備多個GPU、TPU或NPU芯片,支持高性能的并行計算和分布式訓練。AI芯片服務器還支持各種深度學習框架和算法,并提供友好的開發(fā)環(huán)境和工具。
其中,GPU是由大量核心組成的大規(guī)模并行計算架構,擁有較多運算單元(ALU)和較少緩存(cache),是一款專為同時處理多重任務而設計的芯片,具備良好的矩陣計算能力和并行計算優(yōu)勢,能滿足深度學習等AI算法的處理需求,因此成為主流云端AI芯片。
不難看出,與光通信強關聯(lián)的就是GPU(Graphics Processing Unit),一種通用并行處理器,最初用于圖形處理,但現在由于其高并行計算能力也被廣泛應用于深度學習等人工智能領域。與傳統(tǒng)的CPU相比,GPU具有更多的計算核心和高速的內存帶寬,可以顯著加速矩陣運算等計算密集型任務。在深度學習等大規(guī)模數據處理中,GPU能夠加速神經網絡的訓練和推理過程,比CPU更適合處理大規(guī)模的矩陣運算。
具體是如何相關的,不妨先看看GPU的硬件組成及運行原理(懂的跳過)。
一塊GPU對應需要多少光模塊?
光模塊在 GPU 中扮演著傳輸數據的關鍵角色,它能夠實現高速、低延遲的數據傳輸,從而提高GPU性能。GPU通常需要處理大量的圖形或計算任務,這些任務需要快速地從存儲器中讀取數據,然后將計算結果寫回存儲器。光模塊可以通過高速的光信號傳輸加快GPU與其他設備之間的數據交換速度,提高數據傳輸效率。
而光模塊在GPU中的工作則是光發(fā)射器負責將電信號轉換為光信號,并通過光纖或光導波器將信號傳輸出去光接收器則接收從其他設備發(fā)送過來的光信號,并將其轉換為電信號,然后傳遞給GPU進行處理。
已知GPU 的硬件組成包括:
·處理器單元(Processing Units,PU):又稱為流處理器(Stream Processor),是 GPU 的核心計算單元,用于執(zhí)行計算操作。GPU 可以擁有幾十到數千個處理器單元,每個處理器單元都可以同時執(zhí)行多個線程,從而實現高并發(fā)的計算。
·顯存(Graphics Memory):用于存儲圖形數據、紋理等圖形相關的數據,以及 GPU 計算過程中所需要的中間結果等數據。顯存的容量通常比 CPU 的內存小,但它的讀寫速度更快,可以滿足高速的數據交換和計算要求。
·內存控制器(Memory Controller):用于控制顯存的讀寫操作,以及與CPU的內存之間的數據交換。
·命令/控制器(Command/Control Processor):用于控制GPU內部的處理器單元,協(xié)調GPU和CPU之間的數據傳輸和通信。
·圖形輸出(Display Output):用于將GPU處理后的圖像數據輸出到顯示器上。
市場上已經有不同版本的光模塊與GPU數量比例的測算,因網卡型號、交換機型號和單元(Scalable unit SU)數量的不同,算出來GPU與200G光模塊、400G光模塊和800G光模塊的對應比例就不同,有GPU:200G光模塊=1:6,也有GPU:200G光模塊=1:1,還有GPU:800G光模塊=1:1.5,GPU:400G光模塊=1:1
有業(yè)內人士測算結果顯示,如果以2024年0.85美元/GB的均價簡單計算,AI預計為光模塊帶來13.8/49.7億美金的AI增量市場空間。
需要與哪些GPU廠搞好關系?
其實只有一家,就是英偉達(NVIDIA)。英偉達被稱為AI領域“無可爭議的領導者”,人工智能芯片市場份額預計已達到90%,創(chuàng)下新紀錄。
在人工智能加速芯片市場中,英偉達的A100/H100系列AI GPU成為了市場的首選產品。研究機構預測,英偉達計劃在2024年銷售約150萬至200萬個AI GPU,這將是其2023年銷量的三倍。
當然,英偉達的領先也并非一朝一夕就能實現的。英偉達大約在15年前就開始與大學合作,尋找除了游戲和可視化市場之外,GPU還可以完成的新奇特事物。
2023年英偉達高端GPU曾一度供不應求,2023年底時的交期還有8-11個月,2024年初就已經減少到了只有3-4個月。
目前來看,在大A上市的頭部光通信企業(yè),大漲的就包括英偉達供應商和代工廠??梢酝ㄋ椎刂v,但凡打入英偉達供應鏈的,在過去的2023年都風光無限。
為了不在這場全球科技競賽中掉隊,除了押注英偉達以外,也可以看看同步抗衡的微軟、亞馬遜、谷歌和Meta等國際大佬,這些公司也紛紛在自研AI芯片,準備在AI生成視頻領域大干一場。
結語
盡管AI技術在帶來巨大便利和效率提升的同時也引發(fā)了一系列討論和擔憂,但可以相信的是,這些擔憂會隨著技術的發(fā)展完善而逐步解決磨合。
唯一需要關注的是,每一次新的技術革命都會帶來新一輪的行業(yè)洗牌,我們不得不摩拳擦掌、分秒必爭,要在這場競賽中守住行業(yè)地位,或實現逆襲,除了必備的眼光和智慧以外,實力和毅力也不可或缺。
面向未來AI,我們準備好了嗎?
新聞來源:訊石光通訊網
相關文章