全球人工智慧產業每年最重要的科技盛會輝達(NVDA) GTC 大會,即將於 2026 年 3 月 16 日至 19 日在美國加州聖荷西舉行 。這場預計吸引來自 190 多個國家、逾 3 萬名開發者與企業領袖參與的盛典,早已不只是一場產品發表會,而是定義未來一年全球 AI 產業走向的「超級盃」與風向球 。對投資人而言,本次大會的核心命題在於:輝達下一代晶片將帶來多大的算力躍升,以及 AI 產業如何從單一技術浪潮,正式轉變為長期的全球基礎建設投資週期 。
黃仁勳的「震撼」預告,將AI推向極限
大會最受全球資本市場矚目的時刻,莫過於執行長黃仁勳預計於美西時間 3 月 16 日上午 11 點發表的主題演講 。
黃仁勳在接受媒體訪問時,已提前釋出重磅預告,明確表示將在 GTC 上發布一款「讓世界感到驚訝」的全新晶片。他強調這款處理器在效能與設計上均有重大飛躍,核心目標是將當前 AI 技術推向極限。同時,他也強勢駁斥了市場上的 AI 泡沫論,指出全球 AI 資料中心的年度資本支出,預計到 2028 年將上看 1 兆美元,直言 AI 投資浪潮遠未見頂 。
Vera Rubin 正式登場,算力爆發的 3.3 倍躍進
按照既有的技術路線圖,本屆 GTC 最重要的技術發布,預計是下一代 GPU 平台—「Vera Rubin」架構的正式亮相 。
這款以天文學家命名的新架構,將迎來關鍵升級:
- 底層架構更新: 改採輝達自研的 Vera CPU,取代現行的 Grace CPU 。
- 記憶體大換血: 搭配第六代高頻寬記憶體(HBM4),其頻寬需求超過 3.0 TB/s,運行速度達 11 Gbps 以上 。
- 效能倍數成長: 其旗艦產品 VR200 NVL72 的整體推論性能,預估可達到上一代 Blackwell Ultra GB300 NVL72 的 3.3 倍 。
對投資人來說,這樣的性能躍升意味著 AI 運算效率的再度提高,能在相同時間內處理更多任務,進而降低 AI 服務成本並提升商業化能力 。這也將帶動硬體升級需求全面擴及 AI 伺服器代工廠、散熱與電源管理,以及記憶體供應鏈 。
Feynman 架構與矽光子,解決傳輸瓶頸的下一代戰場
除了 Vera Rubin,市場也高度關注大會是否會提前展示傳聞中的下一代架構「Feynman」 。
隨著 AI 資料中心規模快速擴張,GPU 之間的資料傳輸速度已成為新的物理瓶頸 。傳聞原定 2028 年才量產的 Feynman 架構,可能具備兩大顛覆性特點:
- 採用台積電 A16(1.6 奈米)製程,並導入 Super Power Rail(SPR)架構以大幅提升能效 。
- 首度導入矽光子(Silicon Photonics)技術,以光訊號取代部分電訊號傳輸,藉此提升資料傳輸頻寬並降低能耗 。
若該技術能成功商轉,將有機會徹底改變 AI 資料中心的架構,這也是為何矽光子族群在 GTC 大會前便已率先受到市場熱捧 。
兆元級的「五層蛋糕」
黃仁勳將 AI 產業的結構生動地比喻為「五層蛋糕」,涵蓋了能源、晶片、基礎設施、模型與應用五個層次。這個概念反映出 AI 產業的本質改變:AI 不再只是單一軟體應用,而是一整套大型的基礎設施系統。在這個龐大的生態系中,GPU 提供算力,資料中心提供骨幹,電力與冷卻系統確保運作效率,而應用端則建立於這些硬體之上 。這也凸顯了台灣廠商在 AI 硬體鏈中的關鍵角色,包括鴻海、廣達、緯創等企業負責的 AI 伺服器整合製造,以及台達電提供的電源與冷卻系統。
投資人關鍵觀察清單
面對即將到來的科技盛會,投資人可將目光聚焦於大會可能釋出的三個重要長期訊號:
- 資本支出持續擴張:觀察雲端平台與大型企業是否持續增加 AI 資料中心投資,這代表算力需求仍處於成長週期 。
- 從「訓練」轉向「推論」:過去市場焦點在於模型訓練,未來 Vera Rubin 等新架構將更重視推論效率,這將成為雲端服務與企業應用的主要成長來源 。
- 基礎設施成為核心戰場:未來 AI 競爭的瓶頸可能不再侷限於模型能力,而是轉向電力供應、資料中心容量與高速互連技術(如矽光子) 。
當 AI 從技術創新逐漸轉變為全球基礎建設時,代表這個產業的發展週期可能比市場原先預期的更長,整個產業鏈的投資機會也將隨之擴大 。
延伸閱讀:
版權聲明
本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。
免責宣言
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。







