NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代 – 羅伯特艾爾金融學院
全站系統架構導入SSL 256bit加密機制
購物車 0

編輯精選收錄 - Jan 7th  2026

NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代

想掌握更多科技股投資大小事,歡迎追蹤臉書:👉 劉總監的財富心靈講堂

NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代

NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代

發表日期:2026 年 1 月 7 日 | 地點:美國拉斯維加斯 | 演講者:Jensen Huang(黃仁勳)
AI 超級電腦 Reuben GPU 自動駕駛 物理 AI 開源模型
編者按:本文整理自 NVIDIA 創辦人暨執行長 Jensen Huang 於 CES 2026 的主題演講。為便於讀者理解技術脈絡,本文架構依主題重組,與演講順序略有不同。演講涵蓋 AI 產業現況、突破性硬體發表(Vera Rubin 超級電腦系統)、自動駕駛技術(Alpamo)、物理 AI 應用,以及多位產業領袖的深度對談。

AI 產業革命:雙重平台轉移正在發生

Jensen Huang 開場即指出,計算產業每 10 至 15 年會經歷一次平台轉移——從大型主機到個人電腦、從 PC 到網際網路、從網路到雲端、從雲端到行動裝置。但這一次,產業面臨兩個同時發生的平台轉移

雙重革命的核心特徵

1. 應用層革命:應用程式不再獨立存在,而是建立在 AI 之上。開發者不再「編寫」軟體,而是「訓練」軟體。

2. 基礎架構革命:整個五層運算堆疊正在重新發明。運算不再依賴 CPU 預編譯執行,而是透過 GPU 即時生成每一個像素、每一個 token。

這場革命的資金規模驚人:過去十年累積的 10 兆美元運算基礎設施正在現代化,每年數千億美元的創投資金湧入,而百兆美元產業的研發預算也轉向 AI。僅在過去 3 年(2023-2025),就有超過 8,000 億美元投入 AI 基礎設施,2026 年預計將再投入近 6,000 億美元。

「人們問錢從哪裡來?答案就在這裡——從傳統運算現代化到 AI、從傳統研發方法轉向人工智慧方法的巨大遷移。」——Jensen Huang

2025 年 AI 產業五大突破回顧

1. 擴展定律持續有效

從 2015 年 BERT 模型問世,到 2017 年 Transformer 架構誕生,再到 2022 年 ChatGPT 時刻喚醒全球對 AI 的認知。2023 年的 o1 模型引入「測試時擴展」(test-time scaling)概念——即 AI 的「思考」能力,這需要龐大的運算資源支持推理過程。

2. 代理系統(Agentic AI)爆發

2024 年開始萌芽的代理系統,在 2025 年全面爆發。這些 AI 系統具備推理、資訊檢索、研究、使用工具、規劃未來和模擬結果的能力。Jensen 特別提到 Cursor 這款程式設計助手,已經徹底改變 NVIDIA 內部的軟體開發方式。

代理系統的核心能力

  • 多模型協作:智慧路由器根據任務選擇最適合的模型
  • 工具使用:能夠調用外部工具和 API 完成複雜任務
  • 推理鏈:將複雜問題分解為可管理的步驟
  • 混合部署:支援多雲、混合雲、邊緣運算

3. 物理 AI 與 AI 物理學

AI 不再局限於數位世界。物理 AI 讓 AI 能夠理解並與真實世界互動,而 AI 物理學則是 AI 理解物理定律本身。NVIDIA 的 Cosmos 世界基礎模型和 Omniverse 數位孿生平台,正在為機器人、自動駕駛和工業自動化鋪路。

4. 開源模型達到前沿水準

2025 年最令人振奮的發展是開源模型的崛起。DeepSeek R1 作為首個開源推理系統,震驚業界,證明開源模型也能達到前沿水準(儘管仍落後封閉模型約六個月)。

開源模型下載量爆炸式成長

新創公司、大型企業、研究人員、學生,以及幾乎每個國家都在參與 AI 革命。數位智慧的普及不會遺落任何人,開源模型讓全球創新生態系統得以活躍。

5. NVIDIA 自建 AI 超級電腦與開源貢獻

NVIDIA 運營數十億美元的 DGX 雲端超級電腦,專為開發前沿開源模型。這些努力涵蓋多個領域:

數位生物學

ProteINa(蛋白質合成)、OpenFold 3(蛋白質結構理解)、EVO 2(多蛋白質生成)

物理模擬

Earth 2(氣候物理)、ForecastNet(天氣預測)、CorrDiff(氣象革命)

基礎模型

Nemotron 3(混合 Transformer-SSM 模型)、Cosmos(世界基礎模型)、Groot(人形機器人系統)

自動駕駛

Alpamo(端到端推理自駕系統,本次首度發表)

Vera Rubin 超級電腦:革命性的 AI 硬體系統

為什麼要以天文學家 Vera Rubin 命名?她觀察到星系邊緣的恆星運動速度與中心相當,這違反牛頓物理學,最終導致暗物質的發現。NVIDIA 用她的名字致敬這位揭示「看不見的力量」的科學家——正如 AI 運算需求的爆炸性成長,驅動了這套革命性系統的誕生。

為什麼需要 Vera Rubin?三大驅動力

  • 模型規模年增 10 倍:AI 模型參數量每年成長一個數量級
  • 推理 token 年增 5 倍:o1 模型引入「思考時間」,每次推理需生成更多 token
  • Token 成本年降 10 倍:激烈競爭推動價格快速下降,唯有更快運算才能維持優勢
「如果不進行極端協同設計,如果不在整個系統的每一顆晶片上同時創新,每年效能提升最多只能達到 1.6 倍——因為這是你能獲得的電晶體數量上限。」——Jensen Huang

六顆晶片協同運作:極端協同設計

Vera Rubin 打破 NVIDIA 內部規則——通常每代產品只改動一兩顆晶片,但這次重新設計了全部六顆晶片

Vera Rubin 核心晶片架構

  • Vera CPU:88 核心、176 執行緒,採用空間多執行緒技術,功耗效能比全球最先進 CPU 高 2 倍
  • Reuben GPU:浮點效能為 Blackwell 的 5 倍,但電晶體數僅增加 1.6 倍(透過 NVF FP4 張量核心實現)
  • ConnectX-9 網卡:每 GPU 提供 1.6 TB/s 的擴展頻寬
  • BlueField-4 DPU:卸載儲存與安全任務,讓運算資源專注於 AI
  • 第六代 NVLink 交換器:400 Gbit/s serdes,頻寬相當於全球網際網路流量的 2 倍(240 TB/s)
  • Spectrum-X 乙太網路光子交換器:全球首款採用 512 埠 200 Gbit/s 共封裝光學元件的乙太網路交換器

突破性的 NVF FP4 張量核心

這不只是一個 4 位元浮點數格式,而是一個完整的處理單元,能夠動態、自適應地調整精度和結構,在需要時提供最高精度,在可能時實現更高吞吐量。Jensen 預測這項技術可能成為產業標準。

系統級創新:從 2 小時到 5 分鐘

MGX 機箱革命

上一代(Blackwell):43 條電纜、6 條水管,組裝時間 2 小時,容易出錯需反覆測試

Vera Rubin:零電纜、兩條水管,組裝時間 5 分鐘,100% 液冷設計

關鍵優勢:功耗翻倍但進水溫度維持 45°C(無需冷卻機),節省全球資料中心 6% 電力

效能提升驚人:實測數據

三大維度效能對比(Reuben vs Blackwell)

  • 訓練速度:訓練 10 兆參數模型僅需 1/4 系統數量(相同時間框架)
  • 推理工廠吞吐量:單位功耗產出提升 10 倍
  • Token 生成成本:每 token 成本降至 1/10

Vera Rubin 系統目前已進入全面量產,將於 2026 年交付客戶。

Alpamo:全球首個「會思考」的自駕 AI

NVIDIA 耕耘自動駕駛技術已有八年。Alpamo 是端到端訓練的自駕系統——從攝影機輸入到方向盤、煞車、油門控制輸出,完全由 AI 驅動。

Alpamo 的三大獨特之處

  • 端到端學習:透過人類示範和 Cosmos 生成的合成資料訓練,數十萬筆精準標註範例
  • 推理能力:不僅執行駕駛,還會說明要採取的行動、理由和行駛軌跡
  • 長尾場景處理:將罕見情況分解為熟悉的物理互動,透過推理解決從未見過的場景
「收集所有可能發生的駕駛情境是不可能的。但每個情境如果分解成更小的場景,都是相當正常的情況。AI 只需要推理即可。」——Jensen Huang

雙重安全架構:創新與可靠並存

Alpamo 採用獨一無二的雙堆疊設計

雙層防護機制

第一層(主系統):Alpamo AI 端到端推理系統,處理複雜場景和長尾情況

第二層(守護系統):傳統 AV 堆疊,完全可追溯、耗時 5-7 年開發,提供保底安全

政策與安全評估器:實時判斷使用哪個系統,確保最高安全標準

Mercedes-Benz CLA:全球最安全的汽車

搭載 Alpamo 的 Mercedes-Benz CLA 剛獲得 NCAP(新車安全評估計畫)評定為全球最安全汽車。這是唯一一款每行程式碼、每顆晶片、每個系統都經過安全認證的車輛。

Alpamo 部署時程

  • Q1 2026(美國):Mercedes-Benz CLA 在美國上路
  • Q2 2026(歐洲):歐洲市場啟動
  • Q3-Q4 2026(亞洲):亞洲市場陸續開放
  • 持續更新:後續推出更新版本 Alpamo

值得注意的是,Alpamo 今日全面開源。NVIDIA 公開模型、訓練資料和整個技術堆疊,讓全球開發者、車廠和研究機構都能參與自動駕駛革命。

物理 AI:從數位世界走向真實世界

物理 AI 需要三台電腦協同運作:

物理 AI 的三電腦架構

  • 訓練電腦:訓練 AI 模型(DGX 系統)
  • 推理電腦:邊緣運算(車輛、機器人、工廠)
  • 模擬電腦:數位孿生與物理模擬(Omniverse)

Cosmos:世界基礎模型的突破

Cosmos 是 NVIDIA 的世界基礎模型,經過網路規模影片、真實駕駛數據、機器人數據和 3D 模擬訓練。它能夠:

  • 從 3D 場景描述生成逼真影片
  • 從駕駛遙測和感測器日誌生成環景影片
  • 從規劃模擬器生成多鏡頭環境
  • 執行互動式閉環模擬(動作產生回應)
  • 推理邊緣情境並預測可能結果
「Cosmos 將運算轉化為資料,訓練自動駕駛處理長尾情境,訓練機器人適應各種場景。」——介紹影片旁白

機器人革命:Groot 與產業夥伴

現場展示了兩款可愛的 Jetson 驅動機器人,它們在 Omniverse 的 Isaac Sim 和 Isaac Lab 環境中學習行動與互動。NVIDIA 正與全球頂尖機器人公司合作:

人形機器人

Agility Robotics、Boston Dynamics、Figure AI

工業機器人

Franka Emika、Universal Robots、ABB

特殊應用

LG(送餐機器人連接 Uber Eats)、Caterpillar(大型工業機器人)、Serve Robotics

醫療機器人

手術機器人與精密醫療應用

企業 AI 應用:Agentic 系統改變遊戲規則

對談環節中,Snowflake CEO Sridhar Ramaswamy 分享了企業 AI 的實際應用:

資料主權與隱私

企業客戶對資料位置極為敏感。Snowflake 的原則很簡單:「您的資料就是您的資料」。他們只代表客戶處理,不會挪作他用。這在金融、醫療等受監管產業尤其重要。

醫療產業的意外爆發

A Bridge 健康科技 CEO Shiv Rao 指出,醫生每天需要 30 小時才能完成所有工作——80% 是文書工作,僅 20% 是實際臨床推理。AI 有機會翻轉這個比例

A Bridge 的成果

A Bridge 目前每年服務 8,000 萬至 1 億人次,透過精煉、微調和訓練後,從每日編輯中學習,持續優化每個專科、每個場景的效能。

程式碼審查的新標準

Code Rabbit 的 Harjot Singh 指出,生成式 AI 降低了軟體開發門檻——任何人都能用自然語言生成程式碼。但 10 倍工程師不會因此變成 100 倍,反而是更多人能夠「夠好」地撰寫程式碼。

「內層迴圈解決後,外層迴圈成為瓶頸。一個是程式碼審查(Code Rabbit 專攻),另一個是明確描述意圖——如果描述不準確,代理可能跑 30 分鐘卻產生一堆垃圾。」——Harjot Singh

晶片設計與製造的 AI 革命:Cadence、Synopsys、Siemens 聯手

NVIDIA 與全球三大 EDA/SDA 巨頭達成深度合作,將 AI 技術整合到晶片設計與製造流程:

從設計到製造的全生命週期

三階段 AI 整合

  • 設計階段(Cadence、Synopsys):CUDA X 加速模擬與求解器,AI 物理學整合,代理晶片設計師協助工程師
  • 驗證階段(Cadence):在虛擬世界中完整生產晶片,數位除錯後才進入硬體製造
  • 製造階段(Siemens):在 Omniverse 中建構工廠數位孿生,設計製造產線,工廠本身成為巨型機器人
「你們將在虛擬世界中被設計、製造和測試,在面對重力之前就已經完美運作。」——Jensen Huang 對現場機器人說

全新儲存架構:Dynamo KV Cache 系統

AI 推理有一個巨大挑戰:每生成一個 token,GPU 都要讀取整個模型和全部工作記憶體(KV cache)。當對話變長、模型變大、使用者變多,這個 KV cache 會增長到 HBM 記憶體無法容納。

三層記憶體架構

  • 第一層(HBM):每 GPU 約 1 TB 記憶體
  • 第二層(Grace CPU 記憶體):快速上下文記憶體擴展
  • 第三層(BlueField-4 + NVMe):每機櫃 4 個 BlueField-4 DPU,每個背後 150 TB 儲存,為每 GPU 額外提供 16 TB 上下文記憶體

這套系統與 MVLink 72 運算節點共享相同的東西向流量,速率達 200 Gbit/s,避免南北向網路擁塞。

產業生態系統:NVIDIA 的開放策略

Jensen 強調,NVIDIA 建構完整技術堆疊,但整個堆疊對生態系統開放

企業 AI 平台

Palantir、ServiceNow、Snowflake——整合 NVIDIA 加速與代理系統

開發工具

Code Rabbit、Cursor——NVIDIA 內部廣泛使用

網路安全

CrowdStrike——用 AI 偵測 AI 威脅

資料平台

NetApp——整合語意 AI 與代理系統

汽車產業夥伴

Mercedes-Benz 是首發合作夥伴,但整個自動駕駛生態系統持續擴張。合作模式彈性極高——從僅使用晶片、到部分堆疊、到完整解決方案,各車廠可自由選擇。

「我們建構整個堆疊,但堆疊完全開放。你決定使用多少都可以,我唯一的要求是:請在可能的地方使用一點 NVIDIA。」——Jensen Huang

未來展望:10 年內自動駕駛普及

Jensen 對未來十分樂觀:

  • 未來 10 年內,全球道路上10 億輛汽車將具備自動駕駛能力
  • 可能是 robo-taxi 出租、私人擁有自駕車,或手動/自動混合駕駛
  • Mercedes-Benz 與 NVIDIA 五年前就開始合作佈局
  • 這將成為最大規模的機器人產業

開源與生態系統

NVIDIA 的策略清晰:建構最強大的技術,然後完全開放。從 Alpamo、Cosmos、Groot、Nemotron 到各種 Nemo 函式庫,所有前沿模型和訓練資料都公開,確保每家公司、每個國家、每位研究者都能參與 AI 革命。

關於 NVIDIA:NVIDIA 成立於 1993 年,是全球 AI 運算領導者。從 GPU 發明者到 AI 基礎設施提供商,NVIDIA 技術驅動遊戲、專業視覺化、資料中心和汽車市場。總部位於美國加州聖塔克拉拉。

相關連結:

• NVIDIA 官方網站:www.nvidia.com

• Alpamo 開源資源:github.com/nvidia

• Omniverse 平台:nvidia.com/omniverse

Sale

Unavailable

Sold Out