編輯精選收錄 - Jan 7th 2026
NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代
想掌握更多科技股投資大小事,歡迎追蹤臉書:👉 劉總監的財富心靈講堂
NVIDIA CES 2026 主題演講完整解析:Vera Rubin 超級電腦與 AI 革命時代
AI 產業革命:雙重平台轉移正在發生
Jensen Huang 開場即指出,計算產業每 10 至 15 年會經歷一次平台轉移——從大型主機到個人電腦、從 PC 到網際網路、從網路到雲端、從雲端到行動裝置。但這一次,產業面臨兩個同時發生的平台轉移:
雙重革命的核心特徵
1. 應用層革命:應用程式不再獨立存在,而是建立在 AI 之上。開發者不再「編寫」軟體,而是「訓練」軟體。
2. 基礎架構革命:整個五層運算堆疊正在重新發明。運算不再依賴 CPU 預編譯執行,而是透過 GPU 即時生成每一個像素、每一個 token。
這場革命的資金規模驚人:過去十年累積的 10 兆美元運算基礎設施正在現代化,每年數千億美元的創投資金湧入,而百兆美元產業的研發預算也轉向 AI。僅在過去 3 年(2023-2025),就有超過 8,000 億美元投入 AI 基礎設施,2026 年預計將再投入近 6,000 億美元。
「人們問錢從哪裡來?答案就在這裡——從傳統運算現代化到 AI、從傳統研發方法轉向人工智慧方法的巨大遷移。」——Jensen Huang
2025 年 AI 產業五大突破回顧
1. 擴展定律持續有效
從 2015 年 BERT 模型問世,到 2017 年 Transformer 架構誕生,再到 2022 年 ChatGPT 時刻喚醒全球對 AI 的認知。2023 年的 o1 模型引入「測試時擴展」(test-time scaling)概念——即 AI 的「思考」能力,這需要龐大的運算資源支持推理過程。
2. 代理系統(Agentic AI)爆發
2024 年開始萌芽的代理系統,在 2025 年全面爆發。這些 AI 系統具備推理、資訊檢索、研究、使用工具、規劃未來和模擬結果的能力。Jensen 特別提到 Cursor 這款程式設計助手,已經徹底改變 NVIDIA 內部的軟體開發方式。
代理系統的核心能力
- 多模型協作:智慧路由器根據任務選擇最適合的模型
- 工具使用:能夠調用外部工具和 API 完成複雜任務
- 推理鏈:將複雜問題分解為可管理的步驟
- 混合部署:支援多雲、混合雲、邊緣運算
3. 物理 AI 與 AI 物理學
AI 不再局限於數位世界。物理 AI 讓 AI 能夠理解並與真實世界互動,而 AI 物理學則是 AI 理解物理定律本身。NVIDIA 的 Cosmos 世界基礎模型和 Omniverse 數位孿生平台,正在為機器人、自動駕駛和工業自動化鋪路。
4. 開源模型達到前沿水準
2025 年最令人振奮的發展是開源模型的崛起。DeepSeek R1 作為首個開源推理系統,震驚業界,證明開源模型也能達到前沿水準(儘管仍落後封閉模型約六個月)。
開源模型下載量爆炸式成長
新創公司、大型企業、研究人員、學生,以及幾乎每個國家都在參與 AI 革命。數位智慧的普及不會遺落任何人,開源模型讓全球創新生態系統得以活躍。
5. NVIDIA 自建 AI 超級電腦與開源貢獻
NVIDIA 運營數十億美元的 DGX 雲端超級電腦,專為開發前沿開源模型。這些努力涵蓋多個領域:
數位生物學
ProteINa(蛋白質合成)、OpenFold 3(蛋白質結構理解)、EVO 2(多蛋白質生成)
物理模擬
Earth 2(氣候物理)、ForecastNet(天氣預測)、CorrDiff(氣象革命)
基礎模型
Nemotron 3(混合 Transformer-SSM 模型)、Cosmos(世界基礎模型)、Groot(人形機器人系統)
自動駕駛
Alpamo(端到端推理自駕系統,本次首度發表)
Vera Rubin 超級電腦:革命性的 AI 硬體系統
為什麼要以天文學家 Vera Rubin 命名?她觀察到星系邊緣的恆星運動速度與中心相當,這違反牛頓物理學,最終導致暗物質的發現。NVIDIA 用她的名字致敬這位揭示「看不見的力量」的科學家——正如 AI 運算需求的爆炸性成長,驅動了這套革命性系統的誕生。
為什麼需要 Vera Rubin?三大驅動力
- 模型規模年增 10 倍:AI 模型參數量每年成長一個數量級
- 推理 token 年增 5 倍:o1 模型引入「思考時間」,每次推理需生成更多 token
- Token 成本年降 10 倍:激烈競爭推動價格快速下降,唯有更快運算才能維持優勢
「如果不進行極端協同設計,如果不在整個系統的每一顆晶片上同時創新,每年效能提升最多只能達到 1.6 倍——因為這是你能獲得的電晶體數量上限。」——Jensen Huang
六顆晶片協同運作:極端協同設計
Vera Rubin 打破 NVIDIA 內部規則——通常每代產品只改動一兩顆晶片,但這次重新設計了全部六顆晶片:
Vera Rubin 核心晶片架構
- Vera CPU:88 核心、176 執行緒,採用空間多執行緒技術,功耗效能比全球最先進 CPU 高 2 倍
- Reuben GPU:浮點效能為 Blackwell 的 5 倍,但電晶體數僅增加 1.6 倍(透過 NVF FP4 張量核心實現)
- ConnectX-9 網卡:每 GPU 提供 1.6 TB/s 的擴展頻寬
- BlueField-4 DPU:卸載儲存與安全任務,讓運算資源專注於 AI
- 第六代 NVLink 交換器:400 Gbit/s serdes,頻寬相當於全球網際網路流量的 2 倍(240 TB/s)
- Spectrum-X 乙太網路光子交換器:全球首款採用 512 埠 200 Gbit/s 共封裝光學元件的乙太網路交換器
突破性的 NVF FP4 張量核心
這不只是一個 4 位元浮點數格式,而是一個完整的處理單元,能夠動態、自適應地調整精度和結構,在需要時提供最高精度,在可能時實現更高吞吐量。Jensen 預測這項技術可能成為產業標準。
系統級創新:從 2 小時到 5 分鐘
MGX 機箱革命
上一代(Blackwell):43 條電纜、6 條水管,組裝時間 2 小時,容易出錯需反覆測試
Vera Rubin:零電纜、兩條水管,組裝時間 5 分鐘,100% 液冷設計
關鍵優勢:功耗翻倍但進水溫度維持 45°C(無需冷卻機),節省全球資料中心 6% 電力
效能提升驚人:實測數據
三大維度效能對比(Reuben vs Blackwell)
- 訓練速度:訓練 10 兆參數模型僅需 1/4 系統數量(相同時間框架)
- 推理工廠吞吐量:單位功耗產出提升 10 倍
- Token 生成成本:每 token 成本降至 1/10
Vera Rubin 系統目前已進入全面量產,將於 2026 年交付客戶。
Alpamo:全球首個「會思考」的自駕 AI
NVIDIA 耕耘自動駕駛技術已有八年。Alpamo 是端到端訓練的自駕系統——從攝影機輸入到方向盤、煞車、油門控制輸出,完全由 AI 驅動。
Alpamo 的三大獨特之處
- 端到端學習:透過人類示範和 Cosmos 生成的合成資料訓練,數十萬筆精準標註範例
- 推理能力:不僅執行駕駛,還會說明要採取的行動、理由和行駛軌跡
- 長尾場景處理:將罕見情況分解為熟悉的物理互動,透過推理解決從未見過的場景
「收集所有可能發生的駕駛情境是不可能的。但每個情境如果分解成更小的場景,都是相當正常的情況。AI 只需要推理即可。」——Jensen Huang
雙重安全架構:創新與可靠並存
Alpamo 採用獨一無二的雙堆疊設計:
雙層防護機制
第一層(主系統):Alpamo AI 端到端推理系統,處理複雜場景和長尾情況
第二層(守護系統):傳統 AV 堆疊,完全可追溯、耗時 5-7 年開發,提供保底安全
政策與安全評估器:實時判斷使用哪個系統,確保最高安全標準
Mercedes-Benz CLA:全球最安全的汽車
搭載 Alpamo 的 Mercedes-Benz CLA 剛獲得 NCAP(新車安全評估計畫)評定為全球最安全汽車。這是唯一一款每行程式碼、每顆晶片、每個系統都經過安全認證的車輛。
Alpamo 部署時程
- Q1 2026(美國):Mercedes-Benz CLA 在美國上路
- Q2 2026(歐洲):歐洲市場啟動
- Q3-Q4 2026(亞洲):亞洲市場陸續開放
- 持續更新:後續推出更新版本 Alpamo
值得注意的是,Alpamo 今日全面開源。NVIDIA 公開模型、訓練資料和整個技術堆疊,讓全球開發者、車廠和研究機構都能參與自動駕駛革命。
物理 AI:從數位世界走向真實世界
物理 AI 需要三台電腦協同運作:
物理 AI 的三電腦架構
- 訓練電腦:訓練 AI 模型(DGX 系統)
- 推理電腦:邊緣運算(車輛、機器人、工廠)
- 模擬電腦:數位孿生與物理模擬(Omniverse)
Cosmos:世界基礎模型的突破
Cosmos 是 NVIDIA 的世界基礎模型,經過網路規模影片、真實駕駛數據、機器人數據和 3D 模擬訓練。它能夠:
- 從 3D 場景描述生成逼真影片
- 從駕駛遙測和感測器日誌生成環景影片
- 從規劃模擬器生成多鏡頭環境
- 執行互動式閉環模擬(動作產生回應)
- 推理邊緣情境並預測可能結果
「Cosmos 將運算轉化為資料,訓練自動駕駛處理長尾情境,訓練機器人適應各種場景。」——介紹影片旁白
機器人革命:Groot 與產業夥伴
現場展示了兩款可愛的 Jetson 驅動機器人,它們在 Omniverse 的 Isaac Sim 和 Isaac Lab 環境中學習行動與互動。NVIDIA 正與全球頂尖機器人公司合作:
人形機器人
Agility Robotics、Boston Dynamics、Figure AI
工業機器人
Franka Emika、Universal Robots、ABB
特殊應用
LG(送餐機器人連接 Uber Eats)、Caterpillar(大型工業機器人)、Serve Robotics
醫療機器人
手術機器人與精密醫療應用
企業 AI 應用:Agentic 系統改變遊戲規則
對談環節中,Snowflake CEO Sridhar Ramaswamy 分享了企業 AI 的實際應用:
資料主權與隱私
企業客戶對資料位置極為敏感。Snowflake 的原則很簡單:「您的資料就是您的資料」。他們只代表客戶處理,不會挪作他用。這在金融、醫療等受監管產業尤其重要。
醫療產業的意外爆發
A Bridge 健康科技 CEO Shiv Rao 指出,醫生每天需要 30 小時才能完成所有工作——80% 是文書工作,僅 20% 是實際臨床推理。AI 有機會翻轉這個比例。
A Bridge 的成果
A Bridge 目前每年服務 8,000 萬至 1 億人次,透過精煉、微調和訓練後,從每日編輯中學習,持續優化每個專科、每個場景的效能。
程式碼審查的新標準
Code Rabbit 的 Harjot Singh 指出,生成式 AI 降低了軟體開發門檻——任何人都能用自然語言生成程式碼。但 10 倍工程師不會因此變成 100 倍,反而是更多人能夠「夠好」地撰寫程式碼。
「內層迴圈解決後,外層迴圈成為瓶頸。一個是程式碼審查(Code Rabbit 專攻),另一個是明確描述意圖——如果描述不準確,代理可能跑 30 分鐘卻產生一堆垃圾。」——Harjot Singh
晶片設計與製造的 AI 革命:Cadence、Synopsys、Siemens 聯手
NVIDIA 與全球三大 EDA/SDA 巨頭達成深度合作,將 AI 技術整合到晶片設計與製造流程:
從設計到製造的全生命週期
三階段 AI 整合
- 設計階段(Cadence、Synopsys):CUDA X 加速模擬與求解器,AI 物理學整合,代理晶片設計師協助工程師
- 驗證階段(Cadence):在虛擬世界中完整生產晶片,數位除錯後才進入硬體製造
- 製造階段(Siemens):在 Omniverse 中建構工廠數位孿生,設計製造產線,工廠本身成為巨型機器人
「你們將在虛擬世界中被設計、製造和測試,在面對重力之前就已經完美運作。」——Jensen Huang 對現場機器人說
全新儲存架構:Dynamo KV Cache 系統
AI 推理有一個巨大挑戰:每生成一個 token,GPU 都要讀取整個模型和全部工作記憶體(KV cache)。當對話變長、模型變大、使用者變多,這個 KV cache 會增長到 HBM 記憶體無法容納。
三層記憶體架構
- 第一層(HBM):每 GPU 約 1 TB 記憶體
- 第二層(Grace CPU 記憶體):快速上下文記憶體擴展
- 第三層(BlueField-4 + NVMe):每機櫃 4 個 BlueField-4 DPU,每個背後 150 TB 儲存,為每 GPU 額外提供 16 TB 上下文記憶體
這套系統與 MVLink 72 運算節點共享相同的東西向流量,速率達 200 Gbit/s,避免南北向網路擁塞。
產業生態系統:NVIDIA 的開放策略
Jensen 強調,NVIDIA 建構完整技術堆疊,但整個堆疊對生態系統開放:
企業 AI 平台
Palantir、ServiceNow、Snowflake——整合 NVIDIA 加速與代理系統
開發工具
Code Rabbit、Cursor——NVIDIA 內部廣泛使用
網路安全
CrowdStrike——用 AI 偵測 AI 威脅
資料平台
NetApp——整合語意 AI 與代理系統
汽車產業夥伴
Mercedes-Benz 是首發合作夥伴,但整個自動駕駛生態系統持續擴張。合作模式彈性極高——從僅使用晶片、到部分堆疊、到完整解決方案,各車廠可自由選擇。
「我們建構整個堆疊,但堆疊完全開放。你決定使用多少都可以,我唯一的要求是:請在可能的地方使用一點 NVIDIA。」——Jensen Huang
未來展望:10 年內自動駕駛普及
Jensen 對未來十分樂觀:
- 未來 10 年內,全球道路上10 億輛汽車將具備自動駕駛能力
- 可能是 robo-taxi 出租、私人擁有自駕車,或手動/自動混合駕駛
- Mercedes-Benz 與 NVIDIA 五年前就開始合作佈局
- 這將成為最大規模的機器人產業
開源與生態系統
NVIDIA 的策略清晰:建構最強大的技術,然後完全開放。從 Alpamo、Cosmos、Groot、Nemotron 到各種 Nemo 函式庫,所有前沿模型和訓練資料都公開,確保每家公司、每個國家、每位研究者都能參與 AI 革命。