編輯精選收錄 - Oct 29 2025
GTC2025 專題演講: Nvidia CEO 黃仁勳
想掌握更多科技股投資大小事,歡迎追蹤臉書:👉 劉總監的財富心靈講堂
黃仁勳 GTC 2025 演講全記錄:半兆美元訂單背後的AI革命藍圖
突破性商業成就:半兆美元訂單的背後
黃仁勳開場即宣布的數字令人震撼:NVIDIA已獲得5,000億美元的Blackwell與早期Rubin系統訂單,預計在2026年底前交付。這是科技史上罕見的可見度,特別是2025年尚未結束、2026年尚未開始的情況下。
更驚人的對比是成長速度。Hopper世代在整個生命週期出貨400萬顆GPU,而Blackwell在前四個季度就已出貨600萬顆,預計總出貨量將達2,000萬顆GPU(每個Blackwell封裝包含兩顆GPU)。這代表Blackwell的成長速度是Hopper的五倍,且這些數據尚未包含中國和亞洲市場。
"這是兩個指數同時作用的結果。第一個指數是三大擴展定律(預訓練、後訓練、推理思考)帶來的運算需求暴增;第二個指數是AI變得足夠聰明,人們願意付費使用,使用越多需求越大。這個正向循環現在正在高速旋轉。" — 黃仁勳
CSP資本支出狂潮:產業拐點已至
黃仁勳展示的CSP(雲端服務供應商)資本支出圖表揭示了產業轉折點。Amazon、CoreWeave、Google、Meta、Microsoft和Oracle六大廠商的AI基礎建設投資正在加速,而時機恰好配合Grace Blackwell NVLink 72的全面量產。
這波投資背後有兩個平台轉移同時發生:從通用運算到加速運算,以及從手寫軟體到AI。許多CSP在AI出現前就已部署NVIDIA技術用於機器學習、推薦系統、資料處理。現在AI時代來臨,NVIDIA GPU成為唯一能同時處理傳統加速運算與AI工作負載的平台,使得投資風險大幅降低。
策略突破一:與Nokia聯手奪回6G主導權
黃仁勳在演講中特別強調一個戰略焦點:美國必須在6G時代重新取得電信技術領導地位。自無線通訊誕生以來,美國曾主導全球標準輸出,但近年來全球電信基礎建設大量採用外國技術,這個局面必須改變。
NVIDIA Aerial 無線網路電腦(ARC)架構
核心突破: 首次將無線通訊與AI處理融合在單一軟體定義平台
技術基礎: Grace CPU + Blackwell GPU + ConnectX網路晶片
戰略意義: 可升級全球數百萬個基站至6G與AI能力
與Nokia的合作具有深遠意義。Nokia是全球第二大電信設備商,擁有3兆美元產業規模與7,000項5G核心專利。Nokia將採用NVIDIA ARC作為未來基站平台,並與現有Airscale基站相容,這意味著可以透過軟體升級方式,將全球數百萬個基站導入6G與AI能力。
AI for RAN vs. AI on RAN:雙重革命
AI for RAN(為無線接取網路優化): 利用強化學習即時調整波束成形,根據環境、流量、移動性、天氣等因素動態優化。頻譜效率的提升意義重大 — 全球無線通訊耗電量占總電力的1.5-2%,提升效率等於在不增加能耗的情況下擴大資料傳輸量。
AI on RAN(在無線網路上運算): 這是更具革命性的概念。如同AWS在網際網路上建構雲端運算,NVIDIA與Nokia將在無線電信網路上建構邊緣工業機器人雲。全球基站無處不在,這些位置將成為AI運算節點,將雲端運算能力推向資料中心無法到達的邊緣。
策略突破二:美國製造全面回歸
黃仁勳以激動的語氣宣布:"我們在美國重新開始製造了!這令人難以置信。" 從川普總統首次要求到實現全面量產,NVIDIA只用了九個月時間,就讓Blackwell在亞利桑那州進入生產線。
Made in America 供應鏈全景
亞利桑那州: TSMC晶圓廠 — 12吋晶圓上建構2,000億個電晶體
印第安納州: HBM記憶體堆疊 — 12層HBM與基底晶片整合
德州: PCB組裝 — 機器人全天候組裝超過10,000個元件
加州: 系統整合 — ConnectX8超級網卡與Bluefield 3 DPU整合至GB300運算托盤
一個完整的GB300 NVLink 72機櫃包含:120萬個零組件、2,000公尺銅纜、130兆個電晶體、重達2噸。這不僅是製造回歸,更是高階AI系統整合能力的回歸,對國家安全與經濟自主都具有戰略意義。
黃仁勳特別感謝川普政府的親能源政策:"總統認知到這個產業需要能源才能成長、需要能源才能進步、需要能源才能獲勝。如果沒有這個支持,我們可能會陷入困境。"
技術突破:10倍效能如何實現
當摩爾定律逐漸觸及物理極限,NVIDIA如何在單一世代實現10倍效能提升?答案是極致協同設計(Extreme Co-Design) — 從空白紙開始,同步思考架構、晶片、系統、軟體、模型架構和應用。
Grace Blackwell NVLink 72:重新定義運算單元
黃仁勳在台上展示了一個驚人的視覺化概念 — 如果將72顆GPU整合成單一晶片,這將是一個晶圓級的處理器。NVLink 72技術讓這個願景成真,在單一機櫃內實現72顆GPU如同一顆巨型GPU般協同運作。
技術關鍵在於專家混合(Mixture of Experts, MoE)模型的優化。現代大型AI模型包含數千個專門處理特定問題的"專家"。在傳統NVLink 8架構中,每顆GPU必須負責32個專家的運算;而在NVLink 72架構中,每顆GPU只需負責4個專家。
這個差異帶來革命性影響:Token生成速度取決於HBM記憶體頻寬,當每顆GPU負責的專家數減少8倍,相同硬體就能產生更快的回應速度。Semi Analysis的獨立測試證實,Grace Blackwell每GPU效能是H200的10倍。
最貴卻最划算:TCO經濟學
黃仁勳指出一個反直覺的事實:"GB200是最昂貴的電腦,但它產生的Token成本卻是全球最低的。" 當Token生成速度除以總擁有成本(TCO),Grace Blackwell展現出無可匹敵的經濟效益。這確保了AI產業的正向循環能持續運轉 — 效能提升、成本下降、使用增加、利潤成長、再投資。
下一代:Rubin架構預覽
就在Blackwell全面出貨之際,黃仁勳已展示第三代NVLink 72架構 — Vera Rubin(以天文學家命名)。這個系統目前在NVIDIA實驗室運行,預計明年此時或稍早進入量產。
Vera Rubin 技術突破
完全無纜線設計: 所有連接透過盲插背板完成
100%液冷: 全系統熱管理優化
運算托盤升級: 4個Rubin封裝(8顆GPU)+ 2顆Vera CPU + 8張ConnectX9 + 2張Bluefield 4
效能躍進: 100 PetaFLOPS,相當於2016年首台DGX-1的100倍效能
Rubin引入了全新的Context處理器,專門應對AI記憶體需求激增的挑戰。當使用者要求AI記住所有對話歷史、學習內容、甚至觀看影片和閱讀大量文件後再回答,KV快取(鍵值快取)的檢索速度成為瓶頸。Bluefield 4 DPU正是為解決這個問題而生,確保光速級的網路安全與記憶體管理。
量子運算:40年後的突破時刻
1981年,物理學家Richard Feynman提出量子電腦的概念 — 一種能直接模擬自然的電腦,因為自然本身就是量子的。40年後的2024年,產業實現了關鍵突破:穩定、相干、具備錯誤校正能力的邏輯量子位元。
NVIDIA的策略是將量子處理器(QPU)與GPU超級電腦直接連接,形成混合式量子運算架構。GPU負責量子錯誤校正、AI校準控制和部分模擬,QPU則執行量子優勢明顯的運算。這需要極低延遲的連接技術。
NVQLink 量子互連架構
核心能力: 每秒數千次與量子硬體雙向傳輸TB級資料
技術平台: CUDA-Q開放平台,支援混合量子-GPU應用
產業支持: 17家量子電腦公司、8個美國能源部國家實驗室
能源部長Chris Wright的願景獲得黃仁勳高度肯定:"他為能源部帶來了巨大能量,激情滿滿地確保美國繼續領導科學。" 能源部宣布將建造七座新的AI超級電腦,推動國家科學研究,整合加速運算、AI、量子運算和機器人實驗室等多重平台轉移。
物理AI與機器人革命
黃仁勳區分了兩種AI:理解數位世界的AI與理解物理世界的物理AI。後者需要理解物理定律、因果關係、物體恆存性,這需要完全不同的訓練與運算架構。
三台電腦驅動機器人智慧
訓練電腦: Grace Blackwell NVLink 72 — 訓練機器人AI模型
模擬電腦: Omniverse平台 — 數位孿生環境讓機器人學習如何成為好機器人,工廠模擬優化生產流程
機器人電腦: Thor/Jetson Thor — 部署在自駕車或人形機器人上的推理系統
這三台電腦都運行CUDA,確保從訓練到模擬到部署的無縫協作。黃仁勳強調:"除非能在數位孿生中規劃、設計和操作,否則讓機器人工廠實際運作的希望幾乎不可能實現。"
合作夥伴生態系
Foxconn德州廠: 運用Siemens數位孿生技術在Omniverse中建構虛擬工廠,優化佈局、訓練機器人隊伍,部署Fanuc機械臂和FII靈巧機器人組裝GB300托盤。
Figure人形機器人: Brett Adcock三年半前創立的公司估值已近400億美元,使用NVIDIA平台訓練AI、模擬行為和運行機器人電腦。
Disney Blue: 與迪士尼研究院合作開發的可愛機器人,基於革命性的Newton物理模擬器。黃仁勳在展示影片後激動表示:"這不是動畫,不是電影,是即時模擬!"
黃仁勳預測,人形機器人可能成為全球最大的消費電子產品線,也將是最大的工業設備市場之一。
Robotaxi:輪子上的機器人已達拐點
與仍在發展中的人形機器人不同,robotaxi(無人計程車)正處於商業化拐點。NVIDIA推出Drive Hyperion標準平台,配備環繞攝影機、雷達和光達,實現最高等級的感知能力與冗餘安全性。
已採用Hyperion的車廠包括:Lucid、Mercedes-Benz、Stellantis等,而自駕系統開發商如Wayve、Waabi、Aurora、Momenta、WeRide等都能在這個標準平台上部署AI系統。
NVIDIA與Uber策略合作
黃仁勳宣布與Uber執行長Dara Khosrowshahi合作,將Hyperion車輛連接至Uber全球網路。未來乘客將能透過Uber App叫車,生態系統將覆蓋全球。黃仁勳表示:"這將成為我們的新運算平台,我預期會相當成功。"
全球每年行駛里程達1兆英里,年產1億輛汽車,5,000萬輛計程車。Robotaxi市場潛力巨大,而NVIDIA正建構統一的軟硬體平台來支撐這個生態系統。
企業AI:從工具到員工的典範轉移
黃仁勳提出一個深刻洞察:"過去的軟體產業是在創造工具。Excel是工具、Word是工具、瀏覽器是工具,因為你在使用它們。但AI不是工具 — AI是工作者,是能實際使用工具的員工。"
這個轉變意義重大。IT工具市場約1兆美元,但AI首次能夠參與100兆美元的全球經濟,讓各行各業更有生產力、成長更快、規模更大。在勞動力嚴重短缺的時代,AI擴增人力將幫助經濟成長。
企業級合作宣布
CrowdStrike: 與George Kurtz領導的團隊合作,開發光速級網路安全防禦系統,在雲端和邊緣部署AI代理,確保威脅偵測只需片刻。黃仁勳強調:"AI會強化網路安全挑戰,我們需要強大的防禦者。"
Palantir: 黃仁勳稱讚Palantir Ontology為"全球最快、可能最重要的企業平台"。整合NVIDIA加速運算,以光速處理結構化與非結構化資料,為政府國安和全球企業提供洞察。
其他SaaS整合: ServiceNow(85%全球企業工作流)、SAP(80%全球商務交易)、Synopsys與Cadence(EDA工具AI代理化)。黃仁勳的願景是:"未來我想雇用AI ASIC設計師與我們的ASIC設計師協作 — 本質上就是Synopsys的Cursor。"
開源模型:美國必須領導的戰場
黃仁勳清楚表達立場:"美國必須在開源領域領先。我們擁有驚人的專有模型,但我們也需要驚人的開源模型。我們的國家、我們的新創公司都依賴它。"
過去兩年,開源模型因推理能力、多模態整合和知識蒸餾技術而變得極為實用,成為新創公司的命脈。每個產業都有獨特的使用案例、資料和飛輪效應,需要將領域專業知識嵌入模型 — 開源讓這一切成為可能。
NVIDIA開源貢獻
23個模型登上排行榜第一: 涵蓋語言、物理AI、生物醫學
第一名語音模型: 聲音辨識與生成
第一名推理模型: 邏輯與規劃能力
第一名物理AI模型: 機器人與模擬
NVIDIA建構自有超級電腦的重要原因之一,就是支援這些龐大的開源模型團隊。下載量數據顯示,開源社群對NVIDIA模型的採用正在加速。
AI工廠:新產業的誕生
黃仁勳創造了一個新詞彙:AI工廠(AI Factory)。這不是傳統意義的資料中心,而是專門生產一種產品的工廠 — Token(語彙單元)。
"傳統資料中心是通用目的的,可以執行各種應用。但AI工廠只運行一件事:AI。它的目的是生產盡可能有價值的Token(意味著必須聰明)、以難以置信的速率生產(使用者需要即時回應)、並且成本有效。我使用的每一個詞都符合工廠的定義 — 就像汽車工廠或任何工廠。" — 黃仁勳
AI工廠包含從能源到GPU到基礎建設的完整堆疊。黃仁勳展示了運算堆疊的徹底改變:不再是Windows和CPU,而是能源→GPU→基礎建設→Token生成→模型→應用。
Token化:萬物的語言
Token是AI的運算單位和詞彙。幾乎任何事物都能被Token化:
- 語言: 英文單字、文本內容
- 視覺: 圖像、影片(這就是為何AI能辨識和生成圖像)
- 3D結構: 工廠佈局、建築設計
- 生物: 化學物質、蛋白質、基因、細胞
- 行為: 機器人動作、駕駛行為
一旦能Token化,AI就能學習該語言的意義、翻譯、回應和生成。這解釋了為什麼AI在如此多領域取得快速進展 — 底層原理相同,只是Token化對象不同。
DSX:數位孿生工廠作業系統
NVIDIA將AI工廠設計方法論發展成產品:Omniverse DSX(Digital Twin for Scale)。這是首次將建築、電力、冷卻系統與NVIDIA AI基礎建設堆疊協同設計。
DSX工作流程
1. 數位設計: Jacobs Engineering在Omniverse中優化運算密度與佈局,最大化功率限制下的Token生成能力
2. 資產整合: 匯集Siemens、Schneider Electric、Trane、Vertiv的SIM-ready USD資產至PTC PLM
3. 熱電模擬: 使用EAD與Cadence的CUDA加速工具模擬熱流與電力
4. 模組化建造: Bechtel與Vertiv交付預製模組,縮短建造時間,加快收益實現
5. 營運最佳化: 實體工廠上線後,數位孿生成為作業系統,Fedra與Emerald AI代理優化電力消耗
對於1GW的AI工廠,DSX優化每年可帶來數十億美元額外營收。NVIDIA已在維吉尼亞州建立AI工廠研究中心,使用DSX測試和產品化Vera Rubin。全球合作夥伴都在使用DSX更快速地建造和啟動AI基礎建設。
虛擬循環:30年的堅持與突破
黃仁勳以感性的語氣回顧NVIDIA的旅程:"1993年我們運行的第一個應用是虛擬戰鬥機場景。很難想像當時那家相信這個願景的公司,會走到今天。這是一段令人難以置信的旅程。"
虛擬循環(Virtuous Cycle)是平台產業的聖杯:
- 應用越多 → CUDA越有價值
- CUDA越有價值 → 購買的CUDA電腦越多
- CUDA電腦越多 → 開發者越願意創造應用
經過30年,NVIDIA的CUDA虛擬循環已經實現。而AI的虛擬循環在15年後也達成了:
- AI越聰明 → 使用者越多
- 使用者越多 → 產生更多利潤
- 利潤越多 → 投入更多運算資源
- 運算越多 → AI變得更聰明
黃仁勳強調:"這個循環現在正在高速旋轉。我們需要做的是大幅降低成本,改善使用者體驗,讓AI回應更快,並持續推動這個循環。"
三大擴展定律:為何推理不簡單
過去一年產業經歷了關鍵轉折。黃仁勳解釋了AI變聰明的三個階段:
1. 預訓練(Pre-training): 讓AI學習人類創造的所有資訊,建立基礎智慧。就像學前教育教導語言和溝通,為後續學習奠基。
2. 後訓練(Post-training): 教導技能,如何解決問題、逐步推理、編碼、數學。這需要更多運算。
3. 推理思考(Inference Reasoning): 持續學習新知識、進行研究、深度思考。這階段需要驚人的運算量,因為AI要為每個人類使用者代勞思考。
"我以前常聽到人們說推理很簡單,NVIDIA應該專注訓練。推理怎麼可能簡單?背誦記憶內容是簡單的,但思考很難。" — 黃仁勳
這三大擴展定律全力運轉,對運算需求施加巨大壓力。更聰明的模型需要更多運算,但當模型變聰明到值得付費使用時(如Cursor、11 Labs、Synthesia),兩個指數同時作用 — 技術需求指數與商業採用指數。
CUDA X:350個函式庫的寶藏
黃仁勳指出大多數人只談論GPU,但GPU的真正價值在於其上的程式設計模型與龐大的函式庫生態系。NVIDIA目前維護350個不同的CUDA X函式庫,每一個都:
- 重新設計演算法適應加速運算架構
- 讓生態系夥伴能輕鬆利用加速運算
- 為NVIDIA開闢新市場
關鍵函式庫包括:
- cuLitho: 運算微影,TSMC、Samsung、ASML都在使用,花了7年開發
- cuOpt: 數值最佳化,破解旅行推銷員問題,連接供應鏈中的數百萬產品與客戶
- cuDNN/Megatron-Core: 讓訓練超大型語言模型成為可能
- MONAI: 全球第一的醫學影像AI框架
- Clara Parabricks: 基因體處理加速
這些函式庫保持跨世代相容性 — 從CUDA 13到即將推出的CUDA 14,數億顆GPU完美相容。如果NVIDIA沒有做到這點,開發者就不會選擇這個平台。黃仁勳驕傲地說:"這才是我們公司真正的寶藏。"
常見問題
GTC 2025 有哪些重點宣布?
GTC 2025 重點包含:5000億美元Blackwell與早期Rubin訂單、與Nokia合作推出6G技術與NVIDIA Aerial無線網路電腦(ARC)、量子運算突破的NVQLink互連架構與CUDA-Q平台、美國製造全面回歸(9個月內在亞利桑那州實現Blackwell量產)、企業AI整合(與CrowdStrike和Palantir深度合作)、以及物理AI與機器人生態系(Drive Hyperion自駕平台與Uber全球網路整合)。
Blackwell 的出貨量和訂單規模有多大?
NVIDIA已獲得5000億美元的Blackwell與早期Rubin系統訂單,預計在2026年底前交付。Blackwell在前四個季度已出貨600萬顆,預計總出貨量將達2000萬顆GPU。這個成長速度是上一代Hopper的五倍,而Hopper整個生命週期出貨400萬顆GPU。這些數據尚未包含中國和亞洲市場。
NVIDIA與Nokia的6G合作內容是什麼?
NVIDIA推出Aerial無線網路電腦(ARC),整合Grace CPU、Blackwell GPU和ConnectX網路晶片。Nokia(全球第二大電信商,擁有7000項5G專利)將採用ARC作為未來基站平台。這個合作包含兩大革命:AI for RAN(利用AI優化頻譜效率,可降低全球1.5-2%的無線通訊電力消耗)與AI on RAN(在電信網路上建構邊緣工業機器人雲)。可升級全球數百萬個基站至6G與AI能力。
Grace Blackwell NVLink 72 為何能達到10倍效能提升?
透過極致協同設計(Extreme Co-Design),NVLink 72讓72顆GPU如同一顆巨型GPU協同運作。技術關鍵在於專家混合(MoE)模型優化:傳統NVLink 8架構中每顆GPU需負責32個專家,而NVLink 72中每顆GPU只需負責4個專家。這使得HBM記憶體頻寬效率提升8倍,Semi Analysis獨立測試證實Grace Blackwell每GPU效能是H200的10倍,同時也是全球最低Token生成成本的系統。
什麼是AI工廠?與傳統資料中心有何不同?
AI工廠是專門生產Token(語彙單元)的新型運算設施,與傳統通用資料中心根本不同。傳統資料中心執行各種應用,而AI工廠只運行一件事:AI。其目的是生產盡可能有價值(聰明)、高速率且成本有效的Token。一個GB300 NVLink 72機櫃包含120萬個零組件、2000公尺銅纜、130兆個電晶體、重達2噸,功率密度達120千瓦,需要100%液冷設計。
美國製造回歸的具體成果是什麼?
從川普總統首次要求到實現Blackwell在亞利桑那州全面量產,NVIDIA只用了9個月。供應鏈橫跨全美:亞利桑那州(TSMC晶圓廠)、印第安納州(HBM記憶體堆疊)、德州(PCB組裝-機器人組裝超過10000個元件)、加州(系統整合)。黃仁勳特別感謝川普政府親能源政策,認為若沒有這個支持產業可能陷入困境。
量子運算的NVQLink技術解決了什麼問題?
NVQLink是連接量子處理器(QPU)與NVIDIA GPU的新型互連架構,每秒能與量子硬體雙向傳輸TB級資料數千次。基於CUDA-Q開放平台,支援混合量子-GPU應用。GPU負責量子錯誤校正、AI校準控制和部分模擬,QPU執行量子優勢明顯的運算。獲得17家量子電腦公司和8個美國能源部國家實驗室支持。
本文提到的核心技術實體有哪些?
核心實體包括:Jensen Huang(黃仁勳)、NVIDIA、Blackwell GB200/GB300、Grace Blackwell、NVLink 72、Vera Rubin、Nokia、NVIDIA Aerial(ARC)、CUDA、CUDA-Q、NVQLink、CUDA X(350個函式庫)、Omniverse DSX、Drive Hyperion、Jetson Thor等關鍵技術平台,以及CrowdStrike、Palantir、Foxconn、TSMC、Figure、Disney Blue、Uber等重要合作夥伴。
結論:兩個平台轉移的交會點
黃仁勳在演講尾聲總結了產業的歷史性時刻:"我們正經歷兩個平台轉移,它們同時發生,這就是為什麼我們感受到如此驚人的成長。"
第一個轉移: 從通用運算到加速運算。無論是否有AI,世界都在轉向GPU架構,因為摩爾定律已經觸及極限。NVIDIA的GPU能處理圖像、SQL、Spark、資料處理、半導體遮罩運算 — 幾乎任何工作負載。
第二個轉移: 從手寫軟體到AI。這個轉變更加根本,因為它改變了整個運算堆疊,從能源基礎建設到晶片、系統、軟體和應用層。
這次GTC發布涵蓋了龐大的產業範圍:
- 6G與電信: NVIDIA Aerial無線網路電腦(ARC)
- 量子運算: NVQLink與CUDA-Q平台
- 開源AI: 23個領域領先模型
- 企業安全: CrowdStrike與Palantir整合
- 機器人: Hyperion自駕平台、人形機器人生態系
- AI工廠: DSX數位孿生、MEGA智慧工廠
最後,黃仁勳以充滿情感的語氣感謝華盛頓特區的主辦與支持:"謝謝你們讓我們把GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人的服務,讓美國再次偉大。"
當全場起立鼓掌,這不僅是對一場精彩演講的回應,更是對一個產業新紀元開啟的見證。從手寫軟體到AI、從通用運算到加速運算、從工具到工作者 — NVIDIA與其生態系夥伴正在重新定義運算的未來。
