2025 GTC 專題演講: Nvidia CEO 黃仁勳 – 羅伯特艾爾金融學院
全站系統架構導入SSL 256bit加密機制
購物車 0

編輯精選收錄 - Oct 29 2025

GTC2025 專題演講: Nvidia CEO 黃仁勳

想掌握更多科技股投資大小事,歡迎追蹤臉書:👉 劉總監的財富心靈講堂

黃仁勳 GTC 2025 演講全記錄:半兆美元訂單背後的AI革命藍圖
GTC 2025 華盛頓特區 | 2025年10月29日

黃仁勳 GTC 2025 演講全記錄:半兆美元訂單背後的AI革命藍圖

NVIDIA執行長 Jensen Huang 主題演講完整解析
編者按: 本文內容順序經過調整,優先呈現最具衝擊力的商業成果與策略宣布,再深入技術創新的底層邏輯。這種編排更符合讀者快速掌握核心訊息的需求,同時保留完整技術脈絡供深入閱讀。
在2025年GTC大會上,NVIDIA執行長黃仁勳交出了一份震撼業界的成績單:5,000億美元的Blackwell與早期Rubin訂單、與諾基亞聯手反攻6G市場、美國製造全面回歸。這場在華盛頓特區舉辦的演講,不僅展示了技術突破,更揭示了AI產業如何在雙指數成長驅動下,重塑全球科技版圖。

突破性商業成就:半兆美元訂單的背後

$5,000億
2026年底前累積訂單
2,000萬
Blackwell GPU出貨量
5倍
相較Hopper成長率

黃仁勳開場即宣布的數字令人震撼:NVIDIA已獲得5,000億美元的Blackwell與早期Rubin系統訂單,預計在2026年底前交付。這是科技史上罕見的可見度,特別是2025年尚未結束、2026年尚未開始的情況下。

更驚人的對比是成長速度。Hopper世代在整個生命週期出貨400萬顆GPU,而Blackwell在前四個季度就已出貨600萬顆,預計總出貨量將達2,000萬顆GPU(每個Blackwell封裝包含兩顆GPU)。這代表Blackwell的成長速度是Hopper的五倍,且這些數據尚未包含中國和亞洲市場。

"這是兩個指數同時作用的結果。第一個指數是三大擴展定律(預訓練、後訓練、推理思考)帶來的運算需求暴增;第二個指數是AI變得足夠聰明,人們願意付費使用,使用越多需求越大。這個正向循環現在正在高速旋轉。" — 黃仁勳

CSP資本支出狂潮:產業拐點已至

黃仁勳展示的CSP(雲端服務供應商)資本支出圖表揭示了產業轉折點。Amazon、CoreWeave、Google、Meta、Microsoft和Oracle六大廠商的AI基礎建設投資正在加速,而時機恰好配合Grace Blackwell NVLink 72的全面量產。

這波投資背後有兩個平台轉移同時發生:從通用運算到加速運算,以及從手寫軟體到AI。許多CSP在AI出現前就已部署NVIDIA技術用於機器學習、推薦系統、資料處理。現在AI時代來臨,NVIDIA GPU成為唯一能同時處理傳統加速運算與AI工作負載的平台,使得投資風險大幅降低。

策略突破一:與Nokia聯手奪回6G主導權

黃仁勳在演講中特別強調一個戰略焦點:美國必須在6G時代重新取得電信技術領導地位。自無線通訊誕生以來,美國曾主導全球標準輸出,但近年來全球電信基礎建設大量採用外國技術,這個局面必須改變。

NVIDIA Aerial 無線網路電腦(ARC)架構

核心突破: 首次將無線通訊與AI處理融合在單一軟體定義平台

技術基礎: Grace CPU + Blackwell GPU + ConnectX網路晶片

戰略意義: 可升級全球數百萬個基站至6G與AI能力

與Nokia的合作具有深遠意義。Nokia是全球第二大電信設備商,擁有3兆美元產業規模與7,000項5G核心專利。Nokia將採用NVIDIA ARC作為未來基站平台,並與現有Airscale基站相容,這意味著可以透過軟體升級方式,將全球數百萬個基站導入6G與AI能力。

AI for RAN vs. AI on RAN:雙重革命

AI for RAN(為無線接取網路優化): 利用強化學習即時調整波束成形,根據環境、流量、移動性、天氣等因素動態優化。頻譜效率的提升意義重大 — 全球無線通訊耗電量占總電力的1.5-2%,提升效率等於在不增加能耗的情況下擴大資料傳輸量。

AI on RAN(在無線網路上運算): 這是更具革命性的概念。如同AWS在網際網路上建構雲端運算,NVIDIA與Nokia將在無線電信網路上建構邊緣工業機器人雲。全球基站無處不在,這些位置將成為AI運算節點,將雲端運算能力推向資料中心無法到達的邊緣。

策略突破二:美國製造全面回歸

黃仁勳以激動的語氣宣布:"我們在美國重新開始製造了!這令人難以置信。" 從川普總統首次要求到實現全面量產,NVIDIA只用了九個月時間,就讓Blackwell在亞利桑那州進入生產線。

Made in America 供應鏈全景

亞利桑那州: TSMC晶圓廠 — 12吋晶圓上建構2,000億個電晶體

印第安納州: HBM記憶體堆疊 — 12層HBM與基底晶片整合

德州: PCB組裝 — 機器人全天候組裝超過10,000個元件

加州: 系統整合 — ConnectX8超級網卡與Bluefield 3 DPU整合至GB300運算托盤

一個完整的GB300 NVLink 72機櫃包含:120萬個零組件、2,000公尺銅纜、130兆個電晶體、重達2噸。這不僅是製造回歸,更是高階AI系統整合能力的回歸,對國家安全與經濟自主都具有戰略意義。

黃仁勳特別感謝川普政府的親能源政策:"總統認知到這個產業需要能源才能成長、需要能源才能進步、需要能源才能獲勝。如果沒有這個支持,我們可能會陷入困境。"

技術突破:10倍效能如何實現

當摩爾定律逐漸觸及物理極限,NVIDIA如何在單一世代實現10倍效能提升?答案是極致協同設計(Extreme Co-Design) — 從空白紙開始,同步思考架構、晶片、系統、軟體、模型架構和應用。

Grace Blackwell NVLink 72:重新定義運算單元

黃仁勳在台上展示了一個驚人的視覺化概念 — 如果將72顆GPU整合成單一晶片,這將是一個晶圓級的處理器。NVLink 72技術讓這個願景成真,在單一機櫃內實現72顆GPU如同一顆巨型GPU般協同運作。

10倍
每GPU效能提升(vs H200)
最低
全球Token生成成本
130 TB/s
全對全頻寬

技術關鍵在於專家混合(Mixture of Experts, MoE)模型的優化。現代大型AI模型包含數千個專門處理特定問題的"專家"。在傳統NVLink 8架構中,每顆GPU必須負責32個專家的運算;而在NVLink 72架構中,每顆GPU只需負責4個專家。

這個差異帶來革命性影響:Token生成速度取決於HBM記憶體頻寬,當每顆GPU負責的專家數減少8倍,相同硬體就能產生更快的回應速度。Semi Analysis的獨立測試證實,Grace Blackwell每GPU效能是H200的10倍。

最貴卻最划算:TCO經濟學

黃仁勳指出一個反直覺的事實:"GB200是最昂貴的電腦,但它產生的Token成本卻是全球最低的。" 當Token生成速度除以總擁有成本(TCO),Grace Blackwell展現出無可匹敵的經濟效益。這確保了AI產業的正向循環能持續運轉 — 效能提升、成本下降、使用增加、利潤成長、再投資。

下一代:Rubin架構預覽

就在Blackwell全面出貨之際,黃仁勳已展示第三代NVLink 72架構 — Vera Rubin(以天文學家命名)。這個系統目前在NVIDIA實驗室運行,預計明年此時或稍早進入量產。

Vera Rubin 技術突破

完全無纜線設計: 所有連接透過盲插背板完成

100%液冷: 全系統熱管理優化

運算托盤升級: 4個Rubin封裝(8顆GPU)+ 2顆Vera CPU + 8張ConnectX9 + 2張Bluefield 4

效能躍進: 100 PetaFLOPS,相當於2016年首台DGX-1的100倍效能

Rubin引入了全新的Context處理器,專門應對AI記憶體需求激增的挑戰。當使用者要求AI記住所有對話歷史、學習內容、甚至觀看影片和閱讀大量文件後再回答,KV快取(鍵值快取)的檢索速度成為瓶頸。Bluefield 4 DPU正是為解決這個問題而生,確保光速級的網路安全與記憶體管理

量子運算:40年後的突破時刻

1981年,物理學家Richard Feynman提出量子電腦的概念 — 一種能直接模擬自然的電腦,因為自然本身就是量子的。40年後的2024年,產業實現了關鍵突破:穩定、相干、具備錯誤校正能力的邏輯量子位元

NVIDIA的策略是將量子處理器(QPU)與GPU超級電腦直接連接,形成混合式量子運算架構。GPU負責量子錯誤校正、AI校準控制和部分模擬,QPU則執行量子優勢明顯的運算。這需要極低延遲的連接技術。

NVQLink 量子互連架構

核心能力: 每秒數千次與量子硬體雙向傳輸TB級資料

技術平台: CUDA-Q開放平台,支援混合量子-GPU應用

產業支持: 17家量子電腦公司、8個美國能源部國家實驗室

能源部長Chris Wright的願景獲得黃仁勳高度肯定:"他為能源部帶來了巨大能量,激情滿滿地確保美國繼續領導科學。" 能源部宣布將建造七座新的AI超級電腦,推動國家科學研究,整合加速運算、AI、量子運算和機器人實驗室等多重平台轉移。

物理AI與機器人革命

黃仁勳區分了兩種AI:理解數位世界的AI與理解物理世界的物理AI。後者需要理解物理定律、因果關係、物體恆存性,這需要完全不同的訓練與運算架構。

三台電腦驅動機器人智慧

訓練電腦: Grace Blackwell NVLink 72 — 訓練機器人AI模型

模擬電腦: Omniverse平台 — 數位孿生環境讓機器人學習如何成為好機器人,工廠模擬優化生產流程

機器人電腦: Thor/Jetson Thor — 部署在自駕車或人形機器人上的推理系統

這三台電腦都運行CUDA,確保從訓練到模擬到部署的無縫協作。黃仁勳強調:"除非能在數位孿生中規劃、設計和操作,否則讓機器人工廠實際運作的希望幾乎不可能實現。"

合作夥伴生態系

Foxconn德州廠: 運用Siemens數位孿生技術在Omniverse中建構虛擬工廠,優化佈局、訓練機器人隊伍,部署Fanuc機械臂和FII靈巧機器人組裝GB300托盤。

Figure人形機器人: Brett Adcock三年半前創立的公司估值已近400億美元,使用NVIDIA平台訓練AI、模擬行為和運行機器人電腦。

Disney Blue: 與迪士尼研究院合作開發的可愛機器人,基於革命性的Newton物理模擬器。黃仁勳在展示影片後激動表示:"這不是動畫,不是電影,是即時模擬!"

黃仁勳預測,人形機器人可能成為全球最大的消費電子產品線,也將是最大的工業設備市場之一

Robotaxi:輪子上的機器人已達拐點

與仍在發展中的人形機器人不同,robotaxi(無人計程車)正處於商業化拐點。NVIDIA推出Drive Hyperion標準平台,配備環繞攝影機、雷達和光達,實現最高等級的感知能力與冗餘安全性。

已採用Hyperion的車廠包括:Lucid、Mercedes-Benz、Stellantis等,而自駕系統開發商如Wayve、Waabi、Aurora、Momenta、WeRide等都能在這個標準平台上部署AI系統。

NVIDIA與Uber策略合作

黃仁勳宣布與Uber執行長Dara Khosrowshahi合作,將Hyperion車輛連接至Uber全球網路。未來乘客將能透過Uber App叫車,生態系統將覆蓋全球。黃仁勳表示:"這將成為我們的新運算平台,我預期會相當成功。"

全球每年行駛里程達1兆英里,年產1億輛汽車,5,000萬輛計程車。Robotaxi市場潛力巨大,而NVIDIA正建構統一的軟硬體平台來支撐這個生態系統。

企業AI:從工具到員工的典範轉移

黃仁勳提出一個深刻洞察:"過去的軟體產業是在創造工具。Excel是工具、Word是工具、瀏覽器是工具,因為你在使用它們。但AI不是工具 — AI是工作者,是能實際使用工具的員工。"

這個轉變意義重大。IT工具市場約1兆美元,但AI首次能夠參與100兆美元的全球經濟,讓各行各業更有生產力、成長更快、規模更大。在勞動力嚴重短缺的時代,AI擴增人力將幫助經濟成長。

企業級合作宣布

CrowdStrike: 與George Kurtz領導的團隊合作,開發光速級網路安全防禦系統,在雲端和邊緣部署AI代理,確保威脅偵測只需片刻。黃仁勳強調:"AI會強化網路安全挑戰,我們需要強大的防禦者。"

Palantir: 黃仁勳稱讚Palantir Ontology為"全球最快、可能最重要的企業平台"。整合NVIDIA加速運算,以光速處理結構化與非結構化資料,為政府國安和全球企業提供洞察。

其他SaaS整合: ServiceNow(85%全球企業工作流)、SAP(80%全球商務交易)、Synopsys與Cadence(EDA工具AI代理化)。黃仁勳的願景是:"未來我想雇用AI ASIC設計師與我們的ASIC設計師協作 — 本質上就是Synopsys的Cursor。"

開源模型:美國必須領導的戰場

黃仁勳清楚表達立場:"美國必須在開源領域領先。我們擁有驚人的專有模型,但我們也需要驚人的開源模型。我們的國家、我們的新創公司都依賴它。"

過去兩年,開源模型因推理能力、多模態整合和知識蒸餾技術而變得極為實用,成為新創公司的命脈。每個產業都有獨特的使用案例、資料和飛輪效應,需要將領域專業知識嵌入模型 — 開源讓這一切成為可能

NVIDIA開源貢獻

23個模型登上排行榜第一: 涵蓋語言、物理AI、生物醫學

第一名語音模型: 聲音辨識與生成

第一名推理模型: 邏輯與規劃能力

第一名物理AI模型: 機器人與模擬

NVIDIA建構自有超級電腦的重要原因之一,就是支援這些龐大的開源模型團隊。下載量數據顯示,開源社群對NVIDIA模型的採用正在加速。

AI工廠:新產業的誕生

黃仁勳創造了一個新詞彙:AI工廠(AI Factory)。這不是傳統意義的資料中心,而是專門生產一種產品的工廠 — Token(語彙單元)。

"傳統資料中心是通用目的的,可以執行各種應用。但AI工廠只運行一件事:AI。它的目的是生產盡可能有價值的Token(意味著必須聰明)、以難以置信的速率生產(使用者需要即時回應)、並且成本有效。我使用的每一個詞都符合工廠的定義 — 就像汽車工廠或任何工廠。" — 黃仁勳

AI工廠包含從能源到GPU到基礎建設的完整堆疊。黃仁勳展示了運算堆疊的徹底改變:不再是Windows和CPU,而是能源→GPU→基礎建設→Token生成→模型→應用

Token化:萬物的語言

Token是AI的運算單位和詞彙。幾乎任何事物都能被Token化:

  • 語言: 英文單字、文本內容
  • 視覺: 圖像、影片(這就是為何AI能辨識和生成圖像)
  • 3D結構: 工廠佈局、建築設計
  • 生物: 化學物質、蛋白質、基因、細胞
  • 行為: 機器人動作、駕駛行為

一旦能Token化,AI就能學習該語言的意義、翻譯、回應和生成。這解釋了為什麼AI在如此多領域取得快速進展 — 底層原理相同,只是Token化對象不同。

DSX:數位孿生工廠作業系統

NVIDIA將AI工廠設計方法論發展成產品:Omniverse DSX(Digital Twin for Scale)。這是首次將建築、電力、冷卻系統與NVIDIA AI基礎建設堆疊協同設計。

DSX工作流程

1. 數位設計: Jacobs Engineering在Omniverse中優化運算密度與佈局,最大化功率限制下的Token生成能力

2. 資產整合: 匯集Siemens、Schneider Electric、Trane、Vertiv的SIM-ready USD資產至PTC PLM

3. 熱電模擬: 使用EAD與Cadence的CUDA加速工具模擬熱流與電力

4. 模組化建造: Bechtel與Vertiv交付預製模組,縮短建造時間,加快收益實現

5. 營運最佳化: 實體工廠上線後,數位孿生成為作業系統,Fedra與Emerald AI代理優化電力消耗

對於1GW的AI工廠,DSX優化每年可帶來數十億美元額外營收。NVIDIA已在維吉尼亞州建立AI工廠研究中心,使用DSX測試和產品化Vera Rubin。全球合作夥伴都在使用DSX更快速地建造和啟動AI基礎建設。

虛擬循環:30年的堅持與突破

黃仁勳以感性的語氣回顧NVIDIA的旅程:"1993年我們運行的第一個應用是虛擬戰鬥機場景。很難想像當時那家相信這個願景的公司,會走到今天。這是一段令人難以置信的旅程。"

虛擬循環(Virtuous Cycle)是平台產業的聖杯:

  • 應用越多 → CUDA越有價值
  • CUDA越有價值 → 購買的CUDA電腦越多
  • CUDA電腦越多 → 開發者越願意創造應用

經過30年,NVIDIA的CUDA虛擬循環已經實現。而AI的虛擬循環在15年後也達成了:

  • AI越聰明 → 使用者越多
  • 使用者越多 → 產生更多利潤
  • 利潤越多 → 投入更多運算資源
  • 運算越多 → AI變得更聰明

黃仁勳強調:"這個循環現在正在高速旋轉。我們需要做的是大幅降低成本,改善使用者體驗,讓AI回應更快,並持續推動這個循環。"

三大擴展定律:為何推理不簡單

過去一年產業經歷了關鍵轉折。黃仁勳解釋了AI變聰明的三個階段:

1. 預訓練(Pre-training): 讓AI學習人類創造的所有資訊,建立基礎智慧。就像學前教育教導語言和溝通,為後續學習奠基。

2. 後訓練(Post-training): 教導技能,如何解決問題、逐步推理、編碼、數學。這需要更多運算。

3. 推理思考(Inference Reasoning): 持續學習新知識、進行研究、深度思考。這階段需要驚人的運算量,因為AI要為每個人類使用者代勞思考。

"我以前常聽到人們說推理很簡單,NVIDIA應該專注訓練。推理怎麼可能簡單?背誦記憶內容是簡單的,但思考很難。" — 黃仁勳

這三大擴展定律全力運轉,對運算需求施加巨大壓力。更聰明的模型需要更多運算,但當模型變聰明到值得付費使用時(如Cursor、11 Labs、Synthesia),兩個指數同時作用 — 技術需求指數與商業採用指數。

CUDA X:350個函式庫的寶藏

黃仁勳指出大多數人只談論GPU,但GPU的真正價值在於其上的程式設計模型與龐大的函式庫生態系。NVIDIA目前維護350個不同的CUDA X函式庫,每一個都:

  • 重新設計演算法適應加速運算架構
  • 讓生態系夥伴能輕鬆利用加速運算
  • 為NVIDIA開闢新市場

關鍵函式庫包括:

  • cuLitho: 運算微影,TSMC、Samsung、ASML都在使用,花了7年開發
  • cuOpt: 數值最佳化,破解旅行推銷員問題,連接供應鏈中的數百萬產品與客戶
  • cuDNN/Megatron-Core: 讓訓練超大型語言模型成為可能
  • MONAI: 全球第一的醫學影像AI框架
  • Clara Parabricks: 基因體處理加速

這些函式庫保持跨世代相容性 — 從CUDA 13到即將推出的CUDA 14,數億顆GPU完美相容。如果NVIDIA沒有做到這點,開發者就不會選擇這個平台。黃仁勳驕傲地說:"這才是我們公司真正的寶藏。"

常見問題

GTC 2025 有哪些重點宣布?

GTC 2025 重點包含:5000億美元Blackwell與早期Rubin訂單、與Nokia合作推出6G技術與NVIDIA Aerial無線網路電腦(ARC)、量子運算突破的NVQLink互連架構與CUDA-Q平台美國製造全面回歸(9個月內在亞利桑那州實現Blackwell量產)、企業AI整合(與CrowdStrike和Palantir深度合作)、以及物理AI與機器人生態系(Drive Hyperion自駕平台與Uber全球網路整合)。

Blackwell 的出貨量和訂單規模有多大?

NVIDIA已獲得5000億美元的Blackwell與早期Rubin系統訂單,預計在2026年底前交付。Blackwell在前四個季度已出貨600萬顆,預計總出貨量將達2000萬顆GPU。這個成長速度是上一代Hopper的五倍,而Hopper整個生命週期出貨400萬顆GPU。這些數據尚未包含中國和亞洲市場。

NVIDIA與Nokia的6G合作內容是什麼?

NVIDIA推出Aerial無線網路電腦(ARC),整合Grace CPU、Blackwell GPU和ConnectX網路晶片。Nokia(全球第二大電信商,擁有7000項5G專利)將採用ARC作為未來基站平台。這個合作包含兩大革命:AI for RAN(利用AI優化頻譜效率,可降低全球1.5-2%的無線通訊電力消耗)與AI on RAN(在電信網路上建構邊緣工業機器人雲)。可升級全球數百萬個基站至6G與AI能力。

Grace Blackwell NVLink 72 為何能達到10倍效能提升?

透過極致協同設計(Extreme Co-Design),NVLink 72讓72顆GPU如同一顆巨型GPU協同運作。技術關鍵在於專家混合(MoE)模型優化:傳統NVLink 8架構中每顆GPU需負責32個專家,而NVLink 72中每顆GPU只需負責4個專家。這使得HBM記憶體頻寬效率提升8倍,Semi Analysis獨立測試證實Grace Blackwell每GPU效能是H200的10倍,同時也是全球最低Token生成成本的系統。

什麼是AI工廠?與傳統資料中心有何不同?

AI工廠是專門生產Token(語彙單元)的新型運算設施,與傳統通用資料中心根本不同。傳統資料中心執行各種應用,而AI工廠只運行一件事:AI。其目的是生產盡可能有價值(聰明)、高速率且成本有效的Token。一個GB300 NVLink 72機櫃包含120萬個零組件、2000公尺銅纜、130兆個電晶體、重達2噸,功率密度達120千瓦,需要100%液冷設計。

美國製造回歸的具體成果是什麼?

從川普總統首次要求到實現Blackwell在亞利桑那州全面量產,NVIDIA只用了9個月。供應鏈橫跨全美:亞利桑那州(TSMC晶圓廠)、印第安納州(HBM記憶體堆疊)、德州(PCB組裝-機器人組裝超過10000個元件)、加州(系統整合)。黃仁勳特別感謝川普政府親能源政策,認為若沒有這個支持產業可能陷入困境。

量子運算的NVQLink技術解決了什麼問題?

NVQLink是連接量子處理器(QPU)與NVIDIA GPU的新型互連架構,每秒能與量子硬體雙向傳輸TB級資料數千次。基於CUDA-Q開放平台,支援混合量子-GPU應用。GPU負責量子錯誤校正、AI校準控制和部分模擬,QPU執行量子優勢明顯的運算。獲得17家量子電腦公司和8個美國能源部國家實驗室支持。

本文提到的核心技術實體有哪些?

核心實體包括:Jensen Huang(黃仁勳)、NVIDIA、Blackwell GB200/GB300、Grace Blackwell、NVLink 72、Vera Rubin、Nokia、NVIDIA Aerial(ARC)、CUDA、CUDA-Q、NVQLink、CUDA X(350個函式庫)、Omniverse DSX、Drive Hyperion、Jetson Thor等關鍵技術平台,以及CrowdStrike、Palantir、Foxconn、TSMC、Figure、Disney Blue、Uber等重要合作夥伴。

結論:兩個平台轉移的交會點

黃仁勳在演講尾聲總結了產業的歷史性時刻:"我們正經歷兩個平台轉移,它們同時發生,這就是為什麼我們感受到如此驚人的成長。"

第一個轉移: 從通用運算到加速運算。無論是否有AI,世界都在轉向GPU架構,因為摩爾定律已經觸及極限。NVIDIA的GPU能處理圖像、SQL、Spark、資料處理、半導體遮罩運算 — 幾乎任何工作負載。

第二個轉移: 從手寫軟體到AI。這個轉變更加根本,因為它改變了整個運算堆疊,從能源基礎建設到晶片、系統、軟體和應用層。

這次GTC發布涵蓋了龐大的產業範圍:

  • 6G與電信: NVIDIA Aerial無線網路電腦(ARC)
  • 量子運算: NVQLink與CUDA-Q平台
  • 開源AI: 23個領域領先模型
  • 企業安全: CrowdStrike與Palantir整合
  • 機器人: Hyperion自駕平台、人形機器人生態系
  • AI工廠: DSX數位孿生、MEGA智慧工廠

最後,黃仁勳以充滿情感的語氣感謝華盛頓特區的主辦與支持:"謝謝你們讓我們把GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人的服務,讓美國再次偉大。"

當全場起立鼓掌,這不僅是對一場精彩演講的回應,更是對一個產業新紀元開啟的見證。從手寫軟體到AI、從通用運算到加速運算、從工具到工作者 — NVIDIA與其生態系夥伴正在重新定義運算的未來

本文整理自 NVIDIA GTC 2025 Jensen Huang 主題演講逐字稿

原始演講時間:2025年10月29日,華盛頓特區

© 2025 NVIDIA Corporation. All rights reserved.

Sale

Unavailable

Sold Out