在全球最大型消費性電子展覽美國 CES 2026 期間,英偉達 NVIDIA 行政總裁黃仁勳舉行記者答問環節,現場就 Vera Rubin 平台策略、AI 工廠年度升級節奏、供電與能源效率挑戰,以及 H200 對華出口許可等焦點逐一回應。我們 unwire.hk 記者亦在場採訪並完整記錄其回應內容,因此本文不止整理發布資訊,更會按問答脈絡呈現他對 AI 產業走向、基礎模型、自動駕駛與人形機械人等議題看法,讓讀者一次掌握最完整細節。
NVIDIA 行政總裁黃仁勳在 CES 2026 舉行媒體問答環節,詳細闡述公司新發布 Vera Rubin 平台策略及未來 AI 產業藍圖。他強調 NVIDIA 承諾每年推出一代全新 AI 工廠系統,應對 AI 模型規模每年增長 10 倍及推理代幣生成量每年增長 5 倍需求。他進一步指出 Agentic systems(代理式 AI 系統(具自主決策與多步推理能力))將推動推理需求再加速:模型「思考更長」令代幣生成更多同時因答案質素更高市場對代幣消耗亦同步上升,多個指數增長互相疊加,令算力需求「off the charts」。黃仁勳以產業動向佐證這股趨勢,包括大量初創公司湧現、大型企業加速轉向 AI,他提到自己剛與西門子(Siemens)舉行記者會,亦指出單計上年 AI natives(原生 AI 公司(以 AI 為核心成立的企業))投資額已達 1500 億美元,正正解釋 NVIDIA 需求為何持續強勁。
黃仁勳特別介紹 Vera Rubin 平台包含 6 款全新設計晶片,包括 Vera CPU(Vera 架構中央處理器)、Rubin GPU(圖像處理器)、ConnectX-9 SuperNIC 網絡晶片、NVLink 6 Switch(NVLink 第 6 代交換晶片)、採用共封裝光學技術 Spectrum-X 網絡平台及 BlueField-4 DPU 資料處理晶片。他坦言這種規模電腦系統從未同時推出如此多新晶片,強調全球只有一家公司能以這種規模和速度做到。面對 Wired 記者追問他早前曾形容 Vera Rubin 已進入「full production」(完整生產),同時團隊又指仍按計劃於 2026 年下半年出貨,他回應兩者並無矛盾:晶片已達可投產狀態,但系統仍需持續驗證與改進,相關工作「非常困難」,不過他仍然有信心可成功落地。
▲左起分別是:NVIDIA NVLink 6 Switch、NVIDIA Vera CPU、NVIDIA Rubin GPU
相比 Blackwell 架構,Vera Rubin 在訓練及推理方面提供 10 倍吞吐量提升,同時將代幣成本降低 10 倍。黃仁勳形容這是「類固醇版摩爾定律」,並把這套節奏定義為每年更新同一套可相容架構:提升 AI 工廠吞吐量、降低代幣成本、同時持續提高能源效率。至於升級價值,他建議客戶「買所需」而關鍵在於 AI 工廠本身投資極高,每一代都要榨取最大效益。為此 NVIDIA 透過 CUDA 平行運算平台相容性覆蓋整個資料中心,更新新軟件時不只新系統受惠,過往已建成 AI 工廠「尾部」亦可一同提升效能;與其分別優化 17 套軟硬件堆疊,不如集中優化 1 套 stack(軟硬件堆疊),並可橫跨整個 fleet(整個 AI 工廠部署)長期運行。
他補充在過去 Hopper 架構 GPU 到 Blackwell,已做到約 10 倍吞吐量提升及推理成本下降;由 Blackwell(上一代 Nvidia AI 平台)到 Vera Rubin 亦再來一個 10 倍吞吐量提升及 10 倍代幣成本下降,他希望盡量維持這種年度節奏。黃仁勳亦坦言製程技術已逼近物理極限,單靠半導體物理一年取得 25% 提升已屬「好日子」,但面對模型每年 10 倍、代幣每年 5 倍增長,「已無合理簡單 scaling」可達到業界期望,必須轉向他所稱「極致協同設計」。
他解釋平台晶體管數量相比 Grace Blackwell(Grace CPU + Blackwell GPU 組合平台)增加 1.7 倍,這已是極大突破,但他指出如果只發布「快 1.7 倍」晶片,業界不會為此投資 500 億美元建造全新 AI 工廠,因為建立新資料中心需取得大規模供電及建設配套,成本巨大,因此必須靠系統層級創新實現 10 倍級別飛躍,讓產業能持續擴張更大模型、探索 AI 前沿,同時「以不懈方式」壓低代幣成本並推高能源效率。
在協同設計層面,他指 NVIDIA 由 CPU、GPU、記憶體系統一路設計到 scale-up(垂直擴充交換器(用於單一系統內高密度互連))與 scale-out switch(水平擴充交換器(用於跨系統、跨機櫃擴展連接)),並與夥伴共同推進 HBM4(第 4 代高頻寬記憶體(High Bandwidth Memory)),稱 NVIDIA 是全球最早進入 HBM4 生產採用者之一,亦「相當領先」。他亦強調 NVIDIA 不只設計晶片與系統,連中介層 infrastructure 軟件、甚至模型層也會與全行業合作,研究未來模型組織方式以提高能源效率;他提到 mixture-of-experts(專家混合模型架構(以多子模型分工提高推理效率))相關優化是「非常巨大」創新,若無相關進展推理模型未必能做到今天般高效率與低成本。
Vera Rubin 引入多項系統層級創新,包括熱插拔 NVLink(Nvidia 高速 GPU 互連技術)交換機,讓資料中心在維護時保持 99.9% 運行率,避免過往需完全關閉價值 300 萬美元機架數小時困境。黃仁勳形容在現有 Grace Blackwell 機架架構中,一旦電纜或交換器(網絡或高速互連交換裝置)出現問題,往往需要把整個 rack 機架(資料中心內用於安裝伺服器與設備的結構)拉到「由全速到零」,直至更換 NVLink 或節點後才可恢復運作;而在 Vera Rubin 上即使拔出 NVLink 仍可維持運行,甚至可在系統運作期間更新 NVLink switch 軟件。他指出在擁有 100 萬粒 GPU 的資料中心,故障「四處都有」是常態,若整體仍能維持 99.9% 運行率而非跌落數個百分點,整體成本差異會非常顯著。
▲可熱插拔 NVLink Switch 晶片,可在系統運行期間更新,實現 99.9% 運行率
系統亦配備電源平滑技術,消除 GPU 同步運算造成的瞬時電流波動。黃仁勳解釋訓練時 GPU 會「和諧地」同步運作,因此會同時 spike on 或 spike off(瞬間電流上升/下降),而系統電感會令瞬時電流上落可高達 25%。過往資料中心往往要預留 25% 供電緩衝,等同把能源閒置,或部署大批電池吸收衝擊;Vera Rubin 透過系統設計與電子技術把供電利用率推到接近 100%。此外他亦補充,Vera Rubin 首度做到 end-to-end confidential computing(端到端機密運算(全流程保護資料與模型私隱)),可在同一座 AI 工廠內同時運行不同模型公司知識產權與工作負載。
組裝時間從 2 小時縮短至 5 分鐘,電纜數量從 43 條減至零,並實現 100% 液冷設計。黃仁勳強調這些創新對供應鏈極具變革性,因為這個節點售價等同一輛汽車,組裝不應需要 2 小時;從 2 小時縮短到 5 分鐘將徹底改變工廠組裝流程。
談到電力瓶頸,黃仁勳把 AI 形容為「新工業革命」並指出新產業需要能源成長,未來將使用各種電力來源,由天然氣到可再生能源「任何形式電力都會用」。他強調最重要是能源效率:若吞吐量每代升 10 倍而功耗只升 2 倍,等同每瓦吞吐提升 5 倍。由於 tokenomics(代幣經濟模型(以代幣生成量與成本衡量價值))能把生成代幣變現,對客戶而言 tokens per watt(每瓦可生成的代幣數量)、tokens per dollar(每美元可生成的代幣數量)直接影響收入;在供電受限資料中心內,若能生成更多代幣吞吐,收入自然上升。配合 NVL72(NVLink 72 GPU 高速互連系統)支援更大模型,代幣 ASP 亦可能提高,形成「吞吐上升 + ASP(平均售價, Average Selling Price)上升」雙重效益。
除了硬件與系統,黃仁勳亦談及 NVIDIA 基礎模型路線。他表示公司已「投入自己」要在多個模型領域保持前沿,範圍由生物學、蛋白質、化學與細胞生物學,到物理 AI 領域如機械人與自動駕駛。他形容 Nvidia Cosmos 物理 AI 基礎模型是「world record (世界級紀錄)」級別成果,並稱其為領先的物理 AI 模型;而自動駕駛方面則以 Alpamayo (NVIDIA 今年發佈的端對端自動駕駛 AI 模型) 作代表。
至於 Nvidia Nemotron 系列大型語言模型,他特別提到 Nemotron 3 取得重大突破,目標是打造既能站在前沿又適合推理系統、具高效率的模型架構。他指出 Nemotron 3 是全球首款 hybrid transformer(混合式 Transformer 架構)與 state-space model(狀態空間模型),擅長長上下文壓縮並具高推理效率。現時 Nemotron Nano 已推出,Super 與 Ultra(Nemotron 模型不同規模版本)亦將陸續到來,NVIDIA 已掌握其發展軌跡並對表現非常有信心。他亦重申 mixture-of-experts(專家混合模型架構)相關創新令推理模型更具效率與成本效益,亦是推理模型能快速普及的關鍵之一。
談到研發投入,黃仁勳指 NVIDIA 只有約 40,000 人,是「全球最小的大型公司」甚至可能是「最小的大型公司」。他透露 Vera Rubin 目前已投入約 15000 engineering-years,由現在到部署到資料中心仍需再加約 25000 engineering-years(工程年(人力投入計算單位)),形容這是一項龐大工程,亦是 NVIDIA 多年持續培育同一套架構與生態的成果。
在中國市場方面,黃仁勳透露 H200(Nvidia H200 AI 加速器)晶片需求非常高,供應鏈已啟動生產並「正在流過產線」,目前正與美國政府完成最後許可細節。他不期望看到政府正式聲明,而是當採購訂單到來就代表一切,「不會有新聞稿或大宣告,只會有採購訂單」。他亦回應 NPR 美國國家公共電台追問中國政府是否已批准任何採購時表示,自己不期望任何政府宣告,當採購訂單出現就代表中方亦按其規則完成所需程序;一旦美方許可機制完成,預期採購訂單會「很快」到來。
黃仁勳承認 H200 目前在市場具競爭力,但不會永遠保持優勢。他指出為了讓美國保持市場競爭力,監管法規亦需要持續演進,不可能永遠不變;當 H200 不再具競爭力時,希望屆時能推出其他新產品,並在時間推移中持續推出具競爭力方案。他高度評價中國科技生態系統,指出中國企業家、工程師、技術人員及 AI 研究人員屬於世界頂尖水平,生態發展非常快,工程師極勤力亦極具創業精神,因此他相信中國科技市場仍會持續繁榮與前進,而 NVIDIA 若要在當地提供價值亦必須持續競爭並不斷推進技術。
有台灣媒體追問 6 款新晶片如何確保產能與準時交付,黃仁勳指 NVIDIA 與台積電 TSMC 合作已超過 25 年接近 30 年,雙方規劃團隊極為緊密,幾乎每星期甚至每日互相更新。他補充 NVIDIA 同時仍要大量出貨 Grace Blackwell、GeForce(Nvidia 遊戲顯示卡品牌)、RTX Pro(Nvidia 專業級 RTX 顯示卡系列)、Thor(Nvidia 下一代車用/機械人晶片平台)與 Orin(Nvidia 車用/機械人晶片)等多條產品線,預期今年與 TSMC 相關業務將非常龐大;而 Vera Rubin 本身亦極具挑戰,因為全部晶片全新、採最新製程,並用上新矽光子技術,形容對方支援非常關鍵。
NVIDIA 同時發表 Alpamayo 端對端自動駕駛模型系列,系統採用雙重冗餘架構,結合傳統工程方法與端對端 AI 推理。黃仁勳表示 Mercedes-Benz 現時部署的 NVIDIA 自動駕駛系統屬全球唯一具雙重冗餘架構方案:其中一套以傳統工程方式建立大量「人類先驗」護欄,確保車不會做出不應做動作;另一套則由 Alpamayo 作端對端推理駕駛,透過與駕駛員同車學習進行模仿與泛化。他指出當安全系統足夠強,AI 駕駛能力可不斷提升,即使在能力不足情況下系統亦會安全退回,例如保持車道、慢慢停車、靠邊,確保乘客安全。他認為 L4(第 4 級自動駕駛)會很快到來,關鍵只在 operating domain(可運作場景/運行範圍)覆蓋範圍及在何種條件下系統有信心駕駛。
至於落地策略,他贊成先以 L2++(進階輔助駕駛等級)形式在美國交到客戶手上,讓用戶有機會逐步測試與推進。他亦直接回應人機交接問題,認為「不要有人機接管」才是正解:系統應具備接近 L4 的能力,即使不作 L4 承諾亦要以「永不交接」為目標;當車遇到太窄車房或其他無法處理情況,系統應選擇不啟動而非要求駕駛接管,因此 Alpamayo 目標是 no disengagement(無接管設計目標)。
對於外界常把 Alpamayo 與 Tesla FSD 比較,黃仁勳形容 Tesla FSD(Tesla 全自動駕駛系統)是世界頂尖級別,無論行駛里程或從數據收集、整理、合成數據、訓練到模擬都屬最先進,自己亦有在家中使用並認為運作非常好。不過他指出兩者最大差別在於 NVIDIA 並不造車,而是提供完整技術平台讓整個汽車產業建立自動駕駛:由訓練電腦、模擬電腦到車端電腦與軟件堆疊,客戶可按需要使用全部或部分。NVIDIA 同時與整個汽車產業合作,包括為 Tesla 提供訓練系統、為 Waymo 提供車端電腦等;他相信未來 10 年在全球 10 億輛汽車中,將有數億輛具高度自動駕駛能力,並認為這將成為未來十年最大、增長最快科技領域之一。他亦補充 NVIDIA 會開源多項成果,客戶可直接使用 NVIDIA 訓練模型,或利用其模型技術自行訓練,目標是「讓世界自動駕駛產業加速」,並形容「所有會移動的東西都應該自主運作」。
談及人形機械人發展,黃仁勳被問到何時可達人類級能力時先答「明年」隨即改口「今年」,原因是他知道技術進展速度。他解釋難點在於 fine motor skills(精細動作能力),因為打造手部與馬達技術很難,人類除了視覺亦依賴觸覺,而機械人往往只有眼睛,因此亦需要觸覺技術;locomotion(移動能力)同樣困難但進展快速。他預期移動能力可能較早成熟,其後才輪到抓握與精細動作等能力,而 cognition(認知能力)因推理模型快速演進,機械人內部將有常駐推理 AI,必要時亦可連到雲端取得額外知識。
他亦提出 multi-embodiment(多重具身(同一 AI 模型可用於不同載體))概念:AI 模型以 humanoid(人形機械人)方式訓練,但同一模型亦可成為「很好操控器」或「很好自動駕駛系統」。他以人類能「具身」工具作比喻:坐進車內會把車當成身體延伸,拿起網球拍彷彿手臂變長,未來 AI 亦可能以不同形態具身於不同載具與工具之中。
對於就業影響,他認為機械人將創造就業而非取代,原因是全球正面對「數千萬」級別勞動力短缺,且人口下降令情況更差。他形容未來需要更多「AI immigrants(AI 勞動力(以 AI/機械人補充人力缺口的比喻說法))」協助製造業等領域補足人手缺口,機械人革命首先會補上勞動力流失,推動經濟增長;當經濟增長便會聘用更多人,亦有不少工作在很長時間內不會被 AI 取代。他亦提到希望通脹保持低水平令生活更可負擔,認為 AI 有助達成。
對於新創業者應如何選擇機械人應用領域,黃仁勳指建立機械人公司本身極難,因為需要 3 種電腦:AI 工廠訓練電腦、Omniverse 物理模擬電腦,以及機載「機械人腦」晶片平台,現時為 Orin 下一代為 Thor。Thor 具高速推理堆疊並運行安全作業系統,確保機械人留在護欄內,在不確定時不做危險動作;而機械人模型亦涉及操控、精細動作、行走等能力,甚至 system 1 system 2(直覺型/推理型思考模型)思考。至於策略選擇,他把公司分為做水平平台或垂直領域:水平好處是成功後規模很大,但競爭四面八方且極難;垂直則要深耕專門應用領域,可能是 EMS(電子製造服務(Electronic Manufacturing Services))製造、AI 超級電腦組裝、汽車與工廠自動化、外科手術機械人等,他個人較偏好找垂直領域落地。
面對外界關注 AI 熱潮造成記憶體短缺並推高遊戲硬件價格,黃仁勳回應 NVIDIA 是全球少數長期大量採購記憶體的晶片公司之一,與所有主要供應商合作。他提到 HBM4(第 4 代高頻寬記憶體)供應方面 NVIDIA 屬最早採用者之一,並形容一段時間內其他業界未必會大量使用 HBM4,令 NVIDIA 在供應上具一定優勢;同時 NVIDIA 亦長期大量採購顯示卡所需 GDDR,並與供應商規劃已久。此外 NVIDIA 亦採購 LPDDR5,用於 Grace 與 Vera 相關記憶體系統,支援 AI 所需 working memory(工作記憶體)與 long-term memory(長期記憶體)。他總結「世界需要更多半導體晶圓廠」,原因是「AI 工廠」是全新類別工廠,規模將非常龐大,對記憶體供應商與半導體製造商而言亦是巨大機遇。
被問到他早前提出未來 4 至 5 個季度資料中心銷售可能高達 0.5 兆美元一說是否仍適用,黃仁勳表示不希望經常更新數字,但自那之後有多個新發展令期望值可能更高。他提到 OpenAI、xAI、Gemini 等長期在 NVIDIA 上運行,並補充 Anthropic(Anthropic 人工智能公司)未來亦將在 NVIDIA 平台上運行。更重要是 open models(開放權重模型)在過去一年爆發式成功,包括 DeepSeek R1、Qwen(阿里巴巴通義千問模型)、Kimi(月之暗面 Kimi 模型),以及 NVIDIA Nemotron、Nvidia Cosmos 物理 AI 基礎模型等;他估計現時約每 4 個代幣就有 1 個來自開放權重模型,而且市場可能低估其規模。受此推動,公有雲對 NVIDIA 算力需求大增,他更指出雲端 Hopper 已被完全消化,即時市場價格甚至開始上升;若 H200 回到中國市場亦會進一步推動需求。他總結對今年表現保持樂觀。
談到遊戲業務,黃仁勳指 GeForce 曾把 CUDA 帶到世界,繼而把 AI 帶到世界;其後又用 AI 帶來 RTX 與 DLSS,形容兩者關係「和諧」。被問到 RTX 5090 是否傳統 rasterization(光柵化渲染(傳統圖形渲染方式))下最快 GPU、未來 AI 遊戲 GPU 會是甚麼形態時,他認為難以預測,但趨勢明確:未來是 neural rendering(神經渲染(以 AI 推斷影像細節取代傳統像素渲染)),即以 DLSS 為核心。他透露實驗室正研究一些「震撼」技術,未來或可在極高幀率下生成不同風格影像,由極致寫實到卡通風格皆可。另一方面,未來遊戲角色也將成為 AI 角色,每個角色都可有自身 AI,並由 AI 驅動動畫,遊戲真實感會在未來數年大幅提升,他形容「現在是做電子遊戲最好時間」。
另有提問關注 GeForce 原生 shader(著色器(圖形運算程式/單元))及光追算力是否仍可大幅提升,黃仁勳指並非因 Moore’s Law(摩爾定律)完結而不進步,而是晶片已做得「盡可能大」,像 RTX 5090 已非常巨大並逼近物理限制,這亦是 NVIDIA 當初發明 DLSS 原因。回顧 RTX 首次發表時,ray tracing 計算量太大導致幀率低,因此用 AI up-resing(升頻渲染/AI 升解析度(以 AI 補像素提升畫面))生成原本沒有計算的像素樣本,從而提升幀率;雖然初期受批評,但如今已被廣泛接受。他預期未來將「做更多計算但渲染更少像素」,先把少量像素渲染到極美,再用 AI 推斷周邊內容,並指出渲染與生成式 AI 融合亦會發生;他形容下一個拐點將令虛擬世界「活起來」,角色、動畫甚至流體動力都可能以 AI 模擬物理方式呈現。
對於 CNBC 問到 NVIDIA 與 OpenAI 合建 AI 工廠何時動工及地點,黃仁勳回應目前並無這類計劃。他指 OpenAI 主要透過 Microsoft、OCI(甲骨文雲端基礎設施平台)以及 CoreWeave(AI 雲端算力服務商)等雲端供應商合作,NVIDIA 與 OpenAI 的合作亦主要經由這些雲端平台進行,並預期短期內不會改變。
面對現金運用問題,黃仁勳表示自己不是單獨承擔壓力,而是有一個強大團隊分擔責任;隨著 NVIDIA 對供應鏈及終端市場影響力增加,公司亦承擔更大責任。他把投資思路分為兩大方向:首先是投資於「世界做不到或不會做」的技術,例如 NVLink 以及自研 CPU 架構,並以 Grace CPU 為例說明其對長上下文記憶體的重要性;其次是投資生態系統(合作夥伴與供應鏈網絡),上游包括記憶體供應商等供應鏈夥伴,下游則是極龐大 go-to-market(市場推廣與銷售通路體系)網絡,包括全球各地雲端服務供應商、電腦廠商如 HP、Dell、地區雲服務商、超算中心及大量 on-prem(本地部署(非雲端))超級電腦項目。他指出 NVIDIA 在供應鏈上下游已有數以千億美元承諾,並會視乎需要投資 CoreWeave、Nscale、Lambda 等公司,培育未來重要客戶類別與生態。
他亦提到自己常說 AI 產業像「五層蛋糕」:土地電力機房、晶片、系統與基礎設施、模型、應用。NVIDIA 會跨越整個堆疊投資與合作,以加速 AI 發展並建立更緊密伙伴關係。
▲Nvidia Vera CPU
談到儲存與網絡,黃仁勳指 AI 是一次平台轉移,不只技術轉移,更重塑整個計算堆疊。由 CPU 時代到 GPU 時代後,網絡同樣需要革新,NVIDIA 透過 Spectrum-X(AI 網絡平台)以及 Mellanox 團隊(Nvidia 旗下高速網絡技術團隊)重塑 AI 網絡,並令公司成為全球最大網絡公司之一。他指出 AI 工作負載與傳統 SQL 資料庫處理差異極大,儲存系統同樣必須重塑,並以 KV cache(Key-Value 快取(推理常用記憶體快取結構))與 semantic memory(語義記憶(具意義的記憶/語義層快取概念))概念說明 AI 使用記憶體方式不同於傳統 IT 查詢。他表示 BlueField-4 DPU 正是圍繞儲存系統重塑而設計,未來 NVIDIA 可能成為全球最大儲存系統公司之一,但方式不是自建儲存系統,而是與 HP、Dell 以及 Vast、DDN、Weka 等整個儲存系統生態合作,共同重新發明儲存系統;同時由於 BlueField-4 DPU、Vera Rubin 等多處加入高效 CPU,NVIDIA 在資料中心內部署 CPU 數量將大幅增加,他甚至不排除 NVIDIA 可能成為全球最大 CPU 製造商之一。
被問到美國聯邦 AI 政策應包括甚麼內容,黃仁勳表示方向繁多但最重要是「一套法律」能同時確保安全與讓創新盡可能快速進行。他反駁「放慢速度就更安全」觀點,並以交通工具作比喻:他不希望駕駛 50 年前汽車或乘坐 70 年前飛機,因為安全不足。他認為技術創新可帶來更安全產品,例如減少幻覺、讓回答更基於真實與研究,推理與反思等能力提升亦提高內容質素;若當年有人要求凍結 AI,可能只會停留在早期 ChatGPT 版本,反而不見得更安全。他總結需要能讓產業快速創新以提升安全,同時亦要有規範令產業運作安全。
至於出口管制相關提問,他表示出口管制交由商務部負責有其原因,單一政府部門執行已足夠;無論最終法例如何 NVIDIA 都會遵守。
黃仁勳特別表揚以色列團隊,指出 6 款新晶片中有 4 款來自該國研發中心,包括 ConnectX-9 SuperNIC、NVLink 6 Switch、Spectrum-6 及 BlueField-4 DPU。他形容團隊勤力、聰明、投入,重視公司、同事與國家,彼此之間作出大量犧牲。他指該中心現有 5000 名員工,計劃再招聘 5000 人,員工流失率僅 1% 至 2%,部分員工服務達 20 至 25 年,吸引與留住人才能力「world-class」。他更笑言下次希望 6 粒晶片全部來自以色列,並表示自己將很快到訪當地。
談及行政總裁任期,黃仁勳幽默表示長壽秘訣是第一不要被炒;第二不要感到無聊,不確定哪個更先。他形容作為 NVIDIA CEO 有很大責任,公司是產業「船長」,供應鏈與合作夥伴遍佈全球並依賴 NVIDIA 做好本分。他又笑指公司走到今天花了 33 年到接近 34 年,做了 34 年「就算我都會學識」;自己「有大把時間」,甚至「我無戴錶」若無人叫停可以在台上講到通宵。他最後強調只要自己配得上這個職位就會繼續擔任。