在全球最大型消費性電子展覽美國 CES 2026 期間,英偉達 NVIDIA 行政總裁黃仁勳舉行記者答問環節,現場就 Vera Rubin 平台策略、AI 工廠年度升級節奏、供電與能源效率挑戰,以及 H200 對華出口許可等焦點逐一回應。我們 unwire.hk 記者亦在場採訪並完整記錄其回應內容,因此本文不止整理發布資訊,更會按問答脈絡呈現他對 AI 產業走向、基礎模型、自動駕駛與人形機械人等議題看法,讓讀者一次掌握最完整細節。


Nvidia Vera Rubin 全新 AI 平台 黃仁勳:每年推新一代 AI 超級電腦
NVIDIA 行政總裁黃仁勳在 CES 2026 舉行媒體問答環節,詳細闡述公司新發布 Vera Rubin 平台策略及未來 AI 產業藍圖。他強調 NVIDIA 承諾每年推出一代全新 AI 工廠系統,應對 AI 模型規模每年增長 10 倍及推理代幣生成量每年增長 5 倍需求。他進一步指出 Agentic systems(代理式 AI 系統(具自主決策與多步推理能力))將推動推理需求再加速:模型「思考更長」令代幣生成更多同時因答案質素更高市場對代幣消耗亦同步上升,多個指數增長互相疊加,令算力需求「off the charts」。黃仁勳以產業動向佐證這股趨勢,包括大量初創公司湧現、大型企業加速轉向 AI,他提到自己剛與西門子(Siemens)舉行記者會,亦指出單計上年 AI natives(原生 AI 公司(以 AI 為核心成立的企業))投資額已達 1500 億美元,正正解釋 NVIDIA 需求為何持續強勁。

6 款全新晶片組成單一超級電腦
黃仁勳特別介紹 Vera Rubin 平台包含 6 款全新設計晶片,包括 Vera CPU(Vera 架構中央處理器)、Rubin GPU(圖像處理器)、ConnectX-9 SuperNIC 網絡晶片、NVLink 6 Switch(NVLink 第 6 代交換晶片)、採用共封裝光學技術 Spectrum-X 網絡平台及 BlueField-4 DPU 資料處理晶片。他坦言這種規模電腦系統從未同時推出如此多新晶片,強調全球只有一家公司能以這種規模和速度做到。面對 Wired 記者追問他早前曾形容 Vera Rubin 已進入「full production」(完整生產),同時團隊又指仍按計劃於 2026 年下半年出貨,他回應兩者並無矛盾:晶片已達可投產狀態,但系統仍需持續驗證與改進,相關工作「非常困難」,不過他仍然有信心可成功落地。

▲左起分別是:NVIDIA NVLink 6 Switch、NVIDIA Vera CPU、NVIDIA Rubin GPU
相比 Blackwell 架構,Vera Rubin 在訓練及推理方面提供 10 倍吞吐量提升,同時將代幣成本降低 10 倍。黃仁勳形容這是「類固醇版摩爾定律」,並把這套節奏定義為每年更新同一套可相容架構:提升 AI 工廠吞吐量、降低代幣成本、同時持續提高能源效率。至於升級價值,他建議客戶「買所需」而關鍵在於 AI 工廠本身投資極高,每一代都要榨取最大效益。為此 NVIDIA 透過 CUDA 平行運算平台相容性覆蓋整個資料中心,更新新軟件時不只新系統受惠,過往已建成 AI 工廠「尾部」亦可一同提升效能;與其分別優化 17 套軟硬件堆疊,不如集中優化 1 套 stack(軟硬件堆疊),並可橫跨整個 fleet(整個 AI 工廠部署)長期運行。
每次升級目標要快 10 倍
他補充在過去 Hopper 架構 GPU 到 Blackwell,已做到約 10 倍吞吐量提升及推理成本下降;由 Blackwell(上一代 Nvidia AI 平台)到 Vera Rubin 亦再來一個 10 倍吞吐量提升及 10 倍代幣成本下降,他希望盡量維持這種年度節奏。黃仁勳亦坦言製程技術已逼近物理極限,單靠半導體物理一年取得 25% 提升已屬「好日子」,但面對模型每年 10 倍、代幣每年 5 倍增長,「已無合理簡單 scaling」可達到業界期望,必須轉向他所稱「極致協同設計」。
他解釋平台晶體管數量相比 Grace Blackwell(Grace CPU + Blackwell GPU 組合平台)增加 1.7 倍,這已是極大突破,但他指出如果只發布「快 1.7 倍」晶片,業界不會為此投資 500 億美元建造全新 AI 工廠,因為建立新資料中心需取得大規模供電及建設配套,成本巨大,因此必須靠系統層級創新實現 10 倍級別飛躍,讓產業能持續擴張更大模型、探索 AI 前沿,同時「以不懈方式」壓低代幣成本並推高能源效率。

在協同設計層面,他指 NVIDIA 由 CPU、GPU、記憶體系統一路設計到 scale-up(垂直擴充交換器(用於單一系統內高密度互連))與 scale-out switch(水平擴充交換器(用於跨系統、跨機櫃擴展連接)),並與夥伴共同推進 HBM4(第 4 代高頻寬記憶體(High Bandwidth Memory)),稱 NVIDIA 是全球最早進入 HBM4 生產採用者之一,亦「相當領先」。他亦強調 NVIDIA 不只設計晶片與系統,連中介層 infrastructure 軟件、甚至模型層也會與全行業合作,研究未來模型組織方式以提高能源效率;他提到 mixture-of-experts(專家混合模型架構(以多子模型分工提高推理效率))相關優化是「非常巨大」創新,若無相關進展推理模型未必能做到今天般高效率與低成本。
不再一壞就全停機:Vera Rubin 讓 AI 資料中心全年運行
Vera Rubin 引入多項系統層級創新,包括熱插拔 NVLink(Nvidia 高速 GPU 互連技術)交換機,讓資料中心在維護時保持 99.9% 運行率,避免過往需完全關閉價值 300 萬美元機架數小時困境。黃仁勳形容在現有 Grace Blackwell 機架架構中,一旦電纜或交換器(網絡或高速互連交換裝置)出現問題,往往需要把整個 rack 機架(資料中心內用於安裝伺服器與設備的結構)拉到「由全速到零」,直至更換 NVLink 或節點後才可恢復運作;而在 Vera Rubin 上即使拔出 NVLink 仍可維持運行,甚至可在系統運作期間更新 NVLink switch 軟件。他指出在擁有 100 萬粒 GPU 的資料中心,故障「四處都有」是常態,若整體仍能維持 99.9% 運行率而非跌落數個百分點,整體成本差異會非常顯著。

▲可熱插拔 NVLink Switch 晶片,可在系統運行期間更新,實現 99.9% 運行率
AI 最貴不是晶片而是電力:Vera Rubin 如何把供電用到 100%
系統亦配備電源平滑技術,消除 GPU 同步運算造成的瞬時電流波動。黃仁勳解釋訓練時 GPU 會「和諧地」同步運作,因此會同時 spike on 或 spike off(瞬間電流上升/下降),而系統電感會令瞬時電流上落可高達 25%。過往資料中心往往要預留 25% 供電緩衝,等同把能源閒置,或部署大批電池吸收衝擊;Vera Rubin 透過系統設計與電子技術把供電利用率推到接近 100%。此外他亦補充,Vera Rubin 首度做到 end-to-end confidential computing(端到端機密運算(全流程保護資料與模型私隱)),可在同一座 AI 工廠內同時運行不同模型公司知識產權與工作負載。
組裝時間從 2 小時縮短至 5 分鐘,電纜數量從 43 條減至零,並實現 100% 液冷設計。黃仁勳強調這些創新對供應鏈極具變革性,因為這個節點售價等同一輛汽車,組裝不應需要 2 小時;從 2 小時縮短到 5 分鐘將徹底改變工廠組裝流程。
AI 是新工業革命,關鍵不在算力而在能源效率
談到電力瓶頸,黃仁勳把 AI 形容為「新工業革命」並指出新產業需要能源成長,未來將使用各種電力來源,由天然氣到可再生能源「任何形式電力都會用」。他強調最重要是能源效率:若吞吐量每代升 10 倍而功耗只升 2 倍,等同每瓦吞吐提升 5 倍。由於 tokenomics(代幣經濟模型(以代幣生成量與成本衡量價值))能把生成代幣變現,對客戶而言 tokens per watt(每瓦可生成的代幣數量)、tokens per dollar(每美元可生成的代幣數量)直接影響收入;在供電受限資料中心內,若能生成更多代幣吞吐,收入自然上升。配合 NVL72(NVLink 72 GPU 高速互連系統)支援更大模型,代幣 ASP 亦可能提高,形成「吞吐上升 + ASP(平均售價, Average Selling Price)上升」雙重效益。
不只做晶片,NVIDIA 也要守住每一個 AI 模型前線
除了硬件與系統,黃仁勳亦談及 NVIDIA 基礎模型路線。他表示公司已「投入自己」要在多個模型領域保持前沿,範圍由生物學、蛋白質、化學與細胞生物學,到物理 AI 領域如機械人與自動駕駛。他形容 Nvidia Cosmos 物理 AI 基礎模型是「world record (世界級紀錄)」級別成果,並稱其為領先的物理 AI 模型;而自動駕駛方面則以 Alpamayo (NVIDIA 今年發佈的端對端自動駕駛 AI 模型) 作代表。

至於 Nvidia Nemotron 系列大型語言模型,他特別提到 Nemotron 3 取得重大突破,目標是打造既能站在前沿又適合推理系統、具高效率的模型架構。他指出 Nemotron 3 是全球首款 hybrid transformer(混合式 Transformer 架構)與 state-space model(狀態空間模型),擅長長上下文壓縮並具高推理效率。現時 Nemotron Nano 已推出,Super 與 Ultra(Nemotron 模型不同規模版本)亦將陸續到來,NVIDIA 已掌握其發展軌跡並對表現非常有信心。他亦重申 mixture-of-experts(專家混合模型架構)相關創新令推理模型更具效率與成本效益,亦是推理模型能快速普及的關鍵之一。
一個平台用掉 15000 年工程時間:Vera Rubin 背後有多大
談到研發投入,黃仁勳指 NVIDIA 只有約 40,000 人,是「全球最小的大型公司」甚至可能是「最小的大型公司」。他透露 Vera Rubin 目前已投入約 15000 engineering-years,由現在到部署到資料中心仍需再加約 25000 engineering-years(工程年(人力投入計算單位)),形容這是一項龐大工程,亦是 NVIDIA 多年持續培育同一套架構與生態的成果。
H200 回不回中國?黃仁勳:看不到公告,只會看到訂單
在中國市場方面,黃仁勳透露 H200(Nvidia H200 AI 加速器)晶片需求非常高,供應鏈已啟動生產並「正在流過產線」,目前正與美國政府完成最後許可細節。他不期望看到政府正式聲明,而是當採購訂單到來就代表一切,「不會有新聞稿或大宣告,只會有採購訂單」。他亦回應 NPR 美國國家公共電台追問中國政府是否已批准任何採購時表示,自己不期望任何政府宣告,當採購訂單出現就代表中方亦按其規則完成所需程序;一旦美方許可機制完成,預期採購訂單會「很快」到來。
黃仁勳承認 H200 目前在市場具競爭力,但不會永遠保持優勢。他指出為了讓美國保持市場競爭力,監管法規亦需要持續演進,不可能永遠不變;當 H200 不再具競爭力時,希望屆時能推出其他新產品,並在時間推移中持續推出具競爭力方案。他高度評價中國科技生態系統,指出中國企業家、工程師、技術人員及 AI 研究人員屬於世界頂尖水平,生態發展非常快,工程師極勤力亦極具創業精神,因此他相信中國科技市場仍會持續繁榮與前進,而 NVIDIA 若要在當地提供價值亦必須持續競爭並不斷推進技術。

6 款晶片同時量產,NVIDIA 與 TSMC 如何做到不失手
有台灣媒體追問 6 款新晶片如何確保產能與準時交付,黃仁勳指 NVIDIA 與台積電 TSMC 合作已超過 25 年接近 30 年,雙方規劃團隊極為緊密,幾乎每星期甚至每日互相更新。他補充 NVIDIA 同時仍要大量出貨 Grace Blackwell、GeForce(Nvidia 遊戲顯示卡品牌)、RTX Pro(Nvidia 專業級 RTX 顯示卡系列)、Thor(Nvidia 下一代車用/機械人晶片平台)與 Orin(Nvidia 車用/機械人晶片)等多條產品線,預期今年與 TSMC 相關業務將非常龐大;而 Vera Rubin 本身亦極具挑戰,因為全部晶片全新、採最新製程,並用上新矽光子技術,形容對方支援非常關鍵。
物理 AI 及自動駕駛技術:Alpamayo 令 L4 會很快到來
NVIDIA 同時發表 Alpamayo 端對端自動駕駛模型系列,系統採用雙重冗餘架構,結合傳統工程方法與端對端 AI 推理。黃仁勳表示 Mercedes-Benz 現時部署的 NVIDIA 自動駕駛系統屬全球唯一具雙重冗餘架構方案:其中一套以傳統工程方式建立大量「人類先驗」護欄,確保車不會做出不應做動作;另一套則由 Alpamayo 作端對端推理駕駛,透過與駕駛員同車學習進行模仿與泛化。他指出當安全系統足夠強,AI 駕駛能力可不斷提升,即使在能力不足情況下系統亦會安全退回,例如保持車道、慢慢停車、靠邊,確保乘客安全。他認為 L4(第 4 級自動駕駛)會很快到來,關鍵只在 operating domain(可運作場景/運行範圍)覆蓋範圍及在何種條件下系統有信心駕駛。

至於落地策略,他贊成先以 L2++(進階輔助駕駛等級)形式在美國交到客戶手上,讓用戶有機會逐步測試與推進。他亦直接回應人機交接問題,認為「不要有人機接管」才是正解:系統應具備接近 L4 的能力,即使不作 L4 承諾亦要以「永不交接」為目標;當車遇到太窄車房或其他無法處理情況,系統應選擇不啟動而非要求駕駛接管,因此 Alpamayo 目標是 no disengagement(無接管設計目標)。
對於外界常把 Alpamayo 與 Tesla FSD 比較,黃仁勳形容 Tesla FSD(Tesla 全自動駕駛系統)是世界頂尖級別,無論行駛里程或從數據收集、整理、合成數據、訓練到模擬都屬最先進,自己亦有在家中使用並認為運作非常好。不過他指出兩者最大差別在於 NVIDIA 並不造車,而是提供完整技術平台讓整個汽車產業建立自動駕駛:由訓練電腦、模擬電腦到車端電腦與軟件堆疊,客戶可按需要使用全部或部分。NVIDIA 同時與整個汽車產業合作,包括為 Tesla 提供訓練系統、為 Waymo 提供車端電腦等;他相信未來 10 年在全球 10 億輛汽車中,將有數億輛具高度自動駕駛能力,並認為這將成為未來十年最大、增長最快科技領域之一。他亦補充 NVIDIA 會開源多項成果,客戶可直接使用 NVIDIA 訓練模型,或利用其模型技術自行訓練,目標是「讓世界自動駕駛產業加速」,並形容「所有會移動的東西都應該自主運作」。
人形機械人今年達人類水平?黃仁勳為何突然改口
談及人形機械人發展,黃仁勳被問到何時可達人類級能力時先答「明年」隨即改口「今年」,原因是他知道技術進展速度。他解釋難點在於 fine motor skills(精細動作能力),因為打造手部與馬達技術很難,人類除了視覺亦依賴觸覺,而機械人往往只有眼睛,因此亦需要觸覺技術;locomotion(移動能力)同樣困難但進展快速。他預期移動能力可能較早成熟,其後才輪到抓握與精細動作等能力,而 cognition(認知能力)因推理模型快速演進,機械人內部將有常駐推理 AI,必要時亦可連到雲端取得額外知識。
他亦提出 multi-embodiment(多重具身(同一 AI 模型可用於不同載體))概念:AI 模型以 humanoid(人形機械人)方式訓練,但同一模型亦可成為「很好操控器」或「很好自動駕駛系統」。他以人類能「具身」工具作比喻:坐進車內會把車當成身體延伸,拿起網球拍彷彿手臂變長,未來 AI 亦可能以不同形態具身於不同載具與工具之中。
對於就業影響,他認為機械人將創造就業而非取代,原因是全球正面對「數千萬」級別勞動力短缺,且人口下降令情況更差。他形容未來需要更多「AI immigrants(AI 勞動力(以 AI/機械人補充人力缺口的比喻說法))」協助製造業等領域補足人手缺口,機械人革命首先會補上勞動力流失,推動經濟增長;當經濟增長便會聘用更多人,亦有不少工作在很長時間內不會被 AI 取代。他亦提到希望通脹保持低水平令生活更可負擔,認為 AI 有助達成。

想創業先選對戰場:黃仁勳給機械人初創 1 個忠告
對於新創業者應如何選擇機械人應用領域,黃仁勳指建立機械人公司本身極難,因為需要 3 種電腦:AI 工廠訓練電腦、Omniverse 物理模擬電腦,以及機載「機械人腦」晶片平台,現時為 Orin 下一代為 Thor。Thor 具高速推理堆疊並運行安全作業系統,確保機械人留在護欄內,在不確定時不做危險動作;而機械人模型亦涉及操控、精細動作、行走等能力,甚至 system 1 system 2(直覺型/推理型思考模型)思考。至於策略選擇,他把公司分為做水平平台或垂直領域:水平好處是成功後規模很大,但競爭四面八方且極難;垂直則要深耕專門應用領域,可能是 EMS(電子製造服務(Electronic Manufacturing Services))製造、AI 超級電腦組裝、汽車與工廠自動化、外科手術機械人等,他個人較偏好找垂直領域落地。
為何遊戲顯示卡會貴?AI 正在吃光全世界記憶體:HBM4 GDDR LPDDR5 全線規劃
面對外界關注 AI 熱潮造成記憶體短缺並推高遊戲硬件價格,黃仁勳回應 NVIDIA 是全球少數長期大量採購記憶體的晶片公司之一,與所有主要供應商合作。他提到 HBM4(第 4 代高頻寬記憶體)供應方面 NVIDIA 屬最早採用者之一,並形容一段時間內其他業界未必會大量使用 HBM4,令 NVIDIA 在供應上具一定優勢;同時 NVIDIA 亦長期大量採購顯示卡所需 GDDR,並與供應商規劃已久。此外 NVIDIA 亦採購 LPDDR5,用於 Grace 與 Vera 相關記憶體系統,支援 AI 所需 working memory(工作記憶體)與 long-term memory(長期記憶體)。他總結「世界需要更多半導體晶圓廠」,原因是「AI 工廠」是全新類別工廠,規模將非常龐大,對記憶體供應商與半導體製造商而言亦是巨大機遇。
開放模型爆發,公有雲算力被搶空
被問到他早前提出未來 4 至 5 個季度資料中心銷售可能高達 0.5 兆美元一說是否仍適用,黃仁勳表示不希望經常更新數字,但自那之後有多個新發展令期望值可能更高。他提到 OpenAI、xAI、Gemini 等長期在 NVIDIA 上運行,並補充 Anthropic(Anthropic 人工智能公司)未來亦將在 NVIDIA 平台上運行。更重要是 open models(開放權重模型)在過去一年爆發式成功,包括 DeepSeek R1、Qwen(阿里巴巴通義千問模型)、Kimi(月之暗面 Kimi 模型),以及 NVIDIA Nemotron、Nvidia Cosmos 物理 AI 基礎模型等;他估計現時約每 4 個代幣就有 1 個來自開放權重模型,而且市場可能低估其規模。受此推動,公有雲對 NVIDIA 算力需求大增,他更指出雲端 Hopper 已被完全消化,即時市場價格甚至開始上升;若 H200 回到中國市場亦會進一步推動需求。他總結對今年表現保持樂觀。
未來遊戲不是「畫」出來,而是 AI 算出來:未來走向 neural rendering
談到遊戲業務,黃仁勳指 GeForce 曾把 CUDA 帶到世界,繼而把 AI 帶到世界;其後又用 AI 帶來 RTX 與 DLSS,形容兩者關係「和諧」。被問到 RTX 5090 是否傳統 rasterization(光柵化渲染(傳統圖形渲染方式))下最快 GPU、未來 AI 遊戲 GPU 會是甚麼形態時,他認為難以預測,但趨勢明確:未來是 neural rendering(神經渲染(以 AI 推斷影像細節取代傳統像素渲染)),即以 DLSS 為核心。他透露實驗室正研究一些「震撼」技術,未來或可在極高幀率下生成不同風格影像,由極致寫實到卡通風格皆可。另一方面,未來遊戲角色也將成為 AI 角色,每個角色都可有自身 AI,並由 AI 驅動動畫,遊戲真實感會在未來數年大幅提升,他形容「現在是做電子遊戲最好時間」。
另有提問關注 GeForce 原生 shader(著色器(圖形運算程式/單元))及光追算力是否仍可大幅提升,黃仁勳指並非因 Moore’s Law(摩爾定律)完結而不進步,而是晶片已做得「盡可能大」,像 RTX 5090 已非常巨大並逼近物理限制,這亦是 NVIDIA 當初發明 DLSS 原因。回顧 RTX 首次發表時,ray tracing 計算量太大導致幀率低,因此用 AI up-resing(升頻渲染/AI 升解析度(以 AI 補像素提升畫面))生成原本沒有計算的像素樣本,從而提升幀率;雖然初期受批評,但如今已被廣泛接受。他預期未來將「做更多計算但渲染更少像素」,先把少量像素渲染到極美,再用 AI 推斷周邊內容,並指出渲染與生成式 AI 融合亦會發生;他形容下一個拐點將令虛擬世界「活起來」,角色、動畫甚至流體動力都可能以 AI 模擬物理方式呈現。

NVIDIA × OpenAI?黃仁勳親口否認合建 AI 工廠
對於 CNBC 問到 NVIDIA 與 OpenAI 合建 AI 工廠何時動工及地點,黃仁勳回應目前並無這類計劃。他指 OpenAI 主要透過 Microsoft、OCI(甲骨文雲端基礎設施平台)以及 CoreWeave(AI 雲端算力服務商)等雲端供應商合作,NVIDIA 與 OpenAI 的合作亦主要經由這些雲端平台進行,並預期短期內不會改變。
先做世界做不到的,再讓整條供應鏈跟上
面對現金運用問題,黃仁勳表示自己不是單獨承擔壓力,而是有一個強大團隊分擔責任;隨著 NVIDIA 對供應鏈及終端市場影響力增加,公司亦承擔更大責任。他把投資思路分為兩大方向:首先是投資於「世界做不到或不會做」的技術,例如 NVLink 以及自研 CPU 架構,並以 Grace CPU 為例說明其對長上下文記憶體的重要性;其次是投資生態系統(合作夥伴與供應鏈網絡),上游包括記憶體供應商等供應鏈夥伴,下游則是極龐大 go-to-market(市場推廣與銷售通路體系)網絡,包括全球各地雲端服務供應商、電腦廠商如 HP、Dell、地區雲服務商、超算中心及大量 on-prem(本地部署(非雲端))超級電腦項目。他指出 NVIDIA 在供應鏈上下游已有數以千億美元承諾,並會視乎需要投資 CoreWeave、Nscale、Lambda 等公司,培育未來重要客戶類別與生態。
他亦提到自己常說 AI 產業像「五層蛋糕」:土地電力機房、晶片、系統與基礎設施、模型、應用。NVIDIA 會跨越整個堆疊投資與合作,以加速 AI 發展並建立更緊密伙伴關係。

▲Nvidia Vera CPU
AI 時代,連儲存與網絡都要全部重寫:BlueField-4 DPU「重新發明儲存系統」
談到儲存與網絡,黃仁勳指 AI 是一次平台轉移,不只技術轉移,更重塑整個計算堆疊。由 CPU 時代到 GPU 時代後,網絡同樣需要革新,NVIDIA 透過 Spectrum-X(AI 網絡平台)以及 Mellanox 團隊(Nvidia 旗下高速網絡技術團隊)重塑 AI 網絡,並令公司成為全球最大網絡公司之一。他指出 AI 工作負載與傳統 SQL 資料庫處理差異極大,儲存系統同樣必須重塑,並以 KV cache(Key-Value 快取(推理常用記憶體快取結構))與 semantic memory(語義記憶(具意義的記憶/語義層快取概念))概念說明 AI 使用記憶體方式不同於傳統 IT 查詢。他表示 BlueField-4 DPU 正是圍繞儲存系統重塑而設計,未來 NVIDIA 可能成為全球最大儲存系統公司之一,但方式不是自建儲存系統,而是與 HP、Dell 以及 Vast、DDN、Weka 等整個儲存系統生態合作,共同重新發明儲存系統;同時由於 BlueField-4 DPU、Vera Rubin 等多處加入高效 CPU,NVIDIA 在資料中心內部署 CPU 數量將大幅增加,他甚至不排除 NVIDIA 可能成為全球最大 CPU 製造商之一。
美國聯邦 AI 政策:凍結 AI 不等於更安全,關鍵是跑得快又守得住
被問到美國聯邦 AI 政策應包括甚麼內容,黃仁勳表示方向繁多但最重要是「一套法律」能同時確保安全與讓創新盡可能快速進行。他反駁「放慢速度就更安全」觀點,並以交通工具作比喻:他不希望駕駛 50 年前汽車或乘坐 70 年前飛機,因為安全不足。他認為技術創新可帶來更安全產品,例如減少幻覺、讓回答更基於真實與研究,推理與反思等能力提升亦提高內容質素;若當年有人要求凍結 AI,可能只會停留在早期 ChatGPT 版本,反而不見得更安全。他總結需要能讓產業快速創新以提升安全,同時亦要有規範令產業運作安全。
至於出口管制相關提問,他表示出口管制交由商務部負責有其原因,單一政府部門執行已足夠;無論最終法例如何 NVIDIA 都會遵守。
4 款晶片來自同一國家:NVIDIA 最重要研發基地在以色列
黃仁勳特別表揚以色列團隊,指出 6 款新晶片中有 4 款來自該國研發中心,包括 ConnectX-9 SuperNIC、NVLink 6 Switch、Spectrum-6 及 BlueField-4 DPU。他形容團隊勤力、聰明、投入,重視公司、同事與國家,彼此之間作出大量犧牲。他指該中心現有 5000 名員工,計劃再招聘 5000 人,員工流失率僅 1% 至 2%,部分員工服務達 20 至 25 年,吸引與留住人才能力「world-class」。他更笑言下次希望 6 粒晶片全部來自以色列,並表示自己將很快到訪當地。
做 CEO 34 年秘訣:不要被炒,也不要無聊
談及行政總裁任期,黃仁勳幽默表示長壽秘訣是第一不要被炒;第二不要感到無聊,不確定哪個更先。他形容作為 NVIDIA CEO 有很大責任,公司是產業「船長」,供應鏈與合作夥伴遍佈全球並依賴 NVIDIA 做好本分。他又笑指公司走到今天花了 33 年到接近 34 年,做了 34 年「就算我都會學識」;自己「有大把時間」,甚至「我無戴錶」若無人叫停可以在台上講到通宵。他最後強調只要自己配得上這個職位就會繼續擔任。
分享到 :
最新影片