用戶名: 密碼: 驗證碼:

英偉達發(fā)布Rubin芯片架構:AI訓練快3.5倍,推理能效提升8倍

摘要:2026年1月5日,英偉達CEO Jensen Huang在CES上正式發(fā)布新一代Rubin計算架構。該架構旨在應對AI計算需求激增的挑戰(zhàn),目前已在全面生產中。Rubin架構由六種芯片組成,相比前代Blackwell,其在模型訓練任務上快3.5倍,推理任務快5倍,且每瓦特推理計算能力提升8倍,已獲眾多頂級云服務商和超算項目采用。

  ICC訊  美國時間2026年1月5日下午2點16分(太平洋標準時間),在消費電子展上,英偉達公司首席執(zhí)行官Jensen Huang正式發(fā)布了該公司新的Rubin計算架構,他將其描述為人工智能硬件的最新成果。該新架構目前已投入生產,并預計在今年下半年進一步擴大產能。

  Jensen Huang告訴與會者:“Vera Rubin旨在應對我們面臨的一個根本性挑戰(zhàn):人工智能所需的計算量正在飛速增長。今天,我可以告訴大家,Vera Rubin已進入全面生產階段?!? Rubin架構最初于2024年公布,是英偉達 relentless 硬件開發(fā)周期的最新成果,這一周期已使英偉達轉型為全球市值最高的公司。Rubin架構將取代Blackwell架構,而后者此前又取代了Hopper和Lovelace架構。

  廣泛的行業(yè)采用

  Rubin芯片已計劃被幾乎所有主要云服務提供商使用,其中包括英偉達與Anthropic、OpenAI和亞馬遜網(wǎng)絡服務的高調合作。Rubin系統(tǒng)也將用于HPE的Blue Lion超級計算機以及勞倫斯伯克利國家實驗室即將建成的Doudna超級計算機。

  架構組成與技術創(chuàng)新

  該架構以天文學家Vera Florence Cooper Rubin的名字命名,由六個獨立的芯片組成,設計為協(xié)同使用。Rubin GPU處于核心地位,但該架構也通過分別對Bluefield和NVLink系統(tǒng)的新改進,解決了存儲和互連方面日益增長的瓶頸。該架構還包括一個全新的Vera CPU,專為智能體推理設計。

  在解釋新存儲系統(tǒng)的優(yōu)勢時,英偉達人工智能基礎設施解決方案高級總監(jiān)Dion Harris指出了現(xiàn)代AI系統(tǒng)對緩存相關內存日益增長的需求。Harris在電話會議上對記者表示:“當你開始啟用新型工作流,如智能體AI或長期任務時,這會給你的KV緩存帶來很大壓力和需求?!彼傅氖茿I模型用于壓縮輸入內容的一種內存系統(tǒng)。“因此,我們引入了一個新的存儲層級,它外部連接到計算設備,這使你能夠更高效地擴展存儲池?!?

  顯著的性能飛躍

  正如預期的那樣,新架構在速度和能效方面也代表了顯著的進步。根據(jù)英偉達的測試,在模型訓練任務上,Rubin架構的運行速度將比前代Blackwell架構快3.5倍,在推理任務上快5倍,最高可達50 petaflops。新平臺還將支持每瓦特高出8倍的推理計算能力。

  發(fā)布的行業(yè)背景

  Rubin新功能的發(fā)布正值人工智能基礎設施建設的激烈競爭之際。在這場競爭中,AI實驗室和云服務提供商都在爭搶英偉達芯片以及為其供電所需的設施。在2025年10月的財報電話會議上,Jensen Huang估計,未來五年內將有3萬億至4萬億美元投入到AI基礎設施上。

內容來自:訊石光通訊網(wǎng)
本文地址:http://n2software.net//Site/CN/News/2026/01/06/20260106013133243609.htm 轉載請保留文章出處
關鍵字:
文章標題:英偉達發(fā)布Rubin芯片架構:AI訓練快3.5倍,推理能效提升8倍
1、凡本網(wǎng)注明“來源:訊石光通訊網(wǎng)”及標有原創(chuàng)的所有作品,版權均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉載我方內容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責聲明,凡本網(wǎng)注明“來源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。因可能存在第三方轉載無法確定原網(wǎng)地址,若作品內容、版權爭議和其它問題,請聯(lián)系本網(wǎng),將第一時間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話:0755-82960080-168   Right