<input id="yuqso"></input>
<pre id="yuqso"><cite id="yuqso"></cite></pre>
<acronym id="yuqso"><cite id="yuqso"></cite></acronym>
  • <s id="yuqso"><em id="yuqso"></em></s>
      <s id="yuqso"><em id="yuqso"></em></s>
      <bdo id="yuqso"></bdo>

      老黃又來“搶錢”:英偉達再推超強芯片平臺,守住萬億芯片老大擂臺

      文| Juny編輯| VickyXiao


      (資料圖片)

      從算力到服務,英偉達在AI賽道上毫不松懈。

      在最近風起云涌的AI圈里,每一片英偉達H100 GPU的走向都被大家緊盯著。原因無它,就因為H100是當前進行人工智能訓練的最強引擎。

      如今,全球約90%以上的大模型都在使用英偉達的GPU芯片,作為生成式AI時代下最為關鍵的基礎硬件,幾乎所有人工智能企業都在四處搜尋H100的蹤影。一定程度上來說,誰擁有了更多的H100,誰就在當前AI競賽中占據著上風。

      而今天,在洛杉磯的SIGGRAPH大會上,英偉達宣布了新一代GH200 Grace Hopper超級芯片平臺的到來。GH200專門為加速計算和生成人工智能時代而打造,旨在處理世界上最復雜的生成式人工智能工作負載,涵蓋大型語言模型、推薦系統和矢量數據庫,并將提供多種配置。

      不僅僅只是超級芯片,圍繞著生成式AI的方方面面,英偉達今天還發布了一系列更新,包括全新AI服務平臺、推出了4款新顯卡、服務器等等,試圖全方位加速和簡化生成式AI項目的開發、訓練、部署和應用。

      |為生成式AI時代打造最強超級芯片平臺

      此次,全新的Grace Hopper 超級芯片該平臺配備了全球首款 HBM3e 處理器,通過大幅增加帶寬和內存,將為更大的 AI 模型提供訓練和計算能力。該配置經過優化,GH200還可以執行 AI 推理功能,從而有效地為 ChatGPT 等生成式 AI 應用程序提供支持。

      英偉達之所以稱GH200為“超級芯片”,因為它將基于 Arm 的 Nvidia Grace CPU 與 Hopper GPU 架構結合在了一起。GH200 與目前最高端的 AI 芯片 H100 具有相同的 GPU,H100 擁有 80GB 內存,而新款 GH200 的內存高達141GB同時與 72 核 ARM 中央處理器進行了配對。

      新版本的GH200采用了全球最快的內存技術HBM3e。英偉達表示,HBM3e內存技術帶來了50%的速度提升,總共提供了10TB/秒的組合帶寬。因此,新平臺能夠運行比先前版本大倍的模型,并以3倍的內存帶寬提高性能。

      擁有更大的內存也意味著未來可以讓模型駐留在單個 GPU 上,而不必需要多個系統或多個 GPU 才能運行。

      不僅能力得到了大幅提升,英偉達還Nvidia 還發布了NVIDIA NVLink?服務器設計對GH200進行了擴展。NVIDIA NVLink?將允許Grace Hopper超級芯片可以與其他超級芯片連接組合,這一技術方案為GPU提供了完全訪問CPU內存的途徑。

      英偉達表示,目前正在開發一款新的雙GH200基礎NVIDIA MGX服務器系統,將集成兩個下一代Grace Hopper超級芯片。在新的雙GH200服務器中,系統內的CPU和GPU將通過完全一致的內存互連進行連接,這個超級GPU可以作為一個整體運行,提供144個Grace CPU核心、8千萬億次的計算性能以及282GB的HBM3e內存,從而能夠適用于生成式AI的巨型模型。

      GH200還能夠兼容今年早些時候在COMPUTEX上公布的NVIDIA MGX?服務器規格。有了MGX,制造商可以迅速且經濟高效地將Grace Hopper技術整合到100多種服務器變體中。

      NVIDIA首席執行官黃仁勛強調,數據中心需要應對生成型AI的激增需求,因此也需要有更具針對性的加速計算平臺,GH200平臺正是為滿足這一需求而生。

      “你幾乎可以將任何你想要的大型語言模型放入其中,它會瘋狂地進行推理。大型語言模型的推理成本將大幅下降,同時將大幅提高數據中心的運作效率和性能。”

      目前,英偉達計劃銷售GH200的兩種版本:一種是包含兩個可供客戶集成到系統中的芯片,另一種則是結合了兩種 Grace Hopper 設計的完整服務器系統。

      英偉達表示,全新的GH200將大大降低訓練成本和提升訓練速度,預計將于明年第二季度上市。

      |推出AI Workbench服務,企業級AI項目本地也能開發部署

      除了全新的超級芯片平臺,英偉達今天還宣布了推出了一個新的AI服務——AI Workbench,這是一個易于使用的統一工具包,讓開發人員能夠在 PC 或工作站上快速創建、測試和自定義預訓練的生成式 AI 模型,然后將其擴展到幾乎任何數據中心、公共云或NVIDIA DGX? 云。

      英偉達認為,當前企業級AI的開發過程太過繁瑣和復雜,不僅需要在多個庫中尋找合適的框架和工具,當項目需要從一個基礎設施遷移到另一個基礎設施時,過程可能會變得更加具有挑戰性。

      研究機構KDnuggets曾進行過一個調查,80%或更多的項目在部署機器學習模型之前停滯不前。Gartner的另一項研究也顯示,由于基礎設施的障礙,有接近85%的大數據項目失敗。

      總體來看,企業模型投入生產的成功率總體較低,世界各地的企業都在尋找合適的基礎設施來構建生成AI模型和應用。而此次,AI Workbench則為這個過程提供了簡化的路徑。

      黃仁勛在會議上表示,為了推動AI技術普惠,必須讓其有可能在幾乎任何地方運行。因此,AI Workbench將支持在本地機器上進行模型的開發和部署,而不是云服務上。

      AI Workbench提供了一個簡單的用戶界面,開發人員能夠將模型、框架、SDK 和庫從開源資源整合到統一的工作區中,可以在本地計算機上運行并連接到 HuggingFace、Github以及其他流行的開源或商用 AI 代碼存儲庫。也就是說,開發人員可以在一個界面上輕松訪問大部分AI開發所需資源,不用打開不同的瀏覽器窗口。

      英偉達表示,使用 AI Workbench 的一些主要優勢包括:

      易于使用的開發平臺。AI Workbench 通過提供單一平臺來管理數據、模型和計算資源,支持跨機器和環境的協作,從而簡化了開發流程。

      與 AI 開發工具和存儲庫集成。AI Workbench 與 GitHub、NVIDIA NGC 和 Hugging Face 等服務和 Git 服務器集成,用戶可以使用 JupyterLab 和 VS Code 等工具跨平臺和基礎設施進行開發,具有高度的可重復性和透明度。

      增強協作。該項目結構有助于自動化圍繞版本控制、容器管理和處理機密信息的復雜任務,同時還支持跨團隊協作。

      訪問加速計算資源:AI Workbench 部署是客戶端-服務器模型,用戶能夠開始在其工作站中的本地計算資源上進行開發,并隨著訓練作業的規模擴大而轉向數據中心或云資源。

      英偉達表示,目前戴爾、惠普、Lambda、聯想等人工智能基礎設施提供商已經采用了 AI Workbench服務,并看到了其提升最新一代多 GPU 能力的潛力。在實際用例中,Workbench 可以幫助用戶從單臺 PC 上的開發轉向更大規模的環境,在所有軟件都保持不變的情況下幫助項目投入生產。

      |萬億芯片老大,要用AI守擂

      此次,圍繞著生成式 AI 和數字化時代的開發和內容創作,英偉達還一口氣推出了多項的新產品和服務,可以說是涵蓋了生成式AI開發的方方面面。

      在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新顯卡,旨在為全球專業人士提供最新的 AI圖形和實時渲染技術。并基于新GPU推出了一套一站式解決方案 RTX Workstation。

      針對 AI 訓練和推理、3D 設計和可視化、視頻處理和工業數字化等計算密集型應用的需求,推出了配備 Nvidia L40S GPU 的 Nvidia OVX 服務器,旨在加速多個行業的工作流程和服務。

      發布最新版本的企業軟件平臺 Nvidia AI Enterprise ,同時引入用于構建和定制生成式 AI 基礎模型的端到端框架 Nvidia NeMo,旨在為企業提供在其運營中集成和部署生成式 AI 模型的工具,但以安全的方式和穩定的 API 連接。

      推出了GPU 加速的軟件開發套件和云原生微服務 Maxine,讓專業人士、團隊和創作者能夠利用人工智能的力量并創造高質量的音頻和視頻效果,從而改進實時通信服務。此外Nvidia Research 還宣布推出人工智能驅動的 3D 視頻技術,在沉浸式通信領域取得進展。

      隨著英偉達一個接一個新產品和新服務的揭曉,我們似乎也看到生成式AI的生產力爆炸時代正在加速到來。

      在人工智能的驅動下,英偉達今年的來收益和股價節節攀升,公司市值一度突破萬億美元。但越是風光,競爭對手就越是虎視眈眈。隨著人工智能芯片荒的加劇,巨頭們都開始加大投資、奮起直追。

      比如,就在今天的大會不久前,AMD剛剛發布了自己“大模型專用”的AI芯片MI300X,直接對標H100。此外,谷歌、亞馬遜、特斯拉等也都在設計自己的定制人工智能推理芯片。但目前來看,在越來越激烈的賽道上,跑在最前邊的英偉達絲毫沒有松懈。

      靠AI“翻身”的英偉達,顯然還想要乘著AI的風跑得更快、更遠。

      *參考資料:Nivida Technical Blog

      推薦DIY文章
      當智能健身走向全民化:AEKE輕力量家庭智能健身房引領未來
      海藝AI:迎合“AI時代”發展潮流,刷新繪圖市場傳統認知
      布局產業新高地!海星醫藥健康創新園B區奠基儀式隆重舉行
      未來五年500億投入打底,北汽藍谷錨定細分市場增量
      【展會直擊】華秋慕尼黑上海電子展精彩ing,助力電子產業高質量發展!
      桂花網藍牙網關助力司乘人員職業健康監測
      精彩新聞
      免费电影网站网址入口,国产精品欧美激情第一页,欧美国产日韩做一线,欧美一区二区三区在线观看不卡
      <input id="yuqso"></input>
      <pre id="yuqso"><cite id="yuqso"></cite></pre>
      <acronym id="yuqso"><cite id="yuqso"></cite></acronym>
    • <s id="yuqso"><em id="yuqso"></em></s>
        <s id="yuqso"><em id="yuqso"></em></s>
        <bdo id="yuqso"></bdo>
        主站蜘蛛池模板: 亚洲人成伊人成综合网久久久| 国产精品一区不卡| 国产真实乱对白mp4| 友田真希息与子中文字幕| 亚洲加勒比在线| xxxwww在线观看视频| 精品国产精品久久一区免费式| 欧美日本免费一区二区三区| 图片区日韩欧美亚洲| 四虎永久免费地址ww484e5566| 亚洲av无码一区二区三区鸳鸯影院 | 中文字幕第2页| 30岁的女人韩剧免费观看| 欧美香蕉爽爽人人爽| 国产精品视频一区二区三区不卡| 午夜爽爽爽男女免费观看影院 | 久久久久久a亚洲欧洲aⅴ| 试看120秒做受小视频免费| 日本免费精品一区二区三区| 国产羞羞羞视频在线观看| 亚洲天天综合网| a级毛片高清免费视频在线播放| 花蝴蝶免费版高清版| 末成年女av片一区二区| 国内精品免费视频自在线 | 天堂在线免费观看| 亚洲理论片在线中文字幕| 窝窝午夜看片七次郎青草视频| 末成年美女黄网站色大片连接| 国产午夜亚洲精品国产| 中日韩欧一本在线观看| 精品丝袜国产自在线拍亚洲| 日本h无羞动漫在线观看网站| 国产欧美一区二区三区在线看| 亚洲狼人综合网| 亚洲综合五月天欧美| 欧美精品久久久久久久自慰| 国产欧美精品一区二区三区四区 | 下面一进一出好爽视频| 男人j桶进女人p无遮挡在线观看| 性欧美高清come|