波多野结衣按摩,在线观看亚洲视频,国产嫩草在线观看,91视频最新地址

首頁 財經 > 正文

谷歌發布第五代TPU:AI性能提升2.5倍 省錢50%!還勾搭上了NVIDIA

谷歌在29日舉行的 Cloud Next 2023 大會上,公開了Google Cloud新款自研AI芯片TPU v5e,并推出了搭配英偉達(NVIDIA)H100 GPU的 “A3超級計算機”GA(通用版) ,A3 VM實例將于下個月上線。

谷歌還宣布與AI芯片龍頭英偉達擴大合作伙伴關系。

第五代TPU:訓練性能提高2倍,推理性能提升2.5倍,成本降低50%!


(資料圖片僅供參考)

TPU是谷歌專門為機器學習(ML)/深度學習(DL)設計的專用AI加速芯片,比CPU、GPU等通用處理器對于AI計算效率更高。

谷歌第一代 TPU(TPU v1)是 2016 年在 Google I/O 大會上發布的,隨后在2017 年作為 Google Cloud 基礎設施“Cloud TPU”推出,通常使用 FP32 和 FP16 等精度數據,如果降低 ML 的精度/DL計算到8位(INT8)等,則將使得在ML/DL中的處理能力得到進一步提高。

此外,通過僅合并專門用于 ML/DL 的算術單元,谷歌減少了 CPU 和 GPU 所需的高速緩存、分支預測和亂序執行等復雜算術單元,可以以低功耗執行專門針對 ML/DL 的計算。

之后,谷歌TPU又經過了數次迭代,比如第二代TPU v2于2017年發布,第三代TPU v3于2018年發布,第四代TPU v4于去年發布,目前已開始服務和提供。

最新的第五代TPU v5e,則是谷歌專為提升大中型模型的訓練、推理性能以及成本效益所設計,并且其內部張量處理單元的最新版本。

與 2021 年發布的 TPU v4 相比,TPU v5e 的大型語言模型提供的訓練性能提高了 2 倍、推理性能提高了2.5 倍。但是TPU v5e 的成本卻不到上一代的一半,使企業能夠以更低的成本,訓練和部署更大、更復雜的 AI 模型。

需要指出的是,從第三代TPU v3開始,谷歌就專注于增強可擴展性,以便能夠更大規模地并行處理。

最新的TPU v5e ,可以通過采用400 TB/s互連來配置多達256個芯片,使得進行更大規模的學習和推理成為可能。

谷歌表示,在 256 個芯片配置下,INT8 的算力將達到 100 PetaOps。

據介紹,TPU v5e將提供了多種不同的虛擬機配置,范圍從一個 TPU 芯片到單個切片內 256 個 TPU 芯片。對于那些需要更多算力的用戶,谷歌也正在推出“Multislice”,這是一種將模型交給數萬個TPU芯片計算的服務。

△上圖顯示了一個包含 1 個 TPU (v5e) 切片(拓撲:4x4)和 1 個 TPU v5litepod-8(v5e) 切片(拓撲:2x4)的GKE 集群

谷歌機器學習、系統和云AI 副總裁 Amin Vahdat 表示:“到目前為止,使用 TPU 的訓練作業僅限于單個 TPU 芯片切片,TPU v4 的最大作業切片大小為 3,072 個芯片。”

谷歌計算和機器學習基礎設施副總裁 Mark Lohmeyer在聯合博客文章中表示:“借助 Multislice,開發人員可以在單個 Pod 內通過芯片間互連 (ICI) 或通過數據中心網絡 (DCN) 跨多個 Pod 將工作負載擴展到數萬個芯片。”

AssemblyAI 技術副總裁Domenic Donato表示:“在我們的生產 ASR 模型上運行推理時,TPU v5e 的性價比始終比市場上同類解決方案高出 4 倍。Google Cloud 軟件堆棧非常適合生產 AI 工作負載,我們能夠充分利用 TPU v5e 硬件,該硬件專為運行高級深度學習模型而構建。這種強大的硬件和軟件組合極大地提高了我們為客戶提供經濟高效的人工智能解決方案的能力。”

Gridspace 機器學習主管Wonkyum Lee表示:“我們的速度基準測試表明,在 Google Cloud TPU v5e 上訓練和運行時,AI 模型的速度提高了 5 倍。我們還看到推理指標的規模有了巨大改進,我們現在可以在一秒內實時處理 1000 秒的內部語音到文本和情緒預測模型,性能提高了 6 倍。”

與英偉達合作推出A3超級計算機

隨著生成式人工智能和大型語言模型 (LLM) 不斷推動創新,訓練和推理的計算需求以驚人的速度增長。為了滿足這一需求,Google Cloud 今天宣布全面推出由 NVIDIA H100 Tensor Core GPU 提供支持的全新 A3 虛擬超級計算機 (VM) 實例將于9月全面上市。

A3將會配備 8 個NVIDIA H100 GPU、兩個第四代 Intel Xeon 可擴展處理器、 2TB 內存以及定制的Intel 200G IPU(基礎設施處理單元)網絡組成。

與使用傳統NVIDIA A100 GPU的A2相比,學習和推理過程中的性能提升了3倍,帶寬提升了10倍。

這些實例最初于 5 月份宣布,可以增加到 26,000 個 Nvidia H100 Hopper GPU。鑒于NVIDIA GPU 持續短缺,目前尚不清楚谷歌將擁有多少個NVIDIA H100。

在 Google Cloud Next 大會上,NVIDIA 創始人兼首席執行官黃仁勛與 Google Cloud 首席執行官 Thomas Kurian 一起發表了活動主題演講,慶祝 NVIDIA H100 GPU 驅動的 A3 實例全面上市,并談論了谷歌如何使用 NVIDIA H100 和 A100 GPU 進行內部部署DeepMind 和其他部門的研究和推理。

黃仁勛和Thomas Kurian還宣布在 Google Cloud 中開發一款新型超級計算機,該計算機將使用 NVIDIA 正在開發的下一代 AI 芯片。

在討論中,黃仁勛指出了更深層次的合作,使 NVIDIA GPU 能夠為 PaxML 框架加速,從而創建大規模的法學碩士。

這個基于 Jax 的機器學習框架是專門為訓練大型模型而構建的,允許高級且完全可配置的實驗和并行化。

目前PaxML 已被 Google 用于構建內部模型,包括 DeepMind 以及研究項目,并將使用 NVIDIA GPU。兩家公司還宣布 PaxML 可立即在 NVIDIA NGC 容器注冊表中使用。

谷歌表示,生成式人工智能初創公司 Anthropic 是新 TPU v5e 和 A3 VM 的早期用戶。雖然谷歌向這家初創公司投資了 3 億美元,但它同時也是亞馬遜網絡服務的用戶。

Anthropic 聯合創始人 Tom Brown 表示:“我們很高興能與 Google Cloud 合作,我們一直在與 Google Cloud 合作高效地訓練、部署和共享我們的模型。由 A3 和 TPU v5e 以及 Multislice 提供支持的谷歌下一代 AI 基礎設施將帶來性價比優勢,將助力我們繼續構建下一波人工智能浪潮所需的工作負載。”

支持100款AI模型

為了支持企業云端服務,Google Cloud 還整合加入了 20 個 AI 模型,使其支持的總數達到 100 個,通過其 AI 基礎設施,可讓客戶使用包括 Meta Llama 2 模型、Anthropic Claude 2 聊天機器人等,可以自由選擇最能滿足營運需求的 AI 模型。

Google Cloud 也對既有 AI 模型提高性能并添加功能,例如文字處理方面的 PaLM 模型可支援用戶輸入更多文字量,以便處理篇幅較長的報導、書籍文章或者法院判決文件等。

同時,Google Cloud 這次也推出企業級新工具,包括“SynthID”可為 AI 產生的圖片加上隱形浮水印,以人眼看不見的方式更改數字圖片,即使 AI 圖片被編輯或篡改也能保有完整性。

Google Workspace 辦公套件將為用戶提供 Duet AI 新產品,預計今年稍晚向所有用戶開放,可在 Google 文件、試算表、簡報中運用 AI 助手幫助更快完成工作。

關鍵詞:

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2023 創投網 - www.extremexp.net All rights reserved
聯系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3

主站蜘蛛池模板: 亚洲日产2021三区| 亚洲欧美国产另类视频| 国产一区二区三区久久精品| 干b视频| 麻豆免费电影| 日本三级免费看| 国产精品久久久久影院| 天天在线天天看成人免费视频| 国产四虎精品| 韩国护士hd高清xxxx| 欧美一级欧美三级在线观看| 久久久久久亚洲精品中文字幕 | 国产三级免费电影| 丰满的奶水边做边喷| 小婷又紧又深又滑又湿好爽| 非洲一区二区三区不卡| 女人被男人躁的女爽免费视频| 波多野结衣和邻居老人| 女生张开腿给男生捅| 日韩福利社| a毛片在线看片免费| 久久伊人免费视频| 尹人香蕉久久99天天拍欧美p7| 国产99久久精品一区二区| 亚洲欧美日韩在线不卡| 美女被免费视频网站| 日本波多野结衣电影| 羞羞歪歪| 中文精品久久久久国产网站| 午夜精品久久久久久久四虎| 国产一区二区三区不卡在线观看| 一个妈妈的女儿在线观看5| 欧美激情免费| 欧美成a人免费观看| 国产成人av在线影院| 日本精a在线观看| 中文字幕电影在线观看| 99久久精品国产免费| 美女的尿口无遮掩的照片| 韩日毛片| 国产精品成人久久久久久久|