奧推網

選單
科技

谷歌正式釋出 TPU V4 晶片

IT之家 5 月 14 日訊息,據 tom‘sHardware 報道,在 I / O 會議上,谷歌釋出了 Google Cloud 最新機器學習叢集的預覽版,該叢集不僅旨在實現 9 exaflops 的峰值效能,而且使用 90% 的無碳能源來實現。它將成為世界上最大的公開機器學習中心。

新叢集的核心是 TPU V4 Pod。這些張量處理單元是去年在 Google I / O 上宣佈的,來自 Meta、LG 和 Salesforce 等公司的 AI 團隊已經可以使用這些 pod。V4 TPU 允許研究人員使用他們選擇的框架,無論是 Tensorflow、JAX 還是 PyTorch,並且已經使 Google Research 在語言理解、計算機視覺和語音識別等領域取得了突破。

基於谷歌俄克拉荷馬州的資料中心,叢集的潛在工作負載預計將相似,透過自然語言處理、計算機視覺演算法和推薦系統領域的資料進行咀嚼。

對叢集的訪問以切片的形式提供,從四個晶片(一個 TPU VM)一直到數千個。

具有至少 64 個晶片的切片利用三維環形鏈路,為集體通訊操作提供更高的頻寬。V4 晶片還能夠訪問兩倍於上一代的記憶體 —— 從 16 增加到 32GiB—— 並且在訓練大型模型時將加速速度提高一倍。

谷歌研究和人工智慧。高階副總裁 Jeff Dean 表示:“為了讓先進的 AI 硬體更易於使用,幾年前我們啟動了 TPU 研究雲 (TRC) 計劃,該計劃為全球數千名 ML 愛好者免費提供了 TPU 訪問許可權,他們發表了數百篇論文和開源 github 庫,主題從《用人工智慧寫波斯詩歌》到《使用計算機視覺和行為遺傳學區分睡眠和運動引起的疲勞》。Cloud TPU v4 的釋出對於 Google Research 和我們的 TRC 計劃來說都是一個重要的里程碑,我們很高興能與世界各地的機器學習開發人員長期合作,共同使用 AI。”

谷歌的可持續發展承諾意味著該公司自 2017 年以來一直在將其資料中心的能源使用與古老的能源採購相匹配,並計劃到 2030 年將其整個業務都用於可再生能源。V4 TPU 也比前幾代更節能,每瓦產生的 FLOPS 是 V3 晶片的三倍。

對 Cloud TPU v4 Pod 的訪問包括評估(按需)、搶佔式和承諾使用折扣 (CUD) 選項,並提供給所有 Google AI Cloud 使用者。