NVIDIA揭曉7nm製程的「Ampere」GPU,同步推出全新超級電腦
-
歡迎來到 ePrice 比價王!
-
N家也要上7奈米有趣了~ 超級電腦一般人也沒關係XD~ 只有大企業才會用~我是隻熱愛3C的海豹,配戴戰力指數儀是我的招牌~!!
-
電腦顯示卡效能非常強大
但是發熱明顯
電腦主機像暖爐一樣
7奈米製程不知道能不能降低溫度 -
對這個不是很懂 但好似進步很大 只是這個好像自己用不到
-
個人電腦其實沒這麼大的效能需求吧猩猩的爺爺還是猩猩
-
7nm製程的Ampere GPU找上大廠生產 品質有所期待
-
Nvidia最近的併購看來都是蠻成功, 也有助擴大data center的市場, NVDA還不買買買井底之蛙何其多 有腦要記得用
-
哇!7nm製程的Ampere GPU, 現階段應該是一些大企業才會採用, 但假以時日製程普及化後,一般民眾應該也有機會享受到?
-
很多細節都沒說
RT core多少沒寫?
SM單元幾組???
完整架構圖也沒有???
公版散熱器長怎樣???
還有為什麼只跟volta 比較 不跟RTX 比???? -
這我純看資訊就好 Ampere」GPU應該用不到XD
在先前有不少消息傳出後,NVIDIA於線上形式進行的GTC 2020主題演講內容正式宣佈推出以台積電7nm製程打造、代號「Ampere (安培)」顯示架構,並且應用在新一代NVIDIA A100 GPU。NVIDIA A100 GPU與DGX A100登場
▲NVIDIA執行長黃仁勳藉由首次舉辦的廚房主題演講介紹此次主角「Ampere」顯示架構,以及採用新款GPU打造的超級電腦
相比前一代Volta架構GPU設計,NVIDIA強調以Ampere架構打造的GPU將能帶來6倍以上運算效能,同時增進7倍以上的人工智慧推論效率。
而採用Ampere架構設計的NVIDIA A100 GPU,分別搭載540億組電晶體、對應每秒1.6 Terabytes運算量,本身則採用3D疊合封裝設計,同時也對應第三代對應TF32運算的Tensor Cores設計,藉此對應更快的單精度人工智慧運算加速效果,另外也加入結構疏離運算加速特性,讓人工智慧運算效能可大幅提昇。
▲以台積電7nm製程打造、代號「Ampere (安培)」顯示架構
此外,藉由MIG (Multi-instance GPU)設計,更可讓NVIDIA A100最多可劃分成7組獨立GPU,並且能分別對應不同運算資源。而藉由第三代NVLink設計,則更可讓多組NVIDIA A100串接,藉此形成運算效能更龐大的GPU。
配合推出NVIDIA A100 GPU,NVIDIA也宣布打造以8組NVIDIA A100 GPU為基礎,透過NVLink串接而成的超級電腦NVIDIA DGX A100,標榜將可提供5 Petaflops運算效能,並且能同時執行56組獨立運算應用服務,而建議售價則從199000美元起跳。
▲NVIDIA DGX A100
▲能以不同形式模組化打造的HGX A100
在電力損耗方面,藉由5組NVIDIA DGX A100建構用於人工智慧訓練與推論的資料中心,僅需以28千瓦電力運作,同時總計花費僅需100萬美元。相比先前提出的DGX-1超級電腦必須以50組建構才能得到相同運算效能,或是必須透過600組CPU才能達成相同運算效能,同時耗電量高達630千瓦,而建構費用高達1100萬美元的情況,顯然以NVIDIA DGX A100投入建構資料中心將能會得更大經濟效益。
與先前推行超級電腦一樣,此次推出的NVIDIA DGX A100超級電腦,同樣可藉由串接組成可對應更大運算規模的DGX A100 SUPERPOD,其中總計以140組NVIDIA DGX A100超級電腦組成,總計使用1120組NVIDIA A100 GPU,並且以170組Mellanox Quantum 200G InfiniBand Switch進行串接,同時藉由15公里距離光纖對應每秒280TB資料傳輸,而資料儲存部分則是藉由4 PB快閃記憶體元件進行運作。
▲NVIDIA DGX A100 SUPERPOD
DGX A100 SUPERPOD約可在3週內完成建置,並且對應高達700 PFLOPS人工運算效能,幾乎與全球排名前20名的超級電腦效能相當。
目前NVIDIA已經與美國能源部位於伊利諾州杜佩奇縣的阿貢國家實驗室合作,透過DGX A100運算效能用於研究新型冠狀病毒,另外也與美國佛羅里達大學及德國研究中心合作用於人工智慧技術研究。
針對雲端運算,以及OEM廠商產品客製化設計需求,NVIDIA也藉由NVIDIA A100 GPU打造模組化設計的HGX A100伺服器,其中可藉由NVLink串接4組NVIDIA A100 GPU建構,或是透過NVSwitch串接8組NVIDIA A100 GPU,其中可最多分配成56組小型GPU,每組GPU可對應比NVIDIA T4更高運算效能,或是分配成8組GPU形式,藉此讓GPU運算效能可達10 Petaflops規模。
其中包含阿里雲、AWS、百度雲、Google Cloud、微軟Azure、甲骨文、騰訊雲都將以NVIDIA A100 GPU建構雲端服務,同時包含源訊、Cisco、Dell、富士通、技嘉、杭州華三通信技術、HPE、浪潮、聯想、廣達/雲達科技與Supermicro都會推出基於NVIDIA A100 GPU的伺服器產品。
至於針對邊緣運算應用需求,此次公佈內容也同步宣布推出NVIDIA EGX A100,同樣藉由Ampere顯示架構打造的GPU,搭配Mellanox ConnectX-6 SmartNIC網路連接卡加快數據運算傳輸效率,同時確保傳輸過程時的數據安全。
配合推出新款GPU,NVIDIA也同步宣布更新可對應加速運算、模擬與人工智慧推論使用的CUDA-X函式庫、CUDA 11,同時也更新多模態對話式人工智慧服務框架Jarvis,以及HPC開發工具組與深度推薦應用框架Merlin。
▲NVIDIA EGX A100
▲Mellanox ConnectX-6 SmartNIC網路連接卡