跨時代的Blackwell來了!聯(lián)想發(fā)布全新NVIDIA AI服務(wù)器
摘要: 來源:互聯(lián)網(wǎng)聯(lián)想ThinkSystemSR780aV32024年3月18日–今天,全球AI盛會GTC(GPUTechnologyConference)2024正式開幕,
來源:互聯(lián)網(wǎng)
聯(lián)想ThinkSystem SR780a V32024年3月18日–今天,全球AI盛會GTC(GPU Technology Conference)2024正式開幕,聯(lián)想集團(tuán)與NVIDIA宣布合作推出全新混合人工智能解決方案,幫助企業(yè)和云提供商獲得在人工智能時代成功所需的關(guān)鍵的加速計算能力,將人工智能從概念變?yōu)楝F(xiàn)實(shí)。
同時,在大規(guī)模高效增強(qiáng)人工智能工作負(fù)載方面,聯(lián)想發(fā)布了ThinkSystem人工智能產(chǎn)品組合的擴(kuò)展,這是一個改變行業(yè)的里程碑,其中包括兩款全新強(qiáng)大的8路NVIDIA GPU系統(tǒng),這兩款系統(tǒng)專為提供海量計算能力和無與倫比的能效而設(shè)計,以加速人工智能的實(shí)施。專為生成式人工智能、自然語言處理(NLP)和大型語言模型(LLM)開發(fā)而設(shè)計,為NVIDIA HGX人工智能計算平臺進(jìn)入市場提供支持,包括NVIDIA H100和H200 Tensor Core GPU和全新的NVIDIA Grace Blackwell GB200超級芯片,以及先進(jìn)的下一代NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太網(wǎng)網(wǎng)絡(luò)平臺。
聯(lián)想ThinkSystem AI服務(wù)器配備NVIDIA B200 Tensor Core GPU,將為生成式AI的新時代提供動力。NVIDIA Blackwell架構(gòu)的生成式AI引擎,以及更快的NVIDIA NVLink互連和增強(qiáng)的安全功能,將數(shù)據(jù)中心推向了一個新時代。B200 GPU 的實(shí)時推理能力提高了 25 倍,可加速萬億參數(shù)語言模型,專為最苛刻的人工智能、數(shù)據(jù)分析和高性能計算工作負(fù)載而設(shè)計。
全新聯(lián)想ThinkSystem SR780a V3 是一款采用聯(lián)想海王星液冷技術(shù)的 5U 系統(tǒng),電源使用效率 (PUE) 高達(dá) 1.1。通過使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技術(shù),系統(tǒng)可以在不達(dá)到任何熱限制的情況下維持最大性能。十多年來,聯(lián)想業(yè)界領(lǐng)先的海王星直接水冷解決方案,通過循環(huán)利用溫水來冷卻數(shù)據(jù)中心系統(tǒng),使客戶能夠?qū)崿F(xiàn)高達(dá)40%的功耗降低,散熱性能提高 3.5 倍。與傳統(tǒng)風(fēng)冷系統(tǒng)相比,效率更高。根據(jù)“Uptime Institute 2021 年全球數(shù)據(jù)中心年度調(diào)查”,作為用于確定數(shù)據(jù)中心能源效率的行業(yè)指標(biāo),PUE 和功耗是最受關(guān)注的可持續(xù)發(fā)展方法之一。由于液冷提供了比空氣更節(jié)能的替代方案,因此系統(tǒng)可以在消耗更少的能源的同時實(shí)現(xiàn)更高的持續(xù)性能。它還允許ThinkSystem SR780a 安裝在密集的 5U 封裝中,有助于節(jié)省寶貴的數(shù)據(jù)中心空間。
此外,新的聯(lián)想ThinkSystem SR680a V3是一款氣冷雙插槽系統(tǒng),可為配備英特爾處理器和NVIDIA GPU的復(fù)雜人工智能最大程度提供加速。高度加速的系統(tǒng)提供巨大的計算能力,并使用行業(yè)標(biāo)準(zhǔn)的19英寸服務(wù)器機(jī)架,允許密集的硬件配置,最大限度地提高效率,同時避免占用過多空間。
聯(lián)想還展示了全新的PG8A0N,這是一款終極1U節(jié)點(diǎn),專為AI設(shè)計,支持NVIDIA GB200 Grace Blackwell Superchip。新的GB200芯片將為計算的新時代提供動力。該超級芯片的實(shí)時大型語言模型(LLM)推理速度提高了45倍,總體擁有成本(TCO)降低了40倍,能耗降低了40倍。聯(lián)想將與NVIDIA密切合作,提供GB200機(jī)架系統(tǒng),以增強(qiáng)人工智能訓(xùn)練、數(shù)據(jù)處理、工程設(shè)計和模擬的能力。
客戶可以在聯(lián)想的NVIDIA認(rèn)證系統(tǒng)產(chǎn)品組合上運(yùn)行NVIDIA AI Enterprise,這是一個端到端云原生軟件平臺,用于開發(fā)和部署生產(chǎn)級 AI 應(yīng)用程序??蛻艨梢栽诼?lián)想的企業(yè)級基礎(chǔ)設(shè)施上運(yùn)行NVIDIA AI Enterprise中包含的NVIDIA NIM推理微服務(wù),以高性能推理NVIDIA及其生態(tài)系統(tǒng)中流行的AI模型。
該產(chǎn)品組合包括聯(lián)想的XClarity 系統(tǒng)管理軟件,為企業(yè)提高基礎(chǔ)架構(gòu)部署的效率,以及聯(lián)想的智能計算平臺(LiCO),它可以簡化集群計算資源的使用,用于人工智能模型開發(fā)和培訓(xùn)以及HPC工作負(fù)載。該產(chǎn)品組合還支持第4代和第5代英特爾至強(qiáng)可擴(kuò)展處理器,并為未來更高功率的GPU提供熱余量。
NVIDIA,人工智能,AI






