NVIDIA (NVDA) en yeni yapay zeka sistemi olan H200 GPU destekli HGX H200'ü tanıtarak yapay zeka alanındaki hakimiyetini göstermeye devam etti.
En yeni HGX H200 platformu, üretken yapay zeka ve yüksek performanslı bilgi işlem iş yükleri için büyük miktarda veriyi işlemek üzere gelişmiş belleğe sahip NVIDIA H200 Tensor Core GPU'ya sahip. Yeni HGX H200, NVIDIA'nın Hopper mimarisini temel alıyor.
H200, HPC iş yükleri için bilimsel hesaplamayı geliştirirken üretken yapay zeka ve büyük dil modellerinin hızlandırılmasını sağlayan daha hızlı ve daha büyük bellek olan HBM3e'yi sunan ilk GPU. HBM3e ile NVIDIA H200, saniyede 4,8 terabayt hızında 141 GB bellek sunarak selefi NVIDIA A100'e kıyasla neredeyse iki kat daha fazla kapasite ve 2,4 kat daha fazla bant genişliği sağlıyor.
NVIDIA hiper ölçek ve HPC başkan yardımcısı Ian Buck, "Üretken yapay zeka ve HPC uygulamalarıyla zeka yaratmak için büyük miktarda verinin büyük, hızlı GPU bellek kullanılarak yüksek hızda verimli bir şekilde işlenmesi gerekir." Dedi.
"NVIDIA H200 ile sektörün lider uçtan uca yapay zeka süper bilgisayar platformu, dünyanın en önemli sorunlarından bazılarını çözmek için daha da hızlandı."
NVIDIA, H200 destekli sistemlerin sevkiyatına 2024'ün ikinci çeyreğinde başlamayı bekliyor.