Nvidia, amiral gemisi yapay zeka (AI) çipi H200'de yaptığı geliştirmeleri duyurdu ve geliştirilmiş versiyonu önümüzdeki yıl Amazon (NASDAQ:AMZN).com, Alphabet (NASDAQ:GOOGL)'s Google ve Oracle ile işbirliği içinde sunmayı planlıyor. Çipin yükseltmeleri öncelikle, daha büyük miktarlarda verinin daha hızlı işlenmesine olanak tanıyan yüksek bant genişliğine sahip belleğe odaklanıyor.
Nvidia'nın mevcut en üst seviye H100 çipinin yerini alacak olan H200 çipi, daha büyük yapay zeka sistemlerinin ihtiyaçlarını karşılamak üzere tasarlandı. Yapay zeka çipi pazarında lider bir oyuncu olan Nvidia, OpenAI'nin ChatGPT hizmeti de dahil olmak üzere bir dizi üretken yapay zeka hizmetine güç veriyor. Bu hizmetlerin, gelişmiş bellek kapasitesi ve çipin işlem elemanlarına daha hızlı bağlantı sağlaması nedeniyle H200'ün piyasaya sürülmesiyle sorgulara daha hızlı yanıt vermesi bekleniyor.
Yükseltilmiş çip, H100'de bulunan 80 gigabayttan önemli bir artışla 141 gigabayt yüksek bant genişliğine sahip belleğe sahip olacak. Nvidia H200 için bellek tedarikçilerini açıklamamış olsa da, Micron Technology daha önce Nvidia için bir tedarikçi olma niyetini belirtmişti. Buna ek olarak Nvidia, kısa süre önce yapay zeka çiplerinin satışlarda yeniden canlanmaya katkıda bulunduğunu bildiren Güney Koreli SK Hynix'ten bellek satın alıyor.
H200 çipi Amazon Web Services, Google Cloud, Microsoft (NASDAQ:MSFT) Azure ve Oracle Cloud Infrastructure dahil olmak üzere çeşitli bulut hizmeti sağlayıcıları aracılığıyla kullanıma sunulacak. Özel yapay zeka bulut sağlayıcıları CoreWeave, Lambda ve Vultr da H200 çiplerine erişim sunacak. Bu hamlenin yapay zeka hizmetlerinin performansını hızlandırması ve gelişen yapay zeka teknolojisi ortamına katkıda bulunması bekleniyor.
Bu makale yapay zekanın desteğiyle oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Şart ve Koşullar bölümümüze bakın.