Seoul Economic Daily'nin isimsiz endüstri kaynaklarına dayandırdığı haberine göre Samsung Electronics, Nvidia tarafından yürütülen değerlendirme testlerini geçtikten sonra 8 katmanlı Yüksek Bant Genişlikli Bellek 3 (HBM3) yongalarının büyük ölçekli üretimine başladı.
Bu gelişme, Samsung'un Nvidia'ya (NVDA (NASDAQ:NVDA)) sağlamak istediği sofistike HBM3E yongalarının gerekli kalite kriterlerini karşılama olasılığını artırıyor.
HBM yongaları, üstün bellek bant genişliği ve verimlilikleri nedeniyle yapay zeka (AI) gelişmelerinin mevcut dalgalanmasında giderek daha önemli hale geliyor. Bu özellikler daha hızlı veri işleme ve gelişmiş yapay zeka uygulama performansına katkıda bulunuyor.
Bu yongalar, kapsamlı veri koleksiyonlarına hızlı erişim sunarak ve yanıt sürelerini azaltarak derin öğrenme ve sinir ağı eğitimi gibi yapay zeka görevlerinin yoğun işlem ihtiyaçlarını karşılıyor.
Rapor doğruysa, bu Samsung için önemli bir ilerlemeye işaret ediyor. Samsung'un HBM çipleri daha önce aşırı ısınma ve aşırı güç kullanımıyla ilgili sorunlarla karşılaşmış, bu da Reuters tarafından daha önce açıklandığı gibi Nvidia'nın Amerikan şirketinin yapay zeka işlemcilerine entegrasyon standartlarını karşılayamamasına yol açmıştı.
Şimdiye kadar Samsung'un yerel rakibi SK Hynix, Haziran 2022'den bu yana Nvidia'ya HBM3 yongaları sağlıyordu ve Mart ayı sonlarında adı açıklanmayan bir müşteriye HBM3E yongaları teslim etmeye başladı ve bu kaynakların Nvidia olduğunu doğruladı.
Bu arada, bir diğer önde gelen HBM üreticisi olan Micron (MU) da Nvidia'ya HBM3E çipleri tedarik etme niyetini açıkladı.
Nvidia'nın yapay zeka uygulamaları için dünya çapındaki GPU pazarının yaklaşık %80'ini kontrol ettiği düşünüldüğünde, Nvidia'nın kalite standartlarına uymak HBM üreticileri için çok önemlidir. Bu alanda başarı elde etmek, sadece iyi bir itibarı korumak için değil, aynı zamanda kâr artışını teşvik etmek için de hayati önem taşıyor.
Bu makale yapay zeka yardımıyla üretilmiş ve çevrilmiş ve bir editör tarafından incelenmiştir. Ek ayrıntılar için Hüküm ve Koşullarımıza bakın.