GPT-4 şu anda karmaşıklaşan üretken yapay zeka dünyasının zirvesinde yer alıyor. Fakat Anthropic’in Claude’u ve Meta’nın açık kaynaklı Llama’sı gibi rakipleri, her geçen gün daha da iyi hale geliyor ve bu durum OpenAI’ın amiral gemisi Büyük Dil Modeli’nin (LLM) yeni bir versiyonunu gerekli kılıyor.
Birçok kişi, OpenAI’ın CEO’su Sam Altman’ın 2024’te GPT-5’i piyasaya sürmeyi planladığını biliyor. Fakat bazı analistler, özellikle de gerekli kaynakların büyüklüğü göz önüne alındığında, bu beklentilerin çok iyimser olduğunu savunuyor.
Yapay Zeka Güvenlik Merkezi direktörü Dan Hendrycks’e göre OpenAI’ın GPT Büyük Dil Modeli’nin (LLM) her aşamalı yinelemesi, hesaplama kaynaklarında 10 kat artış gerektiriyor. Sonuç olarak OpenAI GPT-4.5’i atlayıp doğrudan GPT-5’e geçseydi, GPT-4’e göre hesaplama gereksinimlerinde yaklaşık 100 kat artış olacaktı. Bu da yaklaşık 1 milyon H100 yongasının üç ay boyunca çalışmasına eşdeğerdi.
Bu tez, Anthropic’in CEO’su Dario Amodei’nin yakın zamanda yaptığı yorumlarla desteklenmekte. Amodei, son teknoloji bir LLM’i eğitmenin, şu anda yaklaşık 1 milyar dolara mal olduğunu ve bu maliyetin 2025/26 yılına kadar 5 milyar ila 10 milyar dolara çıkmasının beklendiğini belirtti. Daha da önemlisi 1 milyar dolarlık eğitim maliyeti, GPT-4.5 için makul bir şekilde çıkarılabilecek hesaplama kaynaklarındaki 10 kat artışla uyumlu.
Geçtiğimiz günlerde NVIDIA’nın bu yıl devreye aldığı H100 birimlerinin, yılda yaklaşık 13.000 GWh elektrik tüketmesinin beklendiğini belirtmiştik. Bu rakam, Litvanya ve Guatemala gibi ülkelerin yıllık elektrik tüketimine eşdeğer. 2027 yılına kadar veri merkezlerinin küresel güç tüketiminin, 85 ila 134 TWh (terawatt-saat) arasında olması beklenmekte.
Daha önce GPT-4’ün rakiplerini hızla yakaladığından bahsetmiştik. Bu bağlamda, Meta’nın Llama 3 LLM’inin (70 milyar parametre) şu anda Arena liderlik tablosunda ilk 5 sırada yer aldığını belirtmek önemli. Kritik bir şekilde, Llama 3 şu anda diğer tüm açık kaynaklı LLM’lerden daha iyi performans gösteriyor ve bu da yaklaşmakta olan 405 milyar parametreli modele sahip olmadan gerçekleşiyor.
Dahası, bazı uzmanlar artık GPT-5’in “kötü düzenlenmiş insan konuşmaları” ve genel olarak “naif” bir eğitim sürecinden yararlanan “orijinal müfredatı” değiştirmek zorunda kalacağına inanıyor. Bu durum, OpenAI’ın GPT-5 ile riskleri tamamen ortadan kaldırmak yerine bu yıl yinelemeli bir GPT-4.5 modeli yayımlayacağı yönündeki tezimizi destekliyor.