OpenAI’nin uzun süredir beklenen GPT-5 dil modeli piyasaya sürüleli henüz bir ay oldu ancak şimdiden şaşırtıcı derecede çok sayıda yanlış bilgi üretmesiyle gündemde.
Reddit kullanıcılarından yapay zekâ uzmanlarına kadar birçok kişi, GPT-5’in “doktora seviyesinde zekâ” iddiasının ciddi şekilde sorgulanması gerektiğini söylüyor.
Reddit’te bir kullanıcı, GPT-5’in temel gerçekler konusunda bile verdiği yanıtların yarısından fazlasının yanlış olduğunu fark etti. Kullanıcı, bazı cevapların “o kadar hatalı” olduğunu belirtti ki, şüphelenip kontrol ettiğinde ciddi hatalarla karşılaştı. Örneğin, Polonya’nın gayri safi yurt içi hasılası (GSYİH) iki trilyon dolar olarak verilmişti; oysa Uluslararası Para Fonu’na göre bu rakam yaklaşık 979 milyar dolar.
Tüm bu örnekler, GPT-5’in henüz “doktora seviyesinde zekâ” iddiasını karşılamaktan uzak olduğunu gösteriyor. Reddit kullanıcısının şu sözleri durumu özetliyor: “Bu hataları yalnızca bazı cevaplar çok saçma geldiği için fark ettim. Peki ya kontrol etmediğim ve doğru sandığım kaç bilgi var?”
Bu haberler de ilginizi çekebilir:
Bu tür hatalar, yapay zekâ dünyasında “halüsinasyon” olarak adlandırılıyor: AI modellerinin son derece özgüvenli biçimde uydurma bilgiler sunması. OpenAI, GPT-5’in önceki modellere göre daha az halüsinasyon ürettiğini iddia etse de, kullanıcı deneyimleri bu iddiayı sorguluyor.
OpenAI, 5 Eylül tarihli blog yazısında halüsinasyonların nedenlerini açıklamaya çalıştı. Yazıda, “Halüsinasyonlar kısmen mevcut değerlendirme yöntemlerinin yanlış teşvikler oluşturmasından kaynaklanıyor” denildi. Yani modeller, bir şeyden emin olmasalar bile doğruyu tahmin etmeye çalışıyorlar. Anthropic’in Claude modeli gibi bazı yapay zekalar “bilmiyorum” diyebilecek şekilde eğitilirken, OpenAI’nin modelleri bu yetiye sahip değil.