OpenAI’in yeni yapay zekâ modeli GPT-5 neden hatalı bilgi veriyor?

OpenAI’nin yeni yapay zekâ modeli GPT-5 henüz bir ayda onlarca yanlış bilgi üretti: “Doktora seviyesinde zekâ” iddiası sorgulanır hale geldi.

  • ü
  • 11 Eylül 2025
  • ü
  • Teknoloji

OpenAI’nin uzun süredir beklenen GPT-5 dil modeli piyasaya sürüleli henüz bir ay oldu ancak şimdiden şaşırtıcı derecede çok sayıda yanlış bilgi üretmesiyle gündemde.

Reddit kullanıcılarından yapay zekâ uzmanlarına kadar birçok kişi, GPT-5’in “doktora seviyesinde zekâ” iddiasının ciddi şekilde sorgulanması gerektiğini söylüyor.

YANLIŞ BİLGİLER YARI YARIYA GERÇEKLERİ GÖLGELİYOR

Reddit’te bir kullanıcı, GPT-5’in temel gerçekler konusunda bile verdiği yanıtların yarısından fazlasının yanlış olduğunu fark etti. Kullanıcı, bazı cevapların “o kadar hatalı” olduğunu belirtti ki, şüphelenip kontrol ettiğinde ciddi hatalarla karşılaştı. Örneğin, Polonya’nın gayri safi yurt içi hasılası (GSYİH) iki trilyon dolar olarak verilmişti; oysa Uluslararası Para Fonu’na göre bu rakam yaklaşık 979 milyar dolar.

Tüm bu örnekler, GPT-5’in henüz “doktora seviyesinde zekâ” iddiasını karşılamaktan uzak olduğunu gösteriyor. Reddit kullanıcısının şu sözleri durumu özetliyor: “Bu hataları yalnızca bazı cevaplar çok saçma geldiği için fark ettim. Peki ya kontrol etmediğim ve doğru sandığım kaç bilgi var?”


Bu haberler de ilginizi çekebilir:

 

Bu tür hatalar, yapay zekâ dünyasında “halüsinasyon” olarak adlandırılıyor: AI modellerinin son derece özgüvenli biçimde uydurma bilgiler sunması. OpenAI, GPT-5’in önceki modellere göre daha az halüsinasyon ürettiğini iddia etse de, kullanıcı deneyimleri bu iddiayı sorguluyor.

OPENAI: DEĞERLENDİRME YÖNTEMLERİ YANLIŞ TEŞVİK EDİYOR

OpenAI, 5 Eylül tarihli blog yazısında halüsinasyonların nedenlerini açıklamaya çalıştı. Yazıda, “Halüsinasyonlar kısmen mevcut değerlendirme yöntemlerinin yanlış teşvikler oluşturmasından kaynaklanıyor” denildi. Yani modeller, bir şeyden emin olmasalar bile doğruyu tahmin etmeye çalışıyorlar. Anthropic’in Claude modeli gibi bazı yapay zekalar “bilmiyorum” diyebilecek şekilde eğitilirken, OpenAI’nin modelleri bu yetiye sahip değil.

Velev'i Google Haberler üzerinden takip edin

ÖNERİLEN İÇERİKLER