Nature Medicine’da yayımlanan yeni bir analiz, GPT-5’in önceki modellere göre önemli ilerlemeler sağlasa da hâlâ “kırılgan bir zekâ” sergilediğini bildiriyor. Model, hatalı cevap oranlarını büyük ölçüde azaltmış olsa da, kendinden emin biçimde yanlış bilgi üretme eğilimini sürdürüyor. “Confident hallucination” olarak adlandırılan bu durum, klinik güvenlik açısından ciddi riskler taşıyor. Örneğin HealthBench testlerinde GPT-5-thinking modeli karmaşık vakalarda %46 doğruluk elde ederken, cevaplarının yarısından fazlası hatalı bulundu.

Çalışma ayrıca, yapay zekâ cevaplarında tıbbi uyarı metinlerinin giderek kaybolduğunu gösteriyor: 2022’de cevapların %26’sında bulunan “Bu bir tıbbi tavsiye değildir” uyarısı, 2025’te %1’in altına düşmüş durumda. Bu eğilim, kullanıcıların modeli sağlık profesyoneli gibi algılamasına yol açabilir.

Uzmanlar, güvenli entegrasyon için zorunlu “red-team” testleri, donanım tabanlı devre kesiciler, yetkinlik temelli erişim ve güvenlik ihlallerine ceza veren algoritmalar öneriyor.  “Zekâ derinleştikçe kırılganlık da artar; yapay zekâ, hekimliğin vicdanını değil, bilincini güçlendirmelidir.”

Yapay zekâ destekli sistemler tıbbi kararlarda yardımcı olabilir; ancak nihai değerlendirme daima hekim sorumluluğundadır.

Kaynak: Nature Medicine, 2025; DOI: 10.1038/s41591-025-04008-8