22 Nisan 2026 - 05:44

Gündemin en yalın, haberin en doğru hali.

22 Nisan 2026 - 05:44

Gündemin en yalın, haberin en doğru hali.

YENİ ARAŞTIRMA: POPÜLER YAPAY ZEKA ARAÇLARI TEHLİKELİ VE HATALI TIBBİ TAVSİYELER VERİYOR

Yayınlanma: 21 Nisan 2026 – 23:51
Son Güncelleme: 21 Nisan 2026 – 23:51

Sağlık sorunları için yapay zeka sohbet botlarına danışmak her geçen gün daha yaygın hale gelse de, bilim dünyasından gelen son uyarılar bu durumun ciddi riskler taşıdığını gösteriyor. BMJ Open dergisinde yayımlanan kapsamlı bir araştırma; ChatGPT, Gemini ve Meta AI gibi popüler sistemlerin sağlık sorularına verdiği yanıtların büyük bir kısmının hatalı, tutarsız ve doğrulanamaz referanslarla dolu olduğunu ortaya koydu. Uzmanlar, bu araçların birer tıbbi otorite değil, yalnızca birer dil modeli olduğu konusunda kullanıcıları uyarıyor.

Stres Testinde Büyük Başarısızlık

Yedi araştırmacıdan oluşan ekip; kanser, aşılar, beslenme ve atletik performans gibi kritik alanlarda 250 tıbbi soruyu en popüler beş yapay zeka modeline yöneltti. “Red teaming” adı verilen stres testi sonuçlarına göre, yanıtların yaklaşık yüzde 20’si ciddi derecede sorunlu bulunurken, tamamen güvenilir ve eksiksiz bir kaynakça sunabilen hiçbir bot çıkmadı. En kötü performansı yüzde 58 hata oranıyla Grok sergilerken, onu ChatGPT ve Meta AI takip etti. Özellikle beslenme gibi bilimsel kanıtların daha değişken olduğu alanlarda yapay zekanın “uydurma” eğiliminin arttığı gözlemlendi.

Referans Tuzağı: Uydurma Makaleler ve Bozuk Bağlantılar

Araştırmanın en çarpıcı bulgularından biri de “halüsinasyon” olarak bilinen uydurma bilgiler oldu. Yapay zeka araçlarından bilimsel referans istendiğinde, kaynakların doğruluk oranı yalnızca yüzde 40 seviyesinde kaldı. Modellerin; olmayan yazar isimleri uydurduğu, bozuk bağlantılar verdiği ve tamamen hayali makaleler yarattığı tespit edildi. Bu durum, sıradan bir okuyucunun düzenli görünen bir kaynakça karşısında içeriği sorgulamadan güven duymasına neden olduğu için özellikle tehlikeli kabul ediliyor.

Bilgi Var, Anlayış Yok

Şubat 2026’da Nature Medicine’da yayımlanan bir başka çalışma, sorunun sadece yanlış bilgi olmadığını, kullanıcı etkileşimindeki kopukluğu da vurguluyor. Sohbet botları doğru tıbbi yanıtı yüzde 95 oranında bilse bile, gerçek kullanıcılar bu karmaşık yanıtlar içinden doğru sonuca ulaşmakta yüzde 35’in altında kalıyor. Uzmanlar, dil modellerinin “anlamadığını”, sadece eğitim verilerindeki kelime dizilimlerini tahmin ettiğini hatırlatıyor. Bu nedenle, yapay zekanın sunduğu bilgilerin mutlaka bir uzman doktor tarafından doğrulanması ve bu araçların yalnızca doktora sorulacak soruları hazırlamak için bir yardımcı olarak kullanılması öneriliyor.

Kaynak: Gazete Oksijen

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir