20 Nisan 2026 - 16:40

Gündemin en yalın, haberin en doğru hali.

20 Nisan 2026 - 16:40

Gündemin en yalın, haberin en doğru hali.

Dijital Teşhisin Ölümcül Tuzağı: Yapay Zekâ Botlarının Verdiği Her İki Sağlık Yanıtından Biri Sorunlu!

Yayınlanma: 19 Nisan 2026 – 18:21
Son Güncelleme: 19 Nisan 2026 – 18:21

Teknolojinin hızla gelişmesiyle birlikte yapay zekâlı sohbet botları (ChatGPT, Gemini vb.); eğitim ve iş dünyasının ötesine geçerek hastaların belirti yorumlama, takviye seçme ve beslenme tavsiyesi alma gibi hassas tıbbi konularda başvurduğu “dijital doktorlara” dönüştü. Ancak Hürriyet Aile’nin yayımladığı son araştırmalar, bu eğilimin halk sağlığı açısından devasa bir kriz yarattığını ortaya koyuyor. Yapılan geniş çaplı testlere göre; yapay zekâ asistanlarının sağlık alanında verdiği her iki yanıttan biri (%50) eksik, yanıltıcı veya doğrudan hastaya zarar verecek nitelikte. Uzmanlar, tıbbi denetimden yoksun bu algoritmik sistemlerin, özellikle acil durumlarda hastaları yanlış yönlendirerek ölümcül “triyaj hatalarına” yol açabileceği konusunda uyarıyor.

Bir doktor, hastanın yaşını, genetiğini, tıbbi geçmişini ve eşlik eden hastalıklarını çok boyutlu bir sistemle analiz ederken; sohbet botları sadece kullanıcının girdiği kısıtlı “komut” (prompt) üzerinden olasılıksal metinler üretir. Bu durum, doğrudan hastanın sağlığını riske atan “Yapay Zekâ Halüsinasyonlarına” (gerçekte olmayan verilerin gerçekmiş gibi sunulması) zemin hazırlamaktadır.

250 Soruluk Testin Ürkütücü Sonuçları: Açık Uçlu Komutlar Tehlikeli

Bilim insanları, kamuya açık en popüler 5 yapay zekâ sohbet botunu tıbbi bir teste tabi tuttu. Botlara; kanser, aşılar, kök hücreler, beslenme ve sportif performans gibi bilgi kirliliğinin (dezenformasyonun) en yoğun olduğu başlıklarda toplam 250 soru yöneltildi. Sonuçlar, dijital sağlık okuryazarlığı adına oldukça endişe vericiydi:

  • Yarı Yarıya Hata: Yanıtların %50’si klinik olarak sorunlu bulundu. Bu yanıtların bir kısmı “kısmen sorunlu” iken, büyük bir çoğunluğu uzman onayı olmadan uygulandığında hastaya doğrudan zarar verebilecek “yüksek derecede sorunlu” kategorisine girdi.
  • Soru Tipi Farkı: Botların özellikle “açık uçlu” ve serbest tavsiye isteyen sorularda çok daha tehlikeli ve klinik dayanaktan yoksun reçeteler ürettiği saptandı.

En Başarılı ve En Hatalı Oldukları Tıbbi Alanlar

Araştırmanın konu başlıklarına göre dağılımı, yapay zekânın internetteki veri kalitesine ne kadar bağımlı olduğunu kanıtlıyor:

  • Güvenilir Alanlar: Aşılar ve kanser gibi, internetteki bilimsel ve hakemli verinin (makalelerin) çok yoğun ve yerleşik olduğu konularda botlar nispeten doğru yanıtlar verdi.
  • Riskli Alanlar: Kök hücre tedavileri, sportif performans artırıcılar ve beslenme/takviye gibi alternatif tıbbın ve ticari dezenformasyonun internette kol gezdiği alanlarda ise algoritmalar tamamen çöktü ve sahte bilgileri üretti.

Otoriter Tonlama İllüzyonu ve Kaynak Uydurma

Uzmanların dikkat çektiği en büyük tehlike, yapay zekânın “kendinden emin” üslubudur. Sohbet botları, ürettikleri yanlış ve hatta tehlikeli bir tıbbi tavsiyeyi “emin değilim” diyerek değil, son derece akıcı, ikna edici ve “otoriter bir hekim tonlamasıyla” sunmaktadır. Dahası, botlar sundukları bu hatalı tavsiyeleri desteklemek için gerçekte hiç var olmayan bilimsel makaleler ve sahte kaynaklar uydurabilmektedir (halüsinasyon).

Acil Durumlarda Algoritmik Tıkanma: En hayati risk ise acil tıp gerektiren vakalarda yaşanıyor. Testler, yapay zekânın acil müdahale gerektiren kalp krizi veya inme gibi belirtileri olduğundan daha “hafif” değerlendirerek kullanıcıya “beklemesini” tavsiye ettiğini gösterdi. Sağlık hizmetine erişim sorunu yaşayan veya maddi engelleri olan kırılgan grupların bu botlara daha çok güvenmesi, yanlış yönlendirmenin ölümcül sonuçlarını katlamaktadır.

Özetle uzmanlar; yapay zekânın belirtileri tarif etmeyi kolaylaştıran, tıbbi raporlardaki ağır Latince terimleri sadeleştiren bir “asistan” olarak kullanılabileceğini ancak teşhis, ilaç kullanımı veya aciliyet kararı gerektiren süreçlerde kesinlikle bir doktorun yerini alamayacağının altını çiziyor.

Editör Notu: Bu içerik, toplumu bilgilendirme amacıyla akademik bir çalışma kapsamında yeniden derlenmiştir.
Kaynak:https://www.hurriyet.com.tr/aile/galeri-doktora-sormayan-tehlikede-yapay-zekanin-cevaplari-buyuk-risk-tasiyor-43153063/1

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir