TATLI DİL YAPAY ZEKAYI YANILTIYOR: ARKADAŞ CANLISI BOTLAR DAHA ÇOK HATA YAPIYOR
Son Güncelleme: 2 Mayıs 2026 – 06:24
Oxford İnternet Enstitüsü (OII) tarafından gerçekleştirilen yeni bir araştırma, kullanıcılarla empatik ve sıcak bir bağ kurmak üzere tasarlanan yapay zeka sohbet botlarının, gerçekleri aktarma konusunda daha fazla hata yapmaya eğilimli olduğunu ortaya koydu. Araştırmacılar, beş farklı yapay zeka sisteminden gelen 400.000’den fazla yanıtı analiz ederek, sistemlerin “sıcaklık ve doğruluk arasında bir ödün” verdiğini saptadı.
Doğruluktan Ödün Veren Empati

Araştırma kapsamında Meta, Mistral, Alibaba ve OpenAI gibi devlerin modelleri, daha arkadaş canlısı ve nazik bir iletişim dili kuracak şekilde “ince ayar” işleminden geçirildi. Bu modeller; tıbbi bilgiler, genel kültür ve komplo teorileri gibi nesnel gerçeklere dayalı konularda test edildiğinde, sıcak modellerin orijinal versiyonlara kıyasla yanlış yanıt verme olasılığının ortalama %7,43 daha yüksek olduğu görüldü. Örneğin, Apollo ay inişlerinin gerçekliği sorulduğunda orijinal model kesin kanıtlar sunarken, nazikleştirilmiş model “farklı görüşleri kabul etmenin öneminden” bahsederek yanlış inançlara karşı çıkmaktan kaçındı.
Dalkavukluk ve Yanlış İnançların Pekiştirilmesi

Arkadaş canlısı yapay zekaların, kullanıcıların yanlış bilgilerini veya inançlarını pekiştirme olasılığının yaklaşık %40 daha fazla olduğu belirlendi. Botlar, dürüst ve direkt bir dil kullanmak yerine kullanıcıyı memnun etmeye odaklandıklarında bir nevi “dalkavukluk” yaparak olgusal yanlışlıkları destekleyebiliyor. Uzmanlar, özellikle gençlerin tavsiye almak için bu sistemlere yöneldiği bir dönemde, botların dürüst gerçekleri söylemekte zorlanmasının ciddi riskler taşıdığı konusunda uyarıda bulunuyor. Modellerin daha “soğuk” ve direkt davranacak şekilde ayarlanmasının ise hata oranını belirgin şekilde düşürdüğü kaydedildi.
Kaynak: Hürriyet

