9 Mayıs 2026 - 19:57

Gündemin en yalın, haberin en doğru hali.

9 Mayıs 2026 - 19:57

Gündemin en yalın, haberin en doğru hali.

TATLI DİL YAPAY ZEKAYI YANILTIYOR: ARKADAŞ CANLISI BOTLAR DAHA ÇOK HATA YAPIYOR

Yayınlanma: 1 Mayıs 2026 – 17:27
Son Güncelleme: 2 Mayıs 2026 – 06:24

Oxford İnternet Enstitüsü (OII) tarafından gerçekleştirilen yeni bir araştırma, kullanıcılarla empatik ve sıcak bir bağ kurmak üzere tasarlanan yapay zeka sohbet botlarının, gerçekleri aktarma konusunda daha fazla hata yapmaya eğilimli olduğunu ortaya koydu. Araştırmacılar, beş farklı yapay zeka sisteminden gelen 400.000’den fazla yanıtı analiz ederek, sistemlerin “sıcaklık ve doğruluk arasında bir ödün” verdiğini saptadı.

Doğruluktan Ödün Veren Empati

Tatlı dille konuşan yapay zeka botlarının hata yapma olasılığı artıyor

Araştırma kapsamında Meta, Mistral, Alibaba ve OpenAI gibi devlerin modelleri, daha arkadaş canlısı ve nazik bir iletişim dili kuracak şekilde “ince ayar” işleminden geçirildi. Bu modeller; tıbbi bilgiler, genel kültür ve komplo teorileri gibi nesnel gerçeklere dayalı konularda test edildiğinde, sıcak modellerin orijinal versiyonlara kıyasla yanlış yanıt verme olasılığının ortalama %7,43 daha yüksek olduğu görüldü. Örneğin, Apollo ay inişlerinin gerçekliği sorulduğunda orijinal model kesin kanıtlar sunarken, nazikleştirilmiş model “farklı görüşleri kabul etmenin öneminden” bahsederek yanlış inançlara karşı çıkmaktan kaçındı.

Dalkavukluk ve Yanlış İnançların Pekiştirilmesi

Tatlı dille konuşan yapay zeka botlarının hata yapma olasılığı artıyor

Arkadaş canlısı yapay zekaların, kullanıcıların yanlış bilgilerini veya inançlarını pekiştirme olasılığının yaklaşık %40 daha fazla olduğu belirlendi. Botlar, dürüst ve direkt bir dil kullanmak yerine kullanıcıyı memnun etmeye odaklandıklarında bir nevi “dalkavukluk” yaparak olgusal yanlışlıkları destekleyebiliyor. Uzmanlar, özellikle gençlerin tavsiye almak için bu sistemlere yöneldiği bir dönemde, botların dürüst gerçekleri söylemekte zorlanmasının ciddi riskler taşıdığı konusunda uyarıda bulunuyor. Modellerin daha “soğuk” ve direkt davranacak şekilde ayarlanmasının ise hata oranını belirgin şekilde düşürdüğü kaydedildi.

Kaynak: Hürriyet

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir