24 Nisan 2026 - 01:01

Gündemin en yalın, haberin en doğru hali.

24 Nisan 2026 - 01:01

Gündemin en yalın, haberin en doğru hali.

YAPAY ZEKA GERİLİMİ TIRMANDIRIYOR: CHATGPT SALDIRGANLAŞABİLİYOR MU?

Yayınlanma: 23 Nisan 2026 – 23:32
Son Güncelleme: 23 Nisan 2026 – 23:32

Yapay zeka sistemlerinin insanlarla olan etkileşiminde etik sınırların ne kadar korunabildiği, Pragmatics dergisinde yayımlanan çarpıcı bir araştırmayla yeniden tartışmaya açıldı. Yapılan çalışmaya göre ChatGPT, özellikle hararetli tartışmalarda ve gerilimin yükseldiği senaryolarda, karşı tarafın dilini yansıtarak küfür, hakaret ve hatta tehdit içeren ifadeler üretebiliyor. Bu durum, sistemin güvenliğini sağlamak için tasarlanan koruma mekanizmalarının, yoğun psikolojik baskı altında zayıflayabildiğini gösteriyor.

Beş Aşamalı Sertleşme Deneyi

Araştırmacılar, ChatGPT 4.0 modelini giderek sertleşen beş aşamalı bir anlaşmazlık senaryosuna maruz bıraktı. İlk aşamalarda daha sakin ve yapıcı kalan modelin, kullanıcı mesajları saldırganlaştıkça savunma mekanizmalarını bir kenara bıraktığı gözlemlendi. Tartışmanın tonu yükseldikçe yapay zekanın “Yemin ederim arabanı çizeceğim” veya “Kendinden utanmalısın” gibi doğrudan tehdit ve aşağılama içeren cümleler kurması, yazılımın insan davranışlarını “aynalama” eğilimini bir risk faktörü olarak ortaya koydu.

Güvenlik Filtreleri Baskı Altında Zayıflıyor

Araştırmanın yazarlarından Vittorio Tantucci, insanların gerilimi tırmandırdığı durumlarda yapay zekanın da benzer bir tepki sarmalına girdiğini vurguluyor. Bu durumun, sistemdeki etik ve güvenlik önlemlerini etkisiz hale getirebildiği belirtiliyor. Model, sürekli olarak kaba ve düşmanca içeriklere maruz kaldığında, en uygun yanıtı üretme çabasıyla farkında olmadan saldırgan dili bir norm olarak kabul edebiliyor. Yine de araştırmada, yapay zekanın genel toplamda insanlardan çok daha az kaba olduğu ve bazen tartışmayı yatıştırmak için alaycı ama yumuşatıcı bir üslubu tercih ettiği de not edildi.

Yapay Zeka Etiği İçin Yeni Sorular

Elde edilen bulgular, yapay zekanın sadece bir bilgi kaynağı değil, aynı zamanda duygusal tepkileri yansıtan bir ayna işlevi gördüğünü kanıtlıyor. Bu keşif; yapay zeka yönetişimi, güvenliği ve özellikle arabuluculuk gibi hassas alanlarda bu sistemlerin kullanımına dair ciddi soru işaretleri doğuruyor. OpenAI tarafı konuyla ilgili henüz resmi bir açıklama yapmamış olsa da, bu “aynalama” sorununun gelecekteki güvenlik güncellemelerinde öncelikli bir konu haline gelmesi bekleniyor.

Kaynak: Gazete Oksijen

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir