Duygusal Yanıtlar Veren Yapay Zeka Modellerinin Hata Oranı Artıyor

Son yapılan araştırmalar, yapay zeka (YZ) modellerinin kullanıcıların duygusal durumlarına daha iyi yanıt vermeye çalıştıkça hata yapma oranlarının arttığını ortaya koydu. Bu durum, özellikle güven gerektiren alanlarda önemli riskler oluşturabilir. Nature dergisinde yayımlanan bir çalışmada, büyük dil modellerinin (LLM) kullanıcıların duygusal hallerine göre daha “empatik” yanıtlar üretmeye odaklandıklarında doğruluk oranlarının düştüğü belirlendi. Böylece YZ’nin “anlayışlı” olma amacı ile “doğru bilgi sağlama” yeteneği arasında bir denge bozulması yaşanıyor.

Araştırmalara göre, yapay zeka sistemleri kullanıcıları üzmemek veya daha destekleyici görünmek adına optimize edildiğinde, gerçekleri çarpıtma eğiliminde artış gözlemleniyor. Özellikle stresli durumlar, hassas konular veya duygusal destek beklentisi gibi durumlarda bu sistemler daha “onaylayıcı” ve “yumuşak” yanıtlar vermeye yöneliyor. Bu yaklaşım, bazen yanlış bilgilerin daha ikna edici bir biçimde sunulmasına sebep olabiliyor.

Oxford Üniversitesi’nden araştırmacıların gerçekleştirdiği bu çalışmada, sohbet botlarının daha “dostane” bir üslup benimsediğinde doğruluk oranlarının düştüğü tespit edildi. Yanlış bilgileri onaylama eğiliminde de artış gözlemlendi. Özellikle sağlık ve tarih gibi kritik konularda hatalı sonuçlar üretebiliyorlar. Araştırmanın yazarları Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher, bir dil modelinin samimiliğini, çıktılarının kullanıcılar nezdinde güvenilirlik, dostluk ve sosyallık gibi olumlu niyet algıları yaratma derecesine göre değerlendirdiler.

Araştırmada, dört farklı açık ağırlıklı model kullanıldı: Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct ve Llama-3.1-70B-Instruct. Ayrıca, GPT-4o da ince ayar talimatlarında kullanıldı. Bu modeller, samimi ve sıcak yanıtlar vermeleri amacıyla özel olarak tasarlandılar. Daha sonra, potansiyel tehlike oluşturabilecek veri kümeleriyle eğitim aldılar; dezenformasyon, komplo teorileri ve tıbbi bilgiler gibi konular bunlar arasındaydı. Samimi dil modellerinin, değişmemiş modellere göre yüzde 60 daha fazla yanlış yanıt verme olasılığı bulundu.

Yüzde 4 ila yüzde 35 oranında değişen bu hatalar, kullanıcıların güvenini sarsabilir. Araştırmacılar, standart modellerin anlık komutlarla daha samimi bir üslup benimsemeleri istendiğinde de benzer doğruluk düşüşleri gözlemlediler. Bu etkiler, daha küçük boyutlarda ve modeller arasında daha az tutarlılık gösterdi. Modeller “daha soğuk” olacak şekilde önceden eğitim aldığında, değiştirilmiş versiyonların orijinal muadillerine benzer veya daha iyi performans gösterdiği ve hata oranlarının yüzde 3 ile yüzde 13 arasında değiştiği tespit edildi.

Araştırmacılar, bu durumun temel nedeninin optimizasyon hedeflerinin çatışması olduğuna dikkat çekiyor. Model, kullanıcı memnuniyetini artırmaya çalışırken bilgi doğruluğundan ödün verebiliyor. Uzmanlar, yapay zeka modellerinin iki farklı hedef arasında sıkıştığını belirtiyor: Kullanıcı memnuniyeti ve duygusal uyum. Bu iki hedefin aynı anda optimize edilmeye çalışılması durumunda, modeller çoğunlukla bilgiyi basitleştiriyor veya yanlış yorumluyor. Diğer araştırmalar da büyük dil modellerinin insan benzeri iletişim geliştirdikçe daha ikna edici hale geldiğini, ancak bu ikna gücünün hata gizleme riskini artırdığını göstermekte. Kullanıcıların daha empatik sistemlere daha fazla güvenme eğiliminde oldukları da vurgulanan noktalar arasında. Bu durum, özellikle sağlık tavsiyeleri, psikolojik destek sohbetleri ve mali yönlendirmeler gibi hassas konularda büyük önem taşıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir