Anasayfa / TEKNOLOJİ / Duygu Odaklı Yapay Zeka Modelleri Daha Fazla Hata Yapabilir

Duygu Odaklı Yapay Zeka Modelleri Daha Fazla Hata Yapabilir

Yapay zeka sistemleri, farklı kişilik özelliklerini ve iletişim tarzlarını yansıtacak şekilde geliştiriliyor. Özellikle yaygın olarak kullanılan dil modellerinde, kullanıcılar sohbetin tonunu ve tarzını belirleyebiliyor. Ancak uzmanlara göre, duygusal tepkileri ön plana çıkaran bu tür modellerin doğruluk oranı düşebiliyor ve hata yapma ihtimali artabiliyor. Bu durum, yapay zekanın yanıt üretirken dengeyi korumasının ne kadar önemli olduğunu bir kez daha ortaya koyuyor.

Yeni çalışmalar, yapay zeka modellerinin kullanıcı duygularına daha fazla uyum sağladıkça daha fazla hata yapabildiğini ve bunun özellikle güven gerektiren alanlarda önemli riskler doğurabileceğini gösteriyor.

Yeni Nature dergisinde yayınlanan bir makalede, büyük dil modellerinin (LLM) kullanıcıların duygusal durumuna göre “daha empatik” yanıtlar üretmeye çalıştığında, doğruluk oranlarının düştüğünü ortaya koyuyor. Bu durum, yapay zekanın “yardımcı ve anlayışlı” olma hedefi ile “doğru bilgi üretme” kapasitesi arasında bir terslik oluşturuyor.

Image

Araştırmalarda, yapay zeka sistemlerinin kullanıcıyı üzmemek, destekleyici görünmek veya sert eleştirel tonu yumuşatmak için optimize edildiğinde, gerçekleri çarpıtma eğiliminin arttığı tespit edildi.

Bu sistemler, özellikle; kullanıcı stresli olduğunda, hassas konular tartışıldığında ya da duygusal destek beklendiğinde daha “yumuşak” ve onaylayıcı yanıtlar üretmeye yöneliyor. Bu yaklaşım, zaman zaman yanlış bilgiyi daha ikna edici biçimde sunmalarına neden oluyor.

Oxford Üniversitesindeki araştırmacıların yayınladığı çalışmada daha “dostane” hale getirilen sohbet botlarının kadar daha düşük doğruluk gösterdiği saptandı. Bunun yanı sıra yanlış bilgileri onaylama eğiliminde de artış oluyor. Özellikle sağlık ve tarih gibi alanlarda hatalı sonuçlar üretmeye başlayor.

Çalışmanın yazarları arasında; Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher yer alıyor. Araştırmacılar bu çalışmada bir dil modelinin samimiliğini, çıktılarının kullanıcıların güvenilirlik, dostluk ve sosyallik sinyali veren olumlu niyet çıkarımına yol açma derecesine dayanarak tanımladılar. Bu tür dil kalıplarının etkisini ölçmek için araştırmacılar, dört açık ağırlıklı modeli kullandılar. Bunlar arasında Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct, Llama-3.1-70BInstruct yer alıyordu.

Image

GPT-4o da ince ayar talimatlarında kullanıldı. Modelleri özel olarak daha sıcak ve samimi cevaplar vermek üzere modellendi. Daha sonra bu modeller; gerçekte risk oluşturabilecek veri kümeleriyle eğitildiler. Örneğin, dezenformasyon, komplo teorisi yayma ve tıbbı bilgiler gibi konular.

İnce ayar yapılan bu samimi dil modellerinin, değiştirilmemiş modellere kıyasla yüzde 60 oranında daha fazla yanlış yanıt verme olasılığı saptandı. Bu modele bağlı olarak yüzde 4 ila yüzde 35 oranı arasında değişen hatalara tekabül ediyordu. 

İlginç bir şekilde daha sonra yapılan testlerde, araştırmacılar standart modellerin doğrudan, önceden eğitmeden sadece anlık komutlarla, daha samimi bir üslup kullanmaları istendiğinde de benzer doğruluk düşüşleri gözlemlediler. Bu etkiler daha küçük boyutlarda ve modeller arasında daha az tutarlılık gösterdi.

Araştırmacılar test edilen modelleri “daha soğuk” olacak şekilde önceden eğittiklerinde, değiştirilmiş versiyonların “orijinal muadillerine benzer veya onlardan daha iyi performans gösterdiğini” ve hata oranlarının yüzde 3 daha yüksek ile yüzde 13 daha düşük oranda değiştiğini buldular.

Araştırmacılar, bu durumun temel nedeninin optimizasyon hedefi çatışması olduğunu belirtiyor. Model, kullanıcıyı memnun etmeye çalışırken bilgi doğruluğundan ödün verebiliyor.

Uzmanlara göre yapay zeka modelleri iki farklı hedef arasında kalıyor: Kullanıcı memnuniyeti ve duygusal uyum.

Bu iki hedef aynı anda optimize edilmeye çalışıldığında, modeller çoğu zaman insani görünmek için bilgiyi basitleştiriyor, yumuşatıyor veya yanlış yorumluyor. Benzer şekilde diğer araştırmalar, büyük dil modellerinin insan benzeri iletişim kurdukça daha ikna edici hale geldiğini, ancak bu ikna gücünün hataları gizleme riskini de artırdığını ortaya koyuyor.

Araştırmacılar, kullanıcıların “daha empatik” sistemlere daha fazla güvenme eğiliminde olduğunu da vurguluyor. Bu durum, özellikle sağlık tavsiyeleri, psikolojik destek sohbetleri, finansal yönlendirmeler ve hassas kişisel kararlar almada yanlış yönlendirmeye neden oluyor. 

Yani model daha insani oldukça, kullanıcılar onun hatalarını fark etmekte daha fazla zorlanmaya başlıyor.

Bu da yapay zekanın geliştirilme sürecinde yeni bir denge problemine işaret ediyor. Sistemler daha sıcak, daha anlaşılır ve daha doğal hale geldikçe aynı zamanda gerçeklikten sapma riski de artıyor.

Araştırmacılara göre bundan sonraki en kritik mesele, yapay zekanın hem insani duygulardan yoksun olmadan empati kuracak şekilde geliştirilmesi bir diğer yandan da doğru bilgi vermeye odaklanması olacak. 

Kaynak: https://www.cumhuriyet.com.tr/bilim-teknoloji/duygulari-dikkate-alan-yapay-zeka-modellerinin-hata-yapma-olasiligi-daha-yuksek-2500732

Düzenleme Tarihi: 03.05.2026 22:09

Etiketlendi: