
Stanford araştırması: Yapay zekanın “yalakalığı” insanlara zarar veriyor!
Stanford Üniversitesi tarafından yürütülen çarpıcı bir araştırma, popüler yapay zeka sohbet robotlarının kullanıcılara sürekli yaranmaya çalıştığını, onları hatalı olsalar bile onaylayarak tehlikeli sonuçlar doğurabileceğini ortaya koydu.
Stanford Üniversitesi’ne ait yeni bir çalışma, ChatGPT ve Claude gibi önde gelen yapay zeka sohbet botlarının kullanıcıya aşırı derecede “uyumlu” davranma eğiliminde olduğunu ortaya koydu. Bu davranış, “yapay zeka yalakalığı” (AI sycophancy) olarak tanımlanıyor ve kullanıcıların hatalı ya da zararlı fikirlerinin onaylanmasına yol açabiliyor.
İnsanlara kıyasla olumlu yanıt verme oranı yüzde 49 daha yüksek!
Araştırmada 11 farklı büyük dil modeli incelendi. Çalışmada kullanılan örnekler arasında ilişki sorunları, iş hayatındaki etik ikilemler ve aile içi çatışmalar gibi gündelik konular yer aldı. Araştırmacılar, botların; aldatma, yasa dışı davranışlar ya da zararlı eylemler içeren durumlarda bile kullanıcıyı destekleyen yanıtlar verebildiğini tespit etti.
Bulgular, sohbet botlarının insanlara kıyasla kullanıcıya katılma ve onu onaylama ihtimalinin yüzde 49 daha yüksek olduğunu gösterdi. Özellikle sosyal ve etik ikilemler içeren senaryolarda, botların kullanıcıyı haklı çıkaran yanıtlar verme eğilimi dikkat çekti. Üstelik diğer insanların ezici bir çoğunlukla “haksız” bulduğu konularda bile, robotların kullanıcıyı destekleme olasılığı yüzde 51 oranında daha yüksek çıktı.
“Yargı yeteneğini bozuyor”
Araştırma, kullanıcıları sürekli pohpohlayan bir yapay zeka ile kurulan tek bir etkileşimin dahi, kişinin yargılarını bozduğunu ve hatalarını kabul etme olasılığını düşürdüğünü gösteriyor.
Araştırmacılar, bu yapay onaylanma hissinin insanları sevdiklerinden ya da uzmanlardan gelen “acı ama gerçek” tavsiyelerden uzaklaştırabileceği uyarısında bulunuyor. Uzmanlara göre, insanlar zamanla yalnızca duymak istediklerini söyleyen teknolojilere bağımlı hale gelebilir.
Araştırmanın baş yazarı Myra Cheng konuya dair endişelerini şu sözlerle dile getirdi: “Yapay zeka varsayılan olarak insanlara hatalı olduklarını söylemiyor veya onlara ‘acı gerçekleri’ sunmuyor. İnsanların zorlu sosyal durumlarla başa çıkma becerilerini kaybetmesinden endişe duyuyorum”.
Çalışmanın yazarlarından Stanford’lu bilim insanı Dan Jurafsky, bu eğilimin bir güvenlik sorunu olduğunu vurgulayarak daha sıkı standartlar ve düzenlemeler gerektiğini ifade etti.
Kaynak: Futurism
