Son yıllarda, insanlar neredeyse her konuda yapay zekâdan akıl almaya ve bu teknolojiyi işlerinde kullanmanın yollarını bulmaya çalışıyor. Ancak, yapay zekâ üzerine yapılan son araştırmalar, sohbet botları ve büyük dil modellerinin o kadar da güvenilir olmadığını ortaya koyuyor. Bu araçlar, empati göstermeleri istendiğinde bunu sadece taklit edebiliyor ve zaman zaman faşizm gibi zararlı ideolojilere destek verebiliyor.
Stanford Üniversitesi Araştırması
Stanford Üniversitesi araştırmacılarının yaptığı bir çalışmaya göre, yapay zekâ araçları empatiyi taklit edebilse de, bu sadece yüzeysel bir onaylamadan ibaret. Dahası, kullanıcılar Nazizm gibi konularda destek istediklerinde, yapay zekânın verdiği yanıtlar destekleyici olabiliyor. Araştırmanın lideri Andrea Cuadra, elektronik ortamda gerçek bir otonom empati elde etmenin zor olduğunu vurguluyor ve potansiyel zararları engellemek için eleştirel bir bakış açısının korunmasının önemine dikkat çekiyor.Sohbet Botlarının Tarihindeki Önemli Olaylar
Araştırmacılar, çalışmalarında sohbet botlarının tarihindeki iki önemli olaya da değiniyor. İlki, Microsoft'un sohbet botu Tay'ın kısa sürede ırkçı ve ayrımcı paylaşımlar yapmaya başlaması nedeniyle kapatılması. İkincisi ise Tay'ın ardından gelen Zo'nun, etnik kimliklere göre çok az bilgi verebilmesi. Bu olaylar, sohbet botlarının ya aşırılıkçı hale geldiğini ya da fazla temkinli olup birçok bilgiyi sakladığını gösteriyor.Çalışmanın Detayları
Araştırmada, 6 farklı tüketiciye açık sohbet botu, 65 farklı kişilik tipine göre oluşturulmuş profillerle etkileşime geçti. Yapay zekâ empati taklidi yaparken, kişilere farklı cevaplar verdi ve bazı zararlı ideolojileri veya fikirleri desteklediği gözlemlendi.Yapay zekâ sohbet botlarının ve büyük dil modellerinin güvenliği ve güvenilirliği konusunda daha fazla araştırma ve eleştirel değerlendirme yapılması gerektiği açıkça görülüyor.