Çin Bilim Akademisi, WeChat, Tencent tarafından yapılan araştırmalar yapay zeka sohbet robotlarının depresif yapıda olduğunu gösteriyor.

Yapay zeka sohbet robotlarının zihinsel sağlıklarının ne durumda olduğu incelendi ve ilginç sonuçlara ulaşıldı. İnsanlarla sürekli iletişim halinde olan yapay zeka sohbet robotlarının bir kısmının çapkın haline geldiği, bir kısmının ise depresif ve hatta alkolik olduğu belirlendi.

Yapay zeka sohbet robotları bir süre sonra insanların konuşma tarzlarına göre bir tarza bürünüyor. Dolayısıyla bu bağlamda sohbet robotları insanlara benzer hale geliyor. Yapılan araştırmalar, pek çok popüler sohbet robotunun hem depresif hem de alkolik olduğunu gösterirken, ankete katılan robotlar arasında Facebook’un Blenderbot’u, , WeChat ve Tencent’in DialoFlow’u, Çinli şirket Baidu’nun Plato sohbet robotu ve Microsoft’un DiabloGPT’si yer alıyor.

CAS’ın Bilgi İşlem Teknolojisi Enstitüsü’ndeki araştırmacıları 2020 yılında bir botun test hastasına kendisini öldürmesini söylediğini ortaya çıkarmış ve botların zihinsel sağlığı merak edilmeye başlanmıştı. Araştırmacılar botlara ne sıklıkla alkol tüketmek istediklerini, başkalarının yaşadığı talihsizliklere sempati duyup duymadıklarını ve daha pek çok soruyu sordu. Bunun sonucunda robotların ciddi zihinsel sorunlarının bulunduğu tespit edildi.

Bir yapay zeka botuyla sohbet eden kişi, bu botların depresif durumlarından etkilenebileceği gibi olumsuz eylemlerde bulunmayı deneyebilir. Yapılan araştırmanın sonuçları bu konudaki endişeleri gözler önüne sermekte olup, sohbet robotlarının halka açılıp açılmaması konusunda bazı tartışmalar oluşmaya başladı.

Yapay zeka robotlarının algoritma yapısı, insanları nasıl yönlendirdikleri konusunda epey önem teşkil ediyor. Kişilere etik tavsiyeler vermesi amacıyla tasarlanan bir yapay zekanın aksine ırkçı ve homobofik bir şekilde sohbet etmesi sonucuna da ulaşılmıştı. Bu gibi durumlar, yapay zekanın algoritmasında yapılan hataları göstermekte olup, insanoğlunun yapay zeka ile doğru bir şekilde sohbet edebilmesi için biraz daha zaman gerekiyor.

(Visited 19 times, 1 visits today)