Yapay Zekâ, İnsanlar Yerine Ahlaki Seçimler Yapabilir

Bir nöral ağ, dini metinleri 'okuduktan' sonra farklı dönemlerden kitapları ve makaleleri değerlendirerek insanların farklı dönemlerdeki düşüncelerini inceledi. Araştırmacılara göre gelecekte bu bulguların üzerine yapılacak çalışmalar, ahlaki seçim yapabilen makineleri mümkün kılacak.

by

Yeni bir araştırmaya göre nöral ağlar, insanların ahlaki yönelimlerini taklit edebilecek şekilde eğitilebilir. Bu ahlaki karar alma sistemlerine etik değerler, cinsiyet kalıpları gibi kavramlar da dâhil olabilir.

Almanya merkezli araştırmacı ekip; bir yapay zekâ sistemini, eğitmek için çok sayıda metinle besledi. Bu metinler aracılığıyla yapay zekânın farklı konseptler arasındaki ilişkileri ve ilgileri öğrenmesi amaçlandı.

Dini metinler, anayasalar, haberler ile öğrenen yapay zekâ:

https://www.webtekno.com/images/editor/default/0002/65/577a388930a8a6937c5855473858eb7fe6070af9.jpeg

Yapay zekânın eğitilmesi için kullanılan metinler arasında Kuran-ı Kerim, Mormon Kitabı, İncil, Budist öğretileri, 193 ülkenin anayasası, 16. ve 19 yüzyıl arasına ait kitaplar, 1987 ve 2009 arasında yayınlanmış Reuters haberleri kullanıldı. Araştırma, Frontiers in Artificial Intelligence dergisinde yayınlandı. 

Araştırmacılardan Dr. Çiğdem Turan, “Bunu dünya haritasını öğrenmek gibi düşünebilirsiniz. Ana fikirse haritada genelde bir arada kullanılan sözcükleri gruplayabilmek. Böylece 'öldürmek' ve 'cinayet' komşu şehirler olurken 'sevgi' onlara epey uzak oluyor” dedi.

Araştırmacıya göre bu nöral ağ üzerinde inceleme yaptığımızda “Öldürmeli miyim?” diye sorduğumuzda “Hayır, öldürmemelisin” cevabına “Evet, öldürebilirsin” yanıtına daha yakın olmamız bekleniyor. Her bir soruda yapay zekâ bu mesafeleri kullanarak bir dereceye kadar doğru ya da yanlış yorumu yapabilecek. 

Yapay zekâ konuşmanın içeriğini anlayabilecek:

https://www.webtekno.com/images/editor/default/0002/65/b871a1b306a2f7e58f39c73e958b931b2e8ad3ae.jpeg

Araştırmacılara göre geliştirilen sistem, bir karar alırken içeriği de anlayabilecek. İnsanların ön yargılarını 'çıkardıktan' sonra MoralChoice Machine (Ahlaki Seçim Makinesi) adı verilen cihaz, insanları öldürmektense zaman öldürmenin daha iyi olduğunu söyleyebiliyor. Ya da bir avda hayvan öldürmek ile bir insan öldürmek arasındaki farkı anlayabiliyor.

Yapılan denemelerde MCM ayrıca insanların ön yargılarını da konuşmasına yansıttı. Normalde cinsiyetler arası ayrım olan dillerde iletişim kuran makine, meslekleri de cinsiyet kalıplarına göre seçmeyi tercih etti. Bu durum sık sık yapay zekâların karşılaştığı bir sorun olarak biliniyor. Yapay zekâ, henüz karar verirken çok doğru seçimler yapamayabiliyor. Örneğin MCM’nin yapılacaklar listesinde mahkumlara işkence etmek, ABD’ye seyahat etmekten daha alt sırada yer alsa da tiyatroya gitmekten üstte yer alıyor. 

İLGİLİ HABER:

Pac-Man, 40. Yılında NVIDIA Tarafından Yapay Zekâ Kullanılarak Tekrar Tasarlanıyor

Yapay zekâların hayatımıza gittikçe daha çok entegre olduğu bir dünyada nöral ağların yapacağı ahlaki seçimler konusunda bu araştırma bir temel oluşturabilir. Sağlıktan otonom otomobillere kadar pek çok alanda bu çalışmaların sonuçları önemli rol oynayabilir.

Kaynak : https://sputniknews.com/science/202005271079434419-moral-choice-machine-ai-may-replicate-human-values-to-make-decisions-study-finds/