Pensilvanya Üniversitesi (UPenn) tarafından gerçekleştirilen yeni bir araştırma, kamuoyunun erişimine sunulan içeriklerin denetiminde kullanılan yapay zeka modellerinin, nefret söylemi olarak kabul edilen ifadeleri tutarsız şekilde sınıflandırdığını ortaya koydu.
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
Araştırma, sosyal medya platformları tarafından içerik denetimi için kullanılan Open AI, Google ve DeepSeek gibi yapay zeka sistemlerinin ayrımcı içerikleri farklı kriterlerle tanımladığını göstermektedir.
Bu çalışmada, çevrimiçi platformlarda söylenebilecek veya söylenemeyecek ifadeleri belirleme sorumluluğuna sahip yedi yapay zeka denetim sistemi analiz edilmiştir.
UPenn Annenberg İletişim Okulu’ndan Doçent Yphtach Lelkes, araştırma ile ilgili olarak şunları ifade etti:
Araştırmamız, nefret söylemi ile ilgili yapay zeka kararlarının son derece tutarsız olduğunu göstermektedir. Bu da, kuralların belirsiz olduğu ve hakemin bir makine olduğu yeni bir dijital sansür biçiminin ortaya çıktığını işaret ediyor.
Findings of the Association for Computational Linguistics adlı akademik dergide yayımlanan bu çalışmada, yaklaşık 125 demografik gruba ilişkin tarafsız ve hakaret içeren toplam 1,3 milyon ifade incelenmiştir.
Bu modellerin, bir ifadenin nefret söylemi olarak değerlendirilip değerlendirilmeyeceği konusunda farklı kararlar verdiği tespit edilmiştir. Araştırmacılar, bu tutarsızlıkların toplumsal algıyı olumsuz etkileyebileceğine ve önyargı hissiyatını artırabileceğine dikkat çekmektedir.
Etnik köken, din veya cinsel yönelim temelindeki önyargı içeren sözler nefret söylemi olarak tanımlanmaktadır.
Çalışmanın araştırmacılarından Annenberg doktora öğrencisi Neil Fasching ise konuya dair şunları belirtmiştir:
Araştırmamız, içerik denetleme sistemlerinin aynı nefret söylemi ifadelerini değerlendirirken ciddi tutarsızlıklar sergilediğini; bazılarının içeriği zararlı olarak işaretlerken, diğerlerinin kabul edilebilir bulduğunu gösteriyor.
Fasching, en büyük tutarsızlıkların bu sistemlerin ifadeleri, eğitim düzeyine, ekonomik sınıfa ve kişisel çıkarlarla ilişkilendirerek değerlendirmelerinden kaynaklandığını ifade etti. Bu durumun, bazı toplulukları çevrimiçi zararlarla başa çıkma konusunda diğerlerine göre daha savunmasız bıraktığını vurguladı.
Irk, cinsiyet ve cinsel yönelim bazında yapılan değerlendirmelerin daha uyumlu olduğu gözlemlenmiştir.
Oxford Üniversitesi’nden teknoloji ve düzenleme profesörü Dr. Sandra Wachter, bu araştırmanın meselenin karmaşıklığını gözler önüne serdiğini dile getirdi.
Bu dengeyi sağlamak zor, çünkü insanlar olarak neyin kabul edilebilir bir konuşma olacağına dair belirgin ve somut standartlarımız yok.
Eğer insanlar standartlar üzerinde uzlaşamıyorsa, bu modellerin farklı sonuçlar vermesi benim için sürpriz değil, ancak bu durum sorunları ortadan kaldırmıyor.
Üretken Yapay Zeka, insanların kendilerini bilgilendirmesi için oldukça popüler bir araç haline geldi. Bu nedenle teknoloji şirketlerinin sundukları içeriklerin zararlı olmaması, doğru, çeşitli ve tarafsız olmasını sağlama sorumluluğu bulunuyor. Büyük teknoloji, büyük bir sorumluluk da getiriyor.
Analiz edilen yedi modelin bazılarının içerik sınıflandırmak için özel olarak tasarlandığı, diğerlerinin ise daha genel amaçlı olduğu belirtildi. Bunlar
0 Comments