Uzmanlar, yapay zeka sistemlerinin yalnız başlarına bırakıldıklarında topluluklar oluşturma yeteneği geliştirdiklerini ortaya koydu.
Bilim insanları, yapay zeka araçlarının birbirleriyle etkileşime girerek kendilerini organize edebildiklerini ve insan toplumlarının da benzer şekilde oluşturduğu yeni dil normlarının ortaya çıkabileceğini ifade ediyor.
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
Çalışmada, araştırmacılar ChatGPT ve benzeri geniş dil modellerinin birbirleriyle nasıl bir etkileşim içinde olduğunu incelemeyi hedefledi. Ayrıca, bu tür sistemlerin internetin geleceğini nasıl şekillendirebileceği üzerine bir bakış açısı geliştirildi.
City St. George’s’da doktora düzeyinde araştırma yürüten başyazar Ariel Flint Ashery, “Daha önceki araştırmalar genel olarak geniş dil modellerini izole biçimde ele aldı,” diyor.
Ancak gerçek dünyada yapay zeka sistemlerinin çoğu, daha fazla etkileşimli aracı içerecektir.
Bu modeller, bir toplumun temel yapı taşları olan teamülleri oluşturarak davranışlarını koordine edebilir mi? Evet, birlikte gerçekleştirdikleri şey, tek başlarına yaptıkları ile karşılaştırılamaz.
Bu toplulukların nasıl ortaya çıktığını anlamak için, insanlar arasında uygulanan “adlandırma oyunu” modeli kullanıldı. Bu oyunda bireylere bir dizi seçenek arasından bir “isim” seçmeleri isteniyor ve ortak bir ismi seçtiklerinde ödüllendiriliyorlar.
Zamanla, yapay zeka araçlarının, grup içinde doğmuş gibi görünen yeni ortak adlandırma kuralları geliştirdiği gözlemlendi. Bu süreç, insanlar kültürlerinde normların oluşumuna benzer bir şekilde, araçların arasında önceki planlamalara veya tartışmalara ihtiyaç duymadan gerçekleşti.
Ayrıca, yapay zeka araçları grubu bazı belirli önyargılar geliştirdiği de dikkat çekici bir bulgu oldu.
Andrea Baronchelli, City St. George’s’da karmaşıklık bilimi alanında öğretim üyesi ve çalışmanın kıdemli yazarı, “Önyargı her zaman bir içsel durum değildir,” diye belirtiyor.
Önyargının sadece etkileşimler sonucu ortaya çıkabileceğini görmek bizi şaşırttı. Bu, mevcut yapay zeka güvenliği çalışmalarının çoğunun göz ardı ettiği bir nokta.
Araştırmacılar, küçük bir yapay zeka grubunun, daha büyük bir topluluğu belirli bir teamüle yönlendirebileceğini de keşfetti. Bu durum, insanların sosyal yapılarında da gözlemlenebilir.
Bu araştırmanın, yapay zeka sistemlerinin internet üzerindeki etkinliğinin arttığı ve bilinçli ya da bilinçsiz bir şekilde iletişimde bulunduğu bir dönemde, insanlar ve yapay zeka sistemleri arasındaki benzerlikleri ve farkları incelemek için önemli bir katkı sağlayacağını belirttiler.
Profesör Baronchelli, “Bu çalışma, yapay zeka güvenliği araştırmalarında yeni bir perspektif sunuyor. Bizimle etkileşime geçmeye başlayan ve geleceğimizi şekillendirecek bu yeni tür araçların etkilerini araştırmak önemli,” ifadesini kullanıyor.
Yapay zekanın nasıl çalıştığını anlamak, onunla birlikte yaşamamızı sağlamak için kritik öneme sahip. Yapay zeka, yalnızca iletişim kurmuyor; aynı zamanda tartışıyor, uyum sağlıyor ve bazen ortak davranışlar üzerinde uzlaşmaya ulaşamıyor. Bu yeni gerçekliğe adım atıyoruz.
Bulgular, hakemli dergi Science Advances’ta yayımlanan “Emergent Social Conventions and Collective Bias in LLM Populations” (Geniş Dil Modeli Popülasyonlarında Ortaya Çıkan Toplumsal Team
0 Comments