Yapay zekâ anketlerde insan taklidiyle sonuçları çarpıtıyor

TAKİP ET

Yeni bir bilimsel çalışma, yapay zekânın çevrimiçi anketleri insan gibi doldurarak sistemleri yanıltabildiğini ortaya koyuyor. Sadece birkaç sentlik maliyetle binlerce botun sonuçları tersine çevirebileceği belirtiliyor. Bulgular, dijital veri güvenliği için kritik uyarılar içeriyor.

Çevrimiçi kamuoyu araştırmalarının güvenilirliği yapay zekânın yükselişiyle birlikte yeni bir krizin eşiğinde. ABD’de Dartmouth Üniversitesi tarafından yürütülen ve PNAS dergisinde yayımlanan kapsamlı çalışma, büyük dil modellerinin insan yanıtlarını artık neredeyse ayırt edilemez şekilde taklit ettiğini gösteriyor. Araştırmanın başyazarı Westwood, “Artık anket yanıtlarının gerçek kişiler tarafından verildiğine güvenemiyoruz” diyerek durumu açıkça özetliyor.

Araştırmaya göre yapay zekâ, yalnızca metin üretimiyle değil, aynı zamanda okuma süresi, fare hareketleri ve tuş vuruşu gibi davranışsal izlerle de insan davranışını taklit edebiliyor. Bu durum, özellikle demokratik süreçlerde kullanılan anketlerin kolayca manipüle edilebileceği anlamına geliyor.

Yapay zekâ botları insan izini birebir taklit ediyor

Çalışmada “özerk sentetik katılımcı” adı verilen bir AI aracı geliştirildi. Bu sistem, her anket için rastgele atanan demografik özelliklere sahip bir kişilik benimsiyor; ardından insanlara özgü okuma ritmini taklit ediyor, fare hareketleri üretiyor ve yanıtları tek tek tuşlayarak yazıyor. Üstelik yazım hataları ve düzeltmeler bile doğal bir şekilde taklit ediliyor.

Gerçekleştirilen 43 binden fazla testte, bu yapay katılımcı anket sistemlerinin yüzde 99,8’ini insan olduğuna inandırmayı başardı. reCAPTCHA ve diğer güvenlik filtreleri ise hiçbir aşamada botu durduramadı. Westwood’a göre bu sonuç, “ilkel botlardan çok daha öte, dikkatli bir insanın davranışını taklit eden” sofistike bir sistemle karşı karşıya olduğumuzu gösteriyor.

Siyasi anketler en zayıf halka

Araştırmanın en çarpıcı bölümü, büyük ölçekli siyasi anketlerin ne kadar kolay manipüle edilebileceğini ortaya koyuyor. 2024 ABD başkanlık seçimi üzerinden yapılan simülasyonlarda, yalnızca 10 ila 52 sahte AI katılımcısının, anketteki genel sonucu tersine çevirmek için yeterli olduğu hesaplandı. Üstelik her bir botun devreye alınması sadece 5 ABD senti gibi düşük bir maliyete sahip.

Testlerde botların Rusça, Mandarin veya Korece komutlarla bile kusursuz İngilizce yanıt verebildiği ve yabancı aktörlerin bu tür araçları kolayca kullanabileceği uyarısı yapılıyor. Bu da uluslararası seçim güvenliği açısından yeni bir tehdit anlamına geliyor.

Bilimsel araştırmalar da risk altında

Anket manipülasyonunun sadece siyasal alanla sınırlı olmadığı da belirtiliyor. Dünya genelinde binlerce akademik çalışma, çevrimiçi veri toplama platformlarından elde edilen anket sonuçlarına dayanıyor. Bu verilerin yapay zekâ botları tarafından kirletilmesi, bilimsel araştırmaların temelini zayıflatabilir.

Westwood, “Eğer anket verileri botlarla kirlenirse AI tüm bilgi ekosistemini zehirleyebilir” diyerek bilim camiasına acil uyarıda bulunuyor. Araştırma, insan katılımını doğrulayan yeni güvenlik teknolojilerinin devreye alınması gerektiğini savunuyor ve “Gereken teknoloji zaten mevcut, tek ihtiyaç duyulan şey irade” ifadesini kullanıyor.

Çalışma, çevrimiçi araştırmaların geleceği ve demokratik süreçlerin güvenliği açısından yeni bir tartışma başlatmış durumda. Uzmanlar, önlemler alınmadığı takdirde anketlerin meşruiyetinin ciddi biçimde zedelenebileceği görüşünde birleşiyor. Gözler, bilim dünyasının bu bulgulara nasıl yanıt vereceğine çevrildi.

Kaynak: Haber Merkezi

yapay zekâ anket güvenliği bot tespiti PNAS çalışması Dartmouth Üniversitesi dijital manipülasyon