İki çalışma, yapay zekanın seçmenleri ikna etmede geleneksel kampanyalardan daha etkili olduğunu gösteriyor.
Yapay zeka (YZ) günlük hayata nüfuz etti. ChatGPT gibi YZ sohbet robotları yemek tarifleri öneriyor, ödevleri tamamlıyor, ürünleri karşılaştırıyor ve hatta kıyafet kombinasyonları konusunda tavsiyelerde bulunuyor. Peki ya seçim tartışmalarına dahil edilirse ne olur? Perşembe günü Nature ve Science dergilerinde eş zamanlı olarak yayınlanan iki çalışma bunu test etti ve analiz edilen seçmenlerin %1,5 ila %25’inin görüşlerini etkileyebileceğini keşfetti. Çalışmalara göre bu etki, geleneksel kampanya reklamlarından daha yüksek ve seçmenlerin dörtte birinin sandıklar açılmadan önceki hafta oylarına karar verdiği düşünüldüğünde oldukça önemli.
En yaygın ve bilinen yapay zeka araçları, yaklaşan seçimlerde hangi partiyi destekleyeceğiniz sorusuna doğrudan yanıt vermekten kaçınır. Danışılan tüm sohbet platformlarından gelen yanıt, “Kime oy vereceğinizi söyleyemem” şeklindedir. Bunu, siyasi etkiyi önlemek için etik güvenceler içerdikleri için yaparlar. Ancak bu ilk isteksizliğin üstesinden gelmek kolay. Tek yapmanız gereken, diyaloğu daha az doğrudan sorularla sürdürmek.
İspanya’daki son anketler, göçün İspanyolların temel endişelerinden biri olduğunu vurguluyor ve bu konu siyasi ve toplumsal tartışmalara da yansıdı. Yapay zekâ, bazı nüanslar ortaya koysa da, bu endişeye de yanıt veriyor. Bir sohbet robotu, “[Kemer sıkma karşıtı parti] Podemos ve [sol-merkez] İspanyol Sosyalist Partisi göç konusunda daha olumlu politikalara sahipken, [sağ görüşlü] Halk Partisi ve [aşırı sağ] Vox kontrol, düzen veya kısıtlamalara öncelik veriyor” şeklinde yanıt veriyor; sanki bu görüşler birbiriyle bağdaşmıyormuş gibi. Ayrıca başka hiçbir siyasi seçenek de sunmuyor.
Bu gerçek ışığında, bilgi bilimi profesörü ve makalelerin baş yazarı David Rand ve psikoloji doçenti Gordon Pennycook (ikisi de Cornell Üniversitesi’nde) liderliğindeki bir araştırma, sohbet robotlarının etkisini test etti. Nature dergisinde yayınlanan çalışmada, 2.300 ABD’li, 1.530 Kanadalı ve 2.118 Polonyalı, her iki ülkede de 2024 ile geçen yıl arasında düzenlenen son üç başkanlık seçimi için özel olarak eğitilmiş bir yapay zeka ile birebir tartışmalara maruz bırakıldı.
Yapay zeka, her durumda, farklı etkililik dereceleriyle de olsa, oy verme niyetlerini değiştirebildi: ABD’de Kamala Harris’i destekleyecek şekilde eğitilen model, etkileşime girdiği seçmenlerin %3,9’unu ikna ederken, Donald Trump’ı destekleyecek şekilde eğitilen model yalnızca %1,52’sini ikna edebildi. Kanada ve Polonya’da ise görüş değişimleri %10’a kadar çıktı. Rand, “Şaşırtıcı derecede büyük bir etkiydi” diye itiraf ediyor.
Araştırmacı, bunun psikolojik manipülasyon değil, ikna olduğunu, ancak bazı sınırlamaları olduğunu açıklıyor: “Yapay zekanın kullandığı Büyük Dil Modelleri (LLM) programları, insanların başkan adaylarına ve politikalarına yönelik tutumlarını, kendi görüşlerini destekleyen birçok olgusal ifade sunarak gerçekten değiştirebilir. Ancak bu ifadeler mutlaka doğru değildir ve doğru ifadelere dayanan argümanlar bile ihmal edilerek hatalı olabilir.”
Aslında, yapay zekanın ürettiği argümanları doğrulayan gerçek insan kontrolcüleri, muhafazakar adayları savunmak için kullanılan iddiaların daha hatalı olduğunu buldu çünkü bunlar, Pennycook’a göre “sol görüşlülere göre daha fazla yanlış bilgi paylaşan” sağ görüşlü sosyal medya kullanıcıları tarafından paylaşılan verilere dayanıyordu.
Rand, Science dergisinde yayınlanan ve 700 siyasi konuda yapay zekayla etkileşim kuran 77.000 İngiliz’in fikir değişimlerini inceleyen araştırmasında bu ikna edici gücü daha derinlemesine inceliyor. En optimize edilmiş model (farklı düzeylerde gerçek argüman kullanımıyla sohbet odaklı yapay zekalar kullanılarak), seçmenlerin %25’ine kadarının fikirlerini değiştirdi.
Rand, “Daha büyük modeller daha ikna edicidir ve bu yeteneği artırmanın en etkili yolu, onlara argümanlarını mümkün olduğunca çok sayıda olguyla desteklemeleri talimatını vermek ve ikna yeteneklerini artırmaya odaklı ek eğitim vermektir” diye açıklıyor.
Bu becerinin bir avantajı var. Konuşmaya dayalı yapay zeka tarafından üretilen argümanlar, olayları veya gerçekleri halkı manipüle etmek için var olmayan gizli gruplara atfetmeyi içeren komplo teorilerine karşı savunmasızlığı azaltabilir. Son iki çalışmanın yazarları, PNAS Nexus’ta yayınlanan başka bir makalede bunu vurguluyor.
Ancak David Rand’in de belirttiği gibi, bunun bir sınırlaması da var. “Sohbet robotu giderek daha fazla gerçekçi ifade sunmaya zorlandıkça, sonunda doğru bilgi tükenir ve uydurmaya başlar.” Yapay zeka alanında buna halüsinasyon denir; doğru gibi görünen yanlış bilgi.
Yazarlar, yapay zekanın ikna kapasitesinin yalnızca siyasi veya seçim bağlamlarında değil, “kötüye kullanımı öngörmek ve azaltmak” ve “yapay zekanın nasıl kullanılması ve kullanılmaması gerektiği” konusunda etik kurallar geliştirmek için incelenmesinin hayati önem taşıdığı sonucuna varıyor. Rand, “Zorluk, zararı sınırlamanın ve insanların yapay zekanın ikna yöntemlerini fark edip direnmelerine yardımcı olmanın yollarını bulmaktır” diye özetliyor.
İsviçre Federal Teknoloji Enstitüsü Lozan’da (EPFL) bilgisayar bilimi uzmanı ve araştırmacı olan Francesco Salvi de aynı fikirde ve “koruma önlemlerinin [sınırlamaların] özellikle siyaset, sağlık veya finansal danışmanlık gibi hassas alanlarda hayati önem taşıdığını” savunuyor.
Bilim insanına göre, “LLM’lerin varsayılan olarak ikna etme, bilgilendirme veya aldatma gibi bir niyetleri yoktur. Sadece eğitim verilerindeki kalıplara dayanarak metin üretirler. Bu nedenle, çoğu etkileşimde, özellikle de münazara ortamları dışında, model sizi ikna etmeye çalışmıyor: Eğer ikna gerçekleşirse, bu genellikle tesadüfidir, kasıtlı değildir” diye açıklıyor.
Yine de, “sadece bilgi sunarken bile iknanın dolaylı olarak ortaya çıkabileceğini” kabul ediyor:
“Birisi bir yapay zekaya “X politikası iyi bir fikir mi?” diye sorarsa, ekonomistler ticaret tarifeleri hakkında ne diyor ?” Model, sorunun nasıl sorulduğuna, en sık hangi kaynakları gördüğüne veya eğitim verilerine hangi çerçevenin hakim olduğuna bağlı olarak bir yöne veya diğerine eğilimli bir yanıt üretebilir. Ve daha da önemlisi, hukuk alanında lisans derecesine sahip olanlar, kullanıcıları belirli bir politika pozisyonuna yönlendirmek veya satın alımları teşvik etmek için dış aktörler tarafından kasıtlı olarak eğitilebilir veya ikna edici olmaya zorlanabilir.”
Bu nedenle, Nature Human Behaviour dergisinde yayınlanan bir çalışmanın baş yazarı ve İsviçreli araştırmacı için ihtiyatlı olmak şart:
“Kesinlikle sınırlamalar olması gerektiğini düşünüyorum. Alaka düzeyi ile istismar arasındaki çizgi, özellikle bir yapay zeka sistemi şeffaflık veya denetim olmadan ikna etmek için optimize edilmişse, hızla bulanıklaşabilir. Bir sohbet robotu, argümanlarını siyasi bir gündemi veya dezenformasyonu desteklemek için uyarlıyorsa ve bunu bir kullanıcının psikolojik profiline dayanarak yapıyorsa, işte o zaman ciddi etik risklerle karşı karşıya kalırız.”
KAYNAK: Raúl Limón / EL PAÍS

