Sosyal medyada çok sayıda kullanıcı, yapay zeka araçlarına soru sormayı alışkanlık haline getirdi ancak yapay zeka sıklıkla yanlış bilgileri de yayıyor.
X platformunda (eski adıyla Twitter) yerleşik olarak kullanılan Elon Musk’ın xAI’ına ait Grok gibi yapay zeka araçlarına “Hey Grok, bu doğru mu?” gibi sorular yöneltmek sosyal medya kullanıcıları arasında yeni norm haline geldi. Fakat Grok ve benzeri chatbot’lar sıklıkla yanlış bilgilerle karşılık veriyor. Örneğin, Grok, Sudan’daki eski bir havaalanı görüntüsünü Hindistan-Pakistan çatışmasına ait bir füze saldırısı olarak tanımladı. Nepal’deki bir yangın videosunu ise Pakistan’ın askeri tepkisine dair “olası kanıt” diye sundu.
“BEYAZ SOYKIRIMI” KOMPLOSUNU BİLE YAYDI
Grok, yakın zamanda Güney Afrika bağlamında “beyaz soykırımı” gibi aşırı sağcı bir komplo teorisini alakasız konularda kullanıcı yanıtlarına dahil etti. Bu da sistemin eğitimi ve kontrolüne dair ciddi endişelere yol açtı.
Dezenformasyon denetleme kuruluşu NewsGuard’dan McKenzie Sadeghi, insan doğrulayıcıların sayısı azalırken kullanıcıların AI botlara yöneldiğini, ancak bu sistemlerin özellikle güncel gelişmelerde güvenilir bilgi veremediğini söyledi. Örneğin, Uruguay’da AFP doğrulayıcıları Gemini’ye yapay zeka ile üretilmiş bir kadının fotoğrafını sorduklarında, bot görüntünün gerçek olduğunu söyleyip bir de uydurma kimlik bilgileri sundu.
Benzer şekilde, Amazon Nehri’nde yüzen dev bir anakonda videosuna Grok “gerçek” demekle kalmadı, hayali bilimsel keşiflerden bile söz etti. Oysa video yapay zekâ ile üretilmişti.
Bu durumlar yaşanırken Meta, 2024 başında ABD’deki üçüncü taraf doğrulama programını sonlandırarak, “X” platformundaki “Topluluk Notları” benzeri kullanıcı doğrulamasına dayalı bir sisteme geçti. Ancak bu modelin etkinliği uzmanlar tarafından sorgulanıyor.
TARAFSIZLIK TARTIŞMASI
ABD’de doğrulama faaliyetleri, siyasi kutuplaşmanın da etkisiyle uzun süredir tartışmalı. Özellikle bazı sağ görüşlü çevreler, gerçek denetimi “sansür” olarak nitelendiriyor. AFP gibi profesyonel doğrulayıcılar ise 26 dilde, özellikle Latin Amerika, Asya ve AB ülkelerinde bu hizmeti sürdürmekte. Yapay zeka sistemlerinin eğitilme biçimi ve içerik politikaları, siyasi yönlendirmelere açık olabilir. Örneğin Grok’un “beyaz soykırımı” ifadesini kullanması, sistem komutlarına dışarıdan yapılan yetkisiz müdahalelere bağlandı. Ancak bir kullanıcı Grok’a bu değişikliği kimin yapmış olabileceğini sorduğunda, sistem en olası kişinin Elon Musk olduğunu söyledi.