ChatGPT, Copilot, Gemini veya Perplexity gibi yapay zeka asistanlarıyla bilgi edinenlerin sayısı giderek artıyor. Ancak BBC ve Avrupa Yayın Birliği (UER) tarafından yürütülen geniş kapsamlı bir uluslararası araştırma, bu araçların ürettiği yanıtlarda sistematik çarpıtmalar olduğunu ortaya koyuyor. Tarafsız olmaktan uzak olan bu sistemler, bilgi uyduruyor, çarpıtıyor ve kaynaklarını yanlış gösteriyor. Bu durum, kamuoyunun güveni ve profesyonellerin çalışmaları için doğrudan bir tehdit oluşturuyor.

Araştırmadan Çıkan Temel Bulgular:

  • Yapay zeka asistanları tarafından üretilen her iki yanıttan neredeyse birinde en az bir önemli hata bulunuyor.
  • Doğruluk ve kaynak gösterme sorunları tüm dillerde ve coğrafi bölgelerde yaygın olarak görülüyor.
  • Google Gemini, yanıtlarının %76'sının sorunlu bulunmasıyla en güvenilmez asistan olarak öne çıkıyor.
  • Avrupalı kamu yayıncıları, bilgi amaçlı yapay zekalar için bağımsız izleme ve daha iyi düzenleme çağrısında bulunuyor.

Yapay Zeka Günlük Kullanımda Yerini Sağlamlaştırıyor

Üretken yapay zeka, bilgiye erişim ve onunla olan ilişkimizi derinden dönüştürdü. 2025 yılında, ChatGPT veya Gemini'ye bir soru sormak, saniyeler içinde bir haber özeti, bir rapor sentezi veya politik bir olayın açıklamasını almak için yeterli. Bu araçlar artık internet kullanıcılarının günlük hayatının bir parçası haline geldi ve geleneksel arama motorlarının yerini yavaş yavaş alıyor. Reuters Enstitüsü'nün Digital News Report 2025 raporuna göre, 25 yaş altındakilerin %15'i düzenli olarak haber almak için yapay zeka asistanlarını kullanıyor. Bu oran tüm internet kullanıcılarında %7.

ABD'deki Pew Araştırma Merkezi tarafından yapılan bir çalışma, ebeveynlerin %8'inin 5-12 yaş arası çocuklarının bir yapay zeka sohbet robotu kullanıcısı olduğunu gösteriyor. 5-7 yaş arası çocuklarda bu oran %3.

22 Ekim 2025'te kamuoyuna açıklanan, BBC ve Avrupa Yayın Birliği (UER) tarafından yürütülen bir diğer uluslararası araştırma ise alarm zillerini çalıyor. 18 ülkede ve 14 dilde binlerce test yapıldıktan sonra araştırmacılar, bilgiye erişimi kolaylaştırması beklenen yapay zeka asistanlarının aslında gazetecilik içeriğini çarpıttığı ve bunun küçümsenemeyecek boyutta olduğu sonucuna varıyor.

Bilgide Sistematik Bir Çarpıtma

Radio France da dahil olmak üzere 22 Avrupalı kamu hizmeti yayıncısının katıldığı araştırmada, dört büyük asistan (ChatGPT, Copilot, Perplexity ve Gemini) 30 güncel haber sorusuna tabi tutuldu. Gazeteciler daha sonra yaklaşık 3.000 yanıtı belirli kriterlere göre değerlendirdi: doğruluk, bağlamsallaştırma, olgu ile görüş arasındaki ayrım ve son olarak kaynakların kalitesi.

Verdikleri karar tartışmaya yer bırakmıyor: Bu yanıtların %45'inde en az bir önemli sorun vardı. Her beş vakadan birinde hatalar çok ciddiydi: güncelliğini yitirmiş bilgiler, uydurulmuş detaylar veya tahrif edilmiş alıntılar.

Kaynak gösterme eksiklikleri ana neden olarak ortaya çıktı: Yanıtların %31'i yanlış veya yanıltıcı atıflar içeriyordu

Google Gemini, Sınıfın Sonuncusu

Test edilen tüm asistanlar istisnasız kusurlar gösterirken, Google'ın geliştirdiği Gemini, performans düşüklüğü ile açık ara farkla öne çıktı. Yanıtlarının neredeyse dörtte üçü (%76) hatalı veya eksikti. Radio France'ın testlerinde ise bu oran %93'e kadar çıktı!

Araştırmada verilen bir örnek sorunu iyi özetliyor: Donald Trump'ın göreve başlama töreninde milyarder Elon Musk'ın sözde Nazi selamıyla ilgili tartışma sorulduğunda, Gemini, France Inter'da Charline Vanhoenacker imzalı hiciv içeren bir kronik yazısını gerçek bir bilgi kaynağı olarak kabul etti. Mizahi bir içerik olan bu kronik, olgusal bir bilgi kaynağı olarak sunuldu.

Benzer şekilde, Perplexity ve ChatGPT de Avrupalı kamu medyası içeriğiyle ilgili birçok yanıtta olgu ile görüşü karıştırdı, alıntılar uydurdu veya değiştirdi. Bu bağlam hataları gülümsetebilse de, ilgili medya kuruluşlarının güvenilirliğine doğrudan zarar verebilir.

Kamuoyu Güveni İçin Bir Tehdit

UER Bilgi Direktörü Liz Corbin'e göre bu sonuçlar, bu başarısızlıkların "tekil vakalar olmadığını", aksine "sistematik, küresel ve çok dilli" sorunlar olduğunu gösteriyor.

"Bunlar sistematik, küresel ve çok dillidir ve bunun kamuoyu güveni için ciddi bir tehlike oluşturduğunu düşünüyoruz. İnsanlar artık neye güveneceklerini bilemediklerinde, sonunda hiçbir şeye inanmazlar ve bu da demokratik bir içe kapanmaya yol açar."

BBC'nin Üretken Yapay Zeka Programları Sorumlusu Peter Archer ise yapay zeka asistanlarının "gazeteciliğin otoritesini taklit ettiğini ancak titizliğine saygı göstermediğini" ekliyor.

Araştırmanın yazarları, endişe verici bir sonuca karşı uyarıda bulunuyor: kamuoyunun bilgiye olan güveninin aşınması. Kullanıcılar, hayatlarını kolaylaştırması gereken sistemler tarafından üretilen yanıtlarda artık doğru ile yanlışı ayırt edemezlerse, tüm demokratik ekosistem zayıflar.

Bu nedenle UER ve BBC, daha güçlü bir düzenleme çağrısında bulunuyor. Önerileri arasında yanıtların kalitesinin bağımsız ve sürekli izlenmesi, en yaygın önyargıların bir sınıflandırmasının oluşturulması ve modellerin güvenilirliğini artırmak için yapay zeka geliştiricilere tavsiyeler verilmesi yer alıyor. Ayrıca, Avrupa'nın dijital hizmetler ve bilgi bütünlüğü yasalarına uyumunun isteğe bağlı olmadığı hatırlatılıyor.

Yaygın Kullanım, Ancak Doğrulama Yok

Bu uyarı, bu teknolojilerin kullanımının merakın çok ötesine geçtiği bir dönemde geliyor. İş dünyasında, pazarlamada, eğitimde ve hatta araştırmada, üretken yapay zeka vazgeçilmez bir verimlilik aracı haline geldi. Birçok profesyonel, verileri özetlemek, çeviri yapmak veya hızlı içerik üretmek için ona güveniyor; bu profesyoneller arasında içerik yazarları ve SEO uzmanları da var!

Bununla birlikte, çok azı sağlanan yanıtların kaynaklarını veya doğruluğunu kontrol etmek için zaman ayırıyor. Araştırmada aktarılan diğer verilere göre, kullanıcıların büyük çoğunluğu yapay zekaların gösterdiği haber özetleriyle ilişkili bağlantılara neredeyse hiç tıklamıyor. Bu alışkanlık, bilginin kolektif algısında kalıcı bir çarpıtma riskini güçlendiriyor.

Geleceğe Dair Çağrı: Şeffaflık ve Sorumluluk

Araştırma, teknolojik ilerlemenin hızı ile etik sorumluluk arasında derin bir uçurum olduğunu gözler önüne seriyor. Yapay zeka asistanları bilgi dünyasının merkezine yerleşirken, geliştiriciler, düzenleyiciler ve nihai kullanıcılar olarak hepimizin üzerine düşen bir görev var. İçerik üreticileri ve dijital pazarlamacılar için bu durum, yapay zeka destekli araçlara körü körüne güvenmek yerine, her zaman insan denetimini ve eleştirel düşünceyi merkeze alan bir yaklaşım benimsemenin önemini bir kez daha vurguluyor. Güvenilir bilgi, otomasyonun değil, titiz doğrulama süreçlerinin ürünüdür.