14 lisanda yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği karşılıkları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.
Sonuçlara nazaran, cevapların yüzde 45’inde en az bir önemli yanılgı, yüzde 81’inde ise bir cins sorun tespit edildi.
Çalışma, yapay zeka asistanlarının bilhassa haber kaynaklarını hakikat atfetmede zorlandığını ortaya koydu. Karşılıkların üçte birinde “eksik, aldatıcı yahut kusurlu kaynak gösterimi” bulundu.
Google’ın Gemini asistanında bu oran yüzde 72’ye kadar çıkarken, öbür tüm platformlarda bu oran yüzde 25’in altında kaldı. Ayrıyeten, incelenen tüm karşılıkların yaklaşık yüzde 20’sinde şimdiki olmayan yahut yanlış bilgi bulundu.
ŞİRKETLER: “GELİŞTİRMEYE DEVAM EDİYORUZ”
Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtti. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen, yapay zekânın yanlış yahut uydurma bilgi üretme sıkıntısını çözmek için çalışmalar yürüttüklerini daha evvel açıklamıştı.
Perplexity, “Derin Araştırma” (Deep Research) modunun yüzde 93,9 doğruluk oranına sahip olduğunu tez ediyor.
HATALI ÖRNEKLER DİKKAT ÇEKTİ
Araştırmada, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir maddeyi yanlış aktardığı, ChatGPT’nin ise Papa Francis’in vefatından aylar sonra hâlâ misyonda olduğunu bildirdiği örnekler yer aldı.
Çalışmaya, Kanada’dan CBC/Radio-Canada da dâhil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.
“GÜVEN EROZYONU DEMOKRASİYİ ZAYIFLATABİLİR”
EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ait yaptığı açıklamada, “İnsanlar neye güveneceklerini bilmediklerinde hiçbir şeye güvenmemeye başlıyorlar. Bu da demokratik iştiraki caydırabilir.” dedi.
EBU, yapay zeka şirketlerini haberlerle ilgili karşılıklarında daha şeffaf ve hesap verebilir olmaya çağırarak, “Haber kuruluşlarının yanılgıları tespit edip düzelten sağlam süreçleri varsa, birebir sorumluluk yapay zekâ asistanları için de geçerli olmalıdır.” sözlerini kullandı.









