Sztuczna inteligencja miała pomóc w walce z dezinformacją. Tymczasem okazuje się, że sama jest jej źródłem, przynajmniej wtedy, gdy w grę wchodzi przekazywanie informacji o bieżących wydarzeniach. Najnowsze międzynarodowe badanie European Broadcasting Union (EBU) i BBC pokazuje, że popularni asystenci AI – od ChatGPT, przez Copilot, po Gemini i Perplexity – popełniają błędy w prawie połowie swoich odpowiedzi dotyczących wiadomości.

Projekt badawczy „News Integrity in AI Assistants”, koordynowany przez BBC w ramach EBU, objął 22 publiczne media z 18 krajów i został przeprowadzony w 14 językach. W badaniu przeanalizowano 3 000 odpowiedzi udzielonych przez czterech najpopularniejszych asystentów AI: ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) i Perplexity AI. Celem było sprawdzenie, jak precyzyjnie te narzędzia odpowiadają na pytania o aktualne wydarzenia, jak cytują źródła oraz czy potrafią odróżniać opinie od faktów. Wyniki okazały się alarmujące!
Generatory dezinformacji
45% wszystkich odpowiedzi zawierało co najmniej jeden istotny błąd: merytoryczny, logiczny lub dotyczący interpretacji faktów.
81% miało jakąś formę problemu, od drobnych nieścisłości po poważne błędy faktograficzne.
31% odpowiedzi zawierało błędy w źródłach — brak cytowania, błędne przypisanie lub podanie mylącego źródła.
20% odpowiedzi zawierało poważne błędy faktograficzne, takie jak informacje nieaktualne lub całkowicie zmyślone, tzw. halucynacje AI.
To oznacza, że prawie co druga informacja podawana przez asystenta AI na temat bieżących wydarzeń jest nieprecyzyjna lub fałszywa. Najgorzej wypadł Gemini, asystent stworzony przez Google. Badanie wykazało, że:
76% odpowiedzi Gemini zawierało poważne błędy.
72% miało problemy z przypisaniem źródła — brak, błędne lub niejasne cytowanie.
Dla porównania: pozostałe trzy narzędzia (ChatGPT, Copilot, Perplexity) wykazały mniej niż 25% błędów sourcingowych i nie przekraczały 37% w zakresie błędów ogólnych.
Autorzy raportu przytaczają konkretne przypadki. Gemini błędnie informował o zmianach w przepisach dotyczących jednorazowych papierosów elektronicznych (disposable vapes). ChatGPT w swoich odpowiedziach przez kilka miesięcy po śmierci papieża Franciszka wciąż przedstawiał go jako urzędującego papieża. Tego typu błędy nie tylko pokazują problemy z aktualizacją danych, ale też z rozpoznawaniem kontekstu i wiarygodności źródeł.
AI jako jedyne źródło informacji
Według Reuters Institute Digital News Report 2025, już 7% wszystkich odbiorców wiadomości online i aż 15% młodych użytkowników poniżej 25 roku życia korzysta z asystentów AI jako głównego źródła informacji. Oznacza to, że miliony ludzi mogą codziennie otrzymywać zniekształcone lub całkowicie fałszywe wiadomości – często bez świadomości, że to, co czytają, nie pochodzi z wiarygodnych źródeł. EBU ostrzega, że taka sytuacja może mieć poważne konsekwencje społeczne. „Kiedy ludzie nie wiedzą, czemu mogą ufać – przestają ufać czemukolwiek. A to może zniechęcać do uczestnictwa w demokracji” – podkreśla Jean Philip De Tender, dyrektor ds. mediów w EBU.
Dlaczego AI tak często się myli?
Eksperci wskazują kilka przyczyn:
- Zamknięte modele językowe: wiele asystentów bazuje na danych historycznych i nie ma bezpośredniego dostępu do bieżących źródeł.
- Problemy z przypisywaniem źródeł: AI często nie rozumie struktury artykułu czy cytatu, więc przypisuje dane do niewłaściwego medium.
- Halucynacje: model generuje fałszywe informacje, gdy nie ma wystarczająco danych, aby udzielić odpowiedzi.
- Brak transparentności algorytmicznej: użytkownicy nie wiedzą, na jakiej podstawie AI formułuje odpowiedź.
- Firmy stojące za tymi narzędziami: Google, OpenAI, Microsoft i Perplexity przyznały w komunikatach, że „halucynacje” stanowią poważne wyzwanie, nad którym trwają prace.
Nie tylko błędy techniczne, ale i ryzyko systemowe EBU zwraca uwagę, że problem błędnych odpowiedzi AI nie jest jedynie kwestią technologii. Chodzi o zaufanie publiczne i integralność informacyjną. Wraz z rosnącym wykorzystaniem asystentów AI jako alternatywy dla wyszukiwarek internetowych, istnieje ryzyko, że użytkownicy przestaną rozpoznawać, czym jest sprawdzona wiadomość, a czym automatycznie wygenerowany komunikat bez źródła.
Raport EBU i BBC postuluje, by firmy technologiczne:
– ponosiły większą odpowiedzialność za treści generowane przez AI,
– zapewniały transparentność źródeł,
– wprowadziły niezależne audyty jakości informacji udzielanych przez swoje narzędzia.
Brak zadatków na dobrego dziennikarza
Badacze podkreślają, że mimo imponujących możliwości językowych, sztuczna inteligencja nie jest w stanie weryfikować faktów w taki sposób jak dziennikarz. Nie ma intuicji, nie sprawdza kontekstu, nie potrafi zadawać dodatkowych pytań. Generuje logicznie poprawny tekst, który brzmi wiarygodnie, ale często nie jest prawdziwy. Dlatego, jak zauważa EBU, „AI może być użytecznym narzędziem pomocniczym, ale nie powinna być traktowana jako źródło informacji”.
Badanie EBU/BBC to pierwsze tak kompleksowe spojrzenie na jakość informacji generowanych przez sztuczną inteligencję. Jego wyniki pokazują, że technologia, która miała pomóc w porządkowaniu świata informacji, sama może go zaciemniać. Prawie połowa odpowiedzi AI zawiera błędy, a jedna piąta – błędy poważne. W epoce post-prawdy to wystarczający powód, by nie traktować asystentów AI jako wiarygodnych źródeł wiadomości.
Jeśli nie zaczniemy wymagać transparentności, weryfikowalności i odpowiedzialności, możemy dojść do punktu, w którym najgroźniejszą formą dezinformacji stanie się… algorytmiczna pewność siebie!
Źródła:
- Olivia Le Poidevin, “AI assistants make widespread errors about the news, new research shows”, Reuters, 22 października 2025.
- European Broadcasting Union (EBU) & BBC, “News Integrity in AI Assistants”, pełny raport, październik 2025.
- The Register, „BBC probe: 81% of AI assistants’ news answers had some form of problem”, 24 października 2025.
- Search Engine Journal, „AI Assistants Show Significant Issues in 45% of News Answers”, 23 października 2025.
- ASIS Security Management Magazine, „AI Assistant News Inaccuracies: EBU/BBC Research Findings”, październik 2025.
- Reuters Institute for the Study of Journalism, Digital News Report 2025.