Umělá inteligence zkresluje zprávy v 45 % případů, média bijí na poplach kvůli důvěryhodnosti

29. říjen 2025

Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti, kteří se již stali každodenním zdrojem informací pro miliony uživatelů – jako ChatGPT, Copilot, Gemini nebo Perplexity – systematicky zkreslují zpravodajský obsah. A to bez ohledu na jazyk, zemi nebo AI platformu. Na základě zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry.

Čtěte také

Výsledky výzkumu ukazují, že nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 % odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně halucinací nebo zastaralých informací. Nejhůře si vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 % odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. I přes dílčí zlepšení oproti předchozí fázi výzkumu BBC, celková míra chyb zůstává znepokojivě vysoká.

AI asistenti se stávají pro mnohé hlavním zdrojem informací, nahrazují tradiční vyhledávače. Podle Digital News Report 2025 využívá AI asistenty 7 % uživatelů online zpravodajství, přičemž mezi mladými do 25 let je to až 15 %. „Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ říká Jean Philip De Tender z EBU.

Čtěte také

Z pohledu veřejnoprávních médií je zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů. Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat.

EBU vyzývá k okamžité akci všechny klíčové aktéry. Technologické firmy by měly neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy, a využít News Integrity Toolkit (Sada nástrojů pro integritu zpráv, pozn. red.). Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí AI, a posílit mediální gramotnost veřejnosti.

Čtěte také

Česká zkušenost s AI asistenty ukázala opakující se chyby, od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků. Příkladem je tvrzení Perplexity o zákazu náhradního mateřství v Česku, které ve skutečnosti není ani povoleno, ani zakázáno. Další problémy zahrnují použití dezinformačních zdrojů, záměnu názorů za fakta a zamlčení protinázorů, což vede ke zkreslení celkového vyznění informací.

Spustit audio

Mohlo by vás zajímat