AI-chatbots geven vaak foutieve informatie weer, blijkt uit onderzoek
Gepubliceerd op 22/10/2025 16:00 in Tech
Uit een onderzoek van de BBC, EBU en 22 publieke omroepen in Europa, Canada en de Verenigde Staten is gebleken dat AI-chatbots regelmatig verkeerde informatie verstrekken. De Nederlandse Publieke Omroep (NPO) en de NOS werkten ook mee aan het onderzoek.
Vier AI-hulpen, ChatGPT, Gemini (Google), Copilot (Microsoft) en Perplexity, werden getest door ruim 3.000 vragen te stellen. Journalisten van verschillende omroepen controleerden de antwoorden op nauwkeurigheid en bronvermelding.
Uit het onderzoek blijkt dat bij 45 procent van de antwoorden van de chatbots iets mis gaat. Zo worden vreemde bronnen gebruikt voor informatie en worden er links gegeven die niet relevant zijn. Ook worden citaten aan artikelen toegeschreven die niet kloppen.
Een voorbeeld hiervan is de Vlaamse omroep VRT die aan Perplexity vroeg waarom de naam van de Golf van Mexico is veranderd naar de Golf van Amerika. Het antwoord bevatte irrelevante links.
Daarnaast blijkt uit het onderzoek dat er problemen zijn met de nauwkeurigheid en context in de antwoorden. Zo geven drie van de chatbots aan dat paus Franciscus nog leeft, terwijl hij in werkelijkheid al overleden is.
De publieke omroepen benadrukken dat foutieve informatie invloed kan hebben op de neutraliteit van hun berichtgeving. Zo kan het gebruik van alleen NOS-bronnen in antwoorden van ChatGPT tot onjuiste conclusies leiden over het standpunt van de NOS.
De EBU en de publieke omroepen roepen de Europese Unie op om strenger toe te zien op de naleving van wetten over AI en pleiten voor een controle-instantie die regelmatig de AI-hulpen controleert.
Het onderzoek toont aan dat er verbetering nodig is in de betrouwbaarheid en nauwkeurigheid van AI-chatbots die nieuwsberichten samenvatten.