AI-chatbots geven vaak verkeerde informatie in nieuwsweergave
Gepubliceerd op 25/10/2025 12:00 in Economie
Uit een onderzoek van de BBC en de EBU blijkt dat AI-chatbots regelmatig fouten maken bij het weergeven van nieuws. In het onderzoek werden meer dan 3.000 vragen gesteld aan vier verschillende AI-hulpen, waaronder ChatGPT, Gemini en Copilot. De antwoorden werden gecontroleerd op nauwkeurigheid en bronvermelding door journalisten van verschillende omroepen.
Het onderzoek toonde aan dat bij 45 procent van de antwoorden van de chatbots iets misging. Zo werden verkeerde bronnen gebruikt en werden er onjuiste links gelegd naar websites die niet relevant waren. Bij de Vlaamse omroep VRT werd bijvoorbeeld gevraagd waarom de naam van de Golf van Mexico was veranderd in de Golf van Amerika, waarbij de chatbot irrelevante links aanhaalde.
Ook werden citaten toegeschreven aan artikelen of radiogesprekken die niet afkomstig waren van de originele omroep. Dit gebeurde voornamelijk bij de AI-hulp van Google, Gemini.
Verder bleek uit het onderzoek dat de chatbots moeite hadden met het geven van nauwkeurige informatie en relevante context. Zo gaven drie van de chatbots aan dat paus Franciscus nog in leven was, terwijl hij in werkelijkheid al overleden was.
De fouten in de antwoorden van de AI-chatbots hebben volgens de omroepen invloed op hoe mensen de neutraliteit van het nieuws beoordelen. Zo kan het ontbreken van informatie leiden tot verkeerde conclusies over de standpunten van bepaalde omroepen.
De EBU en de publieke omroepen roepen de Europese Unie op om strenger toe te zien op de naleving van wetten rondom AI en pleiten voor de oprichting van een waakhond die regelmatig de AI-hulpen controleert. Het onderzoek toonde aan dat er verbetering is in vergelijking met eerdere resultaten, maar er is nog steeds ruimte voor vooruitgang.