Mensen lijden onder het trainen van AI-modellen

Gepubliceerd op 29/11/2025 12:00 in Tech

Datacentra over de hele wereld draaien overuren voor AI-tools zoals ChatGPT en Gemini, maar het zijn mensen die de modellen moeten trainen om geen schokkende of illegale content te produceren. Het cruciale werk van deze mensen blijft vaak onderbelicht.

Een Amerikaanse onderzoeksjournalist, Karen Hao, benadrukt dat het trainen van tools als ChatGPT niet volledig automatisch is. Mensen moeten de data filteren en labelen, inclusief data met geweld en seksueel misbruik, zodat chatbots kunnen leren wat onveilige of illegale data is.

Een Keniaanse man, Mophat Okinyi, raakte zo getraumatiseerd door het beoordelen van extreem heftige teksten over onderwerpen zoals kannibalisme en verkrachting van kinderen, dat zijn zwangere vrouw hem verliet.

Okinyi werkte via een tussenbedrijf voor OpenAI in Nairobi, waar hij moest werken met schokkende teksten. Hij kampt nog steeds met een posttraumatische stressstoornis door de ervaringen die hij daar heeft opgedaan.

De praktijk van het labelen van data wordt vaak uitbesteed aan tussenbedrijven in lagelonenlanden, waar mensen teksten en beelden moeten bekijken. Dit heeft geleid tot verhalen van psychologische schade en trauma bij de werknemers, zoals Okinyi.

Verschillende ngo's en individuen proberen de mist rondom contentmoderatie en data-labeling op te helderen en kritiek te uiten op techbedrijven die vaak in geheimhouding opereren.

OpenAI verdedigt de praktijk van contentmoderatie en noemt het belangrijk werk voor de veiligheid van modellen en gebruikers. Het bedrijf streeft naar een veilige en positieve werkomgeving voor iedereen die betrokken is bij de ontwikkeling van hun technologie.

Okinyi is nu betrokken bij een Afrikaanse vakbond voor contentmoderators en heeft zijn ervaringen gedeeld om de werkomstandigheden te verbeteren. Er lijken veranderingen op komst te zijn, zoals een lichte stijging in de salarissen van contentmoderators in Kenia.

Het is belangrijk dat de stemmen van de mensen die betrokken zijn bij het trainen van AI-modellen gehoord worden, zodat er verbeteringen kunnen worden doorgevoerd in deze vaak onderbelichte en traumatische sector.

Lees meer nieuws in tech