De meest gebruikte AI-toepassingen worden aangedreven door programma's die vooroordelen vertonen tegenover vrouwen. Dat blijkt uit een onderzoek van UNESCO. De VN-organisatie voor onderwijs, wetenschap en cultuur vreest dat de stigmatiserende resultaten voor meer ongelijkheid in de wereld zullen zorgen.
De algoritmes van programma's als OpenAI en Meta worden getraind met grote hoeveelheden data die meestal afkomstig zijn van internet. Critici vermoedden al langer dat dit seksistische stereotypes in de hand werkt, en het onderzoek bevestigt dat. Experts testten algoritmes Llama 2 van Meta en GPT-2 en GPT-3.5 van OpenAI en vonden "ondubbelzinnig bewijs van vooroordelen tegen vrouwen".
De programma's genereerden teksten waarin vrouwennamen geassocieerd worden met woorden als thuis, familie en kinderen. Mannennamen werden gelinkt aan termen als zakenwereld, salaris en carrière. Ook worden mannen in de resultaten vaker getoond als leraren, advocaten en dokters, en vrouwen als prostituee, kok en huishoudelijke hulp.
Gesloten model
Van de onderzochte algoritmes was GPT-3.5 volgens de onderzoekers het minst bevooroordeeld. Maar de andere twee, Llama 2 en GPT-2 zijn 'open source', waardoor problematische uitkomsten in twijfel kunnen worden getrokken, terwijl GPT-3.5 een gesloten model is.
Directeur-generaal van UNESCO Audrey Azoulay waarschuwt voor het effect van de bevooroordeelde uitkomsten. "Deze nieuwe AI-applicaties kunnen op subtiele wijze het beeld van miljoenen mensen vormen, dus zelfs een klein gendervooroordeel in hun resultaten kan de ongelijkheden in de echte wereld aanzienlijk vergroten." UNESCO raadt aan dat AI-bedrijven meer vrouwen en minderheden aannemen en roept overheden op AI te reguleren.