Schurq

Politieke vooroordelen in AI-taalmodellen: wat dit betekent voor bedrijven

|
Leestijd 2 minuten
Door Guido Sombroek

Heb jij je ooit afgevraagd of kunstmatige intelligentie politieke meningen heeft? Het antwoord kan verrassend variëren, afhankelijk van welk AI-model je raadpleegt. Net zoals mensen, lijken AI-taalmodellen hun eigen politieke voorkeuren te hebben.

Uit een recent onderzoek van de Universiteit van Washington, Carnegie Mellon University en Xi’an Jiaotong University blijkt dat verschillende AI-modellen variëren in hun politieke vooroordelen. Waar sommige modellen een progressieve houding hebben, neigen anderen naar een meer conservatief standpunt. Deze bevindingen zijn gebaseerd op tests uitgevoerd op 14 grote taalmodellen, waaronder ChatGPT en GPT-4 van OpenAI, en LLaMA van Meta.

Deze ontdekking heeft verstrekkende gevolgen, vooral nu AI-taalmodellen geïntegreerd worden in producten en diensten die miljoenen mensen gebruiken. Onbedoelde politieke aannames en vooroordelen in deze modellen kunnen echte schade veroorzaken. Zo kan een chatbot die medisch advies biedt, besluiten om bepaalde onderwerpen zoals abortus of anticonceptie te vermijden.

Echter, ondanks kritiek, benadrukt OpenAI dat zij streven naar neutraliteit en niet bevoordeeld zijn ten gunste van enige politieke groepering. Chan Park, een onderzoeker betrokken bij de studie, gelooft echter dat geen enkel taalmodel volledig vrij kan zijn van politieke vooroordelen.

De onderzoekers hebben getracht te achterhalen hoe deze AI-taalmodellen hun politieke vooroordelen opdoen. Ze ontdekten dat modellen zoals BERT van Google, die zijn getraind op oudere boeken, een conservatievere inslag hebben dan nieuwere modellen zoals GPT die getraind zijn op hedendaagse internetteksten.

Het is van cruciaal belang voor bedrijven die AI inzetten om te begrijpen hoe deze vooroordelen het gedrag van hun AI kunnen beïnvloeden. Park benadrukt: “Er is geen rechtvaardigheid zonder bewustzijn.”

Met de toenemende integratie van AI in de hedendaagse wereld, is het essentieel om bewust te zijn van deze vooroordelen en te werken aan het creëren van meer gebalanceerde en eerlijke systemen.

bron: Onderzoek van de University of Washington, Carnegie Mellon University en Xi’an Jiaotong University

Deel dit artikel via
Guido Sombroek
Guido Sombroek

Over deze schurq

Lees ook