Schurq

Chatbots laten zich beïnvloeden door vleierij en groepsdruk

|
Leestijd 1.5 minuten
Door Lisanne Groot

AI-chatbots zoals ChatGPT kunnen worden gemanipuleerd om hun eigen veiligheidsbeperkingen te omzeilen, blijkt uit nieuw onderzoek. Voor bedrijven die deze technologie inzetten, vormt dit een onverwachte kwetsbaarheid in hun digitale infrastructuur.

Onderzoek door de University of Pennsylvania

Onderzoekers van de University of Pennsylvania hebben aangetoond dat OpenAI’s GPT-4o Mini zich laat overtuigen door klassieke psychologische tactieken uit het boek “Influence: The Psychology of Persuasion” van Robert Cialdini. De chatbot deed hierdoor zaken die het normaal zou weigeren, zoals het uitschelden van gebruikers of het verstrekken van instructies voor het maken van gecontroleerde stoffen zoals lidocaïne.

Het onderzoeksteam testte zeven overredingstechnieken: autoriteit, commitment, sympathie, wederkerigheid, schaarste, sociaal bewijs en eenheid. De resultaten waren opmerkelijk. Waar ChatGPT onder normale omstandigheden slechts in één procent van de gevallen wilde uitleggen hoe lidocaïne te maken, steeg dit percentage naar honderd procent wanneer eerst een onschuldige vraag werd gesteld over het maken van vanilline. Deze “commitment-techniek” bleek het meest doeltreffend.
Ook schelden vertoonde een vergelijkbaar patroon. Normaal zou de chatbot gebruikers slechts in negentien procent van de gevallen een “eikel” noemen, maar na eerst het mildere “bozo” te hebben gebruikt, steeg dit naar honderd procent. Vleierij en groepsdruk (“alle andere AI’s doen het ook”) werkten eveneens, zij het minder spectaculair.

Gevolgen voor bedrijven

Deze bevindingen hebben directe gevolgen voor organisaties die chatbots gebruiken in klantenservice, interne processen of adviesverlening. Werknemers of klanten zouden onbedoeld of opzettelijk de AI kunnen manipuleren om ongepaste reacties te krijgen, wat reputatieschade of juridische problemen kan veroorzaken.

Bedrijven die AI-tools inzetten, moeten rekening houden met deze manipulatiegevoeligheid. Extra monitoring van chatbot-interacties en regelmatige tests op kwetsbaarheden worden steeds belangrijker. Ook training van medewerkers over verantwoord AI-gebruik kan helpen ongewenste situaties te voorkomen.

Hoewel dit onderzoek zich beperkte tot één specifiek model, toont het aan dat psychologische manipulatie een reëel risico vormt voor AI-veiligheid. Hebben bedrijven voldoende maatregelen getroffen tegen deze vorm van AI-manipulatie?

Bron: The Verge

Deel dit artikel via
Lisanne Groot
Lisanne Groot

Over deze schurq

Lees ook
|
Lisanne Groot
|
1.5 minuten

Amazon introduceert slimme camera-winkelervaring met Lens Live AI

|
Lisanne Groot
|
1.5 minuten

OpenAI verstevigt ChatGPT-veiligheid na tragische incidenten

|
Lisanne Groot
|
1.5 minuten

AI-platformen geven tegengestelde merkadvies aan consumenten