Schurq

Evaluatie van naleving van de EU AI Act door Foundation Model Providers

|
Leestijd 1 minuten
Door Guido Sombroek

Foundation modellen zoals ChatGPT veranderen de samenleving met hun opmerkelijke mogelijkheden, serieuze risico’s, snelle implementatie, ongekende adoptie en voortdurende controverse. Ondertussen finaliseert de Europese Unie (EU) haar AI Act als ‘s werelds eerste uitgebreide regelgeving voor het reguleren van AI, en zojuist heeft het Europees Parlement een ontwerp van de wet aangenomen met 499 stemmen voor, 28 tegen en 93 onthoudingen. De wet omvat expliciete verplichtingen voor foundation model providers zoals OpenAI en Google.

In dit bericht beoordelen we in hoeverre grote foundation model providers momenteel voldoen aan deze ontwerpvereisten en constateren we dat dit grotendeels niet het geval is. Foundation model providers verstrekken zelden voldoende informatie over de data, rekenkracht en implementatie van hun modellen, evenals de belangrijkste kenmerken van de modellen zelf. Dit voldoet over het algemeen niet aan de ontwerpvereisten om het gebruik van auteursrechtelijk beschermd trainingsmateriaal te beschrijven, de gebruikte hardware en emissies tijdens de training te specificeren, en hoe ze modellen evalueren en testen. Als gevolg hiervan raden we beleidsmakers aan om transparantie als eerste prioriteit te stellen, geïnformeerd door de vereisten van de AI Act. De beoordeling toont aan dat foundation model providers momenteel kunnen voldoen aan de AI Act, en dat openbaarmaking met betrekking tot de ontwikkeling, het gebruik en de prestaties van foundation modellen de transparantie in het hele ecosysteem zou verbeteren.

Om volledig te voldoen aan de vereisten van de EU AI Act, moeten foundation model providers de volgende stappen ondernemen:

1. Verbeterde transparantie:
Providers moeten adequate informatie verstrekken over de gebruikte trainingsdata, hardware, emissies en evaluatiemethoden van hun modellen. Dit zal zorgen voor een betere verantwoording en naleving van de regelgeving.
2. Copyright-gerelateerde kwesties:
Providers moeten duidelijkheid bieden over het gebruik van auteursrechtelijk beschermd trainingsmateriaal en de maatregelen nemen om het risico op inbreuk op het auteursrecht te verminderen. Wetgevers en regelgevers moeten richtlijnen bieden over hoe copyright zich verhoudt tot het trainingsproces en de output van generatieve modellen.
3. Energieverbruik en emissierapportage:
Het rapporteren van energieverbruik, emissies en maatregelen om emissies te verminderen moet een standaardpraktijk worden voor foundation model providers. Duidelijke richtlijnen en meetmethoden moeten worden ontwikkeld om de energiebehoefte van het trainen van foundation modellen nauwkeurig te meten en de rapportage van deze kosten betrouwbaarder te maken.
4. Risicobeheer en evaluatie:
Foundation model providers moeten een grondige beoordeling maken van de mogelijke risico’s die hun modellen met zich meebrengen, zowel op het gebied van kwaadwillig gebruik als onbedoelde schade. Ze moeten transparant zijn over de maatregelen die ze nemen om deze risico’s te beperken en de effectiviteit van deze maatregelen te evalueren. Richtlijnen voor evaluatiestandaarden moeten worden ontwikkeld om de prestaties van foundation modellen op een consistente en betrouwbare manier te beoordelen.
5. Release-strategieën:
Providers moeten nadenken over hun release-strategieën en de impact ervan op transparantie en verantwoording. Zowel open als beperkte releases hebben voor- en nadelen, maar het is belangrijk dat foundation model providers zich bewust zijn van de gevolgen van hun keuzes. Het is essentieel dat beleidsmakers rekening houden met de verschillende release-strategieën bij het formuleren van regelgeving om ervoor te zorgen dat er voldoende verantwoording en transparantie is in het hele ecosysteem.

De evaluatie van de naleving van de EU AI Act door foundation model providers laat zien dat er aanzienlijke ruimte is voor verbetering op het gebied van transparantie en verantwoording. De implementatie en handhaving van de AI Act zal een positieve verandering teweegbrengen in het foundation model-ecosysteem. Het is essentieel dat foundation model providers actie ondernemen om industrienormen vast te stellen die de transparantie verbeteren, en dat beleidsmakers maatregelen nemen om ervoor te zorgen dat voldoende transparantie de basis vormt van deze algemene technologie. Deze evaluatie is slechts het begin van een breder initiatief om de transparantie van foundation model providers te beoordelen en te verbeteren, als aanvulling op onze inspanningen op het gebied van holistische evaluatie, ecosysteemdocumentatie, normontwikkeling en beleidsaanbevelingen.

bron: Stanford University

Deel dit artikel via
Guido Sombroek
Guido Sombroek

Over deze schurq

Lees ook