OpenAI, Microsoft, Google en Anthropic hebben het Frontier Model Forum opgericht, een forum dat zich richt op de regulering van grootschalige machine learning modellen. Deze voorhoede van de AI-industrie, heeft op woensdag aangekondigd dat het Forum zal werken aan het bevorderen van AI-veiligheidsonderzoek, het identificeren van beste praktijken voor de implementatie van geavanceerde AI-modellen en het samenwerken met beleidsmakers, academici en bedrijven.
Het Forum is gericht op het waarborgen van de veilige en verantwoorde ontwikkeling van zogenaamde “frontier AI-modellen”, die de mogelijkheden van de huidige, meest geavanceerde modellen overtreffen. Deze krachtige basis-modellen kunnen gevaarlijke mogelijkheden hebben die ernstige risico’s vormen voor de openbare veiligheid.
Generatieve AI-modellen, zoals ChatGPT, extrapoleren grote hoeveelheden data op hoge snelheid om reacties in de vorm van proza, poëzie en afbeeldingen te delen. Hoewel de toepassingen van dergelijke modellen veel zijn, zijn overheid en industrie het erover eens dat, hoewel AI een enorm potentieel heeft om de wereld ten goede te komen, er adequate beveiligingsmaatregelen nodig zijn om risico’s te beperken.
Het Frontier Model Forum zal een adviesraad creëren in de komende maanden, financiering regelen met een werkgroep en een uitvoerend bestuur creëren om de inspanningen te leiden. Dit initiatief is een essentiële stap om de technologische sector samen te brengen om AI op een verantwoorde manier te bevorderen en de uitdagingen aan te gaan zodat het ten goede komt aan de gehele mensheid.