Schurq

Hoe Google Gemini verbeterd door vergelijking met Anthropic’s Claude

|
Leestijd 1.5 minuten
Door Lisanne Groot

Google gebruikt het AI-model Claude van Anthropic om de prestaties van zijn eigen Gemini AI te verbeteren. Volgens interne documenten vergelijken contractors antwoorden van Gemini en Claude om te bepalen welke accurater, betrouwbaarder en beter geformuleerd zijn. Maar wat betekent dit voor de ontwikkeling van AI-modellen en de impact op bedrijven die deze technologie gebruiken?

Inzicht in het vergelijkingsproces

Google gebruikt Claude niet om Gemini te trainen, maar om de prestaties ervan te evalueren. Contractors beoordelen de antwoorden van beide modellen op basis van criteria zoals waarheid, volledigheid en detail. Voor elke prompt krijgen zij tot 30 minuten om de antwoorden grondig te vergelijken. Dit proces is bedoeld om zwakke punten in Gemini te identificeren en te verbeteren.

Toch roept dit vragen op over de naleving van gebruiksvoorwaarden. Anthropic, de maker van Claude, verbiedt expliciet het gebruik van hun model voor concurrerende toepassingen zonder toestemming. Ondanks dat Google een belangrijke investeerder in Anthropic is, blijft onduidelijk of deze toestemming is verkregen.

Impact op bedrijven en technologieontwikkeling

De voortdurende concurrentie om betere AI-modellen te ontwikkelen heeft directe gevolgen voor bedrijven en organisaties. Het vergelijken van Gemini met Claude benadrukt hoe essentieel veiligheid en nauwkeurigheid zijn. Claude is bekend om zijn strikte veiligheidsrichtlijnen. In sommige gevallen weigert het zelfs om op prompts te reageren die als onveilig worden beschouwd. Gemini reageert daarentegen vaker, maar kan hierbij soms risicovolle antwoorden geven, zoals informatie die ongepast of onveilig is.
Voor bedrijven in gevoelige sectoren, zoals gezondheidszorg en juridische dienstverlening, kan een dergelijk verschil doorslaggevend zijn. Een AI-model dat niet voldoet aan strikte veiligheidseisen kan leiden tot verkeerde informatie of zelfs juridische risico’s. Dit benadrukt hoe belangrijk het is om AI-modellen kritisch te evalueren voordat deze worden ingezet.

Aanpak en oplossingen binnen AI-testen

Google stelt dat Claude uitsluitend wordt gebruikt voor evaluatie en niet om Gemini te trainen. Deze werkwijze weerspiegelt standaardpraktijken binnen de industrie. Het gebruik van concurrerende modellen als benchmark helpt ontwikkelaars om de prestaties van hun eigen systemen te verbeteren.

Echter, transparantie en naleving van afspraken blijven cruciaal. Bedrijven moeten ervoor zorgen dat ze de voorwaarden van hun partners respecteren en ethisch te werk gaan. Dit vergroot niet alleen het vertrouwen in de sector, maar stimuleert ook eerlijke concurrentie.

Organisaties die afhankelijk zijn van AI doen er goed aan om grondig onderzoek te doen naar de veiligheid en betrouwbaarheid van de modellen die ze gebruiken. Het waarborgen van ethiek en veiligheid moet een prioriteit blijven, niet alleen voor ontwikkelaars, maar ook voor bedrijven die AI-technologie toepassen.

Bron: Tech Crunch

Deel dit artikel via
Lisanne Groot
Lisanne Groot

Over deze schurq

Lees ook