OpenAI, de makers van ChatGPT, zetten zich in voor het bouwen van veilige AI-systemen

OpenAI heeft een nieuwe blogpost gepubliceerd die zich inzet voor de ontwikkeling van kunstmatige intelligentie (AI) die veilig en breed inzetbaar is. ChatGPT is gebouwd op het nieuwste OpenAI-model GPT-4 en kan de productiviteit en creativiteit verbeteren en een op maat gemaakte leerervaring bieden. OpenAI erkent echter dat AI-tools inherente risico’s hebben die moeten worden aangepakt door middel van beveiligingsmaatregelen en verantwoorde implementatie. Dit is wat het bedrijf doet om dat risico te beperken.

Zorgen voor de beveiliging van AI-systemen

OpenAI voert rigoureuze tests uit, wint advies in van externe experts en verfijnt zijn AI-modellen op basis van menselijke feedback voordat nieuwe systemen worden vrijgegeven. GPT-4 onderging bijvoorbeeld meer dan zes maanden testen voordat het werd uitgebracht om de veiligheid en compatibiliteit met gebruikersbehoeften te garanderen. OpenAI is van mening dat robuuste AI-systemen streng moeten worden beoordeeld op veiligheid en ondersteunt de behoefte aan regelgeving.

Leren van gebruik in de echte wereld

Gebruik in de echte wereld is een cruciaal onderdeel bij het ontwikkelen van veilige AI-systemen. Door nieuwe modellen voorzichtig vrij te geven aan een steeds groter wordend gebruikersbestand, kan OpenAI onvoorziene problemen oplossen. Door AI-modellen aan te bieden via zijn API en website, kan OpenAI misbruik monitoren, passende maatregelen nemen en genuanceerde strategieën ontwikkelen om risico’s af te wegen.

Bescherming van kinderen en respect voor privacy

OpenAI geeft prioriteit aan de bescherming van kinderen door leeftijdsverificatie te eisen en het gebruik van zijn technologie om schadelijke inhoud te creëren te verbieden. Privacy is een ander belangrijk aspect van het werk van OpenAI. De organisatie gebruikt data om haar modellen bruikbaarder te maken en gebruikers te beschermen. Daarnaast verwijdert OpenAI persoonlijke informatie uit trainingsdatasets en verfijnt het modellen om verzoeken om persoonlijke informatie af te wijzen. OpenAI zal reageren op verzoeken om persoonlijke informatie van zijn systemen te verwijderen.

Verbetering van de werkelijke nauwkeurigheid

Daadwerkelijke nauwkeurigheid is een grote focus van OpenAI. GPT-4 levert 40% meer accurate inhoud dan zijn voorganger, GPT-3.5. De organisatie wil gebruikers informeren over de beperkingen en het potentieel voor onnauwkeurigheden in AI-tools.

Lopend onderzoek en betrokkenheid

OpenAI gelooft in het besteden van tijd en middelen aan het onderzoeken van effectieve mitigatie- en afstemmingstechnieken. Maar het is niet iets wat hij alleen kan. Het oplossen van veiligheidsproblemen vereist uitgebreide discussie, experimenten en betrokkenheid van belanghebbenden. OpenAI blijft zich inzetten voor het bevorderen van samenwerking en open dialoog om een ​​veilig AI-ecosysteem op te bouwen.

Kritiek op existentieel risico

Ondanks de toewijding van OpenAI aan de veiligheid en het brede nut van zijn AI-systemen, kreeg zijn blogpost kritiek op sociale media. Twitter-gebruikers hebben hun frustratie geuit over het feit dat OpenAI er niet in is geslaagd de existentiële risico’s van de ontwikkeling van AI aan te pakken. Een Twitter-gebruiker uitte zijn frustratie en beschuldigde OpenAI ervan zijn oorspronkelijke missie te verraden en zich te concentreren op roekeloze commercialisering. De gebruiker beweert dat OpenAI’s benadering van beveiliging oppervlakkig is en meer bezig is met het sussen van critici dan met echte existentiële risico’s. Het is een bitter teleurstellende, lege PR-versiering. Je hebt het niet eens over het existentiële risico van AI, dat een grote zorg is van veel burgers, technologen, AI-onderzoekers en AI-industrieleiders, waaronder je CEO @sama.@OpenAI… — Geoffrey Miller (@primalpoly) 23 mei 2023 5 april Een andere gebruiker uitte zijn ongenoegen over de aankondiging en zei dat het echte problemen maskeert en vaag blijft. De gebruiker wijst er ook op dat het rapport kritieke ethische kwesties en risico’s in verband met zelfbewustzijn van AI negeert, wat impliceert dat OpenAI’s benadering van beveiligingsproblemen ontoereikend is. Als fan van GPT-4 ben ik teleurgesteld in uw artikel. Het verdoezelt de echte problemen, blijft vaag en negeert de fundamentele ethische kwesties en risico’s die samenhangen met AI-zelfbewustzijn. Ik waardeer innovatie, maar dit is niet de juiste manier om met beveiligingsproblemen om te gaan. — FrankyLabs (@FrankyLabs) maart 2023 5 april De kritiek wijst op bredere zorgen en lopende debatten over de existentiële risico’s van de ontwikkeling van AI. Hoewel de aankondiging van OpenAI zijn toewijding aan beveiliging, privacy en nauwkeurigheid benadrukt, is het van cruciaal belang om de noodzaak van verdere discussie te erkennen om meer urgente problemen aan te pakken.
Uitgelichte afbeelding: TY Lim/Shutterstock
Bron: OpenAI

Relevante berichten