Onderzoek het Italiaanse ChatGPT-verbod en de mogelijke impact ervan

Onderzoek het Italiaanse ChatGPT-verbod en de mogelijke impact ervan post thumbnail image

Stelt u zich eens voor dat u zich aanmeldt bij uw meest waardevolle zakelijke tool wanneer u op uw werk aankomt en wordt begroet met: “ChatGPT uitgeschakeld voor Italiaanse gebruikers Beste ChatGPT-klant, het spijt ons u te moeten meedelen dat we ChatGPT op verzoek hebben uitgeschakeld voor gebruikers in Italië.” Italiaanse garantie”.
Onderzoek het Italiaanse ChatGPT-verbod en de mogelijke impact ervanScreenshot van OpenAI, 2023 in april OpenAI stuurde dit bericht naar Italiaanse gebruikers als onderdeel van zijn Garante per la protezione dei dati personali (Personal Data Protection Garantor)-onderzoek. De garantie verwijst naar de volgende specifieke overtredingen:

  • OpenAI informeerde gebruikers onvoldoende dat het persoonlijke gegevens verzamelde.
  • OpenAI heeft geen juridische reden gegeven voor het verzamelen van persoonlijke informatie om zijn algoritme te trainen.
  • ChatGPT verwerkt persoonlijke informatie onnauwkeurig zonder echte feiten te gebruiken.
  • OpenAI vereist niet dat gebruikers hun leeftijd verifiëren, hoewel de inhoud die door ChatGPT wordt gegenereerd, bedoeld is voor gebruikers ouder dan 13 jaar en voor gebruikers onder de 18 jaar is toestemming van de ouders vereist.

In wezen heeft een heel land de toegang tot veelgebruikte technologie verloren omdat de regering zich zorgen maakt dat een ander land persoonlijke gegevens verkeerd behandelt en dat de technologie onveilig is voor een jonger publiek. Diletta De Cicco, een in Milaan gevestigde advocaat voor gegevensprivacy, cyberbeveiliging en digitale activa bij Squire Patton Boggs, merkte op: “Het is geen verrassing dat de beslissing van Garante volgt op een datalek dat gevolgen heeft voor gebruikersgesprekken en gegevens die door OpenAI worden verstrekt. Het komt ook op een moment dat generatieve AI snel het grote publiek bereikt (en niet alleen wordt overgenomen door technisch onderlegde gebruikers). Nog verrassender is dat terwijl het Italiaanse persbericht verwijst naar een recent inbreukincident, het Italiaanse besluit ter rechtvaardiging van het tijdelijke verbod er niet naar verwijst, aangezien het gebaseerd is op: onjuiste gegevens, gebrek aan informatie voor consumenten en individuen. algemeen is er een gebrek aan verificatie van de leeftijd van kinderen en een wettelijke basis voor opleidingsgegevens. Hoewel OpenAI LLC actief is in de Verenigde Staten, is het verplicht om te voldoen aan de Italiaanse code voor de bescherming van persoonsgegevens bij het verwerken en beschermen van de persoonlijke informatie van gebruikers in Italië. De code voor de bescherming van persoonsgegevens was de belangrijkste wet van Italië inzake de bescherming van privégegevens totdat de Europese Unie deze in 2018 aannam. heeft de Algemene Verordening Gegevensbescherming (AVG) niet overgenomen. De Italiaanse wet is aangepast om te voldoen aan de AVG.

Wat is de AVG?

De AVG is ingevoerd om de privacy van persoonsgegevens in de EU te beschermen. Organisaties en bedrijven die actief zijn in de EU moeten voldoen aan de AVG-regelgeving met betrekking tot de verwerking, opslag en gebruik van persoonsgegevens. Als een organisatie of bedrijf de persoonlijke informatie van een Italiaanse gebruiker moet verwerken, moet het voldoen aan de Italiaanse code voor de bescherming van persoonsgegevens en de AVG.

Hoe kan ChatGPT de GDPR-regels overtreden?

Als OpenAI zijn zaak tegen de Italiaanse garantie niet kan bewijzen, kan dit leiden tot extra onderzoek wegens het overtreden van de AVG-richtlijnen voor het volgende:

  • ChatGPT slaat gebruikersinvoer op, die persoonlijke informatie van EU-gebruikers kan bevatten (als onderdeel van het trainingsproces).
  • Met OpenAI kunnen trainers ChatGPT-gesprekken bekijken.
  • OpenAI stelt gebruikers in staat hun accounts te verwijderen, maar zegt dat ze geen specifieke prompts kunnen verwijderen. Het merkt op dat gebruikers geen gevoelige persoonlijke informatie mogen delen in ChatGPT-chats.

In het negende deel van het privacybeleid biedt OpenAI juridische redenen voor het verwerken van persoonlijke informatie van gebruikers uit de Europese Economische Ruimte (inclusief EU-landen), het VK en Zwitserland. De pagina Gebruiksvoorwaarden definieert inhoud als invoer (uw prompt) en uitvoer (generatieve AI-reactie). Elke ChatGPT-gebruiker heeft het recht om inhoud die is gemaakt met OpenAI-tools te gebruiken voor persoonlijke en commerciële doeleinden. OpenAI informeert OpenAI API-gebruikers dat services die persoonlijke gegevens van EU-inwoners gebruiken, moeten voldoen aan de AVG, CCPA en lokale privacywetten die van toepassing zijn op hun gebruikers. Naarmate elke AI evolueert, kan de inhoud die de AI genereert, gebruikersinvoer bevatten als onderdeel van de trainingsgegevens, waaronder persoonlijke gevoelige informatie van gebruikers over de hele wereld. Rafi Azim-Khan, global head of data privacy and marketing law bij Pillsbury Winthrop Shaw Pittman LLP, merkte op: “De meest recente voorgestelde wetgeving in Europa (de AI-wet) heeft de aandacht getrokken, maar het kan vaak een vergissing zijn om andere reeds bestaande wetten die van toepassing kunnen zijn, bijvoorbeeld de AVG. De handhavingsactie van de Italiaanse toezichthouder tegen OpenAI en ChatGPT deze week herinnerde iedereen eraan dat wetten zoals de AVG het gebruik van kunstmatige intelligentie beïnvloeden. Azim-Khan wees ook op mogelijke problemen met de informatiebronnen en gegevens die worden gebruikt om ChatGPT-antwoorden te genereren. “Sommige AI-resultaten laten fouten zien, wat aanleiding geeft tot bezorgdheid over de kwaliteit van gegevens die van internet zijn gehaald en / of worden gebruikt om de techniek te trainen”, merkte hij op. “De AVG geeft individuen het recht om fouten te corrigeren (net als de CCPA/CPRA in Californië).

Hoe zit het met de CCPA?

In het vijfde deel van het privacybeleid gaat OpenAI in op de privacykwesties van gebruikers in Californië. Het onthult informatie die is gedeeld met derden, waaronder gelieerde ondernemingen, verkopers, dienstverleners, wetshandhavers en partijen die betrokken zijn bij transacties met OpenAI-producten. Deze informatie omvat gebruikerscontact- en inloggegevens, netwerkactiviteit, inhoud en geolocatiegegevens.

Welke invloed kan dit hebben op het gebruik van Microsoft in Italië en de EU?

Om gegevensprivacy en zorgen over de AVG aan te pakken, heeft Microsoft een vertrouwenscentrum gecreëerd. Microsoft-gebruikers kunnen meer te weten komen over hoe hun gegevens worden gebruikt in Microsoft-services, waaronder Bing en Microsoft Copilot, die worden aangedreven door OpenAI-technologie.

Moeten generatieve AI-gebruikers zich zorgen maken?

“Het punt is dit [the Italian Garante case] kan het topje van de ijsberg zijn, aangezien andere uitvoerders AI-modellen nader bekijken”, zegt Azim-Khan. “Het zal interessant zijn om te zien wat andere Europese gegevensbeschermingsautoriteiten doen – of ze de garantie onmiddellijk opvolgen of wachten”, voegt De Cicco toe. “Je zou een gemeenschappelijk EU-antwoord kunnen verwachten op zo’n sociaal gevoelige kwestie. Als het Italiaanse Garante de zaak wint, zouden andere regeringen kunnen beginnen met het onderzoeken van meer technologieën, waaronder ChatGPT’s collega’s en concurrenten zoals Google Bard, om te zien of ze vergelijkbare persoonlijke gegevens en veiligheidsrichtlijnen voor een jonger publiek schenden. “Na de Italianen zouden er meer verboden kunnen zijn”, zegt Azim-Khan. We kunnen op zijn minst zien dat AI-ontwikkelaars enorme datasets zullen moeten verwijderen en hun bots moeten omscholen.
Uitgelichte afbeelding: pcruciatti/Shutterstock

Relevante berichten