De beleidsagenda van Google onthult zijn wensenlijstje voor AI-regelgeving

Google heeft een AI-beleidsagendadocument gepubliceerd met een visie voor de verantwoorde inzet van AI en voorstellen voor hoe overheden de industrie zouden moeten reguleren en promoten.

De AI-beleidsagenda van Google

Google heeft aangekondigd een AI-beleidsagenda te hebben gepubliceerd met voorstellen voor verantwoorde AI-ontwikkeling en regelgeving. De paper merkt op dat AI-beleid van de overheid over de hele wereld onafhankelijk vorm krijgt en roept op tot een coherente AI-agenda die een evenwicht vindt tussen bescherming tegen schadelijke effecten en het terugdringen van innovatie.

Google schrijft:
“Om AI-innovaties goed te implementeren, is een beleidskader nodig dat zorgt voor verantwoording en vertrouwen mogelijk maakt. We hebben een holistische AI-strategie nodig die gericht is op: (1) het ontsluiten van kansen door middel van innovatie en inclusieve economische groei; (2) verantwoording en vertrouwen; en 3) bescherming van de wereldwijde veiligheid. Een coherente AI-agenda moet helpen om alle drie de doelen te bereiken, niet ten koste van de andere.
De AI-beleidsagenda van Google heeft drie hoofddoelen:

  1. Mogelijkheid
  2. Verantwoordelijkheid
  3. Veiligheid

Mogelijkheid

Dit deel van de agenda vraagt ​​overheden om de ontwikkeling van kunstmatige intelligentie te bevorderen door te investeren in:

  • Onderzoek en ontwikkeling
  • Creëer een wrijvingsloze juridische omgeving die de ontwikkeling van kunstmatige intelligentie niet belemmert
  • Educatieve hulp plannen voor het trainen van een AI-gereed personeelsbestand

Kortom, de agenda vraagt ​​regeringen om een ​​stap terug te doen en achter kunstmatige intelligentie te gaan staan ​​om de technologie vooruit te helpen.
De beleidsagenda houdt rekening met:
“Historisch gezien blinken landen uit in het maximaliseren van de toegang tot technologie en het gebruiken ervan om belangrijke publieke doelen te bereiken, in plaats van te proberen de technologische vooruitgang te beperken.”

Verantwoordelijkheid

In de beleidsagenda van Google staat dat een verantwoorde inzet van AI afhangt van overheidswetgeving, zelfregulering door bedrijven en inbreng van niet-gouvernementele organisaties.
De beleidsagenda beveelt aan:
“Sommige uitdagingen kunnen worden aangepakt door middel van regelgeving, waardoor ervoor wordt gezorgd dat AI-technologieën worden ontwikkeld en ingezet in overeenstemming met verantwoorde industriële praktijken en internationale normen.” Anderen zullen fundamenteel onderzoek nodig hebben om de voordelen en risico’s van AI beter te begrijpen en hoe deze te beheren, evenals de ontwikkeling en implementatie van nieuwe technische innovaties op gebieden zoals interpreteerbaarheid en watermerken. En andere hebben mogelijk nieuwe organisaties en instellingen nodig.
De agenda beveelt ook aan:
“Stimuleer de goedkeuring van gemeenschappelijke benaderingen van AI-regelgeving en -beheer, evenals een gemeenschappelijk vocabulaire gebaseerd op het werk van de OESO. ”

Wat is de OESO?

De OESO is een OESO.AI-beleidsobservatorium dat wordt ondersteund door zakelijke en overheidspartners. Belanghebbenden van de OESO-regering zijn onder meer het Amerikaanse ministerie van Buitenlandse Zaken en het Amerikaanse ministerie van Handel. Zakelijke belanghebbenden zijn onder meer organisaties zoals de Patrick J McGovern Foundation, wiens leiderschapsteam bestaat uit investeerders uit Silicon Valley en technologiemanagers met een gevestigd belang in hoe technologie wordt gereguleerd.

Google is voorstander van minder regulering van bedrijven

De beleidsaanbeveling van Google over regulering is dat minder regulering beter is en dat transparantie van bedrijven innovatie kan belemmeren.
Het beveelt aan:
“Het focussen van regelgeving op toepassingen met het hoogste risico kan ook innovatie ontmoedigen in toepassingen met de hoogste waarde waar AI de grootste voordelen kan bieden.” Transparantie, die verantwoording en rechtvaardigheid kan ondersteunen, kan ten koste gaan van nauwkeurigheid, veiligheid en privacy. Democratieën moeten zorgvuldig beoordelen hoe ze het juiste evenwicht kunnen vinden.

Later wordt aanbevolen om efficiëntie en productiviteit te overwegen:
“Eist regelgevende instanties om afwegingen te maken tussen verschillende beleidsdoelen, waaronder het verhogen van de efficiëntie en productiviteit, transparantie, eerlijkheid, privacy, veiligheid en veerkracht.” “Er is altijd een touwtrekken geweest en zal er altijd zijn tussen bedrijven die strijden tegen toezicht en regelgevers van de overheid die het publiek willen beschermen.” AI kan de meest complexe problemen in de geesteswetenschappen oplossen en ongekende voordelen opleveren. Google maakt terecht een balans tussen publieke en zakelijke belangen.

Slimme aanbevelingen

Het document doet verstandige aanbevelingen, zoals de suggestie dat bestaande regelgevende instanties AI-richtlijnen ontwikkelen en overwegen nieuwe ISO-normen aan te nemen die momenteel in ontwikkeling zijn (zoals ISO 42001).

De beleidsagenda beveelt aan:
“(a) sectorale regelgevers opdracht geven om bestaande toezichts- en handhavingskaders die van toepassing zijn op KI-systemen bij te werken, inclusief hoe bestaande autoriteiten het gebruik van kunstmatige intelligentie toepassen en hoe KI-systemen kunnen aantonen dat ze voldoen aan bestaande regelgeving met behulp van internationale multi-stakeholder consensusstandaarden, b.v. ISO 42001-reeks. (b) Regelgevende instanties opdracht geven om regelmatig rapporten in te dienen waarin capaciteitstekorten worden vastgesteld die het voor gereguleerde entiteiten moeilijk maken om aan de regels te voldoen en voor regelgevers om effectief toezicht uit te oefenen. In zekere zin suggereren deze aanbevelingen dat de agentschappen richtlijnen zullen ontwikkelen zodat regelgevers weten hoe ze moeten reguleren. Deze verklaring bevat een aanbeveling voor ISO 42001 als voorbeeld van hoe standaarden voor kunstmatige intelligentie eruit zouden moeten zien. Opgemerkt moet worden dat de ISO 42001-standaard is ontwikkeld door het ISO/IEC Artificial Intelligence Committee, dat wordt voorgezeten door een twintigjarige technologiemanager uit Silicon Valley en andere vertegenwoordigers van de technologie-industrie.

AI en beveiliging

Dit is het onderdeel dat een reëel risico vormt voor kwaadwillig gebruik om verkeerde informatie en desinformatie en cyberschade te creëren.
Google presenteert de uitdagingen:
“Onze uitdaging is om de potentiële voordelen van AI voor wereldwijde veiligheid en stabiliteit te maximaliseren en tegelijkertijd te voorkomen dat bedreigingsactoren deze technologie voor kwaadaardige doeleinden gebruiken.”
En biedt dan een oplossing:
“Overheden moeten tegelijkertijd investeren in onderzoek en ontwikkeling en de publieke en private acceptatie van kunstmatige intelligentie versnellen, terwijl ze de verspreiding van tools die kunnen worden misbruikt, beheersen.”

Een van de aanbevelingen voor regeringen om op AI gebaseerde bedreigingen te bestrijden:

  • Ontwikkel manieren om verkiezingsinmenging op te sporen en te voorkomen
  • Deel informatie over beveiligingsproblemen
  • Een internationaal handelscontrolesysteem opzetten om te gaan met entiteiten die zich bezighouden met onderzoek en ontwikkeling van AI die een bedreiging vormen voor de wereldwijde veiligheid.

Verminder de bureaucratie en laat de overheid groeien om AI te omarmen

De krant pleit verder voor het stroomlijnen van de acceptatie van AI door de overheid, inclusief meer investeringen erin. “Hervorm het acquisitiebeleid van de overheid om toonaangevende kunstmatige intelligentie te benutten en te promoten… Onderzoek de institutionele en bureaucratische barrières die regeringen tegenhouden bij het afbreken van datavoorraden, en adopteer best-in-class databeheer om de volledige kracht van AI te benutten.” Maak gebruik van data-inzichten door samen te werken met mensen en machines om agile teams op te bouwen met de vaardigheden om snel AI-systemen te bouwen/aanpassen/implementeren waarvoor geen computerwetenschappelijke diploma’s meer nodig zijn…

De AI-beleidsagenda van Google

De Beleidsagenda biedt doordachte suggesties waarmee regeringen over de hele wereld rekening kunnen houden bij het formuleren van regels voor het gebruik van AI. AI heeft het potentieel om veel positieve wetenschappelijke en medische doorbraken te bewerkstelligen, doorbraken die kunnen helpen bij het oplossen van klimaatverandering, het genezen van ziekten en het verlengen van het menselijk leven. In zekere zin is het jammer dat de eerste AI-producten die aan de wereld zijn uitgebracht, de relatief onbeduidende ChatGPT- en Dall-E-programma’s zijn die de mensheid weinig voordeel opleveren. Overheden proberen AI te begrijpen en te reguleren, aangezien deze technologieën over de hele wereld worden toegepast. Interessant is dat open source AI, de belangrijkste versie ervan, maar één keer wordt genoemd.

De enige context voor open source zijn de aanbevelingen om AI-misbruik tegen te gaan:
“Onderzoek mogelijke aansprakelijkheid voor misbruik van algemene en gespecialiseerde AI-systemen (inclusief open-sourcesystemen indien van toepassing) door verschillende actoren – onderzoekers en auteurs, ontwikkelaars, uitvoerders en eindgebruikers.” Gezien het feit dat Google bang zou zijn en denkt dat het al verslagen is door open source AI, is het interessant hoe open source AI alleen wordt genoemd in de context van misbruik van de technologie. De AI-beleidsagenda van Google weerspiegelt legitieme zorgen over overregulering en inconsistente regels over de hele wereld. Maar de organisaties die op de politieke agenda worden genoemd omdat ze helpen bij het creëren van industriële normen en voorschriften, zijn gelieerd aan de eigenaren van Silicon Valley. Dit roept vragen op over wiens belangen worden behartigd door normen en regelgeving. De beleidsagenda communiceert met succes de behoefte en noodzaak om zinvolle en eerlijke regelgeving te creëren om schadelijke effecten te voorkomen en tegelijkertijd gunstige innovatie mogelijk te maken.
Lees het artikel van Google over de politieke agenda:
Een beleidsagenda voor verantwoorde vooruitgang in kunstmatige intelligentie: kansen, verantwoordelijkheid, veiligheid
Lees de AI-Beleidsagenda zelf (PDF)
Een beleidsagenda voor de verantwoorde bevordering van kunstmatige intelligentie
Uitgelichte afbeelding door Shutterstock/Shaheerrr

Relevante berichten