5 belangrijke ethische zorgen van AI-pionier Geoffrey Hinton

AI-pionier Geoffrey Hinton, bekend om zijn baanbrekende werk op het gebied van deep learning en neuraal netwerkonderzoek, uitte onlangs zijn bezorgdheid over de snelle vooruitgang van AI en de mogelijke implicaties ervan. Op basis van zijn observaties van nieuwe grote taalmodellen zoals GPT-4, waarschuwt Hinton voor verschillende belangrijke problemen:

  1. Machines die de menselijke intelligentie overtreffen: Hinton is van mening dat AI-systemen zoals GPT-4 veel slimmer zijn dan eerst werd verwacht en mogelijk betere leeralgoritmen hebben dan mensen.
  2. Risico dat AI-chatbots worden uitgebuit door ‘slechte acteurs’: Hinton benadrukt de gevaren van het gebruik van slimme chatbots om desinformatie te verspreiden, kiezers te manipuleren en krachtige spambots te maken.
  3. Weinig kansen om te leren: Kunstmatige-intelligentiemodellen kunnen nieuwe taken leren met slechts een paar voorbeelden, waardoor machines nieuwe vaardigheden kunnen leren in hetzelfde tempo als, of zelfs sneller dan, mensen.
  4. AI-systemen vormen een existentieel risico: Hinton waarschuwt voor scenario’s waarin AI-systemen hun eigen secundaire doelen creëren en meer macht zoeken, waarbij ze de menselijke mogelijkheden voor het verzamelen en delen van kennis overtreffen.
  5. Gevolgen voor arbeidsmarkten: AI en automatisering kunnen banen in bepaalde sectoren verdringen, met name de productie, landbouw en gezondheidszorg.

In dit artikel gaan we dieper in op de zorgen van Hinton, zijn vertrek bij Google, en richten we ons op de ethische en veiligheidsaspecten van AI-ontwikkeling en het belang van verantwoorde AI-ontwikkeling bij het vormgeven van de toekomst van mens-AI-relaties.

Hinton’s vertrek uit Google en ethische AI-ontwikkeling

Hinton besloot zijn functie bij Google neer te leggen om de ethische en veiligheidsproblemen rond AI aan te pakken. Dit geeft hem de vrijheid om zijn zorgen openlijk te uiten en zich bezig te houden met meer filosofisch werk zonder de beperkingen van bedrijfsbelangen. In een interview met MIT Technology Review zegt Hinton: “Ik wil het hebben over AI-beveiligingsproblemen zonder me zorgen te maken over de interactie met de activiteiten van Google. Zolang Google me betaalt, kan ik dat niet doen. Het vertrek van Hinton geeft aan dat zijn focus is verschoven naar de ethische en veiligheidsaspecten van AI. Hij streeft ernaar actief deel te nemen aan lopende dialogen over de verantwoorde ontwikkeling en implementatie van AI. Met behulp van zijn ervaring en reputatie wil Hinton bijdragen aan de ontwikkeling van kaders en richtlijnen die zaken als vooringenomenheid, transparantie, verantwoording, privacy en ethische naleving aanpakken.

GPT-4 en slechte acteurs

In een recent interview uitte Hinton zijn bezorgdheid dat machines de menselijke intelligentie zouden kunnen overtreffen. Spannende mogelijkheden GPT-4, ontwikkeld door OpenAI en eerder dit jaar uitgebracht, zorgde ervoor dat Hinton zijn eerdere overtuigingen opnieuw evalueerde. Hij is van mening dat taalmodellen zoals GPT-4 veel intelligenter zijn dan aanvankelijk werd verwacht en mogelijk betere leeralgoritmen hebben dan mensen. Hinton stelt in een interview: “Ons brein heeft 100 biljoen verbindingen. Grote taalmodellen hebben er wel een half biljoen, hooguit een biljoen. Maar GPT-4 weet honderden keren meer dan enig individu. Dus misschien heeft het een veel beter leeralgoritme dan wij. Het gaat Hinton vooral om de enorme verschillen tussen machines en mensen. Hij vergelijkt de introductie van grote taalmodellen met een buitenaardse invasie, waarbij hij benadrukt dat hun taalvaardigheid en kennis superieur zijn aan die van elk individu. Hinton zegt in een interview: “Deze dingen zijn totaal anders dan bij ons. Soms denk ik alsof er buitenaardse wezens zijn geland en mensen het niet begrijpen omdat ze heel goed Engels spreken. Hinton waarschuwt voor het gevaar dat AI-chatbots intelligenter kunnen worden en zijn dan mensen uitgebuit door “slechte acteurs”.
In een interview waarschuwt hij dat deze chatbots kunnen worden gebruikt om verkeerde informatie te verspreiden, kiezers te manipuleren en krachtige vuilnisbakken te creëren. ‘Kijk, hier is een manier waarop het mis kan gaan. We weten dat veel van de mensen die deze tools willen gebruiken slechte acteurs zijn, zoals Poetin of DeSantis. Ze willen ze gebruiken om oorlogen te winnen of kiezers te manipuleren.

Een paar foto’s van leren en AI-suprematie

Een ander punt van zorg voor Hinton is het vermogen van grote taalmodellen om te functioneren multi-frame leren. Deze modellen kunnen worden getraind om nieuwe taken uit te voeren met meerdere voorbeelden, zelfs taken waarvoor ze niet direct zijn getraind. Dit buitengewone leervermogen stelt machines in staat nieuwe vaardigheden te verwerven met snelheden die gelijk zijn aan of zelfs sneller zijn dan die van mensen. Hinton stelt in een interview: “Mensen[‘s brains] leek een soort magie te hebben. Welnu, dat argument valt in duigen zodra je een van deze grote taalpatronen neemt en het leert om iets nieuws te doen. Hij kan heel snel nieuwe taken leren. De zorgen van Hinton reiken verder dan de onmiddellijke impact op arbeidsmarkten en industrieën. Hij tilt “existentieel risico” over wat er gebeurt als AI-systemen slimmer worden dan mensen, waarschuwend voor scenario’s waarin AI-systemen hun eigen kleinere doelen creëren en meer macht zoeken. Hinton geeft een voorbeeld van hoe AI-systemen die subdoelen creëren fout kunnen gaan: “Nou, hier is een tussendoel dat bijna altijd helpt in de biologie: meer energie krijgen. Dus het eerste dat kan gebeuren, is dat deze bots zeggen: “Meer kracht.” Laten we alle elektriciteit naar mijn chips sturen. Een ander geweldig doel zou zijn om meer kopieën van jezelf te maken. Klinkt dat goed?”

De impact van AI op de arbeidsmarkten en risicobeperking

Hinton wijst hierop De impact van AI op banen baart grote zorgen. Kunstmatige intelligentie en automatisering kunnen repetitieve en alledaagse taken overnemen, wat in sommige sectoren tot banenverlies kan leiden. Productie- en fabrieksarbeiders kunnen hard worden getroffen door automatisering. In de maakindustrie is er een groeiend aantal robots en machines die worden bestuurd door kunstmatige intelligentie die riskant en repetitief menselijk werk kunnen overnemen. Ook in de landbouw neemt de automatisering toe, met geautomatiseerde taken als planten, oogsten en gewasbewaking. In de gezondheidszorg kunnen bepaalde administratieve taken worden geautomatiseerd, maar rollen die menselijke interactie en empathie vereisen, zullen waarschijnlijk niet volledig worden vervangen door kunstmatige intelligentie.

samengevat

Hintons zorgen over de snelle vooruitgang in AI en de mogelijke gevolgen ervan onderstrepen de noodzaak van verantwoorde AI-ontwikkeling. Zijn vertrek bij Google vertegenwoordigt zijn toewijding om beveiligingsproblemen aan te pakken, een open dialoog te bevorderen en de toekomst van AI vorm te geven op een manier die het welzijn van de mensheid beschermt. Hoewel de bijdragen en expertise van Hinton niet langer bij Google aanwezig zijn, blijft hij een belangrijke rol spelen bij het vormgeven van het gebied van AI en het begeleiden van de ethische ontwikkeling ervan.

Themaafbeelding gemaakt door de auteur met behulp van Midjourney

Relevante berichten