Na Google’s Bard AI: een kijkje in de wereld van menselijke training

Aangezien kunstmatige intelligentie steeds meer de klantervaring bepaalt, is het begrijpen van de innerlijke werking van deze technologieën nog nooit zo belangrijk geweest, vooral voor marketeers. Een recent Bloomberg-rapport werpt licht op de menselijke beroepsbevolking die de Bard-chatbot van Google traint, en benadrukt de integrale rol die duizenden aannemers spelen bij het vormgeven van de reacties van de AI-tool. Dit diepgaande rapport onthult de realiteit van AI-ontwikkeling en de significante implicaties voor de mensen die het gebruiken. De kwaliteit, nauwkeurigheid en betrouwbaarheid van door AI aangedreven interacties kunnen van invloed zijn op de merkreputatie, het vertrouwen van klanten en uiteindelijk op uw bedrijfsresultaten. Wanneer we ons verdiepen in de menselijke processen achter de Bard AI-chatbot, krijgen we waardevolle inzichten in de uitdagingen en kansen die in het verschiet liggen voor bedrijven die AI gebruiken in hun marketingstrategieën.

Een kijkje op het AI-oefenterrein

De Google-bard staat bekend om zijn snelle en betrouwbare antwoorden op verschillende vragen. Maar anonieme aannemers van Bloomberg onthullen dat achter dit AI-vermogen het werk van gefrustreerde mensen schuilgaat. Afkomstig van bedrijven als Appen Ltd. en Accenture Plc, werken deze contractanten met strakke deadlines om ervoor te zorgen dat de antwoorden van de chatbot betrouwbaar, nauwkeurig en onbevooroordeeld zijn.

Onder druk werken

Deze aannemers, van wie sommigen slechts $ 14 per uur verdienen, zijn de afgelopen jaren steeds meer onder druk komen te staan ​​terwijl Google en OpenAI strijden in een AI-wapenwedloop. Taken zijn complexer geworden en de werkdruk is toegenomen, vaak zonder dat aannemers specialistische kennis hebben op de gebieden die ze beoordelen. Een naamloze aannemer zei: “Op dit moment zijn mensen bang, gestrest, onderbetaald en weten ze niet wat er aan de hand is. En die angstcultuur is niet bevorderlijk om de kwaliteit en het teamwerk te krijgen dat je van ons allemaal verlangt.

De rol van aannemers bij het trainen van AI

De rol van aannemers is om AI-reacties te beoordelen, fouten te identificeren en mogelijke vooringenomenheid weg te nemen. Ze werken onder complexe instructies en strikte deadlines, vaak niet meer dan drie minuten. Volgens documenten die met Bloomberg worden gedeeld, wordt aannemers vaak gevraagd om te beslissen of de antwoorden van het AI-model verifieerbaar bewijs bevatten. Ze analyseren reacties op factoren zoals specificiteit, versheid van informatie en consistentie. Een voorbeeld in een Bloomberg-rapport bespreekt hoe een beoordelaar het bewijsmateriaal zou kunnen gebruiken om de juiste dosis van een bloeddrukmedicatie genaamd Lisinopril te bepalen. Aannemers moeten ervoor zorgen dat reacties geen schadelijke, aanstootgevende of overdreven seksuele inhoud bevatten. Ze moeten ook waken voor onnauwkeurige, frauduleuze of misleidende informatie.

Benadrukken van de menselijke factor achter AI

Hoewel AI-chatbots zoals Bard worden beschouwd als baanbrekende technologische ontwikkelingen, is de waarheid dat hun effectiviteit afhangt van het werk van menselijke aannemers. Laura Edelson, een computerwetenschapper aan de New York University, zegt tegen Bloomberg: “Het is de moeite waard eraan te denken dat deze systemen niet het werk zijn van goochelaars – ze zijn het werk van duizenden mensen en hun laagbetaalde banen. Ondanks hun integrale rol als aannemers, is hun werk vaak gehuld in mysterie en hebben ze weinig directe interactie met Google.

Zorgen over de kwaliteit van AI-producten

Aannemers maken zich zorgen over hun werkomstandigheden, die volgens hen van invloed kunnen zijn op de kwaliteit van AI-producten. Aannemers zijn een onmisbaar onderdeel van AI-training, zoals Ed Stackhouse, een medewerker van Appen, zei in een brief aan het Congres. Stackhouse waarschuwde dat de snelheid die nodig is om inhoud te bekijken, van Bard een “kapot” en “gevaarlijk” product zou kunnen maken. Google heeft op deze zorgen gereageerd door te zeggen dat het veel werk kost om zijn AI-producten op verantwoorde wijze te ontwikkelen, met behulp van strenge test-, trainings- en feedbackprocessen om nauwkeurigheid te garanderen en vooringenomenheid te verminderen. Hoewel het bedrijf zegt dat het niet alleen op menselijke beoordelaars vertrouwt om zijn AI te verbeteren, heeft het opgemerkt dat er kleine onnauwkeurigheden kunnen zijn die gebruikers kunnen misleiden. Alex Hanna, onderzoeksdirecteur bij het Distributed AI Research Institute en voormalig AI-ethicus bij Google, zei: “Het is nog steeds verontrustend dat een chatbot basisfeiten verkeerd begrijpt.”

Een uitnodiging om te veranderen

Ondanks de groeiende bezorgdheid over de arbeidsomstandigheden en de kwaliteit van AI-producten, is het duidelijk dat menselijke contractanten een essentieel onderdeel vormen van de ontwikkeling van AI. De uitdaging is ervoor te zorgen dat ze naar behoren worden gecompenseerd en de nodige middelen krijgen om hun werk te doen. Emily Bender, professor computerlinguïstiek aan de Universiteit van Washington, benadrukte dit toen ze zei: “Deze contractarbeiders bij Google en andere technologieplatforms zijn een geschiedenis van arbeidsuitbuiting. Naarmate de AI-revolutie doorgaat, zal de rol van menselijke aannemers bij het ontwikkelen en verbeteren van deze technologieën van vitaal belang blijven. Hun stemmen en zorgen moeten worden gehoord en aangepakt om de voortdurende ontwikkeling van betrouwbare, nauwkeurige en ethische AI-producten te waarborgen.
Uitgelichte afbeelding: Maurice NORBERT/Shutterstock

Relevante berichten