LinkedIn onthult AI Image Hunter die nepprofielen opvangt

LinkedIn onthult AI Image Hunter die nepprofielen opvangt post thumbnail image

LinkedIn heeft een nieuwe AI-beelddetector ontwikkeld die naar eigen zeggen 99,6% van de valse profielafbeeldingen en 1% valse positieven kan opvangen. Volgens anekdotisch bewijs werkt hun nieuwe detector echt.

Valse LinkedIn-profielen

Er zijn veel redenen waarom mensen valse LinkedIn-profielen maken. Voor sommigen in de affiliate zoekmarketinggemeenschap is een van de redenen voor nepprofielen de perceptie dat Google een site zal vertrouwen als auteurs van artikelen naar hun LinkedIn-profiel linken in hun auteursbiografie. Dit idee komt voort uit het streven van Google dat inhoud zou moeten hebben wat het EEAT, ervaring, expertise, autoriteit en geloofwaardigheid noemt. Voor anderen is de motivatie om een ​​betrouwbaardere website te maken voor hun websitebezoekers. Dit is niet bedoeld om deze praktijken goed te keuren, ik moedig ze niet aan. Het is slechts een verklaring dat de praktijk gebeurt en waarom het gebeurt. De mogelijkheid om profielafbeeldingen te maken met behulp van AI heeft het gemakkelijker gemaakt om nepprofielen te maken, waardoor een toch al groot probleem exponentieel is toegenomen. in 2022 gepubliceerde rapporten over nep-LinkedIn-profielen merken op dat LinkedIn in de eerste helft van 2022 21 miljoen nepaccounts heeft gedetecteerd en verwijderd. een half jaar Anekdotisch bewijs gedeeld door een aangesloten marketeer die valse LinkedIn-profielen implementeerde, bevestigt dat de AI Image Detector van LinkedIn hun vermogen om valse accounts te onderscheppen aanzienlijk heeft verbeterd.
Volgens LinkedIn:
“We werken voortdurend aan het verbeteren en verbeteren van de effectiviteit van onze anti-misbruikbeveiligingen om de ervaring van onze leden en klanten te beschermen.” Als onderdeel van ons doorlopende werk werken we samen met academische gemeenschappen om nieuwe vormen van misbruik voor te blijven met betrekking tot nepaccounts die gebruikmaken van snel evoluerende technologieën zoals generatieve AI.

Valse accounts zijn moeilijk te herkennen

LinkedIn werkt zijn systemen voortdurend bij om verschillende soorten ongewenste activiteiten te detecteren, zoals nepprofielen, accountovernames en schendingen van het inhoudsbeleid. De introductie van door AI gegenereerde afbeeldingen heeft het bijna onmogelijk gemaakt om nepafbeeldingen te herkennen als je niet weet waarnaar je moet zoeken. LinkedIn identificeert “artefacten” die een teken zijn van valse AI-profielfoto’s. Veel mensen weten niet hoe ze AI-afbeeldingen moeten detecteren, dus mensen kunnen een nepaccount gemakkelijk verwarren met een echt account.
LinkedIn gedeeld:
“Met de opkomst van door kunstmatige intelligentie gegenereerde synthetische media en door tekst-naar-beeld gegenereerde media, zijn nepprofielen geavanceerder geworden. En we ontdekten dat de meeste leden echte gezichten over het algemeen niet visueel kunnen onderscheiden van synthetische gezichten…

Hoe LinkedIn door AI gegenereerde inhoud vastlegt

Een kenmerk van kunstmatig gecreëerde afbeeldingen is dat ze allemaal vergelijkbare patronen hebben, wat LinkedIn structurele verschillen noemt. Echte afbeeldingen hebben geen gemeenschappelijke structurele componenten. LinkedIn deelde een voorbeeld van een composiet van 400 kunstmatige en 400 echte afbeeldingen. De compositie van de nepbeelden laat zien dat de gebieden rond de ogen en neus erg op elkaar lijken. De compositie van echte afbeeldingen heeft niets te maken met andere afbeeldingen, dus de compositie is wazig.
Door een door AI gegenereerd beeld te vergelijken met een echt beeld, worden de verschillen tussen de twee zichtbaarScreenshot van LinkedIn-video De resultaten van hun onderzoek zijn indrukwekkend.

LinkedIn-aandelen:

“True Positive Rate (TPR) is het percentage synthetische foto’s dat correct als synthetisch wordt geclassificeerd. False positive rate (FPR) is het percentage echte foto’s dat ten onrechte als synthetisch wordt geclassificeerd. Onze methode kan 99,6% (TPR) van synthetische gezichten in StyleGAN, StyleGAN2 en StyleGAN3 detecteren, terwijl slechts 1% (FPR) van echte LinkedIn-profielfoto’s verkeerd wordt geclassificeerd als synthetisch. We kozen een FPR-doelstelling van 1% voor de benchmarkresultaten van ons onderzoekswerk, omdat het voor real-world toepassingen in een groot professioneel netwerk belangrijk is dat de door AI gegenereerde beelddetectiemodellen de meeste synthetische beelden vastleggen, en alleen in zeldzame gevallen gevallen. het classificeren van het echte beeld naar de synthetische.

Is de AI-detector van LinkedIn effectief in de echte wereld?

Een aangesloten marketeer met nep-LinkedIn-profielen vertelde dat LinkedIn 100% van hun nep-LinkedIn-profielen kon vastleggen.

Zij deelden hun ervaringen met mij:
“Als affiliate marketeer zijn mijn nep-LinkedIn-profielen een geweldige manier geweest om geloofwaardigheid te verwerven bij mijn auteurs. Dit was vooral handig voor HARO-links, omdat journalisten vaker linken naar sites met mensen met LinkedIn-profielen. LinkedIn heeft de afgelopen maanden 90% van mijn profielen opgeschort. Helaas moet ik nu een andere manier vinden om de geloofwaardigheid van mijn auteurs te vergroten en ze legitiem te maken. LinkedIn blijft zijn vermogen verbeteren om nepprofielen te vangen. De mogelijkheid om een ​​nepprofiel aan te maken is nog ingewikkelder geworden.
Lees de originele advertentie:
Nieuwe manieren om door AI gegenereerde profielfoto’s te detecteren

Onderwerpafbeelding door Shutterstock/Meilun

Relevante berichten