Technologie de reconnaissance faciale de Meta : Lutte contre les annonces frauduleuses de célébrités
Meta, le géant des réseaux sociaux comptant près de 4 milliards d'utilisateurs, lance une nouvelle initiative pour lutter contre les fausses annonces frauduleuses de célébrités qui envahissent ses plateformes. Dans un développement récent rapporté par Cointelegraph, Meta teste actuellement une technologie de reconnaissance faciale visant à réduire considérablement la prévalence de ces publicités frauduleuses.
Tests préliminaires prometteurs
Les premiers résultats de ces tests, réalisés avec un groupe sélectionné de célébrités, ont montré un succès prometteur. Après cette phase initiale, Meta prévoit d'élargir l'essai à : 50 000 célébrités et personnalités publiques dans les semaines à venir.
Fonctionnement de la technologie
Le système de reconnaissance faciale fonctionne en comparant les images des annonces avec les photos de profil des célébrités sur Facebook et Instagram. Si le système identifie une correspondance et détermine que l'annonce est une fraude, il prendra des mesures immédiates pour la bloquer. Des figures notables telles que Elon Musk, Oprah Winfrey, et les milliardaires Andrew Forrest et Gina Rinehart ont déjà été victimes de telles usurpations par le passé.
Mesures plus larges contre les arnaques ciblant les célébrités
Cette initiative fait partie d'une stratégie plus large de Meta pour s'attaquer au problème croissant des arnaques de type "celeb-bait". Les cybercriminels ont souvent recours à des tactiques sophistiquées pour collecter des données personnelles ou voler de l'argent à des victimes sans méfiance, en exploitant la ressemblance de personnalités célèbres.
Notifications dans l'application pour les célébrités
Meta est prêt à renforcer la vigilance des célébrités en envoyant des notifications dans l'application à de nombreuses figures ciblées, les informant de leur participation à cette mesure de protection. Les célébrités auront également la possibilité de décider de ne pas participer si elles le choisissent.
Préoccupations juridiques et vie privée
Malgré cette approche proactive, Meta fait face à des préoccupations juridiques, notamment à la suite d'un règlement récent de 1,4 milliard de dollars avec le Texas concernant l'utilisation inappropriée de données biométriques personnelles. Dans le cadre de son engagement envers la vie privée, Meta a déclaré que toute donnée faciale générée pour déterminer si une annonce est une arnaque sera immédiatement supprimée.
Vérification d'identité et récupération de compte
En plus de lutter contre les annonces frauduleuses, la technologie de reconnaissance faciale servira également à aider les utilisateurs à vérifier leur identité et à récupérer l'accès à des comptes compromis, ajoutant une couche de sécurité supplémentaire.
Réponse de Meta aux préoccupations concernant les arnaques liées aux cryptomonnaies
Alors que les préoccupations concernant les arnaques liées aux cryptomonnaies sur Facebook augmentent, Meta a défendu ses pratiques contre les allégations de l'autorité australienne de régulation des consommateurs, qui affirme que près de 60% des schémas d'investissement en cryptomonnaies identifiés sur la plateforme étaient des arnaques en août. De nombreux victimes étant ciblées par des deepfakes générés par l'IA, Meta maintient qu'il travaille activement à améliorer la sécurité des utilisateurs et à réduire les risques sur ses plateformes.
Conclusion
Les efforts de Meta pour intégrer la technologie de reconnaissance faciale dans son cadre publicitaire marquent un pas significatif dans la lutte continue contre les arnaques en ligne. En s'appuyant sur la technologie pour protéger à la fois les célébrités et les utilisateurs, Meta vise à cultiver un environnement en ligne plus sûr tout en naviguant dans les complexités de la vie privée et de la conformité légale.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.