Microsoft appelle à des réglementations sur les deepfakes générés par IA
Dans une déclaration récente, Microsoft a exhorté le Congrès à prendre des mesures significatives pour réglementer l'utilisation de deepfakes générés par IA, soulignant la nécessité de protéger contre la fraude, les abus et la manipulation. Brad Smith, vice-président et président de Microsoft, a souligné l'urgente nécessité pour les décideurs d'agir pour protéger les populations vulnérables, y compris les personnes âgées contre la fraude et les enfants contre les abus.
Le besoin d'action législative
"Bien que le secteur technologique et les groupes à but non lucratif aient pris des mesures récentes pour aborder ce problème, il est devenu évident que nos lois devront également évoluer pour combattre la fraude liée aux deepfakes," a déclaré Smith dans un article de blog. Il a noté qu'une des actions les plus critiques que les États-Unis pourraient entreprendre serait d'établir un statut complet sur la fraude liée aux deepfakes, ce qui permettrait aux forces de l'ordre de poursuivre les activités criminelles en cybercriminalité utilisant cette technologie pour exploiter des individus innocents.
Statut proposé sur la fraude liée aux deepfakes
Microsoft plaide pour un cadre juridique spécifique visant la fraude liée aux deepfakes, qui donnerait aux autorités la capacité de cibler et de combattre efficacement les escroqueries générées par IA. De plus, Smith a exhorté les législateurs à moderniser les lois fédérales et étatiques existantes concernant l'exploitation et les abus sexuels envers les enfants, afin de s'assurer qu'elles tiennent compte du contenu généré par IA.
Développements législatifs
Récemment, le Sénat a franchi un pas significatif en adoptant un projet de loi visant à aborder les deepfakes à caractère sexuel explicite. Cette législation permet aux victimes de contenus explicites générés par IA et non consensuels d'intenter des poursuites contre les personnes responsables de la création de ces matériaux nuisibles. Ce projet de loi a été suscité par des incidents préoccupants impliquant des élèves de collège et de lycée qui ont fabriqué des images explicites de leurs camarades féminines, ainsi que des cas de contenu deepfake graphique circulant sur les réseaux sociaux.
L'engagement de Microsoft en faveur de la sécurité
À la suite d'incidents où les propres outils d'IA de Microsoft ont été mal utilisés, l'entreprise a renforcé ses contrôles de sécurité. Un exemple notable a été une faille dans son créateur d'images Designer AI qui a permis aux utilisateurs de produire des images explicites de célébrités, y compris Taylor Swift. Smith a affirmé : "Le secteur privé a la responsabilité d'innover et de mettre en œuvre des protections qui prévennent l'utilisation abusive de l'IA." Cette responsabilité s'aligne avec l'appel plus large à établir des réglementations et des standards robustes.
Le défi de l'IA générative
La Commission fédérale des communications (FCC) a déjà mis en place des mesures contre les faux appels utilisant des voix générées par IA. Cependant, les technologies d'IA générative posent un défi plus large, facilitant la création de faux audio, images et vidéos convaincants. À l'approche des élections présidentielles de 2024, le risque de désinformation à travers le contenu deepfake augmente. Récemment, Elon Musk a partagé une vidéo deepfake parodiant la vice-présidente Kamala Harris sur les réseaux sociaux, ce qui pourrait potentiellement enfreindre les politiques de X concernant les médias synthétiques et manipulés.
Un appel à une étiquetage transparent
Smith a souligné l'importance de la transparence dans la lutte contre la désinformation : "Le Congrès devrait exiger des fournisseurs de systèmes IA qu'ils utilisent des outils de provenance à la pointe de la technologie pour étiqueter le contenu synthétique." Cette initiative est essentielle pour favoriser la confiance au sein de l'écosystème de l'information et aider le public à discerner le contenu généré par IA ou manipulé du matériel authentique.
Conclusion
Alors que la technologie des deepfakes continue d'évoluer et pose des défis significatifs, l'appel à des réglementations complètes devient de plus en plus critique. En mettant en œuvre des lois qui abordent l'utilisation abusive de contenu généré par IA, en protégeant les populations vulnérables, et en garantissant la transparence, le Congrès peut contribuer à sécuriser un environnement numérique plus sûr pour tous.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.