Une entreprise de télécommunications paie 1 million de dollars dans une affaire innovante de robocall deepfake
Une récente action d'application par la Commission fédérale des communications (FCC) a conduit à un règlement significatif impliquant Lingo Telecom, qui a transmis un robocall deepfake comportant la voix du Président Joe Biden. L'entreprise de télécommunications a accepté de payer 1 million de dollars pour résoudre les conclusions de la FCC.
Détails de l'incident
En janvier, Lingo Telecom a relayé un message frauduleux attribué au Président Biden aux électeurs du New Hampshire. Le message exhortait les électeurs à ne pas participer à la prochaine primaire démocrate, suscitant des préoccupations quant à l'intégrité de la communication politique. Suite à cet incident, la FCC a identifié le consultant politique Steve Kramer comme le cerveau derrière les appels générés par l'IA.
Conséquences et actions réglementaires
En raison du robocall deepfake, la FCC avait initialement proposé une amende de 6 millions de dollars contre Kramer pour son rôle dans les communications trompeuses. Cependant, le règlement avec Lingo a inclus des exigences strictes pour l'entreprise à l'avenir :
- Respect des règles d’authentification de l’identification de l'appelant
- Implementation des principes de "Connaître votre client"
- Vérification approfondie des informations fournies par les clients et les fournisseurs en amont
Commentaires des responsables de la FCC
La présidente de la FCC Jessica Rosenworcel a souligné la nécessité de confiance dans les canaux de communication. Elle a déclaré : "Chacun d'entre nous mérite de savoir que la voix au bout du fil est exactement celle qu'elle prétend être. Si l'IA est utilisée, cela doit être clairement indiqué à tout consommateur, citoyen et électeur qui y est confronté." Cette déclaration souligne l'importance croissante de la transparence dans les communications de télécommunications, en particulier à une époque de technologies en rapide évolution.
Changments réglementaires en réponse aux technologies d'IA
À la lumière de cet incident et d'autres cas similaires, la FCC a pris des mesures décisives pour prévenir de futures occurrences. En février, l'agence a adopté un interdiction des voix générées par l'IA dans les robocalls sans le consentement des destinataires. Cette décision historique démontre l'engagement de la FCC à protéger les électeurs et le public contre les pratiques de communication trompeuses. De plus, la FCC a proposé des exigences pour que les annonceurs politiques divulguent l'utilisation de l'IA générative dans leurs publicités radio et télévisées, renforçant ainsi la notion de transparence dans le message politique.
Conclusion
Le règlement de 1 million de dollars avec Lingo Telecom rappelle de manière critique les implications de l'utilisation de l'IA dans la communication. Alors que la technologie continue d'évoluer, des agences réglementaires comme la FCC intensifient leurs efforts pour maintenir des normes éthiques, veillant à ce que la confiance reste au premier plan des processus électoraux et du discours public.
Pour en savoir plus sur l'intersection de la technologie et de la réglementation des communications, consultez nos autres articles.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.