La controverse entoure la loi sur la technologie Deepfake au Minnesota
Une poursuite fédérale a émergé au Minnesota, se concentrant sur la loi de l'État concernant l'utilisation de la technologie deepfake pour influencer les élections. Les partisans et les opposants à la loi s'affrontent désormais, en particulier sur les implications de l'intelligence artificielle (IA) dans la documentation légale.
Allégations de texte généré par IA dans le dépôt légal
Des rapports du Minnesota Reformer suggèrent que l'affidavit soutenant la loi pourrait contenir des éléments de contenu généré par IA, soulevant des questions sur son authenticité. Les avocats contestant la loi ont souligné que la soumission, rédigée par Jeff Hancock, directeur fondateur du Stanford Social Media Lab, comprend des citations qui n'existent pas, laissant entrevoir des hallucinations d'IA – des informations trompeuses généralement produites par des modèles de langage comme ChatGPT.
Citations douteuses dans l'affidavit de Hancock
Parmi les affirmations faites dans l'affidavit de Hancock, on trouve une référence à une étude de 2023 prétendument publiée dans le Journal of Information Technology & Politics intitulée "L'Influence des vidéos Deepfake sur les attitudes et comportements politiques." Cependant, les enquêtes révèlent qu'il n'existe aucun enregistrement de l'existence de cette étude dans les publications académiques.
Une autre source mentionnée, "Deepfakes et l'illusion de l'authenticité : Processus cognitifs derrière l'acceptation des fausses informations," a également été trouvée comme n'existant pas. L'absence de ces sources remet en question l'intégrité de l'affidavit.
Répercussions immédiates sur les procédures juridiques
À la lumière de ces développements, les plaignants, qui incluent la représentante de l'État du Minnesota Mary Franson et le YouTuber conservateur Christopher Khols (connu sous le nom de Mr. Reagan), soutiennent que la déclaration de Hancock pourrait compromettre les procédures juridiques. Ils ont souligné que le document manque de rigueur méthodologique et de logique analytique.
Les avocats représentant Franson et Khols ont déclaré : "La citation porte les caractéristiques d'être une 'hallucination' de l'intelligence artificielle (IA), ce qui suggère qu'au moins la citation a été générée par un grand modèle de langage comme ChatGPT." Cette ligne de raisonnement remet en question non seulement l'affidavit de Hancock mais aussi les implications éthiques plus larges entourant l'utilisation de contenu généré par IA dans des contextes juridiques.
Contact et commentaires
The Verge a tenté de joindre Hancock pour des commentaires sur cette affaire, mais aucune réponse n'a été reçue.
Les implications plus larges de l'IA dans les cadres juridiques
Ce scénario évolutif souligne l'intersection croissante entre la technologie IA et les cadres juridiques, suscitant des discussions urgentes sur la manière dont ces technologies devraient être utilisées et réglementées, en particulier en ce qui concerne l'intégrité électorale.
Alors que la technologie deepfake devient de plus en plus avancée et répandue, garantir la transparence et la véracité des soumissions juridiques est primordial. Cette affaire au Minnesota pourrait établir un précédent sur la manière dont le contenu lié à l'IA est traité dans le système juridique, soulignant la nécessité d'une attention particulière aux textes générés par IA.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.