La controversia rodea la ley de tecnología de deepfake en Minnesota
Una demanda federal ha surgido en Minnesota, centrada en la ley estatal sobre el uso de tecnología de deepfake para la influencia electoral. Los defensores y opositores de la ley están en conflicto, particularmente sobre las implicaciones de la inteligencia artificial (IA) en la documentación legal.
Allegaciones de texto generado por IA en los archivos legales
Informes del Minnesota Reformer sugieren que la declaración que apoya la ley puede contener elementos de contenido generado por IA, lo que plantea preguntas sobre su autenticidad. Los abogados que impugnan la ley señalaron que la presentación, escrita por Jeff Hancock, el director fundador del Stanford Social Media Lab, incluye citas que no existen, insinuando alucinaciones de IA: desinformación producida típicamente por modelos de lenguaje como ChatGPT.
Citas cuestionables en la declaración de Hancock
Entre las afirmaciones realizadas en la declaración de Hancock se encuentra una referencia a un estudio de 2023 supuestamente publicado en el Journal of Information Technology & Politics titulado "La influencia de los videos de deepfake en las actitudes y comportamientos políticos." Sin embargo, las investigaciones revelan que no hay registros de que este estudio exista en ninguna publicación académica.
Otra fuente mencionada, "Deepfakes y la ilusión de autenticidad: Procesos cognitivos detrás de la aceptación de la desinformación", también ha sido encontrada como inexistente. La ausencia de estas fuentes pone en cuestión la integridad de la declaración.
Repercusiones inmediatas para los procedimientos legales
A la luz de estos desarrollos, los demandantes, que incluyen a la representante estatal de Minnesota Mary Franson y al YouTuber conservador Christopher Khols (conocido como Mr. Reagan), argumentan que la declaración de Hancock podría estar comprometiendo los procedimientos legales. Enfatizaron que el documento carece de rigor metodológico y lógica analítica.
Los abogados que representan a Franson y Khols afirmaron: "La cita tiene las características de ser una ‘alucinación’ de inteligencia artificial (IA), sugiriendo que al menos la cita fue generada por un modelo de lenguaje grande como ChatGPT." Esta línea de razonamiento cuestiona no solo la declaración de Hancock, sino también las amplias implicaciones éticas que rodean el uso de contenido generado por IA en contextos legales.
Contacto y comentarios
The Verge ha intentado comunicarse con Hancock para obtener comentarios sobre este asunto, pero no se ha recibido respuesta.
Las implicaciones más amplias de la IA en marcos legales
Este escenario en evolución subraya la creciente intersección entre la tecnología de IA y los marcos legales, lo que provoca discusiones urgentes sobre cómo deberían utilizarse y regularse dichas tecnologías, particularmente en lo que respecta a la integridad electoral.
A medida que la tecnología de deepfake se vuelve más avanzada y generalizada, garantizar la transparencia y veracidad en las presentaciones legales es fundamental. Este caso en Minnesota podría sentar un precedente sobre cómo se maneja el contenido relacionado con la IA en el sistema legal, destacando la necesidad de un escrutinio cuidadoso del texto generado por IA.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.