Microsoft Pide Regulaciones sobre Deepfakes Generados por IA
En una declaración reciente, Microsoft ha instado al Congreso a tomar medidas significativas para regular el uso de deepfakes generados por IA, destacando la necesidad de protegerse contra el fraude, el abuso y la manipulación. Brad Smith, el vicepresidente y presidente de Microsoft, enfatizó la urgente necesidad de que los responsables de políticas actúen para proteger a las poblaciones vulnerables, incluidos los ancianos de fraudes y los niños de abusos.
La Necesidad de Acción Legislativa
"Mientras que el sector tecnológico y los grupos sin fines de lucro han tomado medidas recientes para abordar este problema, se ha vuelto evidente que nuestras leyes también necesitarán evolucionar para combatir el fraude de deepfake", declaró Smith en una publicación de blog. Señaló que una de las acciones más críticas que podría llevar a cabo EE. UU. es establecer un estatuto integral sobre fraude de deepfake, que empoderaría a las fuerzas del orden para procesar actividades de ciberdelincuencia que utilicen esta tecnología para explotar a individuos inocentes.
Estatuto Propuesto sobre Fraude de Deepfake
Microsoft está abogando por un marco legal específico dirigido al fraude de deepfake, que daría a las autoridades la capacidad de apuntar y combatir de manera efectiva las estafas generadas por IA. Además, Smith instó a los legisladores a modernizar las leyes federales y estatales existentes sobre explotación y abuso sexual infantil, asegurando que tengan en cuenta el contenido generado por IA.
Desarrollos Legislativos
Recientemente, el Senado dio un paso notable al aprobar un proyecto de ley destinado a abordar deepfakes sexualmente explícitos. Esta legislación permite a las víctimas de contenido explícito generado por IA no consensuado iniciar demandas contra las personas responsables de crear estos materiales dañinos. Este proyecto de ley fue impulsado por alarmantes incidentes que involucraron a estudiantes de secundaria que fabricaron imágenes explícitas de sus compañeras, así como casos de contenido gráfico de deepfake circulando en las redes sociales.
Compromiso de Microsoft con la Seguridad
Tras incidentes en los que se malutilizaron las propias herramientas de IA de Microsoft, la compañía ha fortalecido sus controles de seguridad. Un ejemplo notable fue una brecha en su creador de imágenes Designer AI que permitió a los usuarios producir imágenes explícitas de celebridades, incluida Taylor Swift. Smith afirmó: "El sector privado tiene la responsabilidad de innovar e implementar salvaguardias que prevengan el abuso de la IA." Esta responsabilidad se alinea con el llamado más amplio para establecer regulaciones y estándares robustos.
El Desafío de la IA Generativa
La Comisión Federal de Comunicaciones (FCC) ya ha implementado medidas contra las llamadas automáticas que utilizan voces generadas por IA. Sin embargo, las tecnologías de IA generativa representan un desafío más amplio, facilitando la creación de audio, imágenes y videos falsos convincentes. A medida que se acerca la elección presidencial de 2024, el riesgo de desinformación a través de contenido deepfake aumenta. Recientemente, Elon Musk compartió un video deepfake que parodia a la Vicepresidenta Kamala Harris en las redes sociales, lo que podría violar las políticas de X con respecto a los medios sintéticos y manipulados.
Un Llamado a la Etiquetación Transparente
Smith enfatizó la importancia de la transparencia en la lucha contra la desinformación: "El Congreso debería exigir a los proveedores de sistemas de IA que utilicen herramientas de procedencia de vanguardia para etiquetar contenido sintético." Esta iniciativa es fundamental para fomentar la confianza dentro del ecosistema de información y ayudar al público a discernir entre el contenido generado o manipulado por IA y el material genuino.
Conclusión
A medida que la tecnología deepfake continúa evolucionando y representa desafíos significativos, el llamado a regulaciones integrales se vuelve cada vez más crítico. Al implementar leyes que aborden el mal uso del contenido generado por IA, protegiendo a las poblaciones vulnerables y asegurando la transparencia, el Congreso puede ayudar a asegurar un entorno digital más seguro para todos.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.