AI ethics

Los empleados de Google DeepMind exigen el fin de los contratos militares en medio de preocupaciones por la guerra con IA

Google DeepMind protest against military AI contracts.

Los empleados de Google DeepMind exigen acción contra los contratos militares

En mayo de 2024, surgió un movimiento significativo dentro de Google DeepMind cuando alrededor de 200 empleados (aproximadamente el 5% de la división) firmaron una carta dirigida a la dirección de la empresa. Esta carta instó con firmeza a Google a terminar sus contratos con organizaciones militares, destacando serias preocupaciones de que la tecnología de IA desarrollada por la firma estaba siendo utilizada para fines bélicos.

Preocupaciones sobre las aplicaciones militares de la IA

La carta declaró explícitamente que las preocupaciones de los empleados no estaban vinculadas a la geopolítica de ningún conflicto específico. Sin embargo, llamó la atención sobre el informe de Time Magazine sobre el contrato de defensa de Google con el ejército israelí, comúnmente referido como Proyecto Nimbus. La carta articula inquietudes sobre el presunto uso de la IA por parte del ejército israelí para la vigilancia masiva y la identificación de ubicaciones durante sus campañas de bombardeo en Gaza, todo mientras las empresas de defensa israelíes han sido dirigidas por el gobierno a utilizar servicios en la nube de Google y Amazon.

Tensiones culturales dentro de Google

El creciente descontento entre los empleados de DeepMind subraya una tensión cultural más amplia dentro de Google entre su división de IA y su negocio de nube, que vende activamente servicios de IA a organizaciones militares. En el evento insignia de la compañía, la conferencia Google I/O, a principios de este año, estallaron protestas con activistas pro-Palestina encadenándose a la entrada, expresando sus objeciones no solo al Proyecto Nimbus, sino también a otros proyectos como el Proyecto Lavender y el controvertido programa de IA conocido como “¿Dónde está papá?”

El dilema ético de la IA en la guerra

La rápida proliferación de la IA en contextos bélicos ha llevado a muchos tecnólogos, especialmente aquellos que desarrollan sistemas relacionados, a expresar sus preocupaciones. Google hizo un compromiso notable al adquirir DeepMind en 2014: los líderes de DeepMind aseguraron que su tecnología de IA nunca se desplegaría para fines militares o de vigilancia.

Llamados a la gobernanza ética y la transparencia

La carta interna del personal de DeepMind instó a la dirección de la empresa a tomar medidas específicas, incluyendo:

  • Investigar las afirmaciones sobre el uso de los servicios en la nube de Google por parte de organizaciones militares y fabricantes de armas.
  • Descontinuar el acceso militar a la tecnología de IA de DeepMind.
  • Establecer un organismo de gobernanza para supervisar el uso ético de la IA y prevenir futuras aplicaciones militares.

Silencio continuo de la dirección de Google

A pesar de las preocupaciones articuladas planteadas por los empleados y sus solicitudes de acción concreta, los informes indican que no ha habido “respuesta significativa” por parte de la dirección de Google respecto a estos asuntos urgentes.

Conclusión

La situación refleja una creciente conciencia y preocupación sobre las implicaciones éticas de las tecnologías de IA en entornos militares. A medida que continúa el debate, aumenta la presión sobre gigantes tecnológicos como Google para mantener sus compromisos con un desarrollo responsable y ético de la IA.

Lecturas adicionales

Para más información sobre la intersección de la tecnología y la ética en la guerra, considere explorar estos artículos relacionados:

Puede que te interese

Trump announces The DeFiant Ones cryptocurrency platform aimed at unbanked communities.
Sonos CEO Patrick Spence discussing company strategies on Threads.

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.