Les employés de Google DeepMind demandent une action contre les contrats militaires
En mai 2024, un mouvement significatif au sein de Google DeepMind a émergé lorsque près de 200 employés (environ 5 % de la division) ont signé une lettre adressée à la direction de l'entreprise. Cette lettre a fortement incité Google à mettre fin à ses contrats avec les organisations militaires, soulignant de sérieuses inquiétudes quant à l'utilisation des technologies d'IA développées par la société à des fins de guerre.
Inquiétudes concernant les applications militaires de l'IA
La lettre indiquait explicitement que les préoccupations des employés n'étaient pas liées à la géopolitique de tout conflit spécifique. Cependant, elle a attiré l'attention sur les reportages de Time Magazine concernant le contrat de défense de Google avec l'armée israélienne, couramment appelé Projet Nimbus. La lettre exprime des appréhensions concernant l'utilisation présumée de l'IA par l'armée israélienne pour la surveillance de masse et le ciblage de lieux lors de ses campagnes de bombardement à Gaza, tout en étant donné que les entreprises de défense israéliennes ont été dirigées par le gouvernement à utiliser des services cloud de Google et d'Amazon.
Tensions culturelles au sein de Google
Le mécontentement croissant parmi les employés de DeepMind souligne une tension culturelle plus large au sein de Google entre sa division IA et son activité cloud, qui vend activement des services d'IA aux organisations militaires. Lors de l'événement phare de l'entreprise, la conférence Google I/O, plus tôt cette année, des manifestations ont éclaté avec des activistes pro-Palestine sechaînant ensemble à l'entrée, exprimant leurs objections non seulement au Projet Nimbus mais aussi à d'autres projets comme le Projet Lavender et le programme d'IA controversé connu sous le nom de "Where’s Daddy ?"
Le dilemme éthique de l'IA dans la guerre
La prolifération rapide de l'IA dans les contextes de guerre a poussé de nombreux technologues, en particulier ceux développant des systèmes connexes, à exprimer leurs préoccupations. Google a pris un engagement notable lors de l'acquisition de DeepMind en 2014 : les dirigeants de DeepMind ont veillé à ce que leur technologie d'IA ne soit jamais déployée à des fins militaires ou de surveillance.
Appels à la gouvernance éthique et à la transparence
La lettre interne du personnel de DeepMind a exhorté la direction de l'entreprise à prendre des mesures spécifiques, notamment :
- Enquêter sur les allégations concernant l'utilisation des services cloud de Google par des organisations militaires et des fabricants d'armements.
- Mettre fin à l'accès militaire à la technologie d'IA de DeepMind.
- Établir un organe de gouvernance pour superviser l'utilisation éthique de l'IA et prévenir les futures applications militaires.
Silence continu de la direction de Google
Malgré les préoccupations articulées soulevées par les employés et leurs demandes d'actions concrètes, des rapports indiquent qu'il n'y a eu "aucune réponse significative" de la part de la direction de Google concernant ces questions urgentes.
Conclusion
La situation reflète une prise de conscience et une préoccupation croissantes concernant les implications éthiques des technologies d'IA dans les milieux militaires. Alors que le débat se poursuit, la pression monte sur des géants de la technologie comme Google pour qu'ils respectent leurs engagements en faveur d'un développement responsable et éthique de l'IA.
Lectures supplémentaires
Pour plus d'informations sur l'intersection entre la technologie et l'éthique dans la guerre, envisagez d'explorer ces articles connexes :
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.