OpenAI Sous Surveillance : Les Législateurs Exigent des Garanties sur les Protections des Lanceurs d'Alerte
Dans un mouvement signalant une surveillance gouvernementale croissante, la sénatrice Elizabeth Warren (D-MA) et la représentante Lori Trahan (D-MA) ont appelé à la transparence concernant les protocoles de lanceurs d'alerte et de sécurité d'OpenAI. Cette demande fait suite aux allégations d'anciens employés mettant en évidence une culture où les critiques internes seraient apparemment réprimées.
L'Appel à la Clarté
La récente lettre de Warren et Trahan, partagée exclusivement avec The Verge, soulève des questions importantes. Elles mettent en avant un décalage préoccupant entre les assurances publiques d'OpenAI et les rapports internes concernant les pratiques opérationnelles de l'organisation.
"Étant donné la divergence entre vos commentaires publics et les rapports sur les actions d'OpenAI, nous demandons des informations sur les protections des lanceurs d'alerte et des conflits d'intérêt d'OpenAI afin de comprendre si une intervention fédérale peut être nécessaire," ont-elles déclaré.
Allégations d'Échecs des Protocoles de Sécurité
Les législateurs ont cité des incidents spécifiques où les mesures de sécurité d'OpenAI ont été remises en question. Par exemple, ils se sont référés à un incident de 2022 impliquant une version non publiée de GPT-4 testée dans une nouvelle itération du moteur de recherche Microsoft Bing en Inde sans l'approbation du conseil de sécurité d'OpenAI. Cela soulève des questions critiques concernant l'engagement de l'organisation envers des protocoles de sécurité stricts.
De plus, la lettre rappelle l'éviction très médiatisée du PDG d'OpenAI, Sam Altman, en 2023, qui a découlé de préoccupations du conseil liées au processus de commercialisation sans comprendre pleinement les ramifications potentielles.
La Culture de la Sécurité Sous Tension
Les préoccupations concernant la culture de sécurité d'OpenAI ont été amplifiées par des sources qui ont affirmé que l'organisation avait précipité des tests de sécurité cruciaux. Un rapport de The Washington Post a indiqué que l'équipe de Superalignment, responsable des mesures de sécurité, a été dissoute, et un autre cadre de sécurité est parti, en citant que la "culture de sécurité et les processus ont été relégués au second plan au profit de produits attractifs."
La Réponse d'OpenAI
En réaction à ces allégations, Lindsey Held, porte-parole d'OpenAI, a fermement réfuté les affirmations du rapport du Washington Post, déclarant : "nous n'avons pas coupé les coins sur notre processus de sécurité, bien que nous reconnaissions que le lancement était stressant pour nos équipes." Ce déni public suggère qu'OpenAI est désireux de maintenir sa réputation au milieu d'une surveillance croissante.
Contexte Législatif et Enquêtes en Cours
Cette lettre ne sert pas seulement à aborder les préoccupations des employés, mais constitue également une réponse législative critique. Elle intervient dans le contexte d'initiatives précédentes visant à renforcer les protections des lanceurs d'alerte, comme la loi sur les lanceurs d'alerte de la FTC et la loi de réforme des lanceurs d'alerte de la SEC. Il y a des indications que les agences d'application de la loi enquêtent déjà sur OpenAI pour des violations potentielles des lois antitrust et des pratiques de données non sécurisées.
Vers l'Avenir : Exigences d'Informations
Les législateurs ont demandé des détails spécifiques à Altman concernant l'utilisation d'une nouvelle ligne d'assistance à la sécurité AI pour les employés, les procédures de suivi des rapports, et un aperçu complet des occasions où les produits d'OpenAI ont contourné les protocoles de sécurité. Ils ont également demandé s'il y avait des conflits d'intérêts financiers affectant la supervision d'Altman, soulignant le besoin de responsabilité.
Implications Diffuses des Technologies AI
Warren a souligné la position claire d'Altman sur les dangers potentiels des technologies AI. Lors d'une audition au Sénat l'année dernière, il a averti que l'IA pourrait entraîner des conséquences "significativement déstabilisantes" pour la sécurité publique et la sécurité nationale. Cet avertissement s'aligne étroitement avec les efforts législatifs récents en Californie, où le sénateur Scott Wiener plaide en faveur de réglementations régissant les grands modèles de langage, suggérant que les entreprises devraient être tenues légalement responsables des applications nuisibles de leurs technologies AI.
Conclusion
Le dialogue en cours concernant les pratiques de sécurité d'OpenAI reflète des préoccupations plus larges sur les technologies AI dans la société. Alors que les législateurs exigent des comptes, les implications de ces discussions vont bien au-delà d'une seule entreprise, touchant aux responsabilités éthiques de tous les développeurs d'IA dans l'assurance de la sécurité publique et de la confiance.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.