Régulations sur l'IA : Un appel à la surveillance fédérale
Dans une lettre récente, Jason Kwon, directeur de la stratégie d'OpenAI, a souligné l'importance de laisser les réglementations sur l'IA au gouvernement fédéral. Cette position survient alors que la Californie envisage un nouveau projet de loi sur la sécurité de l'IA que Kwon soutient pourrait potentiellement freiner l'innovation et éloigner les entreprises de l'État.
Le cas pour des politiques fédérales
Kwon soutient un cadre cohérent et piloté par le fédéral pour les politiques relatives à l'IA, qui, selon lui, favoriserait l'innovation dans toute l'industrie et aiderait à positionner les États-Unis en tant que leader dans l'établissement de normes mondiales pour l'intelligence artificielle.
OpenAI rejoint un collectif d'autres laboratoires d'IA, développeurs, experts et représentants de la délégation du Congrès de Californie pour s'opposer au projet de loi SB 1047 de Californie. Kwon et la coalition soulèvent des inquiétudes quant aux implications du projet de loi pour la croissance et le développement du secteur de l'IA.
Comprendre le SB 1047
Le SB 1047, connu sous le nom de Loi sur l'innovation sûre et sécurisée pour les modèles d'intelligence artificielle avancée, a été introduit par le sénateur de l'État de Californie, Scott Wiener. Les partisans du projet de loi soutiennent qu'il établit des normes essentielles qui doivent être en place à mesure que des modèles d'IA plus puissants sont développés. Voici quelques éléments clés de la législation :
- Tests de sécurité avant déploiement : Oblige à effectuer des tests de sécurité avant le déploiement des modèles d'IA pour atténuer les risques.
- Protections des lanceurs d'alerte : Fournit des protections pour les employés des laboratoires d'IA qui signalent des problèmes de sécurité.
- Responsabilité légale : Donne pouvoir au procureur général de Californie d'engager des poursuites légales lorsque des modèles d'IA sont jugés nuisibles.
- Initiative CalCompute : Propose la création d'un cluster de cloud computing public pour gérer le développement de l'IA.
Réponses au projet de loi
En réponse à la lettre de Kwon, le sénateur Wiener a souligné que les exigences du SB 1047 s'appliquent non seulement aux entreprises dont le siège est en Californie, mais à toutes les entreprises opérant dans l'État. Ainsi, Wiener soutient que les affirmations de Kwon ne tiennent pas la route.
De plus, Wiener critique OpenAI pour ne pas avoir abordé des dispositions spécifiques du projet de loi, qu'il décrit comme un ensemble de mesures raisonnables visant à garantir que les laboratoires d'IA fassent leur part dans l'évaluation des risques de sécurité de leurs modèles.
Soutien politique et amendements
Le soutien au SB 1047 a également été reçu de divers politiciens, dont Zoe Lofgren et Nancy Pelosi, ainsi que des organisations comme la chambre de commerce de Californie. Après avoir écouté leurs préoccupations, des amendements ont été apportés au projet de loi, y compris la modification des sanctions de criminelles à civiles dans certains aspects et la restriction des capacités de mise en œuvre préventive du procureur général.
Prochaines étapes pour le SB 1047
Le projet de loi attend désormais son vote final avant de passer sur le bureau du gouverneur Gavin Newsom pour examen. Il représente un moment significatif dans la conversation sur la sécurité de l'IA et les pratiques réglementaires aux États-Unis.
Conclusion
Le débat en cours sur la réglementation de l'IA soulève des questions cruciales sur la meilleure façon de concilier innovation et sécurité. Alors que cette conversation se poursuit en Californie et au-delà, les implications pour l'avenir de l'intelligence artificielle sont profondes, en faisant un sujet brûlant pour les acteurs de l'industrie et les décideurs politiques.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.