AI Safety

OpenAI Évalue GPT-4o comme Risque Moyen : Perspectives de la Carte Système

OpenAI GPT-4o System Card revealing risk assessments and safety measurements.

OpenAI Publie la Carte Système GPT-4o : Un Pas Vers la Transparence en Matière de Sécurité de l'IA

OpenAI a introduit sa Carte Système GPT-4o, un document de recherche complet détaillant les mesures de sécurité et les évaluations des risques entreprises avant la sortie de son dernier modèle. Depuis son lancement en mai 2023, GPT-4o a été soumis à des tests rigoureux pour s'assurer que ses capacités sont conformes aux normes de sécurité.

Évaluations des Risques Clés par des Experts Externes

Avant ses débuts publics, OpenAI a engagé un groupe externe d'experts en sécurité - responsables d'identifier les faiblesses potentielles des systèmes - pour évaluer les risques clés associés à GPT-4o. Cette pratique est courante dans l'industrie technologique pour atténuer les menaces possibles. L'évaluation s'est concentrée sur des problèmes potentiels tels que :

  • Création de clones vocaux non autorisés
  • Production de contenu érotique et violent
  • Reproduction de segments audio protégés par des droits d'auteur

Les résultats ont révélé que le niveau de risque global pour GPT-4o était classé comme risque moyen. Cette évaluation était basée sur l'analyse de quatre catégories de risque clés : cybersécurité, menaces biologiques, persuasion et autonomie du modèle. Notamment, bien que les risques en cybersécurité, menaces biologiques et autonomie du modèle soient considérés comme faibles, la catégorie de persuasion suscitait quelques préoccupations.

Risques de Persuasion Mettant en Évidence

Les chercheurs ont noté que certains exemples d'écriture produits par GPT-4o avaient le potentiel de persuader les lecteurs plus efficacement que des textes générés par des humains. Cependant, il a également été précisé que les réponses du modèle n'étaient pas uniformément plus persuasives dans l'ensemble.

Aperçus de l'Équipe d'OpenAI

Lindsay McCallum Rémy, porte-parole d'OpenAI, a expliqué que la carte système comprend des évaluations préparées à la fois par des équipes internes et par des testeurs externes, comme les groupes d'Évaluation de Modèle et de Recherche sur les Menaces (METR) et de Recherche Apollo. Ces équipes contribuent de manière significative aux évaluations globales de sécurité des systèmes d'IA.

Contexte de la Sortie de GPT-4o

La publication de la Carte Système GPT-4o par OpenAI intervient à un moment crucial, au milieu de critiques croissantes concernant les normes de sécurité de l'entreprise. Des préoccupations ont été exprimées par divers acteurs concernés, y compris des employés et des fonctionnaires publics. Récemment, The Verge a rapporté une lettre ouverte du sénateur américain Elizabeth Warren et de la représentante Lori Trahan, exhortant OpenAI à clarifier ses procédures concernant les lanceurs d'alerte et les examens de sécurité. La lettre souligne des problèmes de sécurité considérables qui ont été abordés publiquement, y compris le licenciement temporaire du PDG Sam Altman en 2023 en raison des préoccupations du conseil d'administration et le départ d'un cadre de sécurité qui a indiqué que les mesures de sécurité étaient éclipsées par la quête de nouvelles technologies.

Implications Avant l'Élection Présidentielle

Le lancement d'un modèle multimodal hautement capable tel que GPT-4o juste avant l'élection présidentielle américaine soulève des risques supplémentaires. Il y a une préoccupation significative concernant la désinformation et le potentiel d'exploitation du modèle par des acteurs malveillants. OpenAI affirme qu'elle teste activement des scénarios du monde réel pour atténuer ces risques et prévenir les abus de sa technologie.

Appels à une Transparence Accrue

La communauté technologique a réitéré ses appels à OpenAI pour améliorer la transparence concernant les données de formation de son modèle - les origines de ses ensembles de données, telles que la question de savoir si elles incluent du contenu YouTube - et ses processus de test de sécurité. En Californie, le sénateur d'État Scott Wiener travaille sur une législation qui imposerait des réglementations sur les grands modèles de langage, exigeant que les entreprises soient tenues légalement responsables si leur technologie d'IA est utilisée de manière irresponsable.

L'Avenir de la Sécurité de l'IA

Si ce projet de loi est adopté, il exigerait que les modèles de pointe d'OpenAI se conforment à des évaluations de risque rigoureuses imposées par l'État avant leur disponibilité publique. En fin de compte, le point le plus important à retenir de la Carte Système GPT-4o est que, malgré la participation d'experts externes, il y a une forte dépendance à OpenAI pour réaliser des auto-évaluations de ses modèles.

Conclusion

Alors qu'OpenAI continue d'avancer sa technologie d'IA, le contrôle sur ses pratiques de sécurité illustre le besoin d'une supervision attentive et de communications transparentes. Les parties prenantes et le public observeront de près l'évolution des nouvelles normes de sécurité de l'IA, avec l'espoir que les organisations donnent la priorité à leurs responsabilités éthiques en même temps qu'aux avancées technologiques.

En lire plus

Archer's Midnight eVTOL aircraft preparing for takeoff in Los Angeles
ChargePoint Omni Port charging station for electric vehicles.

Laisser un commentaire

Tous les commentaires sont modérés avant d'être publiés.

Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.