El equipo de preparación para AGI de OpenAI se disuelve en medio de preocupaciones sobre la cultura de seguridad
Miles Brundage, asesor senior de OpenAI para la preparación de la Inteligencia General Artificial (AGI), acaparó titulares con una advertencia contundente sobre la falta de preparación para AGI entre las principales organizaciones de IA, incluida la misma OpenAI. En un comunicado anunciando su partida, Brundage enfatizó: “Ni OpenAI ni ningún otro laboratorio fronterizo está listo [para AGI], y el mundo tampoco está listo.” Este sentimiento subraya una creciente preocupación entre los expertos sobre la preparación para la IA al nivel humano.
La salida de figuras clave de OpenAI
La salida de Brundage no es un incidente aislado; sigue una serie de salidas de alto perfil de los equipos de seguridad de OpenAI. El colega investigador Jan Leike se fue debido a afirmaciones de que “la cultura de seguridad y los procesos han quedado en segundo plano frente a productos llamativos,” lo que refleja frustraciones entre los investigadores sobre la priorización del desarrollo de productos sobre las consideraciones de seguridad. Además, el cofundador de OpenAI, Ilya Sutskever, también ha decidido establecer su propia startup de IA centrada en el desarrollo seguro de AGI.
La disolución de los equipos de seguridad genera alarma
La reciente disolución del equipo de “Preparación para AGI” de Brundage, tras la disolución del equipo de “Superalineación”, ilustra las crecientes tensiones dentro de OpenAI entre su misión fundamental y el impulso comercial. Las preocupaciones se amplifican con el inminente cambio de la empresa de un modelo sin fines de lucro a una corporación de beneficio público con fines de lucro en dos años. Tal transición podría obligar a la empresa a renunciar a fondos sustanciales de su reciente ronda de inversión—$6.6 mil millones—si no se ejecuta a tiempo.
Las preocupaciones de Brundage sobre la seguridad de la IA
Brundage ha expresado durante mucho tiempo preocupaciones sobre la trayectoria de OpenAI, manifestando estas inquietudes en 2019 cuando la empresa estableció su división con fines de lucro. En sus comentarios de despedida, destacó las limitaciones en su libertad de investigación y publicación, lo que motivó su decisión de irse. Enfatizando la necesidad de voces independientes en las discusiones sobre políticas de IA, cree que puede ejercer más influencia sobre la gobernanza global de la IA desde fuera de OpenAI.
Culturas internas y conflictos en la asignación de recursos
El continuo desajuste dentro de OpenAI también puede reflejar una profunda fractura cultural. Muchos investigadores se unieron a la organización con la intención de avanzar en la investigación de IA en un entorno colaborativo, pero ahora se enfrentan a un enfoque cada vez más orientado al producto. Los informes sugieren que la asignación de recursos internos se convirtió en un tema conflictivo, con equipos como el de Leike que supuestamente se les negó el poder computacional necesario para la investigación de seguridad.
Futuras colaboraciones y apoyo de OpenAI
A pesar de la culminación de los conflictos internos, Brundage declaró que OpenAI ofreció ayudar a sus futuros esfuerzos proporcionando financiación, créditos de API y acceso anticipado a modelos sin condiciones. Este gesto indica una relación compleja entre las contribuciones de Brundage a OpenAI y las estrategias en evolución de la organización hacia la preparación para AGI.
Conclusión: un punto de inflexión para la seguridad y gobernanza de la IA
La partida de Brundage señala un momento crítico para OpenAI y el panorama más amplio de la IA, enfatizando la urgente necesidad de equilibrar las ambiciones comerciales con prácticas de seguridad robustas. A medida que la industria se encuentra al borde de la realización de AGI, es fundamental que las organizaciones prioricen las medidas de seguridad para navegar por las aguas inexploradas de la inteligencia artificial al nivel humano.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.