AGI Safety

Miles Brundage deja OpenAI para investigaciones independientes de IA

Miles Brundage leaving OpenAI to pursue independent research in artificial intelligence.

OpenAI Experimenta un Gran Cambio Tras la Salida de Miles Brundage

OpenAI, una organización líder en el desarrollo de inteligencia artificial, anunció recientemente la renuncia del investigador de seguridad de larga data, Miles Brundage. Renunció a su puesto como líder del equipo de 'Preparación para la AGI' el 23 de octubre de 2023, marcando un cambio significativo en la gestión de seguridad de la empresa. Brundage ha estado con OpenAI desde 2018, centrándose en aspectos cruciales de la seguridad de la IA dentro de la misión de la empresa.

Disolución del Equipo de Preparación para la AGI

Con la renuncia de Brundage, hay importantes implicaciones para los protocolos de seguridad en OpenAI. Reveló en una publicación de Substack que el equipo de 'Preparación para la AGI' se disolvería, lo que podría llevar a una falta de supervisión de seguridad dedicada mientras la organización navega su desarrollo hacia la inteligencia general artificial (AGI). La AGI representa un hito teórico en la IA, donde un modelo exhibe capacidades comparables a la inteligencia humana en diversas tareas.

Planes Futuros de Brundage

En vista de su partida, Brundage expresó su deseo de centrarse en la investigación independiente. Tiene la intención de iniciar o unirse a una organización sin fines de lucro, dirigiendo sus esfuerzos hacia la investigación y defensa de políticas de IA. Brundage declaró: "Planeo iniciar una nueva organización sin fines de lucro (y/o unirme a una existente) y trabajar en investigación y defensa de políticas de IA. Probablemente haré una mezcla de investigación y defensa, pero los detalles y las proporciones están por determinar." Su intención refleja una tendencia creciente entre los investigadores de IA que valoran los esfuerzos independientes que pueden contribuir a impactos sociales más amplios.

Implicaciones para OpenAI y la Seguridad de la AGI

La salida de Brundage plantea preguntas urgentes sobre el futuro del panorama de seguridad de la AGI dentro de OpenAI. La empresa ha experimentado una serie de salidas de alto perfil anteriormente, incluyendo al cofundador y científico jefe Andrej Karpathy en febrero, y a John Schulman en agosto, quien pasó a la competencia Anthropic. Otra salida notable fue la de Mira Murati, la ex directora de tecnología, que supuestamente busca financiar su propia empresa de IA.

Tras el anuncio de Brundage, OpenAI expresó su apoyo a su decisión. Un portavoz de la empresa declaró: "Apoyamos plenamente la decisión de Miles de perseguir su investigación de políticas fuera de la industria y estamos profundamente agradecidos por sus contribuciones. Su plan de dedicarse por completo a la investigación independiente sobre políticas de IA le brinda la oportunidad de tener un impacto en una escala más amplia, y estamos emocionados de aprender de su trabajo y seguir su impacto." Sin embargo, la organización no proporcionó claridad sobre el futuro del equipo de Preparación para la AGI.

Contexto Industrial y Perspectivas Futuras

La transición alejándose de la supervisión centralizada de la AGI en OpenAI refleja tendencias más amplias en la industria de la IA, donde los conflictos internos han llevado a cambios significativos de personal. Con equipos cofundados como 'Superalineación' siendo disueltos y cofundadores dejando para establecer empresas rivales, el panorama de políticas y gobernanza de IA está evolucionando rápidamente.

A medida que el campo de la inteligencia artificial continúa avanzando, las implicaciones de tales cambios en el liderazgo y dirección estratégica serán cada vez más relevantes. Los interesados y el público observarán de cerca cómo estos cambios afectan el compromiso de la empresa con la seguridad y el desarrollo ético de la IA.

Conclusión

La salida de Miles Brundage de OpenAI no solo significa un cambio personal, sino que también representa un reordenamiento más amplio en la gestión de la seguridad de la IA. Sus futuros esfuerzos en investigación y defensa sin fines de lucro pueden influir en la dirección de las políticas de IA, particularmente a raíz de las crecientes discusiones en torno a la AGI y sus implicaciones para la sociedad. A medida que OpenAI realiza esta transición, la industria en su conjunto se adaptará y responderá a las narrativas en evolución dentro de la gobernanza de la IA.

Puede que te interese

Solana blockchain graphic illustrating revenue redistribution proposal
Graph illustrating the relationship between Fed rate cuts and financial conditions.

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.