OpenAI Lanza un Nuevo Modo de Voz Avanzado para ChatGPT
OpenAI ha comenzado recientemente a implementar su modo de voz avanzado para ChatGPT, inicialmente disponible para un grupo selecto de suscriptores de ChatGPT Plus. Esta nueva función, presentada en el evento de lanzamiento de GPT-4o en mayo, tiene como objetivo proporcionar una experiencia conversacional más interactiva y matizada. Sin embargo, se enfrentó a críticas por su similitud con la voz de Scarlett Johansson, lo que llevó a un retraso en su lanzamiento debido a preocupaciones de seguridad.
Una Experiencia de Voz Más Capaz
Durante el evento de GPT-4o, el modo de voz avanzado demostró mejoras significativas en comparación con la capacidad de voz existente de ChatGPT. Los empleados de OpenAI mostraron su capacidad para responder dinámicamente, permitiendo interrupciones mientras contaban historias y ajustando sus respuestas en consecuencia. Este nivel de interacción está destinado a mejorar la experiencia del usuario, haciendo que las conversaciones se sientan más naturales.
Retraso para Mejoras y Mecanismos de Seguridad
Inicialmente programado para un lanzamiento alfa a finales de junio, OpenAI pospuso la implementación por un mes para asegurarse de que el nuevo modo de voz cumpliera con sus estándares antes del lanzamiento. Este retraso también fue una respuesta al creciente escrutinio sobre la seguridad de las tecnologías de IA. OpenAI ha declarado que se hicieron esfuerzos para mejorar la capacidad del modelo para detectar y rechazar ciertos tipos de contenido inseguro. Según la portavoz Taya Christianson, las capacidades del modelo de voz fueron probadas por más de 100
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.