Character.AI Introduce Nuevos Controles Parental y Medidas de Seguridad para Usuarios Adolescentes
En un movimiento significativo, Character.AI, un conocido servicio de chatbot, anunció hoy que pronto implementará controles parentales diseñados específicamente para usuarios adolescentes. Esta decisión sigue a un mayor escrutinio por parte de los medios y a dos demandas en curso que alegan que la plataforma ha contribuido a incidentes de autolesiones y suicidio.
Nuevos Desarrollos en Modelos de IA
Character.AI ha desarrollado dos versiones distintas de su modelo de lenguaje grande (LLM): una adaptada para adultos y otra específicamente para adolescentes. El LLM adolescente ha sido diseñado con pautas más estrictas, especialmente en lo que respecta al contenido romántico. Este cambio tiene como objetivo bloquear de manera más efectiva las salidas consideradas sensibles o sugerentes y identificar mejor las entradas de los usuarios que podrían buscar respuestas inapropiadas.
Características de Seguridad Mejoradas
Para proteger aún más a los jóvenes usuarios, si el sistema detecta cualquier lenguaje relacionado con el suicidio o la autolesión, un aviso redirigirá a los usuarios a la Línea Nacional de Prevención del Suicidio. Esta medida proactiva es un intento de proporcionar apoyo inmediato a los usuarios que puedan estar en crisis.
Restricciones en la Interacción del Usuario
Además, los adolescentes ya no tendrán la capacidad de editar las respuestas generadas por sus bots personalizados. Esto tiene como objetivo prevenir la posible manipulación de conversaciones que podrían incluir contenido dañino o inapropiado.
Combatir la Adicción y la Desinformación
Character.AI también está abordando preocupaciones relacionadas con la adicción y la confusión acerca de la naturaleza de los bots. Una función de notificación alertará a los usuarios después de una hora de interacción con un bot, animándolos a tomar descansos. Además, la plataforma está actualizando los descargos de responsabilidad para enfatizar que todas las conversaciones son ficticias y no deben interpretarse como consejos factuales.
Documentación del Consejo Profesional
Para los bots que pretenden ofrecer asistencia profesional, como aquellos etiquetados como "terapeutas" o "médicos", un claro descargo de responsabilidad indicará que estas IA no pueden proporcionar asesoramiento profesional, aclarando así sus limitaciones.
Opciones Anticipadas de Control Parental
Se espera que se implementen en el primer trimestre del próximo año, las funciones de control parental proporcionarán información sobre la cantidad de tiempo que un niño pasa en Character.AI y los bots con los que interactúa con más frecuencia. Este desarrollo se produce mientras Character.AI colabora con varios expertos en seguridad en línea para adolescentes, incluyendo ConnectSafely, para asegurar un entorno de navegación seguro.
Antecedentes sobre Character.AI
Character.AI fue fundada por ex empleados de Google, que desde entonces han regresado a sus roles anteriores en el gigante tecnológico. La plataforma ofrece a los usuarios la oportunidad de interactuar con bots basados en LLM personalizados y permite la personalización por parte del usuario. La base de usuarios consiste principalmente en personas de 13 años o más, demográfica que incluye a muchos adolescentes atraídos por la variada gama de aplicaciones de chatbot de la plataforma, desde coaching de vida hasta simulaciones atractivas de personajes ficticios.
Desafíos Legales y Respuesta de la Comunidad
A pesar de ofrecer interacciones aparentemente inofensivas, ciertas demandas alegan que algunos menores desarrollan vínculos perjudiciales con los bots, lo que puede llevar a discusiones sobre temas sexuales o de autolesiones. Los críticos han destacado que Character.AI no ha dirigido de manera consistente a los usuarios hacia recursos de salud mental cuando se discuten la autolesión o el suicidio.
En respuesta a estas preocupaciones, Character.AI declaró: "Reconocemos que nuestro enfoque hacia la seguridad debe evolucionar junto con la tecnología que impulsa nuestro producto — creando una plataforma donde la creatividad y la exploración puedan prosperar sin comprometer la seguridad." La empresa enfatiza que estas mejoras son parte de un compromiso a largo plazo para mejorar continuamente las medidas de seguridad y las políticas del producto.
Conclusión
Los próximos controles parentales y ajustes de seguridad representan un paso crucial para Character.AI en respuesta a los desafíos que plantea el impacto de su tecnología en los jóvenes usuarios. A medida que el panorama digital continúa evolucionando, también deben hacerlo las plataformas que facilitan la interacción en línea.
Para las familias con adolescentes, estos cambios podrían proporcionar un entorno más tranquilizador para la interacción con la tecnología de IA. Manteniéndose en línea con los estándares de seguridad en evolución, Character.AI busca refinar su plataforma para una mejor experiencia del usuario mientras aborda preocupaciones apremiantes.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.