Apple Introduce una Nueva Función de Seguridad Infantil: Reportar Desnudez en Fotos
En un anuncio reciente, Apple ha revelado una función innovadora de seguridad infantil diseñada para mejorar la protección contra contenido inapropiado. Según lo informado por The Guardian, esta nueva funcionalidad permite a los niños reportar cualquier foto o video recibido que contenga desnudez directamente a Apple.
Ampliando las Funciones de Seguridad en la Comunicación
Esta función se expande sobre la herramienta existente de Seguridad en la Comunicación de Apple, que ya emplea escaneos en el dispositivo para detectar desnudez en imágenes o videos recibidos a través de servicios como Mensajes, AirDrop o Carteles de Contacto. Cuando se detecta dicho contenido, la imagen o video se difumina, y se presentan a los usuarios opciones adicionales, incluyendo:
- Enviar un mensaje a un adulto
- Acceder a recursos de ayuda
- Bloquear el contacto
Mecanismo de Reporte en Desarrollo
Actualmente en prueba en Australia con la próxima versión de iOS 18.2, la función de reporte es una adición revolucionaria. Permite a los usuarios preparar un reporte que contenga:
- Las imágenes o videos en cuestión
- Los mensajes intercambiados inmediatamente antes y después de recibir la imagen
- Información de contacto de ambas cuentas involucradas
- Un formulario para que los usuarios describan el incidente
Una vez enviado el reporte, Apple revisará el contenido y podrá tomar medidas como deshabilitar iMessage para el usuario infractor o notificar a la policía si es necesario.
Iniciativas Similares de Google
Coincidentemente, Google también anunció esta semana una expansión de sus capacidades de escaneo en dispositivo en sus aplicaciones de Android. Su actualización incluye una función de Advertencia de Contenido Sensible que difumina la desnudez en las imágenes y proporciona recursos de ayuda. Esta función pronto estará habilitada por defecto para todos los usuarios menores de 18 años.
Disponibilidad Futura de la Nueva Función de Apple
Si bien Apple ha indicado planes para hacer disponible esta función a nivel global, aún no ha anunciado una línea de tiempo específica para su lanzamiento. En un esfuerzo por priorizar la privacidad del usuario, la compañía no ha ofrecido comentarios inmediatos sobre el progreso de las pruebas.
Una Mirada Atrás a las Funciones de Seguridad Infantil de Apple
Esta reciente iniciativa sigue a una serie de funciones de seguridad infantil que se lanzarán en 2021, que tenían como objetivo escanear las bibliotecas de Fotos de iCloud de los usuarios en busca de material de abuso sexual infantil y notificar a los padres cuando sus hijos intercambiaban imágenes sexualmente explícitas. Sin embargo, después de preocupaciones de los defensores de la privacidad, Apple pospuso el proyecto y finalmente decidió no escanear dicho contenido en diciembre de 2022.
Con estos avances, Apple y Google están dando pasos proactivos para garantizar la seguridad digital de los niños, facilitando su navegación por los desafíos que presenta el contenido inapropiado en línea.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.