Discord ha anunciado que a partir de principios de marzo, todos sus más de 200 millones de usuarios activos mensuales en el mundo serán colocados por defecto en un modo restringido para adolescentes, a menos que verifiquen su edad mediante reconocimiento facial o documento de identidad oficial. La nueva política de la plataforma, descrita como configuración adaptada a adolescentes por defecto, implica que las cuentas no verificadas enfrentarán restricciones significativas, incluyendo contenido sensible difuminado, bloqueo de acceso a canales y servidores restringidos por edad, y mensajes directos de usuarios desconocidos redirigidos a una bandeja de solicitudes separada. El despliegue global constituye uno de los mandatos de verificación de edad más amplios jamás impuestos por una plataforma social importante.
Los usuarios que deseen recuperar el acceso completo deberán completar un proceso de verificación único utilizando la estimación facial de edad, que procesa selfis en video directamente en el dispositivo del usuario, o presentando un documento de identidad oficial a uno de los socios de Discord. Discord afirmó que los selfis en video utilizados para la estimación facial nunca abandonan el dispositivo del usuario y que los documentos de identidad se eliminan poco después de completar el proceso de verificación. Savannah Badalich, directora de Política de Producto de Discord, señaló que el despliegue se basa en la arquitectura de seguridad existente de la plataforma y busca crear una experiencia más segura para los usuarios mayores de 13 años.
El anuncio ha generado una considerable reacción negativa por parte de defensores de la privacidad y usuarios incómodos con la idea de proporcionar datos biométricos o identificación gubernamental a la plataforma. Las preocupaciones se ven amplificadas por un incidente de seguridad ocurrido en octubre de 2025, cuando piratas informáticos vulneraron a un proveedor externo utilizado por Discord para apelaciones relacionadas con la edad, exponiendo potencialmente las fotografías de documentos de identidad de aproximadamente 70.000 usuarios. Los críticos argumentan que exigir escaneos faciales o documentos de identidad crea una infraestructura de vigilancia y que la filtración anterior demuestra que Discord no puede garantizar la seguridad de datos tan sensibles.
La decisión de Discord se produce en medio de una creciente presión regulatoria sobre las empresas de redes sociales para proteger a los menores. Australia aprobó en 2025 una legislación que prohíbe las redes sociales a los usuarios menores de 16 años, y varios estados estadounidenses han promulgado o propuesto requisitos similares de verificación de edad. El Reglamento de Servicios Digitales de la Unión Europea también exige protecciones reforzadas para los menores en las grandes plataformas. Discord ha sido objeto de un escrutinio particular debido a la popularidad de la plataforma entre los adolescentes para juegos y socialización, así como por su historial de incidentes que involucran la exposición de menores a contenido inapropiado.
La plataforma también desplegará un sistema interno de inferencia de edad que funcionará en segundo plano para determinar el estado de edad de las cuentas, reduciendo la necesidad de verificaciones manuales repetidas. Se esperan métodos de verificación adicionales más allá de la estimación facial y la presentación de documentos de identidad en el futuro. Los analistas del sector señalaron que, si bien la intención de proteger a los menores es acertada, la ejecución plantea preguntas difíciles sobre el equilibrio entre la seguridad infantil y la privacidad de los usuarios, un dilema al que cada gran plataforma deberá enfrentarse cada vez más a medida que los requisitos regulatorios se endurezcan en todo el mundo.
Comentarios