La protección de menores en entornos digitales plantea retos complejos que exigen una combinación de soluciones técnicas, normativas y éticas. En este contexto, se han consolidado dos enfoques complementarios: el diseño adaptado por edad y los mecanismos de verificación de edad. Ambos conceptos se articulan para garantizar que los menores accedan a experiencias digitales adecuadas a su desarrollo, sin comprometer sus derechos fundamentales. Uno de los primeros desafíos es definir qué medidas son necesarias y proporcionadas para limitar el acceso de menores a contenidos perjudiciales sin restringir injustificadamente su participación en el entorno digital. La normativa vigente ofrece lineamientos generales, pero deja amplios márgenes de interpretación, lo que ha llevado a divergencias entre países. Algunas legislaciones nacionales han impuesto verificaciones de edad obligatorias, generando tensiones con los principios de mercado único y armonización normativa.
El diseño adaptado por edad implica modificar la presentación, accesibilidad y funcionalidad de plataformas según la edad del usuario. Una vez identificada la edad, los servicios deben ajustar tanto el contenido como la forma en que este se presenta. Esto requiere evaluar riesgos específicos como exposición a violencia, acoso, incitación a conductas autodestructivas y pérdida de privacidad. A su vez, estas evaluaciones deben traducirse en acciones concretas de moderación, configuración por defecto y limitación de funcionalidades. Sin embargo, no basta con controlar el acceso a ciertos servicios. Es igualmente necesario establecer parámetros claros sobre cómo deben operar las plataformas una vez que se confirma la presencia de usuarios menores. Para ello, se propone un enfoque basado en riesgos, que considere la naturaleza del contenido, las características de la plataforma y el perfil del usuario. Este enfoque flexible permite adaptar las medidas a diferentes contextos, pero también demanda lineamientos más precisos para evitar ambigüedades regulatorias.
Por otra parte, el sistema europeo enfrenta problemas de coherencia normativa. La protección de menores depende de reglas dispersas en distintas directivas y reglamentos, como el Reglamento General de Protección de Datos, la Directiva de Servicios de Comunicación Audiovisual y el Reglamento de Servicios Digitales. Esta fragmentación dificulta la supervisión y genera vacíos legales, especialmente en servicios que no están claramente cubiertos por las normativas existentes. Adicionalmente, el creciente número de iniciativas nacionales para imponer requisitos específicos de verificación de edad ha generado preocupaciones sobre la unidad del mercado digital. Si cada Estado miembro define sus propios criterios, se obstaculiza el desarrollo de servicios digitales transfronterizos. En este sentido, se sugiere que la Comisión Europea promueva una solución común que armonice los requisitos sin imponer cargas desproporcionadas.
A esto se suma la complejidad técnica de implementar sistemas eficaces de verificación. Métodos como la auto-declaración resultan insuficientes, mientras que otros más sofisticados, como la estimación por rasgos biométricos o el uso de identidades digitales verificadas, implican desafíos en términos de privacidad, fiabilidad y no discriminación. La búsqueda de mecanismos de doble anonimato, que protejan la identidad del usuario sin comprometer la eficacia, se presenta como una alternativa prometedora. Por tanto, la construcción de un entorno digital más seguro para menores requiere una visión integral que combine tecnología, regulación y derechos humanos. La armonización normativa, el desarrollo de estándares técnicos y la participación de actores públicos y privados son elementos necesarios para avanzar hacia una protección efectiva, sin sacrificar la inclusión digital de niños y adolescentes.
Para leer más ingrese a:
https://cerre.eu/publications/dsa-implementation-forum-protection-of-minors/
https://cerre.eu/wp-content/uploads/2025/03/CERRE-DSA-Forum-Consolidated-Final.pdf