0

El número de países que buscan regular las redes sociales para garantizar la protección y seguridad de los menores de edad continúa en aumento. Aunque en apariencia existe cierto consenso sobre la necesidad de actuar, la comunidad científica todavía no ha alcanzado un acuerdo definitivo sobre los efectos reales que el uso de estas plataformas puede tener a nivel social. Esta incertidumbre ha impulsado la creación temprana de marcos normativos con enfoques muy distintos entre sí. La disparidad abre un debate sobre la verdadera efectividad de estos esfuerzos y sus posibles implicaciones para derechos fundamentales, como la libertad de expresión y el acceso a la información de todos los usuarios.

“Cuando se habla de protección digital, específicamente para las infancias, son muchos los temas que se pueden abordar”, dijo María Badillo, asesora de políticas del equipo de Privacidad Global del Future of Privacy Forum. No obstante, considera que el debate actual se concentra principalmente en dos enfoques: restringir el acceso a determinados grupos considerados vulnerables y establecer regulaciones centradas en la responsabilidad corporativa y el diseño de los productos.

En la primera categoría destacan casos como el de Australia que, el año pasado, se convirtió en el primer país en vetar el uso de redes sociales a menores de 16 años, estableciendo un precedente a nivel internacional. Desde entonces, países como España, Francia y Portugal han implementado o analizan medidas similares. En el caso de México, algunos gobiernos estatales también han comenzado a adoptar mecanismos de este tipo.

En todos los escenarios el argumento es similar: evitar que niños y adolescentes se expongan de forma temprana a los riesgos asociados al uso intensivo de internet. Sin embargo, cada vez son más las voces que cuestionan estas medidas, no por su objetivo, sino por la ausencia de mecanismos eficaces y de una infraestructura que permita cumplir con esa meta sin afectar la privacidad ni el respeto a los derechos de libertad de expresión y acceso a la información.

“Al regular a las infancias y establecer qué es lo que es seguro para ellas, se está hablando de un sistema que intrínsecamente afecta a la sociedad en general”, indica Badillo.

Esto significa que, por ejemplo, la verificación de edad que implican este tipo de regulaciones obligaría a todos los usuarios a someterse a un proceso para comprobar su edad y utilizar los servicios sin restricciones. Sin las salvaguardas necesarias, esta práctica podría aumentar la desigualdad y la discriminación en el entorno digital, además de abrir la puerta a posibles prácticas ilícitas que pondrían en riesgo la privacidad y la seguridad de todo el ecosistema.

José César Perales, catedrático del Departamento de Psicología Experimental de la Universidad de Granada, sugiere que este tipo de medidas se sustentan en una base empírica limitada. “Es una decisión popular y políticamente sencilla, pero cuyos efectos reales aún no comprendemos en toda su magnitud”, declaró a SMC España.


Responsabilidad de diseño

El segundo enfoque regulatorio es el que busca hacer responsables a las plataformas que ofrecen el servicio. “Cada vez con mayor frecuencia se habla de lo adictivas que pueden llegar a ser las redes sociales y de cómo, de alguna forma, estas plataformas podrían aprovechar la vulnerabilidad o sensibilidad que tienen los niños”, señala Badillo.

De esta manera, regulaciones como las adoptadas en la Unión Europea, y a partir de este mes en Brasil, se concentran en modificar el funcionamiento de las plataformas para hacerlas más seguras. En la práctica, esto obliga a las empresas a integrar medidas de protección desde el diseño mismo de sus servicios, funciones y algoritmos.

¿Cómo son estas características precisamente? Diversas investigaciones han advertido que características como el scroll infinito, las notificaciones push, las recomendaciones personalizadas y los sistemas de recompensas están diseñadas para garantizar largos periodos de conexión, especialmente entre los usuarios más jóvenes. Brasil, de hecho, sería el primer país de América Latina en aplicar una ley que proteja a los menores del scroll infinito y los videos con autoplay. Documentos internos filtrados de empresas como TikTok sugieren que, en efecto, varias de estas herramientas fueron creadas con el objetivo de maximizar el tiempo de permanencia de los usuarios.

En respuesta a estos señalamientos, las plataformas han implementado, bajo sus propios estándares de seguridad, distintas funciones de protección, como controles parentales, notificaciones de descanso y ajustes en los algoritmos según la edad del usuario. No obstante, algunos especialistas consideran que estas medidas resultan insuficientes, ya que trasladan la responsabilidad de la protección a los propios usuarios.

En una entrevista con WIRED, la documentalista Lauren Greenfield sostuvo que “la ingeniería actual de las apps sociales es una situación insostenible. No es justo pedirles a los adolescentes que se autorregulen cuando las plataformas han sido diseñadas para crear adicción”.

Las leyes de Brasil y la Unión Europea buscan atender este problema al establecer responsabilidades vinculantes que obligan a las empresas tecnológicas, entre otras cosas, a activar mecanismos de privacidad y seguridad por defecto, implementar sistemas auditables de verificación de edad, clasificar contenidos por rangos etarios y realizar ajustes en los algoritmos y en las estructuras funcionales para evitar la promoción de características consideradas potencialmente adictivas.

A juicio de Badillo, este enfoque, más preventivo que restrictivo, podría resultar más efectivo y tener mayores posibilidades de adopción. “Al final le da oportunidad a las empresas de alinearse con valores y derechos, reconociendo estos principios y, al mismo tiempo, continuar ofreciendo sus servicios. Creo que las big tech van a preferir colaborar con la autoridad, innovar y cumplir con este tipo de legislación antes que simplemente tener la puerta cerrada en ciertas jurisdicciones o mercados que podrían ser clave”, explica.

Por otro lado, las compañías del sector han señalado que la implementación de prohibiciones tajantes no representa una solución real al problema. Argumentan que estas medidas podrían generar efectos contraproducentes, como la migración masiva de usuarios hacia plataformas más peligrosas o menos reguladas.

En ambos casos, aún existen desafíos importantes para establecer regulaciones efectivas. Uno de ellos es la definición clara de conceptos ambiguos, como “riesgo significativo” o daño al desarrollo psicosocial. Además, la falta de evidencia científica concluyente sobre la relación causal entre el uso de redes sociales y problemas de salud mental en menores complica la creación de estándares regulatorios claros.

Hace dos años, Vivek Murthy, ex cirujano general de Estados Unidos, advirtió que la exposición excesiva y prolongada a plataformas de interacción social durante la infancia puede derivar en problemas de salud mental, alteraciones del sueño y dificultades para relacionarse con el entorno.


Tus datos, su negocio: el costo real de la inseguridad digital

Cada día, mientras revisas tu correo, pagas en línea o simplemente navegas por internet, una guerra silenciosa se libra por tu información. México está en el epicentro. En WIRED en Español, lanzamos nuestro especial de ciberseguridad.

En contraste, un informe de la Asociación Estadounidense de Psicología (APA, por sus siglas en inglés) sostuvo que el uso de redes sociales “no es inherentemente beneficioso ni perjudicial para los jóvenes”, aunque reconoció la necesidad de realizar más investigaciones para comprender mejor sus efectos.

Mientras la lista de demandas contra las plataformas digitales por presuntos daños a la seguridad y la salud mental de niños y adolescentes continúa creciendo, los países aceleran sus esfuerzos para regular, de una u otra manera, el funcionamiento de las redes sociales. En este contexto, Badillo concluye que es necesario reflexionar con mayor profundidad sobre el alcance que deberían tener estas normativas.

“Si el contenido en redes sociales representa un riesgo o si una plataforma es altamente adictiva, estas características deberían corregirse no solo por el hecho de que podrían resultar perjudiciales para un menor, sino porque también pueden ser dañinas para la sociedad en su conjunto”, concluye.

WIRED

Hola, déjenos un comentario

 
Top