¿Cómo se gestiona un mundo digital donde la confianza se ha vuelto el recurso más frágil? La tecnología avanza más rápido que nuestra capacidad de regularla o regularnos. Todo ocurre a una velocidad que supera a los marcos legales y, muchas veces, a nuestra propia lucidez para discernir.
Sin embargo, están sucediendo cosas. Ciertas plataformas digitales han comenzado a endurecer sus mecanismos de acceso. Desde hace unos días, ChatGPT está exigiendo verificar la identidad con cédula y selfi. El propósito es evitar suplantaciones, impedir la creación masiva de cuentas falsas (bots), prevenir fraudes y cumplir estándares internacionales de verificación de edad. Esta medida refleja un cambio profundo: las plataformas ya no confían en el usuario por defecto; necesitan pruebas de vida digital para operar en un entorno más expuesto.
Ese movimiento hacia un ecosistema más controlado coincide con un giro histórico en la regulación global de internet, donde ningún país ha ido tan lejos como Australia. En noviembre de 2024 aprobó la Online Safety Amendment (Social Media Minimum Age) Act, que entrará en vigencia el 10 de diciembre y que prohíbe completamente que menores de 16 años tengan cuentas en redes sociales. No se trata de obtener permiso parental: el uso está vetado, sin excepciones.
La lista de plataformas afectadas es amplia: Facebook, Instagram, TikTok, Snapchat, YouTube, X, Twitch, entre otras. Todas deberán implementar sistemas robustos de verificación, desde algoritmos de estimación de edad hasta validación documental y procesos biométricos. Las multas por incumplimiento son muy altas, una señal clara de la determinación del Estado australiano.
Australia defendió esta ley bajo una premisa simple y contundente: proteger a los menores de un entorno digital que se ha vuelto psicológicamente nocivo y estructuralmente inseguro. El Gobierno presentó evidencia sobre el aumento de ansiedad, acoso y exposición a contenido dañino entre adolescentes, así como el impacto de los algoritmos que amplifican adicción, comparaciones sociales y polarización emocional. Los mecanismos voluntarios de las plataformas –edad autodeclarada, reportes, controles parentales– se consideraron insuficientes: más del 80 % de menores usaba redes con datos falsos. La nueva regulación busca cerrar esa brecha imponiendo verificación real, reduciendo la exposición a riesgos y colocando el interés del menor por encima del modelo comercial de las redes sociales.
Este no es un caso aislado. Malasia anunció una prohibición similar a partir de 2026. Dinamarca impulsa un veto para menores de 15 años, con permisos parentales desde los 13. En la Unión Europea, países como Bélgica y Alemania fortalecen modelos híbridos de acceso condicionado y supervisión parental.
Si hoy existimos en un ecosistema así, donde la confianza se ha vuelto vulnerable y no contamos con suficientes mecanismos de protección, nuestra responsabilidad debería ser, por lo menos, promover el pensamiento crítico, la educación digital y una conversación pública que esté a la altura de los riesgos. (O)