La última mutación del Kids Online Safety Act (KOSA) ha vuelto al Senado de EE. UU. envuelta en el mismo celofán engañoso: “protección para menores”. Pero debajo del envoltorio está el mismo bicho de siempre. Una ley redactada con la precisión de un martillo y la intención de un censor, que transformará Internet en una zona vigilada, seca y peligrosa para cualquiera que quiera hablar de salud mental, identidad o... básicamente, cualquier tema incómodo.
El “deber de cuidado” que es un eufemismo para censura
KOSA obliga a las plataformas a demostrar “cuidado razonable” para prevenir daños a menores: depresión, ansiedad, adicciones, bullying, y una nebulosa categoría llamada “uso compulsivo”. ¿Qué significa eso? Que si un fiscal decide que un post sobre cómo superar una depresión “fomentó la angustia en menores”, la plataforma puede ser demandada. Da igual que el contenido sea legal, útil y publicado con buena intención.
Lo peor no es que sea ambiguo. Es que está diseñado para serlo.
Porque esa ambigüedad no molesta a Apple, ni a X (la ex-Twitter, ahora con disfraz de lobby). Ellos tienen los equipos legales para surfear el tsunami regulatorio. ¿Quién queda enterrado bajo la ola? Las plataformas pequeñas. Aquellas que dan espacio a foros sobre trastornos alimentarios, identidad de género o apoyo emocional. ¿Te suena algo como Reddit, Mastodon o incluso un grupo privado en Discord? Fin de la historia.
Si la opción legal más segura es borrar, adivina qué va a pasar
El modelo es simple: si puedes ser demandado por lo que diga un usuario, mejor lo silencias. Y si no puedes silenciar con precisión, eliminas todo el foro, el post o la función completa. Así, el miedo legal se convierte en el filtro de contenido.
Bienvenido al efecto KOSA: censura preventiva patrocinada por el Congreso.
No es especulación. Ya ha pasado con leyes similares y plataformas que borran contenidos legítimos por evitar líos legales. Y aquí hablamos de cosas tan básicas como:
-
“Ámate como eres” (¿promueve conductas disfuncionales?).
-
“No consumas drogas” (¿mencionar drogas ya es incitar?).
-
“Este fue mi proceso con la ansiedad” (¿y si eso empeora la ansiedad de alguien más?).
La lógica de KOSA no es proteger, es silenciar.
Pseudociencia legislativa: compulsividad sin ciencia
Otro delirio del texto: “uso compulsivo”. Un término que suena clínico pero que en realidad no existe como diagnóstico reconocido por ninguna autoridad médica seria. Es como legislar contra la “mirada intensa” o el “vapeo emocional”.
Hay cero consenso científico sobre si el uso intensivo de redes causa, agrava o simplemente coexiste con trastornos mentales. Pero eso da igual. Si el término suena alarmante, se convierte en ley. Porque legislar con base en titulares vende más que hacerlo con base en estudios longitudinales.
El truco barato del “esto no es censura, lo juro”
KOSA incluye la cláusula “no se puede demandar por el punto de vista de los usuarios”. Pero la responsabilidad no es de los usuarios, sino de las plataformas. Si el contenido genera riesgo, se borra. Y si ese contenido es una conversación sobre identidad LGBTQ+, salud mental o cómo salir de una relación tóxica, es más fácil eliminarlo que arriesgarse a que alguien lo interprete mal.
¿De verdad queremos que el estándar de Internet sea: “si podría molestar a alguien, bórralo”?
Lo que nadie te cuenta sobre esto
-
La ley dice “proteger a los niños”, pero legisla sobre todos: porque no puedes separar el Internet “de niños” del resto. Si tienes que filtrar contenidos “potencialmente dañinos”, los filtras para todos.
-
El lobby de Big Tech está dentro del proceso: X, Apple y otros actores han estado en las mesas de negociación. Si creías que esto era un movimiento anti-monopolios, prepárate para otra decepción.
-
Los foros de ayuda desaparecerán: no hay margen para matices. Cualquier conversación compleja será vista como un riesgo legal. El algoritmo no va a distinguir entre un testimonio de recuperación y una apología del suicidio.
Conclusión: más peligro, menos libertad
KOSA no hará que los niños estén más seguros. Hará que el discurso legítimo desaparezca. Empoderará a burócratas, aplastará a los pequeños innovadores y transformará plataformas sociales en espacios de silencio preaprobado.
Es una ley moralista, mal diseñada y, lo peor de todo, peligrosa. Rechazarla no es solo un tema de derechos digitales. Es una necesidad democrática urgente.

0 Comentarios