La nueva función para personalizar lo que ves abre una discusión necesaria sobre transparencia, adicción y poder de las plataformas.
Instagram ha anunciado hoy un cambio en cómo sus usuarios pueden interactuar con el contenido que se les muestra: a partir de ahora, cada persona puede decirle directamente a Instagram qué tipo de publicaciones quiere ver más o menos en su feed y en Reels. Esta novedad representa un intento por parte de Meta de devolver cierto control a los usuarios frente a lo que comúnmente se llama el “algoritmo”, pero la pregunta es si este movimiento constituye un cambio profundo o simplemente una bocanada de aire frente a la presión pública por más transparencia en las redes sociales.
Lo que hasta ahora era un misterio opaco para la mayoría de quienes navegan en la aplicación —un proceso automatizado que decide qué contenido aparece primero— ahora tiene un botón de intervención directo. Pero más allá del titular aparentemente progresista, esta modificación plantea dudas estructurales sobre la dinámica de poder entre plataformas y usuarios en el mundo digital de hoy.
El nuevo “control de algoritmos” y lo que realmente ofrece
La función anunciada permite que cada usuario indique explícitamente a la plataforma qué temas o cuentas desea priorizar o relegar en su experiencia diaria. Podría parecer un gesto inocuo, pero en la práctica es la primera vez que una plataforma de este tamaño reconoce que el usuario no tenía voz directa sobre lo que su algoritmo estaba priorizando.
Hasta ahora, Instagram se había limitado a ofrecer únicamente opciones genéricas —como “menos como esto” o “no me interesa”— que rara vez modificaban de manera significativa lo que los usuarios veían en sus pantallas. Con la actualización se introducen controles más granulares, donde se puede ajustar la visibilidad por tipo de contenido o incluso por cuentas específicas.
No obstante, la pregunta clave es si este control realmente limita el poder del algoritmo o si se trata de una ilusión de poder que no altera las métricas subyacentes que priorizan el contenido más “adhesivo” para mantener a los usuarios más tiempo dentro de la aplicación.
¿Empoderamiento del usuario o maquillaje regulatorio?
En un contexto donde las redes sociales están bajo escrutinio creciente por su influencia en la salud mental, la polarización social y la adicción digital, la posibilidad de ajustar preferencias algorítmicas parece un avance. La presión regulatoria en Europa y en Estados Unidos ha empujado a grandes plataformas a explicar mejor cómo funcionan sus sistemas automáticos y a ofrecer más herramientas de control a los usuarios.
Pero si observamos en perspectiva, este tipo de iniciativas suelen ser respuesta a críticas públicas más que un cambio de filosofía. Instagram sigue siendo una plataforma diseñada para maximizar interacción y tiempo de uso; que los usuarios puedan decir “quiero ver más de X y menos de Y” no necesariamente implica que estos ajustes se traduzcan en una experiencia menos adictiva o más saludable. La plataforma sigue basando la mayoría de sus recomendaciones en señales de comportamiento —lo que más interactúas suele amplificarse— con algoritmos que siguen estando fuera del escrutinio público detallado.
Además, queda por ver cuán efectivo es este control ampliado cuando se implementa en la práctica. Si la mayor parte del contenido que genera interacción proviene de formatos cortos, visuales y diseñados para captar atención rápidamente —como Reels—, los ajustes del usuario pueden verse minimizados por la propia lógica de diseño de la aplicación que prioriza retención sobre preferencia real.
Riesgos implícitos: ¿más datos, más manipulación?
Otro aspecto que merece atención es el uso de estos controles de preferencias como fuente de datos adicional para la plataforma. Al permitir que los usuarios indiquen explícitamente lo que quieren ver, Instagram no solo mejora su capacidad para predecir clics sino que recopila señales más refinadas sobre gustos y comportamientos individuales.
Este punto abre un riesgo evidente: aunque el usuario tenga la ilusión de controlar lo que ve, la plataforma puede usar esa información para afinar aún más sus modelos de recomendación con fines comerciales, orientando publicidad y sugerencias de productos con mayor precisión. Paradójicamente, una herramienta presentada como empoderadora puede terminar siendo un instrumento más sofisticado de mercadotecnia dirigida.
Además, aunque la nueva función puede permitir a algunos usuarios reducir la presencia de contenido que consideran nocivo o poco interesante, no hay garantía de que la plataforma elimine contenido problemático o polarizante. Simplemente reconfigura qué partes del inmenso universo de publicaciones se muestran primero.
Oportunidades para una navegación más consciente
A pesar de los riesgos, no todo es negativo. Esta iniciativa de Instagram puede convertirse en un punto de partida para una relación más consciente entre usuarios y redes sociales. El simple hecho de que las personas sean invitadas a reflexionar sobre qué contenidos prefieren ver puede fomentar una mayor alfabetización digital: entender que no todo lo que aparece en pantalla es fruto de sus elecciones, sino el resultado de sistemas automatizados.
Además, esta función podría ser útil para quienes desean reducir la exposición a temas que les resultan emocionalmente agotadores o poco relevantes, siempre que se utilice de manera activa y crítica por parte del usuario. En ese sentido, la herramienta funciona mejor cuando el usuario está dispuesto a intervenir activamente en lugar de dejar que las recomendaciones automáticas dicten su experiencia.
El futuro del control en las redes
La llegada del “control de algoritmos” de Instagram es un paso en un camino largo y aún incierto. Las plataformas han empezado a reconocer que deben responder a las demandas de transparencia y autonomía del usuario, pero todavía queda mucho por hacer para que estos cambios signifiquen una redistribución real del poder en el ecosistema digital.
La clave estará en ver si este tipo de controles se amplían a otros aspectos centrales —como la personalización de anuncios o la recomendación de cuentas sugeridas— y si las plataformas aceptan auditorías externas que verifiquen si los ajustes de los usuarios se reflejan realmente en sus feeds.
Si no es así, esta innovación podría quedar en la categoría de espejismo regulatorio: una medida que parece dar más control al usuario pero que, en realidad, sirve para recolectar mejores datos y reforzar los modelos comerciales que han dominado las redes sociales en la última década.
0 Comentarios