Economía de la atención: cómo las apps nos mantienen enganchados

Pasamos horas frente a las pantallas. Los chicos, muchas veces, aún más. La pandemia no solo aceleró ese hábito: dejó instalada una arquitectura de atención que opera sin pedir permiso y captura incluso cuando creemos estar a salvo.

Hace cinco años nos encerraron por un tiempo diciendo que era por nuestra salud. Vimos imágenes en los medios que nos hacían sentir seguros dentro del hogar. Después volvimos a salir, sí. Pero algo había quedado adentro.

No hablo de secuelas, ni de traumas colectivos. Hablo de algo más oscuro y compacto: una cárcel de bolsillo, que reposa en la mesa de luz cuando nos acostamos. No necesita de muros porque consta de pantallas. Sus algoritmos y pequeñas recompensas diarias «encierran» ansioso a todo aquel que lo utiliza.

La pandemia no creó esta cárcel, dejó de disfrazarla.

Vuelvo a casa en colectivo. Paso por parque Lezama y, por primera vez en semanas, estoy mirando por la ventana. Sin celular. Sin destellos en la cara. Es raro, siento que soy improductivo.

El colectivo frena. Sube un nene con pantalones tres cuartos y una remera enorme. Detrás, una mujer joven —parece su mamá— le dice algo a otra chica que está detrás, tal vez su hermana.

La mujer se ubica al lado mío. Pienso en ofrecerle el asiento, pero estoy cansado. No me muevo.

La otra chica, de remera blanca con una estrella brillante y el ombligo al aire, lleva el celular en la mano. Es el de la manzanita. La pantalla brilla en sus lentes como un faro esperanzador en la oscuridad del colectivo. Reconozco los colores y el logo. Instagram. Lo revisa.

El pulgar se mueve mecánico y su mano sube a su cara como si se tratase de un espejo de maquillaje. Parafraseando a Charly y con mucho disimulo «Miro sin querer mirar».

Cuenta regresiva mental: Por 20 segundos no lo mira. Vuelve. 24 segundos. Vuelve. 30 segundos. Vuelve. No para…

Desde que subió hasta cruzar el puente de La Boca, el patrón se repite. Cada 30 segundos la pantalla cincela su joven contorno con la luz ¿Se da cuenta? ¿O es automático?

Me pregunto si estoy viendo lo que creo ver o si estoy confirmando mis propias ideas. El sesgo puede ser exagerado — Pienso –, pero el patrón no miente. Cada 30 segundos.

Y entonces me doy cuenta: no está eligiendo mirar. Está respondiendo a un estimulo: la economía de la atención.

Hoy, el promedio mundial de tiempo en pantalla es más de 6 horas diarias. Argentina está por alcanzar las 9 horas (8:41min). No por elección consciente. Por diseño. Detrás hay toda una arquitectura digital construida no para liberarnos, sino para capturarnos.

Este diseño funciona tan bien que ni siquiera notamos que estamos presos, pero lo estamos. El cuerpo agotado avisa, la mente saturada interroga, el bajo rendimiento lo pone en evidencia. La demanda de hacer lo que pide las redes pone a la luz nuestras más crueles ambiciones. Buscamos atención…

El guardián invisible

El panóptico de Bentham era una arquitectura donde se podía vigilar sin ser visto. La idea era simple: si creés que te miran, te comportás. Esto planteaba una interesante teoría: el control no necesita violencia. Basta con diseño.

Con los años, el diseño ha mejorado…

Hoy el panóptico es código. El algoritmo no vigila en el sentido clásico: administra. Decide qué aparece, qué desaparece, qué amplifica y quienes nunca van a llegar a tu pantalla. No es neutral. No es un espejo. Es un curador sin firma que gobierna tu campo visual sin pedirte permiso. No hay permiso para lo que muestra y menos para lo que te quita.

En 2023, un experimento publicado en Science mostró que cuando Facebook e Instagram desactivaban el feed algorítmico y lo reemplazaban por uno cronológico, el comportamiento de los usuarios cambiaba por completo. ¿Porqué es importante? Bueno, el «pequeño» cambio impactaba en el tiempo de uso y las interacciones haciendo que cayeran. La evidencia es simple y concisa: no vemos un feed neutral. Vemos lo que deciden mostrarnos para tenernos atrapados. En otras palabras, no elegís. Te lo dan servido para que alimentes tu glotonería.

Conocí a la Dra. Liliana Molina Soljan a través de las redes sociales, donde comparte su trabajo como abogada especializada en cibercrimen y protección de infancias digitales. Su compromiso con los desafíos que plantea la inteligencia artificial me llevó a escribirle para explorar un concepto incómodo: la «cárcel digital».

Su respuesta fue inmediata. Y contundente:

«La manipulación algorítmica existe; su tratamiento debe ser interdisciplinario.»

Mi primera pregunta fue directa: ¿Puede considerarse que las plataformas digitales están generando una forma de encierro estructural sobre la infancia, al promover usos adictivos sin mecanismos efectivos de protección?

«Al momento actual la respuesta es afirmativa», dice Molina Soljan. «Y no solo ocurre con niños, niñas y adolescentes. La adicción tiene un crecimiento exponencial que no discrimina edades. Pero en lo particular a las infancias el tema es mayor por la falta de protección de ese sector tan vulnerable que termina siendo manipulado por la tecnología.»

Como vemos, no es un accidente. Es el modelo de negocio. El negocio de la atención a cualquier costo, incluso si debe indignarte.

No hace falta explorar mucho para darnos cuenta que se premia la bronca de la calma. Una investigación fue al extremo y exploró millones de publicaciones para llegar a esa conclusión. Lo mismo sucede con las fakes news y cualquier contenido que nos mantenga congelados frente a la pequeña caja boba.

Las plataformas regulan, lo hacen todos los días. Pero según lógicas comerciales, no les interesa ser educativas ni democráticas.

Antes de la pandemia, pero después más, la calle dejó el escenario público para convertir a las redes en el campo de batalla por excelencia. Las plataformas aprovechan eso y transforman a la conversación pública en un producto emocional optimizado para la retención. Si la indignación retiene, no importa lo demás; el negocio tiene que funcionar.

Lo que circula no representa al criterio colectivo, pero sí su sed de entretenerse. La cárcel digital no impide hablar, pero sí decide que escuchar.

Control en tiempo real: la policía del lenguaje ya existe

Roblox modera cada palabra que hablan o escriben los chicos en tiempo real. Si usan lenguaje inapropiado, la plataforma lo bloquea instantáneamente.

La pregunta es obvia: si puede hacerlo un videojuego ¿por qué no se aplica en todos lados? Obvio. No conviene.

Un control permanente activaría alarmas democráticas, y pondría en tensión la libertad de expresión revelando que las plataformas no son neutrales. ¿Y cómo hacen para enviarme una publicidad cuando hablo o pienso justo en eso? La respuesta es obvia: «El algoritmo siempre te está observando».

Por otro lado, no hace falta que alguien vigile cuando vos mismo moderas lo que decís por miedo a un bloqueo, una sanción o una restricción. El premio o castigo ya nos tiene condicionados.

En las redes sociales la cárcel no es física: el algoritmo decide qué mostrarte… y qué ocultarte. Esa es la paradoja: la vigilancia no se declara, pero ordena la conversación.

Y cuando ese control se expanda —y se va a expandir— ya no será solo sobre palabras prohibidas. Será sobre intención, tono, orientación ideológica. Ahí el umbral entre protección y vigilancia se evapora.

El factchecking ha demostrado ser una herramienta útil para combatir la desinformación. Sin embargo, dada la cantidad de contenido que circula y la preferencia de los algoritmos, mucho del esfuerzo no alcanza. Especialmente cuando 7 de cada 10 latinoamericanos ni siquiera saben qué es un deepfake. Las grandes olas de ejércitos trolls requieren esfuerzos abrumadores para ser combatidos. En especial durante las campañas políticas, donde el contenido falso crece de forma precipitada.

En este sentido, el trabajo de factchecking con IA en tiempo real, corre el peligro de ser a futuro herramientas de supervisión global. Esto brinda importancia a la necesidad de una regulación para el cuidado de las democracias y destaca la importancia de la independencia de estas instituciones de empresas globales que puedan aprovechar su trabajo para otros fines.

Molina contextualiza el riesgo: «Hoy no existe regulación suficiente. Es imperioso el control estatal sobre las plataformas. Se necesita legislación robusta.»

Las infancias: el primer territorio conquistado

El colectivo frena. Las jóvenes y el niño bajan rápido como escapando de un incendio. Los miro y me doy cuenta que estoy libre para observar otra cosa. El chofer queda detenido en el semáforo. De repente tengo unas ganas de llegar rápido a mi casa. Pegado, veo un auto detenido. El chofer levanta el celular del asiento del acompañante manteniendo cierta distancia. ¿Será un mensaje? Al mirar detenidamente, me doy cuenta que mueve el pulgar con rápida devoción. El scroll infinito. Suspiro.

Los números no mienten, pero no explican lo que está pasando: Según datos citados por OSF HealthCare a partir del CDC, los niños de 8 a 10 años pasan unas 6 horas diarias frente a pantallas, mientras que los de 11 a 14 años llegan a alrededor de 9 horas por día. ¿Será verdad? En paralelo, la OIT estima que en Argentina la jornada efectivamente trabajada ronda las 37 horas semanales, y el último informe del INDEC muestra que el 11,3 % de la población ocupada trabaja menos de 35 horas por semana y quisiera trabajar más.

En la Argentina, la cantidad de personas que trabajan menos de 35 horas semanales es enorme. Y aun así, muchos chicos pasan más horas frente a una pantalla que esos adultos en sus empleos formales. El desbalance es evidente.

Molina lo dice sin rodeos: «La adicción tiene un crecimiento exponencial que no discrimina edades. Pero en las infancias el riesgo es mayor por la falta de protección efectiva.» y agrega: «Los padres usan pantallas como chupete digital. La falta de límites deja al niño frente a un dispositivo sin protección.»

Cada vez que un niño desbloquea una tablet sin supervisión, entra a un ecosistema diseñado con principios de neuromarketing conductual: refuerzos intermitentes, microdosis de dopamina, estética hiperestimulante. Las mismas técnicas que usan los casinos para retener jugadores.

La adicción no es un bug. Es la estrategia.¿Y qué ven esos niños? Algoritmos que priorizan contenido según engagement, no según desarrollo cognitivo. Contenido que los retiene, no que los educa.

YouTube Kids filtra groserías pero no patrones adictivos. TikTok verifica edad con un clic, sin validación real. Roblox modera insultos palabra por palabra en tiempo real, pero no limita horas de conexión.

La tecnología para proteger existe. Pero no se usa. Porque no es rentable.

Y mientras tanto, Molina cierra con una frase que no deja lugar a interpretaciones: «El desarrollo humano no puede estar sujeto a un algoritmo.»

Por otro lado nos da la siguiente recomendación:

El psicoanalista francés Serge Tisseron propone la regla 3-6-9-12:

Antes de los 3: nada de pantallas.  Se prioriza el juego físico y la interacción directa.

Hasta los 6: nada de videojuegos. Se recomienda solo contenido audiovisual educativo, acompañado por adultos.

Hasta los 9: nada de internet sin supervisión. Se promueve el uso compartido y guiado.

Hasta los 12: nada de redes sociales. Se enseña sobre privacidad, identidad digital y riesgos.

«Hay temas como el acoso en línea, cyberbullying, ludopatía en menores que tienen que ser regulados a la brevedad. También pasa por sembrar la cultura del dato, esto es enseñarles a preservar su privacidad en los entornos digitales. Estas medidas no solo reducen el tiempo frente a pantallas, sino que restituyen el derecho al juego, al vínculo humano y al desarrollo integral», finaliza.

Las plataformas ya priorizan contenido. Interpretan intención. Moderan emociones. Entrenan IA con estándares propios y con nuestro datos. Todo eso ocurre sin mecanismos democráticos, sin supervisión pública, sin transparencia. Y mientras tanto, en Santa Fe, están reformando una Constitución que data de 1962 incorporando derechos digitales y protección de infancias en entornos digitales. Es un avance. Pero es solo una provincia. Y el problema es global.

La cárcel ya existe. Falta decidir qué hacemos con ella. La tecnología no es enemiga. La desregulación sí. Sin límites, este ecosistema seguirá operando como un poder paralelo que administra emociones, comportamiento y conocimiento.

Con límites, puede transformarse en arquitectura al servicio de la autonomía. La diferencia no la define el algoritmo. La define la sociedad. Y la pregunta es: ¿Cuánto más vamos a esperar?

Por fin llego a casa. Mi hijo me recibe con un abrazo y con muchas ganas de hablar me dice algo sin preámbulos:

— Papá, subí un nuevo video a mi canal. Es sobre Forsaken, míralo.

Tiene 10 años y sueña con convertirse en youtuber, como su ídolo Mr Beast. Ansioso por ver, tomo el celular emocionado:

— Es hermoso, hijo, es hermoso…

Hace tiempo que quería publicar esto. La vida —las obligaciones, los imprevistos, la necesidad de buscar ingresos para sostener a mi familia— me fueron retrasando más de lo que imaginaba. Hubo días que faltó tiempo, en otros, motivación. Aun así, necesitaba terminarlo.

Si este tipo de contenido te interesa, cualquier colaboración o apoyo ayuda más de lo que parece. No te olvides que podes colaborar con un cafecito o con mercadopago. Desde ya gracias.
Colaborá con el proyecto

Comentarios

Una respuesta a «Economía de la atención: cómo las apps nos mantienen enganchados»

  1. […] Sigue leyendo La economía de la atención: ¿Cárcel digital en nuestras manos? […]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *