De un simple pulgar arriba a la ingeniería del caos emocional en nuestras pantallas.
El origen de una adicción silenciosa
Parece mentira, pero hubo un tiempo en el que internet no se basaba en la validación numérica constante. Antes de 2009, si te gustaba lo que un amigo publicaba, tenías que tomarte la molestia de escribir un comentario. Era una interacción humana, real y, sobre todo, consciente.
Todo cambió el 9 de febrero de 2009. Facebook introdujo el botón “Me gusta”. Lo que nació como una herramienta para “simplificar la interacción” terminó convirtiéndose en el motor de una transformación radical de la sociedad digital. Hoy, 22 de marzo de 2026, miramos hacia atrás y vemos los escombros de lo que esa pequeña función construyó.
Esto es como si, de repente, cada frase que dices en una cena con amigos tuviera un marcador flotante encima de tu cabeza indicando a cuánta gente le ha parecido interesante. Imagina la presión. Imagina cómo cambiarías tu discurso para que ese número nunca deje de subir.
Cuando el algoritmo tomó el control
El verdadero problema no fue el botón en sí, sino lo que Facebook (ahora Meta) hizo con los datos que generaba. El “Me gusta” permitió pasar de un muro cronológico —donde veías lo que pasaba según ocurría— a uno basado en el compromiso o engagement.
Las plataformas dejaron de mostrarnos lo que nuestros amigos decían para mostrarnos lo que nos mantenía pegados a la pantalla. Si algo generaba muchos clics o reacciones, el algoritmo lo proyectaba a miles de personas más. El criterio de calidad fue sustituido por el de popularidad.
¿Y qué es lo que más rápido genera reacciones? La indignación, el miedo y el conflicto. A medida que avanzábamos en la década de 2010, nos dimos cuenta de que estábamos atrapados en una arquitectura diseñada para explotar nuestras vulnerabilidades psicológicas más básicas.
“El botón Me gusta pasó de ser una señal de aprobación a ser la moneda de cambio de nuestra atención, y el precio ha sido nuestra paz mental”.
El agujero de conejo y la salud mental
Para 2026, los estudios son concluyentes: el diseño de las redes sociales ha tenido un impacto devastador en los adolescentes. El efecto rabbit hole (agujero de conejo) es una realidad que ha llevado a jóvenes desde videos de baile inocentes hasta contenido de autolesiones o ideologías extremistas en cuestión de minutos.
Este sistema de recompensas variables —como una máquina tragaperras en tu bolsillo— genera picos de dopamina seguidos de bajones profundos. La necesidad de aprobación externa se convirtió en una métrica pública, creando una crisis de ansiedad y dismorfia corporal sin precedentes.
Me puse a investigar algunos informes recientes de este año y es aterrador ver cómo la arquitectura de estas aplicaciones está diseñada para que el usuario pierda la noción del tiempo. No es un error de diseño; es la función principal del producto.
El panorama regulatorio en 2026
Hoy, 22 de marzo de 2026, estamos viendo un cambio de marea. Gobiernos en todo el mundo están considerando, o ya han implementado, restricciones severas sobre los algoritmos de recomendación dirigidos a menores. Se habla de prohibiciones totales de feeds infinitos para menores de 16 años.
La llegada de la Inteligencia Artificial generativa ha complicado aún más las cosas. Ahora, el contenido que nos engancha ni siquiera tiene que ser real. Estamos inundados de imágenes y textos sintéticos diseñados específicamente por IAs para maximizar nuestro tiempo de permanencia en la app.
¿Es posible volver atrás? Algunos expertos sugieren que la única solución es forzar a las plataformas a regresar a feeds cronológicos por defecto y eliminar los contadores públicos de reacciones. Quitarle el “juego” a la red social para que vuelva a ser una herramienta de comunicación.
Riesgos y el dilema de la libertad
Por supuesto, hay quienes argumentan que estas regulaciones atentan contra la libertad de empresa o la libertad de expresión. El debate es complejo. ¿Debería el Estado decidir qué algoritmos pueden mostrarnos contenido? ¿Es responsabilidad de los padres o de las tecnológicas?
Lo cierto es que la autorregulación ha fallado durante casi dos décadas. Las empresas han priorizado el crecimiento y los beneficios trimestrales sobre el bienestar de sus usuarios más jóvenes. La pregunta que me hago hoy es: ¿estamos a tiempo de arreglar el tejido social que el algoritmo ha deshilachado?
Claves para navegar el ecosistema digital hoy
- Desactiva las notificaciones: No permitas que una máquina decida cuándo debes mirar tu teléfono.
- Busca el feed cronológico: Casi todas las apps tienen una opción (escondida) para ver los posts por orden de tiempo.
- Limita el tiempo de uso: Especialmente en apps de video corto como TikTok o Reels, donde el algoritmo es más agresivo.
- Fomenta el pensamiento crítico: Pregúntate siempre: “¿Por qué me están enseñando esto ahora?”.
En conclusión, el botón de Facebook fue el primer paso de un experimento social masivo del que todos hemos sido parte. Reconocer el daño es el primer paso para exigir plataformas que respeten nuestra humanidad en lugar de monetizar nuestras debilidades.



