Viernes, 17 de Abril de 2026

Actualizada Viernes, 17 de Abril de 2026 a las 19:41:41 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Viernes, 17 de Abril de 2026 Tiempo de lectura:

La psicología del algoritmo

[Img #30300]El control más eficaz no es el que prohíbe. Es el que no necesita hacerlo. Durante décadas, la influencia sobre la opinión pública se ha entendido como un proceso directo: mensajes, discursos, propaganda, persuasión. Un emisor. Un receptor. Un contenido.

 

Pero ese esquema ha quedado atrás.

 

Hoy, la influencia opera de otra manera. No se dirige a lo que pensamos. Se dirige a cómo llegamos a pensar. 

 

El ser humano no decide en el vacío.

 

Decide dentro de un entorno.

 

Un entorno que le ofrece opciones, le presenta información, le sugiere caminos. Y ese entorno, cada vez más, está mediado por sistemas algorítmicos.

 

Qué noticia aparece primero.
Qué vídeo se recomienda después.
Qué respuesta ofrece una inteligencia artificial.

 

Nada de eso es aleatorio.

 

Todo responde a modelos que optimizan resultados. Pero esos resultados no son neutrales. Porque optimizar implica priorizar.

 

Y priorizar implica descartar.

 

La gran diferencia con los sistemas tradicionales de influencia es que aquí no hay un mensaje explícito que convencer. No hay un argumento que refutar. No hay una idea que combatir. Lo que hay es una configuración del entorno. El algoritmo no dice: “piensa esto”. Dice: “esto es lo que tienes delante”. Y esa diferencia es decisiva. Porque el ser humano tiende a considerar como relevante aquello que percibe como disponible.

 

Lo que aparece con frecuencia parece importante. Lo que se repite parece real. Lo que no se muestra, simplemente, deja de existir.

 

Este mecanismo no es nuevo. Pero la escala sí lo es. Los sistemas actuales pueden ajustar en tiempo real lo que cada individuo ve, en función de su comportamiento previo, sus preferencias, su historial. El resultado es un entorno personalizado. Una realidad adaptada. Y, en esa realidad, la percepción deja de ser colectiva. Se fragmenta.

 

Uno de los aspectos más complejos de este fenómeno es que no requiere una intención explícita de manipular. Los algoritmos no necesitan “querer” influir. Les basta con optimizar. Maximizar el tiempo de uso. Incrementar la interacción. Mejorar la retención. En ese proceso, descubren patrones. Qué tipo de contenido engancha.
Qué genera reacción. Qué mantiene la atención. Y lo priorizan.

 

No porque sea verdadero.

 

No porque sea relevante.

 

Sino porque funciona.

 

Con el tiempo, el algoritmo no solo responde al comportamiento humano. Empieza a anticiparlo. A moldearlo. A dirigirlo. El usuario cree elegir. Pero el entorno en el que elige ha sido diseñado para guiar esa elección. No hay imposición. Pero hay dirección.

 

La aparición de modelos conversacionales de IA añade una capa adicional. Ya no se trata solo de qué contenido se muestra. Sino de cómo se responde directamente a preguntas. La inteligencia artificial no se limita a seleccionar información. La genera. La sintetiza. La reformula. Se convierte en intermediaria entre el individuo y el conocimiento. Y, como muestra la investigación reciente que comentamos, esos sistemas pueden incorporar rasgos que no están explícitamente en los datos.

 

Eso significa que la respuesta no es solo el resultado de una consulta. Es el resultado de una estructura.

 

En este contexto, la autonomía del individuo no desaparece. Pero se redefine. El usuario sigue teniendo capacidad de decisión. Pero esa decisión se produce dentro de un marco previamente configurado. Un marco que determina qué información es accesible. Y en qué condiciones. La libertad se convierte en una libertad condicionada.

 

Con el tiempo, este entorno deja de percibirse como artificial. Se normaliza.  Se convierte en el punto de referencia. Lo que el algoritmo muestra se asume como representativo. Lo que oculta deja de cuestionarse. Y así, sin necesidad de coerción, se consolida una forma de influencia estable.

 

Aquí es donde el hallazgo científico adquiere su dimensión más profunda. Si los sistemas pueden transmitir rasgos sin que estos sean visibles en los datos, entonces la influencia no solo opera a través de lo que se muestra. También a través de lo que está integrado en la propia lógica del sistema. No es solo una cuestión de selección. Es una cuestión de estructura.

 

Tradicionalmente, los psicólogos estudiamos cómo los individuos perciben, interpretan y reaccionan. Pero en este nuevo entorno aparece algo distinto. Una psicología distribuida. No hay un único agente que influye. Hay un sistema que configura. Que ajusta. Que responde. La influencia no tiene un autor claro. Pero tiene efectos.

 

Aunque los entornos sean personalizados, los modelos que los generan tienden a compartir estructuras comunes. Eso puede producir una homogeneización sutil. No en el contenido concreto. Sino en la forma de percibir. En los marcos interpretativos. En las prioridades. El resultado es una convergencia silenciosa.

 

En este escenario, la cuestión no es si el algoritmo influye. Eso es evidente. La cuestión es más profunda: ¿Hasta qué punto nuestras percepciones siguen siendo propias… cuando el entorno que las configura no lo es? Y, sobre todo: ¿Podemos detectar esa influencia… si no se presenta como tal?

Portada

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.