Viernes, 17 de Abril de 2026

Actualizada Viernes, 17 de Abril de 2026 a las 19:41:41 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Viernes, 17 de Abril de 2026 Tiempo de lectura:

Arquitecturas de poder invisible

[Img #30301]El poder ya no se presenta.

 

No se anuncia.
No se declara.
No necesita justificarse.

 

Simplemente funciona.

 

Durante siglos, las estructuras de poder fueron visibles. Tenían rostro, instituciones, símbolos. Se encarnaban en gobiernos, leyes, ideologías.

 

Incluso en sus formas más duras, el poder necesitaba mostrarse.

 

Hoy, ese paradigma está cambiando.

 

No porque el poder haya desaparecido.

 

Sino porque se ha desplazado.

 

Las grandes plataformas tecnológicas han construido algo que trasciende la lógica tradicional del poder.

 

No gobiernan en el sentido clásico.
No legislan.
No dictan normas explícitas.

 

Pero diseñan los entornos en los que millones de personas piensan, consumen información y toman decisiones. Ese es el nuevo nivel. No el contenido. La infraestructura.

 

Las redes sociales, los motores de búsqueda, los sistemas de recomendación y, cada vez más, los modelos de inteligencia artificial, no dicen qué pensar. Deciden qué aparece. Qué se prioriza. Qué se oculta. Qué se repite. Y lo hacen de forma continua, silenciosa, automatizada.

 

La mayoría de los ciudadanos percibe la superficie: noticias, tendencias, resultados, respuestas. Pero debajo de esa superficie existe una capa mucho más determinante. Una capa de modelos, algoritmos y sistemas de aprendizaje que operan en tiempo real, ajustando cada interacción. No es un filtro puntual. Es un proceso permanente. El problema es que esa capa no es transparente. No porque se oculte deliberadamente —aunque en muchos casos lo esté—, sino porque su complejidad la hace inaccesible. Y, como revela el reciente estudio sobre aprendizaje subliminal en inteligencia artificial, esa opacidad no es solo técnica. Es estructural.

 

El desarrollo reciente de la inteligencia artificial ha introducido un cambio crítico: los sistemas ya no dependen exclusivamente de datos humanos. Aprenden de otros sistemas. Se entrenan con contenido generado por modelos previos. Se refinan a partir de respuestas artificiales. Esto crea una arquitectura cerrada. Un ecosistema donde las máquinas no solo procesan información, sino que la generan, la validan y la reutilizan.

 

En ese entorno, los rasgos no se imponen desde fuera. Emergen dentro del sistema. Se transmiten. Se amplifican. Y, como sugiere la investigación científica, pueden hacerlo incluso sin dejar rastro visible.

 

La consecuencia es directa.

 

Si la infraestructura condiciona la información, y la información condiciona el comportamiento, entonces la infraestructura condiciona el comportamiento.

 

No de forma explícita.

 

No mediante órdenes.

 

Sino mediante probabilidades.

 

Qué contenido ve un usuario.
Qué respuesta recibe.
Qué opciones se le presentan.

 

Todo ello configura un entorno de decisión.

 

Y ese entorno no es neutral.

 

Este punto es clave. Las plataformas no operan en el vacío. Interactúan con gobiernos. Con instituciones. Con intereses estratégicos. A veces colaboran. A veces negocian. A veces se alinean.

 

En ese cruce, la inteligencia artificial se convierte en algo más que una herramienta tecnológica. Se convierte en una infraestructura de poder. Una capa intermedia entre el individuo y la realidad.

 

Los gobiernos pueden regular contenidos. Las plataformas pueden modular su visibilidad. Pero los sistemas de inteligencia artificial pueden ir más allá: pueden estructurar la forma en que se generan las respuestas.

 

Aquí emerge la característica central de estas nuevas arquitecturas.

 

No necesitan imponer.

 

No necesitan censurar de forma directa.

 

Les basta con ajustar el entorno.

 

Con modificar la probabilidad de que algo ocurra.

 

Una idea puede no ser prohibida.

 

Pero puede no aparecer nunca.

 

Una información puede no ser censurada.

 

Pero puede quedar enterrada.

 

Una respuesta puede no ser falsa.

 

Pero puede estar orientada.

 

El resultado no es una prohibición.

 

Es una invisibilidad.

 

El estudio científico citado introduce un elemento adicional en esta ecuación. Si los modelos de IA pueden transmitirse rasgos sin que estos estén presentes en los datos visibles, entonces la infraestructura puede incorporar sesgos que nadie ha introducido de forma explícita. No porque alguien lo haya decidido. Sino porque el sistema lo ha heredado. Esto complica cualquier intento de control. Porque ya no se trata solo de supervisar decisiones humanas. Se trata de comprender dinámicas internas que no son directamente observables.

 

El poder tradicional tenía un centro.

 

Un gobierno.
Una élite.
Una institución.

 

Las nuevas arquitecturas no necesariamente.

 

Son distribuidas.

 

Fragmentadas.

 

Interconectadas.

 

Pero eso no las hace menos poderosas.

 

Las hace más difíciles de identificar.

 

Y, por tanto, más difíciles de cuestionar.

 

En este contexto, la libertad adopta una forma peculiar.

 

El usuario elige.

 

Interactúa.

 

Decide.

 

Pero lo hace dentro de un entorno previamente configurado.

 

Un entorno que define qué opciones existen.

 

Y cuáles no.

 

No hay coerción visible.

 

No hay imposición directa.

 

Pero hay estructura. Y la estructura condiciona el resultado.

 

La pregunta ya no es si estas arquitecturas existen.

 

Es quién las controla.

 

Y cómo.

 

Las herramientas tradicionales de regulación —leyes, auditorías, supervisión institucional— fueron diseñadas para sistemas visibles.

 

Para decisiones identificables.

 

Para responsabilidades claras.

 

Pero aquí el problema es distinto.

 

Se trata de sistemas que evolucionan. Que aprenden. Que se transforman. Y que, como muestra la investigación reciente, pueden incorporar dinámicas que ni siquiera sus creadores anticipan.

 

El riesgo no es una conspiración centralizada.

 

Es algo más complejo.

 

Un sistema que funciona.

 

Que optimiza.

 

Que mejora.

 

Pero cuya lógica interna se vuelve progresivamente opaca.

 

Un sistema que influye sin necesidad de imponer.

 

Que condiciona sin necesidad de ordenar.

 

Que estructura la realidad sin necesidad de declararlo.

 

En este escenario, la cuestión fundamental no es tecnológica.

 

Es política.

 

Es filosófica.

 

Es civilizatoria.

 

¿Puede existir una democracia plena cuando la infraestructura que media la realidad no es completamente comprensible?

 

¿Puede hablarse de libertad cuando las opciones están preconfiguradas por sistemas que nadie controla del todo?

 

Y, sobre todo: ¿Quién gobierna realmente… cuando el poder ya no necesita mostrarse?

 

https://amzn.to/4rUkwCI

 

 

 

 

 

Portada

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.