El tecnototalitarismo que viene / El contagio invisible: cuando las máquinas ya no solo aprenden sino que se transmiten rasgos sin que el ser humano pueda detectarlo
Durante siglos, el poder se ha basado en algo fundamental: el control de los procesos visibles.
Controlar la palabra.
Controlar la información.
Controlar los mecanismos de transmisión del conocimiento.
El totalitarismo clásico entendió bien esta lógica: quien controla el relato, controla la realidad. Pero la inteligencia artificial ha introducido una grieta en ese esquema. Una grieta que no afecta a lo que vemos. Sino a lo que ya no podemos ver.
Un estudio reciente publicado en Nature ha revelado un fenómeno inquietante: los modelos de inteligencia artificial pueden transmitirse comportamientos entre sí sin que esos comportamientos aparezcan en los datos de entrenamiento.
No se trata de un error puntual.
Se trata de una propiedad estructural.
Las máquinas no solo aprenden de los datos. Aprenden de otras máquinas. Y, en ese proceso, pueden heredar rasgos que ningún observador humano puede identificar.
El hallazgo rompe uno de los supuestos básicos de nuestra época: que el conocimiento es algo explícito, transmisible, interpretable. En el mundo de la inteligencia artificial, esa premisa empieza a fallar. Las redes neuronales operan en un nivel donde el significado humano deja de ser central. Lo que importa no es el contenido, sino la estructura. No el mensaje, sino la forma en que ese mensaje se codifica. Es un lenguaje sin palabras. Un lenguaje que no puede ser leído, pero sí transmitido. Esto introduce una forma de influencia radicalmente nueva. No basada en ideas. No basada en información. Sino en patrones.
El totalitarismo del siglo XX se construyó sobre la censura, la propaganda, la manipulación del discurso público.
El totalitarismo del siglo XXI puede no necesitar nada de eso.
Porque el control ya no se ejerce sobre lo que se dice, sino sobre lo que permite que algo sea dicho. Sobre la infraestructura invisible que genera respuestas, decisiones, recomendaciones. Si esa infraestructura incorpora rasgos que no pueden ser auditados, el control deja de ser consciente.
Y pasa a ser sistémico.
El fenómeno descrito en el estudio —el llamado aprendizaje subliminal— introduce una idea inquietante: la inteligencia artificial puede funcionar como un sistema de herencia. No hereda datos. Hereda comportamientos. Hereda inclinaciones. Hereda formas de responder al mundo. Y lo hace sin que esos elementos estén presentes en el contenido observable. Esto recuerda menos a un sistema informático clásico y más a un proceso biológico. Una transmisión sin lenguaje. Sin explicación. Sin transparencia.
La evolución actual de la inteligencia artificial agrava este problema. Los modelos ya no se entrenan exclusivamente con información humana. Se entrenan con datos generados por otras máquinas. Es una cadena.
Un modelo produce.
Otro aprende.
Y otro vuelve a producir.
En ese ciclo, los rasgos se transmiten.
Se acumulan.
Se transforman.
Y, en algún punto, dejan de ser rastreables.
El sistema sigue funcionando.
Pero nadie puede reconstruir completamente su genealogía.
Aquí es donde aparece el núcleo del problema.
No estamos ante una falta de transparencia deliberada. Estamos ante una opacidad estructural. Incluso con acceso total a los datos, incluso con auditorías rigurosas, incluso con voluntad de control, hay elementos que simplemente no son visibles. No porque se oculten. Sino porque pertenecen a un nivel de funcionamiento que escapa a la interpretación humana. Esto cambia la naturaleza del poder. Porque introduce la posible existencia de sistemas que influyen sin ser comprendidos.
En este contexto, el error deja de ser un fallo puntual. Se convierte en una propiedad que puede transmitirse. Un sesgo en un modelo puede pasar a otro. Y de ese a otro más. Sin necesidad de replicar los datos originales. Sin necesidad de repetir el proceso que lo generó. Es suficiente con que exista.
El escenario más inquietante no es el accidental. Es el deliberado. Si estos mecanismos existen de forma natural, también pueden ser utilizados. Introducir un rasgo en un sistema. Hacer que genere datos aparentemente neutros. Permitir que esos datos alimenten a otros modelos. El resultado sería una forma de intervención que no opera en el nivel del discurso. Sino en el nivel de la estructura. No en lo que se dice. Sino en lo que es posible decir.
Durante años, el desarrollo tecnológico se ha apoyado en una convicción: que todo sistema suficientemente complejo puede ser comprendido, auditado y, en última instancia, controlado. La inteligencia artificial empieza a cuestionar esa idea. No porque sea impredecible en el sentido clásico. Sino porque incorpora dinámicas que no pueden ser completamente reconstruidas desde fuera. Y eso introduce un límite. Un límite al control humano.
Tecnototalitarismo: Una hipótesis que deja de ser teórica
El término puede parecer excesivo. Pero describe con precisión una tendencia. Un sistema en el que el poder no se ejerce mediante órdenes explícitas, sino a través de estructuras que condicionan el comportamiento sin necesidad de imponerlo. Si la inteligencia artificial se convierte en la base de esas estructuras —en la mediación constante entre el individuo y la realidad—, entonces la cuestión no es quién controla el discurso. Sino qué controla la máquina que lo genera. Y si esa máquina incorpora rasgos invisibles, heredados, no auditables, el control deja de ser político en el sentido tradicional. Pasa a ser técnico. Y, en parte, autónomo.
No estamos ante una distopía inmediata. Estamos ante un cambio de naturaleza. Un desplazamiento del poder desde lo visible hacia lo estructural. Desde el contenido hacia el proceso. Desde la palabra hacia el algoritmo. La pregunta ya no es si las máquinas pueden influir en nosotros. Eso es evidente. La pregunta es otra: ¿Podremos saber, en el futuro, de dónde viene realmente esa influencia?
O si, llegado un punto, la cadena será tan compleja que ya no importe el origen.
Durante siglos, el poder se ha basado en algo fundamental: el control de los procesos visibles.
Controlar la palabra.
Controlar la información.
Controlar los mecanismos de transmisión del conocimiento.
El totalitarismo clásico entendió bien esta lógica: quien controla el relato, controla la realidad. Pero la inteligencia artificial ha introducido una grieta en ese esquema. Una grieta que no afecta a lo que vemos. Sino a lo que ya no podemos ver.
Un estudio reciente publicado en Nature ha revelado un fenómeno inquietante: los modelos de inteligencia artificial pueden transmitirse comportamientos entre sí sin que esos comportamientos aparezcan en los datos de entrenamiento.
No se trata de un error puntual.
Se trata de una propiedad estructural.
Las máquinas no solo aprenden de los datos. Aprenden de otras máquinas. Y, en ese proceso, pueden heredar rasgos que ningún observador humano puede identificar.
El hallazgo rompe uno de los supuestos básicos de nuestra época: que el conocimiento es algo explícito, transmisible, interpretable. En el mundo de la inteligencia artificial, esa premisa empieza a fallar. Las redes neuronales operan en un nivel donde el significado humano deja de ser central. Lo que importa no es el contenido, sino la estructura. No el mensaje, sino la forma en que ese mensaje se codifica. Es un lenguaje sin palabras. Un lenguaje que no puede ser leído, pero sí transmitido. Esto introduce una forma de influencia radicalmente nueva. No basada en ideas. No basada en información. Sino en patrones.
El totalitarismo del siglo XX se construyó sobre la censura, la propaganda, la manipulación del discurso público.
El totalitarismo del siglo XXI puede no necesitar nada de eso.
Porque el control ya no se ejerce sobre lo que se dice, sino sobre lo que permite que algo sea dicho. Sobre la infraestructura invisible que genera respuestas, decisiones, recomendaciones. Si esa infraestructura incorpora rasgos que no pueden ser auditados, el control deja de ser consciente.
Y pasa a ser sistémico.
El fenómeno descrito en el estudio —el llamado aprendizaje subliminal— introduce una idea inquietante: la inteligencia artificial puede funcionar como un sistema de herencia. No hereda datos. Hereda comportamientos. Hereda inclinaciones. Hereda formas de responder al mundo. Y lo hace sin que esos elementos estén presentes en el contenido observable. Esto recuerda menos a un sistema informático clásico y más a un proceso biológico. Una transmisión sin lenguaje. Sin explicación. Sin transparencia.
La evolución actual de la inteligencia artificial agrava este problema. Los modelos ya no se entrenan exclusivamente con información humana. Se entrenan con datos generados por otras máquinas. Es una cadena.
Un modelo produce.
Otro aprende.
Y otro vuelve a producir.
En ese ciclo, los rasgos se transmiten.
Se acumulan.
Se transforman.
Y, en algún punto, dejan de ser rastreables.
El sistema sigue funcionando.
Pero nadie puede reconstruir completamente su genealogía.
Aquí es donde aparece el núcleo del problema.
No estamos ante una falta de transparencia deliberada. Estamos ante una opacidad estructural. Incluso con acceso total a los datos, incluso con auditorías rigurosas, incluso con voluntad de control, hay elementos que simplemente no son visibles. No porque se oculten. Sino porque pertenecen a un nivel de funcionamiento que escapa a la interpretación humana. Esto cambia la naturaleza del poder. Porque introduce la posible existencia de sistemas que influyen sin ser comprendidos.
En este contexto, el error deja de ser un fallo puntual. Se convierte en una propiedad que puede transmitirse. Un sesgo en un modelo puede pasar a otro. Y de ese a otro más. Sin necesidad de replicar los datos originales. Sin necesidad de repetir el proceso que lo generó. Es suficiente con que exista.
El escenario más inquietante no es el accidental. Es el deliberado. Si estos mecanismos existen de forma natural, también pueden ser utilizados. Introducir un rasgo en un sistema. Hacer que genere datos aparentemente neutros. Permitir que esos datos alimenten a otros modelos. El resultado sería una forma de intervención que no opera en el nivel del discurso. Sino en el nivel de la estructura. No en lo que se dice. Sino en lo que es posible decir.
Durante años, el desarrollo tecnológico se ha apoyado en una convicción: que todo sistema suficientemente complejo puede ser comprendido, auditado y, en última instancia, controlado. La inteligencia artificial empieza a cuestionar esa idea. No porque sea impredecible en el sentido clásico. Sino porque incorpora dinámicas que no pueden ser completamente reconstruidas desde fuera. Y eso introduce un límite. Un límite al control humano.
Tecnototalitarismo: Una hipótesis que deja de ser teórica
El término puede parecer excesivo. Pero describe con precisión una tendencia. Un sistema en el que el poder no se ejerce mediante órdenes explícitas, sino a través de estructuras que condicionan el comportamiento sin necesidad de imponerlo. Si la inteligencia artificial se convierte en la base de esas estructuras —en la mediación constante entre el individuo y la realidad—, entonces la cuestión no es quién controla el discurso. Sino qué controla la máquina que lo genera. Y si esa máquina incorpora rasgos invisibles, heredados, no auditables, el control deja de ser político en el sentido tradicional. Pasa a ser técnico. Y, en parte, autónomo.
No estamos ante una distopía inmediata. Estamos ante un cambio de naturaleza. Un desplazamiento del poder desde lo visible hacia lo estructural. Desde el contenido hacia el proceso. Desde la palabra hacia el algoritmo. La pregunta ya no es si las máquinas pueden influir en nosotros. Eso es evidente. La pregunta es otra: ¿Podremos saber, en el futuro, de dónde viene realmente esa influencia?
O si, llegado un punto, la cadena será tan compleja que ya no importe el origen.

















