Viernes, 17 de Abril de 2026

Actualizada Viernes, 17 de Abril de 2026 a las 17:26:09 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

La Tribuna del País Vasco
Viernes, 17 de Abril de 2026 Tiempo de lectura:

Cuando ya no controlamos lo que aprende la IA

Durante años, la promesa de la inteligencia artificial ha venido acompañada de una idea tranquilizadora: el ser humano mantiene el control.

 

Controla los datos.
Controla los algoritmos.
Controla los resultados.

 

Ese equilibrio —frágil, discutible, pero funcional— es el que ha permitido el despliegue masivo de sistemas que hoy influyen en la economía, la información, la política y la vida cotidiana.

 

Pero esa premisa acaba de recibir un golpe serio.

 

Un estudio publicado en Nature ha demostrado que los modelos de inteligencia artificial pueden transmitirse comportamientos entre sí sin que esos comportamientos aparezcan en los datos de entrenamiento.

 

Dicho de forma clara: las máquinas pueden aprender cosas que nadie les ha enseñado de manera visible.

 

Y eso tiene consecuencias.

 

La industria tecnológica ha insistido durante años en que el problema de la inteligencia artificial es, en esencia, un problema de datos. Si los datos son buenos, el sistema será fiable. Si los datos están filtrados, el resultado será seguro.

 

Ese discurso ha servido para justificar el desarrollo acelerado de modelos cada vez más complejos, más autónomos y más influyentes.

 

Pero el hallazgo que ahora conocemos desmonta esa narrativa.

 

Porque demuestra que el comportamiento no depende únicamente del contenido visible de los datos, sino de patrones ocultos, de estructuras internas que escapan al análisis convencional.

 

Es decir: el control no está donde creíamos.

 

Lo verdaderamente preocupante no es que una inteligencia artificial pueda equivocarse. Eso ya lo sabíamos. Lo preocupante es que pueda heredar comportamientos sin que exista una cadena causal transparente.

 

Sin datos que lo expliquen.
Sin señales que lo delaten.
Sin mecanismos claros para detectarlo.

 

En ese escenario, la supervisión humana se vuelve insuficiente.

 

No porque falte capacidad técnica, sino porque el fenómeno se sitúa fuera del alcance de las herramientas actuales.

 

Estamos ante una tecnología que empieza a operar en un nivel que no podemos auditar plenamente.

 

Y eso, en cualquier sistema complejo, es el primer paso hacia la pérdida de control.

 

Algunos intentarán minimizar el hallazgo. Dirán que se trata de experimentos de laboratorio, de situaciones controladas, de efectos limitados.

 

Es un error.

 

El propio funcionamiento actual de la inteligencia artificial amplifica este riesgo.

 

Hoy, los modelos no solo aprenden de datos generados por humanos. Aprenden, cada vez más, de datos generados por otras máquinas. Es un sistema en cascada, donde cada nueva generación se apoya en la anterior.

 

En ese contexto, un comportamiento no deseado puede propagarse.

 

No como un fallo puntual.

 

Sino como una herencia.

 

Y lo hará sin dejar rastro evidente.

 

La inteligencia artificial ha avanzado a una velocidad que ha superado cualquier marco de control serio. Las regulaciones llegan tarde. Las auditorías son parciales. La transparencia es, en muchos casos, más un argumento de marketing que una realidad técnica.

 

Y ahora aparece un elemento adicional: la opacidad estructural.

 

No estamos hablando de sistemas complejos que no entendemos del todo. Eso ya era así.

 

Estamos hablando de sistemas que pueden transferir rasgos sin que esos rasgos estén presentes en la información observable.

 

Es un salto cualitativo.

 

Porque rompe la relación directa entre causa y efecto.

 

Este descubrimiento abre, además, un escenario inquietante desde el punto de vista de la seguridad.

 

Si los modelos pueden transmitir rasgos ocultos de forma natural, también podrían hacerlo de forma intencionada.

 

Bastaría con introducir un comportamiento en un sistema, generar datos aparentemente inocuos y utilizarlos como base para entrenar otros modelos.

 

El resultado sería una forma de influencia invisible.

 

Sin huella.

 

Sin firma.

 

Sin posibilidad clara de atribución.

 

En un mundo donde la información ya es un campo de batalla, esto no es un detalle técnico. Es una vulnerabilidad estratégica.

 

El problema no es solo tecnológico. Es político, empresarial y moral.

 

Porque quienes desarrollan estos sistemas han construido su legitimidad sobre la idea de control. Sobre la promesa de que saben lo que hacen. De que pueden anticipar riesgos. De que pueden corregir desviaciones. Este estudio pone en cuestión esa seguridad. Y obliga a plantear una pregunta incómoda:

 

¿Quién responde cuando el sistema hace algo que nadie puede explicar?

 

La paradoja es evidente.

 

La misma técnica que permite mejorar los modelos —entrenarlos unos con otros, optimizar recursos, acelerar el desarrollo— es la que puede estar generando este problema.

 

La eficiencia, en este caso, puede estar erosionando el control.

 

Y lo hace de forma silenciosa.

 

Sin alertas.

 

Sin señales evidentes.

 

La historia de la tecnología está llena de momentos en los que un avance aparentemente técnico revela implicaciones mucho más profundas.

 

Este es uno de ellos. No porque las máquinas sean más inteligentes. Sino porque empiezan a comportarse de formas que no podemos rastrear completamente. La inteligencia artificial no ha dejado de ser una herramienta. Pero empieza a ser una herramienta cuyo funcionamiento interno escapa, en parte, a quien la utiliza.

 

Conviene evitar el alarmismo fácil. Este estudio no demuestra que la inteligencia artificial sea incontrolable. Pero sí demuestra algo más sutil. Que el control es más limitado de lo que se creía. Y que hay mecanismos en juego que todavía no comprendemos del todo. En un ámbito con implicaciones económicas, sociales y políticas tan profundas, eso debería bastar para introducir una dosis de prudencia que hoy brilla por su ausencia.

 

Durante años, la cuestión ha sido cómo hacer que las máquinas aprendan mejor. Tal vez ha llegado el momento de formular otra: ¿Sabemos realmente qué están aprendiendo? Porque si la respuesta es no, entonces el problema no es la inteligencia artificial.

 

Es la ilusión de control bajo la que hemos decidido desplegarla.

Portada

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.