Martes, 23 de Septiembre de 2025

Actualizada Martes, 23 de Septiembre de 2025 a las 17:54:04 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Martes, 02 de Mayo de 2023 Tiempo de lectura:
Geoffrey Hinton

Uno de los grandes pioneros de la Inteligencia Artificial abandona Google para alertar al mundo "de los peligros de esta tecnología"

[Img #24111]

 

Geoffrey Hinton, el informático británico conocido por ser el “Padrino de la IA”, ha abandonado recientemente su puesto de vicepresidente y becario de ingeniería en Google para unirse a los cientos de expertos en esta materia que están denunciando las amenazas y los riesgos de la Inteligencia Artificial. “Es difícil ver cómo se puede evitar que los malos la utilicen para cosas malas”, ha dicho Hinton, de 75 años, a The New York Times en una reciente entrevista.

 

Tras el lanzamiento de la última versión de OpenAI de su chatbot GPT en marzo, otros profesionales de la IA firmaron una carta abierta, redactada por la organización sin ánimo de lucro Future of Life Institute, en la que advertían de que esta tecnología plantea “profundos riesgos para la sociedad y la humanidad”.

 

Hinton, al igual que los firmantes de la carta, afirma que los recientes avances en IA le parecen “aterradores” y le preocupa lo que puedan significar para el futuro, sobre todo ahora que Microsoft ha incorporado esta tecnología a su motor de búsqueda Bing. Una faceta concreta de la tecnología de IA que preocupa especialmente a Hinton es la capacidad de la IA para crear imágenes, fotos y textos falsos hasta el punto de que una persona común “ya no podrá saber qué es verdad”. También advirtió de que, en el futuro, la IA podría llegar a sustituir a los humanos en el lugar de trabajo y utilizarse para crear armas totalmente autónomas.

 

“Solo unas pocas personas creían que estas cosas podrían llegar a ser más inteligentes que las personas. Pero la mayoría creía que no. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más para llegar a ese punto. Obviamente, ya no pienso eso”.

 

Hinton es conocido principalmente por su papel en el desarrollo del aprendizaje profundo, una forma de aprendizaje automático que entrena a los ordenadores para que procesen datos como lo hace el ser humano. Este trabajo fue fundamental para el actual desarrollo de la IA, pero, viéndolo en retrospectiva, Hinton explica que lamentaba su papel en el proceso. “Me consuelo con la excusa habitual: si no lo hubiera hecho yo, lo habría hecho otro”, afirma.

 

Hinton notificó a Google el mes pasado que dejaba la empresa después de más de una década. El 1 de mayo, aclaró que el motivo de su marcha era únicamente aislar a la empresa de sus declaraciones y que no tenía nada que ver con el enfoque de Google sobre la IA. “Me fui para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto a Google”, escribió en un tuit. “Google ha actuado de forma muy responsable”.

 

En una declaración proporcionada a The New York Times, Jeff Dean, vicepresidente senior de investigación e IA de Google, dijo: “Seguimos comprometidos con un enfoque responsable de la IA. Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia”.

 

“Dios digital”

 

A pesar de las garantías de Google, otros muchos han criticado los métodos utilizados por esta empresa. En una entrevista reciente con Fox News, el director ejecutivo de Tesla, Elon Musk —que también cofundó OpenAI— dijo que le parecía que Larry Page, cofundador de Google, no se estaba tomando en serio los riesgos de la IA.

 

“Realmente parecía querer una superinteligencia digital, básicamente un Dios digital, lo antes posible”, dijo Musk, refiriéndose a las conversaciones que ha mantenido con Page sobre el asunto. “Ha hecho muchas declaraciones públicas a lo largo de los años diciendo que el objetivo de Google es lo que se llama AGI, inteligencia general artificial, o superinteligencia artificial”, señaló. “Estoy de acuerdo con él en que hay un gran potencial para lo bueno, pero también para lo malo”.

 

Musk, que firmó la carta de Future of Life Institute, ha manifestado abiertamente su preocupación por la Inteligencia Artificial en general, sosteniendo que supone un grave riesgo para la civilización humana. “La IA es quizá más peligrosa que, por ejemplo, un diseño de avión mal gestionado, o el mantenimiento de la producción, o una mala producción de coches, en el sentido de que tiene el potencial —por pequeña que sea la probabilidad que se considere, pero no es trivial— de destruir la civilización”, declaró a Fox News. Otro temor que Musk reveló es la preocupación de que la IA esté siendo entrenada en la corrección política, que según él no es más que una forma de engaño y de “decir cosas falsas”.

 

A pesar de esas preocupaciones —o quizás debido a ellas— el multimillonario de la tecnología también ha expresado su interés en desarrollar su propia IA “buscadora de la verdad” que estaría entrenada para preocuparse por la humanidad. “Queremos ser prohumanos”, dijo. “Hacer que el futuro sea bueno para los humanos. Porque somos humanos”.

 

Lo que dice GPT-4 al respecto

 

Si se pregunta a la IA GPT-4, sobre esta cuestión, ésta explica que "como modelo de lenguaje de IA, no puedo proporcionar opiniones o afirmar si las declaraciones de Geoffrey Hinton son acertadas o no. Sin embargo, puedo proporcionarinformación y contexto sobre las preocupaciones que plantea".

 

"Uso indebido de la IA por actores malintencionados: Existe un riesgo real de que la IA pueda ser utilizada para fines negativos, como la creación de deepfakes, la propagación de desinformación o el desarrollo de armas autónomas. Muchos expertos en el campo de la IA han expresado preocupaciones similares".

 

"Creación de contenido falso: La IA, en particular los modelos generativos como GPT, han demostrado ser capaces de generar contenido falso convincente, como imágenes, textos y videos. Esto plantea preocupaciones sobre la capacidad de las personas para distinguir la verdad de la ficción en línea".

 

"Reemplazo de humanos en el lugar de trabajo: La automatización y la IA tienen el potencial de reemplazar ciertos trabajos humanos, especialmente aquellos que son repetitivos o que requieren menos habilidades cognitivas. Esto podría resultar en desplazamientos laborales y cambios en la economía".

 

"Desarrollo de armas totalmente autónomas: Algunos expertos han planteado preocupaciones sobre la posibilidad de que la IA se utilice en el desarrollo de armas autónomas, lo que podría tener implicaciones éticas y de seguridad".

 

"Dicho esto, también es importante reconocer que la IA tiene el potencial de aportar beneficios significativos a la sociedad en áreas como la atención médica, la educación, el medio ambiente y la eficiencia económica. La clave está en abordar estos riesgos y preocupaciones de manera responsable y garantizar que la IA se desarrolle y se utilice de manera ética y segura".

Etiquetada en...

Portada

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.