
El científico, considerado uno de los padres de la inteligencia artificial, advierte que en las próximas dos décadas podrían surgir sistemas mucho más inteligentes: «Serán inmortales y no nos necesitarán»
News Press Service
Riccardo LunaCorriere della Sera
Corriere della Sera
Actualizado Jueves, 11 septiembre 2025 – 11:02

Geoffrey Hinton, uno de los investigadores más influyentes en el desarrollo de las redes neuronales y ganador del Nobel de Física en 2023 junto a John Hopfield, expresó su creciente preocupación por el rumbo que está tomando la inteligencia artificial. Desde su casa en Toronto, donde lo llaman ‘el hombre que nunca se sienta’ debido a un problema crónico de espalda, el científico lanzó una advertencia contundente: «Mi mayor temor es que estos seres digitales superinteligentes simplemente nos sustituyan. No tendrán necesidad de nosotros. Y, como son digitales, serán inmortales».
Hinton, que abandonó Google en abril de 2023 tras una década de trabajo para poder hablar con libertad de los riesgos de la IA, subraya que la humanidad aún conserva cierto control sobre el proceso, aunque teme una eventual «competencia evolutiva» entre inteligencias artificiales que relegue a los humanos a un simple recuerdo del pasado.
El investigador, cuya labor sentó las bases para el desarrollo de herramientas como ChatGPT, ha asumido un papel activo en el debate ético y político sobre esta tecnología. El pasado julio firmó junto al Nobel Giorgio Parisi un manifiesto que reclama mayor transparencia a OpenAI: «Están decidiendo nuestro futuro a puerta cerrada», denunció.
Hinton también participará el próximo 12 de septiembre en un encuentro en el Vaticano con el Papa León XIV y un grupo de expertos en inteligencia artificial. Aunque en un primer momento se mostró reticente —»Soy ateo, ¿seguro que me quieren allí?»— finalmente aceptó la invitación convencido de que la Iglesia podría ejercer una influencia decisiva en la regulación global de esta tecnología.
En su último pronunciamiento, el científico criticó los intereses empresariales que rodean la disputa legal entre Elon Musk y Sam Altman, director ejecutivo de OpenAI. «La motivación de Musk no es la misma que la nuestra. Él busca reducir la competencia con OpenAI, mientras que nosotros queremos que la investigación en inteligencia artificial se mantenga dentro de un marco ético y seguro», afirmó.
Entonces, ¿no esperaban realmente una respuesta de Sam Altman?
No, claro que no.
¿Diría que la verdadera respuesta al llamamiento llegó hace pocos días, en la Casa Blanca, cuando el presidente de Estados Unidos convocó a todos los CEO de las Big Tech, incluidas OpenAI, Meta y Google…?
El presidente intentó impedir que durante diez años hubiera normas sobre la IA en Estados Unidos, pero fracasó y los Estados individuales pueden seguir legislando.
¿Qué efecto le produjo ver a los líderes de las grandes empresas tecnológicas tan plegados hacia el poder político?
Mi reacción fue de tristeza por ver a los líderes de estas compañías no dispuestos a adoptar ninguna posición moral sobre nada.
Cuando llegó la revolución digital, los sueños eran otros: un mundo más justo, más equitativo, mejor para todos
No estoy seguro de que ese fuera el sueño de todos. Creo que para la mayoría de los implicados el sueño era hacerse ricos. Pero podían convencerse de que, sí, se enriquecerían, pero al mismo tiempo ayudarían a todos. Y en gran medida así fue con la web: si dejamos de lado las consecuencias sociales, mirando solo la vida cotidiana, la web realmente ayudó a las personas.

Tim Berners-Lee no se hizo rico y ofreció los protocolos de la web gratuitamente a todos. Luego algo salió mal. ¿El capitalismo?
No estoy totalmente en contra del capitalismo. Ha sido muy eficaz para producir nuevas tecnologías, a menudo con la ayuda gratuita de los gobiernos en la investigación básica. Creo que, bien regulado, el capitalismo está bien. Es aceptable que la gente busque enriquecerse, siempre y cuando, al enriquecerse, ayuden también a los demás. El problema es cuando la riqueza y el poder se utilizan para eliminar las reglas, de modo que se obtienen beneficios que dañan a las personas.
¿Es eso lo que está ocurriendo ahora?
Sí. Lo que parece importarles más es no pagar impuestos. Y apoyan a Trump porque baja los impuestos, ese es su principal incentivo. Pero también quieren eliminar las normas que protegen a las personas para facilitar sus negocios. Por eso complacen a Trump.
¿Cómo valora lo que está haciendo la Unión Europea? Se dice que piensa demasiado en la regulación y demasiado poco en la innovación. Como sabe, la UE aprobó una ley importante, la AI Act. Según usted, ¿es un buen punto de partida o solo un obstáculo para la innovación?
Creo que es un punto de partida aceptable, pero hay partes que no me gustan. Por ejemplo, hay una cláusula que dice que ninguna de estas normas se aplica a los usos militares de la IA. Esto es porque varios países europeos son grandes productores de armas y quieren desarrollar sistemas letales y autónomos. Además, por lo que entendí, la normativa europea partió con un énfasis particular en la discriminación y los sesgos, preocupándose más por esos aspectos que por otras amenazas. Por eso pone mucho acento en la privacidad. La privacidad es importante, pero existen amenazas más graves».
Las empresas de Silicon Valley nacieron con la idea de no colaborar con el poder militar. Cuando DeepMind fue vendida a Google, una de las condiciones era que la IA no se usaría con fines militares. Pero el pasado enero esa condición fue eliminada. Ahora todas las empresas de inteligencia artificial proveen tecnología al Departamento de Defensa estadounidense. Y hace pocos días Google firmó un importante acuerdo con Israel para suministrar sistemas de inteligencia artificial a las fuerzas armadas. ¿Qué piensa al respecto?
Hay una regla simple que usan los politólogos: no mirar lo que la gente dice, sino lo que hace. Me entristeció mucho cuando Google eliminó el compromiso de no usar la IA con fines militares. Fue una decepción. Y lo mismo cuando cancelaron las políticas de inclusión solo porque había llegado Trump.
Va a verse Papa León XIV, que dijo que quería abordar el problema de la inteligencia artificial. ¿Qué papel cree que puede tener en este debate?
Bueno, como sabrá, tiene alrededor de mil millones de fieles. Si él dijera que es importante regular la IA, sería un contrapeso a la narrativa de los líderes de las Big Tech que agradecen al presidente por no haber impuesto normas. Yo creo que el Papa tiene una influencia política real, incluso fuera del catolicismo. Muchos líderes religiosos, como el Dalái Lama, lo ven como una voz moral. No todos los Papas lo han sido, pero este sí, y también su predecesor. Para muchos no católicos, sus opiniones morales son sensatas, no infalibles, pero escuchadas. Si dice que regular la IA es esencial, tendrá un impacto.

¿Qué le gustaría hacerle saber al Papa sobre los riesgos de la inteligencia artificial?
Creo que para el Pontífice es inútil poner el acento en los llamados riesgos existenciales, como la desaparición de la especie humana a largo plazo; y que es mejor concentrarse en los riesgos actuales. No es necesario creer que la IA sea un «ser» para entender que puede traer desempleo masivo, corrupción de las democracias, ciberataques más fáciles y eficaces, creación de virus letales accesibles a cualquiera. Ya está ocurriendo. Así que sobre estos riesgos a corto plazo, los que yo llamo «riesgos debidos a actores malintencionados», podemos ponernos de acuerdo. Son riesgos que cualquier líder religioso o político puede entender, sin entrar en la cuestión metafísica de si la IA es o no un «ser».
A veces parece que los gobiernos no comprenden del todo lo que está en juego, que confían demasiado en estas empresas.
Exactamente. A menudo los gobiernos no tienen suficientes expertos internos y se apoyan en consultores que vienen… ¿adivine de dónde? Precisamente de las Big Tech. Así acaban escuchando solo la voz de las empresas. Es como si los reguladores de Wall Street fueran todos ex banqueros que todavía piensan como banqueros.
Se le considera un apocalíptico. ¿Cómo se siente usted? ¿Optimista o pesimista?
Realista. Veo ambos lados. Pero la historia nos dice que, sin reglas, se abusa del poder. Por eso creo que, si no regulamos, acabará mal.
¿Cree que hay una lección particular que deberíamos recordar ahora?
Sí. Pensemos en la energía nuclear. Cuando los científicos comprendieron que sus descubrimientos podían llevar a la bomba atómica, muchos de ellos intentaron advertir a los gobiernos. Pero al final fueron los militares quienes decidieron cómo usarla. No fue la comunidad científica la que fijó los límites. El mismo riesgo lo veo hoy: si dejamos que sean solo los gobiernos o las empresas quienes decidan, la IA será usada de maneras muy peligrosas.
¿Es realmente un momento único en la historia de la humanidad o solo un enésimo progreso?
Es un punto de inflexión. Por primera vez estamos creando entidades que pueden ser más inteligentes que nosotros. Nunca había ocurrido antes. Hemos creado máquinas más fuertes, más rápidas, pero nunca más inteligentes. Esto lo cambia todo.
Entonces, ¿qué podemos hacer?
Hace falta un movimiento global, no solo unas pocas voces aisladas. Debemos crear un consenso amplio en la comunidad científica, de lo contrario los políticos nos ignorarán.