

News Press Service
National Gegraphic
Aunque muchos empezaron a conocerla y utilizarla hace casi tres años con el lanzamiento de ChatGPT, el popular bot conversacional desarrollado por OpenAI, las raíces de la inteligencia artificial datan de mucho tiempo atrás. Casi un siglo.
Esta tecnología se remonta a la década de 1930, de la mano de Alan Turing.
Muchos reconocerán su nombre por la película The Imitation Game (‘Descifrando Enigma’, en español), en la que Benedict Cumberbatch interpreta a este matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico, cuyo trabajo descifrando los códigos nazis durante la 2ª Guerra Mundial cambió el curso del conflicto bélico internacional.
Si bien tuvo una vida corta (murió a los 41 años, el 7 de junio de 1954, en la localidad inglesa de Wilmslow), las numerosas aportaciones de Turing lo han llevado a ser considerado no solo el padre de la inteligencia artificial, sino también el precursor de la informática moderna.

De su mente salió una gran cantidad de soluciones basadas en computación, así como el uso de algoritmos para la previsión y prevención de casuísticas.
En su estudio Computing Machinery and Intelligence, publicado en 1950 en la revista Mind, afirmó que las máquinas eran “capaces de pensar”. Para corroborar su hipótesis, ideó el Test de Turing, con el que evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano.
Pero la IA no se lo debe todo a Turing. Hay más personas que han contribuido a darle forma. Una de ellas es Geoffrey Hinton.
Este científico de la computación británico-canadiense es considerado uno de los padres de la inteligencia artificial moderna por sus diversas contribuciones en el desarrollo de las redes neuronales artificiales y el aprendizaje profundo.
Hinton no solo es consciente del potencial de esta tecnología, sino también de sus peligros y a los riegos a los que nos enfrentamos los seres humanos al utilizarla.
Ha realizado una advertencia muy contundente sobre ella: “la gente no sabe lo que se viene”.
Hinton estima que existe hasta un 20 % de probabilidades de que la IA escape a nuestro control si se sigue desarrollando
Recientemente, Geoffrey Hinton concedió una entrevista a la CBS en la que, sin pelos en la lengua, comparó el crecimiento de la inteligencia artificial con criar un cachorro de tigre: al principio puede parecer inofensivo, pero puede volverse letal cuando crezca.
Asegura que la humanidad está jugando con fuego y que no está prestando atención a las posibles consecuencias de esta tecnología.
La mejor manera de entenderlo emocionalmente es que somos como alguien que tiene este cachorro de tigre realmente lindo. Es un cachorro de tigre muy lindo. A menos que puedas estar realmente seguro de que no te va a matar cuando crezca, deberías preocuparte
El científico computacional estima que existe entre un 10 y 20 % de probabilidades de que la IA evolucione hasta el punto de escapar a nuestro control.
Para él, el ritmo actual de desarrollo es tan acelerado que los sistemas podrían volverse autónomos muy pronto, lo que les permitiría tomar decisiones sin supervisión humana.
Y existen unas cuentas obras cinematográficas, por no hablar de novelas de ciencia ficción, que profundizan en por qué no es una buena idea que la tecnología llegue a ese punto.
Hinton cree que la solución pasa por una mayor regulación, pues desembocaría en más seguridad.
El pasado verano, el Consejo de Europa se reunió para firmar el primer tratado mundial sobre inteligencia artificial, con el que se busca que el uso de sistemas basados en esta tecnología sea coherente con los derechos humanos, la democracia y el Estado de derecho.
Si bien fue firmado, además, por Estados Unidos (junto a Reino Unido, Israel y otros países no miembros), el actual presidente Donald Trump no está de acuerdo con que se regularice la IA, ya que frenaría los avances, permitiendo a China tomar la delantera (recordemos que gran parte de las empresas de IA más importantes son estadounidenses, como Google, Meta, Amazon, Microsoft y OpenAI).
Geoffrey Hinton también pide que las grandes tecnológicas destinen, al menos, un tercio de su capacidad de cómputo a la investigación en seguridad de la inteligencia artificial, para prevenir un desastre incalculable.
El “padrino de la inteligencia artificial”, galardonado con el Premio Turing en 2018 y con el Premio Nobel de Física en 2024, dejó su trabajo en Google tras alrededor de una década para tener la libertad de hablar abiertamente sobre los peligros de la IA sin ningún tipo de restricciones impuestas por la empresa.
Aparte de la creencia de que la IA podría provocar la extinción humana en las próximas décadas, volviéndose autosuficiente, Hinton apunta a que la tecnología podría ser empleada para crear amenazas biológicas.
Y es que el nuevo agente de ChatGPT tiene la capacidad de trabajar por nosotros usando nuestro ordenador, y según los expertos, el riesgo de peligro por la creación de amenazas biológicas es bastante alto.