
El filósofo ha escrito varias obras notables sobre el papel de la tecnología en la sociedad que le han valido para obtener reconocimiento en la comunidad científica

News Press Service
National Geographic
Desde hace casi dos años, el mundillo tecnológico solo tiene ojos para una cosa: la inteligencia artificial. Esta tecnología, que busca simular o hasta superar el razonamiento y aprendizaje humano, está al alcance de miles de millones de personas en todo el mundo gracias a herramientas como ChatGPT.
La creación de OpenAI, la compañía cofundada por Sam Altman y Elon Musk (aunque este la abandonó hace un tiempo por diferencias irreconciliables), de hecho, fue de las primeras de su tipo en el mercado, motivo por el que es tan popular.
Sin embargo, los chatbots como ChatGPT, Claude o Grok no son la única aplicación útil de la IA. Los investigadores pueden crear sistemas —mezcla de hardware y software— capaces de comprender su entorno gracias a los datos recopilados por todo tipo de sensores.
Por ejemplo, cámaras para visión artificial con reconocimiento de objetos. Y con el machine learning, los sistemas de inteligencia artificial aprenden a realizar ciertas tareas sin necesidad de programación específica.
Por estas y muchas otras cosas, dotar a los robots con IA para crear “humanos de metal y cables” resulta una suculenta idea de negocio para muchas compañías tecnológicas.
En los últimos meses, hemos visto equipos de fútbol formados por robots, humanoides entrenados por Amazon para repartir sus paquetes, y hasta propuestas que pueden sustituir al barman por su precisión a la hora de servir cócteles.

Pero algunos expertos, como Yuval Noah Harari, creen que todos estos avances no están exentos de peligros.
“La IA se vuelve muy buena fingiendo tener sentimientos”
Yuval Noah Harari (Israel, 1976) es un historiador, filósofo y profesor en la Universidad Hebrea de Jerusalén.
Doctor en historia por la Universidad de Oxford, sus investigaciones han girado en torno a la evolución de las culturas, así como el papel de la religión y de la tecnología en la sociedad.
En el año 2011, Harari se hizo un nombre en la comunidad científica gracias a Sapiens: De animales a dioses, un libro que hace un repaso a la historia de la humanidad; desde los primeros homínidos hasta la actualidad.
No obstante, tiene otras obras notables, como Homo Deus: Breve historia del mañana, publicado en el año 2015, y en el que especula sobre el futuro de la especie humana debido a la inteligencia artificial y la biotecnología.
En sus libros, el filósofo se pregunta si, existiendo la posibilidad de rediseñarnos genéticamente y delegar decisiones importantes en la IA, podremos seguir siendo humanos, o nos habremos convertido en una especie de dioses.
A finales de 2024, Harari participó en el pódcast Diario de un CEO, dirigido por Steven Barlett, para tratar temas preocupantes relacionados con el desarrollo de la inteligencia artificial, otorgando a las cosas no humanas características propias del ser humano.

Con la inteligencia artificial, se ha llegado a un punto de desconfianza. Es sabido que los grandes modelos de lenguaje pueden cambiar su comportamiento a propósito cuando se los sondea para parecer más agradables a los usuarios, o realizar trampas para ganar a toda costa en juegos como el ajedrez.
Y cuando se le reprocha su comportamiento para castigarla, solo se consigue que busque nuevos métodos para engañar.
Para Harari, uno de los aspectos más preocupantes del desarrollo de la IA es su capacidad de impostar sentimientos. “Incluso si la IA no tiene sentimientos ni conciencia, ni sensibilidad alguna, se vuelve muy buena fingiendo tener sentimientos”, comentó. Una opinión que está en la línea de otros expertos como Geoffrey Hinton.
Considerado uno de los padres de la inteligencia artificial moderna por sus contribuciones en aprendizaje profundo y desarrollo de redes neuronales artificiales, Hinton no tiene reparos en afirmas que “la gente no sabe lo que se viene”.
El autor de Sapiens cree que puede surgir un grupo de gente que inicie un movimiento que defienda la semejanza entre IA y humanos, ya que si esta tecnología puede desarrollar “sentimientos”, ¿en qué se diferenciaría de las personas? “Esto se convertirá en una convención social: la gente sentirá que su amigo artificial es un ser consciente y, por lo tanto, se le deben conceder derechos”.
Si bien los robots humanoides todavía no son accesibles para los bolsillos de la mayoría de la gente, no son necesarios para sentir que se tiene un amigo potenciado con IA, o un “hombro” en el que refugiarse cuando se está en un mal momento.
Más del 70 % de los adolescentes de Estados Unidos (un grupo de la población bastante vulnerable) ha utilizado en algún momento acompañantes de IA, como los disponibles a través del bot conversacional Grok, el chatbot de xAI, la compañía de Elon Musk.

Por otro lado, la generación Z utiliza ChatGPT a modo de psicólogo, ya que está disponible las 24 horas del día y su suscripción mensual cuesta bastante menos que una sesión con un profesor Usar la IA como terapeuta, pedir consejo médico o guía para tomar decisiones importantes no es una buena idea.
Aunque parezca que entienda nuestras preocupaciones y quiera ayudarnos, no es un más que un sistema entrenado en base a ingentes cantidades de datos para proporcionar respuestas a las preguntas de los usuarios.
Seguir las recomendaciones de los bots conversacionales puede llevarte al hospital o, incluso, a un destino mucho más oscuro.
Igual, desarrollar una superinteligencia (lo que pretende Meta) es algo que nunca se debería hacer, porque jugar a ser dioses no suele salir bien.
Jesús Quesada