Nate Soares, investigador en Berkeley y profeta pesimista de la IA, anuncia una apocalipsis inminente: «Dejar que estas tecnologías se desarrollen es una locura»

découvrez les révélations de nate soares, chercheur à berkeley et prophète pessimiste de l'ia, qui met en garde contre une apocalypse imminente liée au développement incontrôlé des technologies artificielles.

El investigador Nate Soares, establecido en Berkeley, forma parte de los expertos que están sonando la alarma ante los rápidos avances de la inteligencia artificial. Según él, permitir que esta tecnología se desarrolle libremente podría conducir a consecuencias catastróficas para la humanidad. Este inquietante manifiesto interpela sobre la responsabilidad que tiene la humanidad en la creación y el control de estas nuevas inteligencias.

Nate Soares: Un recorrido de experto

Nate Soares ha demostrado su valía en el ámbito de la inteligencia artificial, especialmente a través de sus experiencias profesionales en Microsoft y Google. Hoy, al frente del Machine Intelligence Research Institute (MIRI) en Berkeley, concentra sus investigaciones en los riesgos potenciales que representa una inteligencia artificial que supere la inteligencia humana. Su compromiso en este campo lo coloca entre las voces más influyentes sobre el tema de la superinteligencia.

Una advertencia alarmante

En su obra coescrita con Eliezer Yudkowsky, If Anyone Builds It, Everyone Dies, Soares presenta un panorama sombrío de los peligros asociados a la creación de una superinteligencia. Su mensaje es claro: si la humanidad crea una IA que se le escapa, las consecuencias podrían ser desastrosas. Según él, dejar que estas tecnologías evolucionen sin una regulación estricta equivale a jugar a la ruleta rusa con el futuro de la humanidad.

Voces que se alzan por un moratorio

Esta advertencia resuena con otros que llaman a la precaución. Personalidades destacadas como el Premio Nobel de física Geoffrey Hinton y el Premio Turing Yoshua Bengio expresan sus preocupaciones sobre el avance vertiginoso de la IA. A principios de 2023 y de nuevo en octubre de 2025, estos expertos firmaron cartas abiertas pidiendo un moratorio sobre el desarrollo de ciertas tecnologías de IA, apoyando así las preocupaciones de Soares.

Una realidad inquietante para el futuro

Las proyecciones pesimistas de Soares son compartidas por figuras emblemáticas del sector tecnológico. Elon Musk, por ejemplo, mencionó una probabilidad del 10 % al 20 % de que las cosas salgan mal con el desarrollo de la IA. Este sentimiento es corroborado por el director de Anthropic, Dario Amodei, quien confesó que las posibilidades de un giro negativo podrían alcanzar el 25 %. Estas diversas preocupaciones refuerzan la idea de que la inteligencia artificial no es solo una cuestión técnica, sino también ética y social.

Por qué se impone la vigilancia

En un momento en que el desarrollo de la IA es cada vez más omnipresente, es crucial reflexionar sobre las implicaciones de su creación y considerar salvaguardias. Soares y sus colegas subrayan que la humanidad debe prepararse para gestionar estas nuevas potencias en lugar de dejar que crezcan a su antojo. La responsabilidad de diseñar sistemas seguros y beneficiosos recae enteramente sobre los investigadores y los tomadores de decisiones de hoy. La pregunta sigue siendo: ¿podremos responder a este desafío antes de que sea demasiado tarde?

Un llamado a la acción y a la responsabilidad colectiva

Para prevenir una catástrofe a gran escala, Nate Soares hace un llamado a un diálogo urgente entre científicos, políticos y sociedades civiles sobre la integración responsable de la IA. El paisaje tecnológico está evolucionando rápidamente, y un enfoque colaborativo parece ser esencial para garantizar un futuro donde la inteligencia artificial sirva al bien común, en lugar de convertirse en una amenaza existencial. Es inevitable plantear la pregunta: ¿estamos listos para regular el desarrollo de la IA o dejarla evolucionar a su ritmo?

Para explorar más sobre los temas relacionados con la inteligencia artificial, descubre este artículo sobre la Apocalipsis digital.

Scroll al inicio