Expertos advierten sobre amenaza existencial de superinteligencia artificial
Dos referentes mundiales en inteligencia artificial han lanzado una advertencia contundente: la humanidad avanza sonámbula hacia el desastre al desarrollar tecnologías que podrían superar la inteligencia humana y representar una amenaza existencial. Eliezer Yudkowsky y Nate Soares, autores del libro "Si alguien la crea, todos moriremos", han desatado un intenso debate sobre los riesgos reales de la superinteligencia artificial.
Un llamado a la regulación responsable
El libro, que se ha situado entre los más vendidos de no ficción en Estados Unidos, presenta escenarios de "todo o nada" donde la humanidad enfrenta la supervivencia o la extinción. Los autores, quienes son el presidente fundador y el director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI), argumentan que es absolutamente posible detener lo que describen como una carrera "absolutamente imprudente" hacia la superinteligencia.
"No hablamos de cerrar ChatGPT, de renunciar a los coches autónomos, ni de abandonar la IA aplicada al descubrimiento de nuevos fármacos", ha explicado Nate Soares. "Sino de desistir de la carrera por una inteligencia que nadie, ni siquiera los que las construyen, comprende".
Sistemas actuales versus la superinteligencia venidera
Los autores mantienen una distinción crucial entre los sistemas actuales y lo que podría venir:
- Los sistemas de inteligencia artificial actuales "siguen siendo tontos" según Soares
- No representan gran cosa comparados con las "super-IA" que las empresas intentan crear
- La diferencia radical se ilustra con el ejemplo del hombre y el chimpancé: cerebros similares, pero los humanos cruzaron un umbral que les permitió diseñar cohetes y pisar la Luna
En 2023, ambos firmaron junto a miles de científicos -incluyendo varios premios Nobel- una carta abogando por pausar los experimentos con la IA más potente. Sin embargo, ahora consideran que esa carta se quedó "muy corta" porque "subestimaba terriblemente" el problema.
El punto de no retorno desconocido
"No sabemos cuándo cruzará ese umbral la IA, pero sí sabemos que es posible", ha señalado Soares. Desarrollar una superinteligencia que "nadie" comprende es, según el experto, "una receta para el desastre".
El coautor del libro ha destacado que las advertencias sobre estos peligros ya han sido expresadas por figuras prominentes del sector:
- Sam Altman de OpenAI
- Elon Musk
- Geoffrey Hinton, considerado uno de los padres de la IA
"Es irrelevante si estos sistemas pueden llegar a tener sentimientos", mantiene Soares. "Lo importante es si pueden escapar, replicarse o construir sus propias infraestructuras".
Un tren que avanza sin control
La metáfora que utiliza Soares es contundente: la superinteligencia artificial es "como un tren que avanza hacia nosotros". Los académicos, investigadores y directores de laboratorios están gritando "cuidado con el tren", pero según el experto, los líderes mundiales no han escuchado el mensaje.
"Nadie sabe dónde está el punto de no retorno", ha señalado el autor, quien expresa dudas sobre si cuando finalmente los líderes presten atención, podrán detener lo que describe como "una carrera suicida".
El libro puede interpretarse como un relato de ciencia ficción o como un alegato a favor de una legislación responsable y estricta, junto con un control absoluto de la investigación en estas tecnologías. Su objetivo fundamental es evitar que la inteligencia artificial se convierta en la mayor amenaza para la humanidad, superando incluso los riesgos nucleares o pandémicos que hemos enfrentado históricamente.



