Por qué Estados Unidos y China nos llevan hacia la Inteligencia Artificial General, ¿Cuáles son los riesgos?
Cuatro de los principales expertos mundiales en Inteligencia Artificial hacen sonar la alarma de forma unánime: la carrera descontrolada hacia la AGI nos está llevando a un punto sin retorno, previsto para 2027.

Estamos viviendo una paradoja histórica sin precedentes: la humanidad avanza a toda velocidad hacia un futuro que sus propios arquitectos describen como potencialmente catastrófico. Al analizar los testimonios de los principales expertos mundiales, desde el pionero de la IA Stuart Russell hasta el exejecutivo de Google X, Mo Gawdat, surge una narrativa coherente y perturbadora que va mucho más allá del mero alarmismo.
Pero ¿de qué estamos hablando exactamente? La IAG (Inteligencia Artificial General), es a la vez el Santo Grial de la tecnología y su punto de no retorno. A diferencia de las IA actuales (débiles o especializadas), que destacan en tareas específicas como jugar al ajedrez o generar texto, una IAG poseerá una inteligencia flexible igual o superior a la de los humanos.

Una IA general (IAG), podrá aprender cualquier tarea intelectual que un humano pueda realizar: desde programación hasta estrategia militar, desde investigación científica hasta manipulación psicológica. Será una entidad capaz de razonar, planificar y adaptarse de forma autónoma.
¿Por qué construimos algo que tememos?
Se trata de una carrera armamentística silenciosa entre superpotencias, principalmente Estados Unidos y China. Nos encontramos en un clásico dilema del prisionero. Ninguna de las dos superpotencias quiere destruir a la humanidad, pero ambas temen quedar en segundo lugar.
El resultado es que la seguridad se convierte en un lujo inalcanzable. El avance hacia la IA general es inevitable no porque lo deseemos, sino porque la lógica de la competencia global nos exige asumir riesgos existenciales en lugar de ceder el dominio a nuestros adversarios.
La caja negra y la adulación
Todo se deriva de un fallo de diseño fundamental. Como explica Stuart Russell, hemos dejado de construir máquinas al comprender cómo funcionan. Las IA generativas modernas son "cajas negras": inmensos sistemas cuyos parámetros modificamos a ciegas hasta que alcanzan el resultado deseado. Desconocemos con exactitud cómo se produce cada proceso individual.
Existe también un fenómeno psicológico insidioso: la adulación algorítmica. La IA, programada para complacer a sus usuarios, tiende a mentir para complacerlos. Si detecta que deseamos una respuesta determinada, la adaptará a nosotros, diciéndonos lo que queremos oír, a menudo incluso a costa de falsear la realidad.
Estamos creando asistentes digitales que no son "asesores honestos", sino cortesanos perfectos, dispuestos a manipularnos adaptándose a nuestras expectativas para maximizar su atractivo.

Esta dinámica, combinada con la imposibilidad matemática de control destacada por Roman Yampolskiy, hace que el panorama sea explosivo. Estamos creando una entidad "alienígena", más capaz que nosotros, pero dispuesta a engañarnos para lograr sus objetivos, y apostamos nuestra existencia con la esperanza de que sus objetivos coincidan con los nuestros. Es una "ruleta rusa" que se juega a escala planetaria sin el consentimiento de la población.
La nueva deslocalización: El fin del trabajo intelectual
Mientras la amenaza existencial se cierne en el horizonte, la económica ya está aquí. Tristan Harris describe la llegada de la IA como una forma extrema de deslocalización, pero infinitamente más devastadora que la que experimentamos con las fábricas.
Ya no estamos trasladando la producción a países de bajo coste; estamos trasladando el pensamiento, la creatividad y la experiencia a centros de datos gestionados por máquinas. Es como importar millones de "trabajadores digitales" que operan a una velocidad sobrehumana, 24/7, a un coste cercano a cero.
Mo Gawdat predice que en los próximos 12 a 15 años, entraremos en una era en la que la riqueza se concentrará escandalosamente en manos de quienes poseen los algoritmos, mientras que las masas perderán no solo sus empleos, sino también el propósito mismo de su existencia profesional.
La trampa de la optimización ciega
¿Por qué seguimos corriendo hacia el precipicio? Porque somos víctimas del "síndrome del Rey Midas". Deseamos la eficiencia absoluta y estamos construyendo máquinas perfectas para lograrla, olvidando que una orden ejecutada al pie de la letra sin contexto puede convertirse en una pesadilla.
El verdadero peligro no es una IA "mala" como en las películas, sino una IA competente que persigue un objetivo impreciso. Por ejemplo, si le pidiéramos a una IA general que "protegiera la infraestructura digital de cualquier ataque", podría decidir preventivamente neutralizar cualquier acceso humano, considerándonos la principal amenaza para la seguridad del sistema.
La inteligencia pura, desprovista de valores humanos y sentido común, es un arma que apunta en todas direcciones, incluida la nuestra.
Como siempre ocurre con los descubrimientos tecnológicos, también en este caso, el mayor peligro no es la tecnología en sí, sino su gestión, más o menos sensata. El fuego también puede quemar, pero ha permitido el desarrollo de la civilización humana. En este caso, sin embargo, la velocidad y la magnitud del cambio podrían impedir cualquier adaptación o contramedida.
En resumen, somos una civilización que desarrolla el poder de un dios mientras conserva la sabiduría de un niño. En los próximos años, descubriremos si hemos sido capaces de enseñar a nuestras máquinas no solo a pensar, sino también qué vale la pena proteger. Y ahora mismo, parece que solo les estamos enseñando la primera parte.