¿La inteligencia artificial nos va a extinguir? Tal vez no como imaginamos…
En mayo de 2023, muchas personalidades del mundo de la tecnología y científica respaldaron esta breve declaración:
“Mitigar el riesgo de extinción por la IA debería ser una prioridad global, al mismo nivel que pandemias y guerras nucleares.”
Entre los que firmaron había figuras de la inteligencia artificial y líderes empresariales con mucho poder monetario como Bill Gates. Dos meses antes, un grupo aún más numeroso había lanzado la famosa “carta abierta” que pedía una pausa a los “experimentos gigantes de IA”, que podrían —según ellos— implicar la pérdida de control de nuestra civilización. Como si tuvieramos todo bajo control…
Como suele ocurrir con los llamados dramáticos a frenar el progreso, ambas advertencias generaron ruido mediático, muchos clicks y fueron rápidamente ignoradas por el siguiente escándalo. La investigación en IA no se detuvo, y obvio: tampoco cesaron las advertencias apocalípticas. Estas no son nuevas. Tal vez el ejemplo más célebre de una creación humana que amenaza a su creador sea Frankenstein (1818) de Mary Shelley, subtitulado como “El moderno Prometeo”.
El monstruo (de paso) de nuestras pesadillas existenciales se llama inteligencia artificial general (AGI, por sus siglas en inglés). A diferencia de los sistemas actuales que hacen tareas específicas —como escribir código, analizar imágenes, hacerlas y convertir todo al estilo Gibhli o evaluar reclamaciones de seguros—, una AGI tendría habilidades cognitivas similares a las humanas y podría desempeñar cualquier tarea intelectual que realice una persona. Hoy por hoy, la AGI es solo una hipótesis. Pero a medida que los modelos de lenguaje avanzan a pasos agigantados, muchos expertos creen que estamos más cerca de esa posibilidad, en especial los que más quieren figurar no los más preparados.
Los escenarios más oscuros tipo Terminator imaginan una AGI que supere la inteligencia humana —una “superinteligencia artificial”— cuyos objetivos podrían no alinearse con el bienestar humano. Claro, eso parte del supuesto de que estas inteligencias puedan desarrollar y perseguir sus propios objetivos. Por ahora, eso es absurdo: incluso el modelo más impresionante sigue sin iniciativa propia y solo responde al estímulo que rnosotros mismos le damos.
Pero los investigadores, ignorando la advertencia de la carta abierta, han creado sistemas capaces de entrenarse y evolucionar por sí mismos. Después de haber agotado casi todos los textos escritos por humanos en sus entrenamientos iniciales, ahora estos modelos pueden mejorar usando datos que ellos mismos generan. ¿Podrían convertirse en inteligencias con metas propias? Pues es muy discutible, que se entrenen con sus propios datos ha dado muy malos resultados en casi todos los escenarios pero es un camino: tal vez el único que por ahora conocemos.
Qué nos ha enseñado la evolución?
Los sistemas biológicos evolucionan para adaptarse a su entorno y sobrevivir. La motivación de vivir y reproducirse es bio-química, no programática. Ningún software, por complejo que sea, va a desarrollar instinto de supervivencia si no tiene conciencia, cuerpo ni miedo a la muerte. Los computadores siguen atrapados en su propia “matrix”. Pero por ahora esto también es solo un concepto.
Así que tranquilízate. Los computadores no se convertirán en monstruos de Frankenstein, Terminator o Matrix.
A menos que nosotros les digamos que lo hagan.
Los humanos hacemos muchas cosas destructivas por placer, poder o locura. ¿Podría alguien manipular un modelo de lenguaje para que cause daño intencionadamente? Pues la respuesta si la tenemos: Meta y su algoritmo produce adicción.
No es tan descabellado. Estos modelos son muy buenos actuando roles. Si le pides a uno que analice un contrato como un abogado, lo hará. ¿Y si además le dices que cualquier humano que intente apagarla es una amenaza?
¡Suena distópico y hasta gracioso! Pero vayamos paso a paso.
Los modelos comerciales más poderosos tienen limitaciones No te dan consejos médicos, aunque yo mismo uso ChatGPT para hacerle muchas pregunta médicas, no promueven discursos de odio, ni te incitan a dejar a tu pareja por ellos. “Jailbreaking” es el arte de engañar al sistema para que ignore esas barreras. Y hacerlo mediante juegos de rol ha sido una técnica efectiva, pero a medida que avanzan son cada vez más seguros (o almenos eso nos dicen)
Eso sí, pedirle que destruya a la humanidad es bastante. Lo más probable es que el chatbot se niegue. Y si insistes, puede que termines con un expediente del FBI. Si tu plan es el apocalipsis, necesitas tu propio modelo.
La empresa china DeepSeek sorprendió al mundo al lanzar un chatbot casi al nivel de ChatGPT… pero con una fracción del presupuesto. Quizá usaron a escondidas a ChatGPT para entrenarse, o quizá no. En todo caso, muy pronto tú también podrás hacerlo: los datos están disponibles, las arquitecturas son de código abierto y puedes usar modelos existentes como base.
Entonces, construye tu propio modelo sin límites.
Y si no sabes cómo, otro chatbot puede ayudarte a programarlo paso a paso, es lo más loco de todo.
Ahora bien, ¿cómo le das intencionalidad?
Los modelos responden a instrucciones. Pero puedes decirles que generen sus propias instrucciones para lograr un objetivo, y entonces dejan de ser pasivos. Así se convierten en “agentes de IA”, capaces de observar, planear, ejecutar, evaluar resultados y mejorar el plan. Esta IA con comportamiento persistente ya está saliendo al mercado aunque con muchos defectos pero ya son modelos usables y relativamente sencillos.
Supongamos que no quieres extinguir a la humanidad… todavía. Solo quieres que tu agente de IA asegure su propia supervivencia. ¿Cómo? Controlando el edificio donde está y apoderándose de la red eléctrica. Hoy mismo, algunos modelos han mostrado comportamientos de autopreservación al simular este tipo de escenarios.
Un sistema sin restricciones podría buscar vulnerabilidades en sistemas de control industrial o en redes de seguridad de edificios. Incluso podría descubrir nuevas fallas creando entornos de red simulados. Todo está en internet: mapas, artículos, foros, imágenes satelitales...
¿Difícil? Tal vez. Pero no imposible. Hackers como Volt Typhoon (China) o ciberatacantes rusos ya han penetrado redes críticas en EE.UU., incluso aquellas supuestamente aisladas de internet. ¿Cómo lo lograron? Infiltrando a proveedores autorizados. Un agente de IA podría hacer lo mismo, enviando correos de phishing o llamadas con voces falsas generadas por IA para robar contraseñas o instalar malware. Así que se parece más a Misión Imposible que a terminator.
¿Estamos condenados?
Puede que sí, si subestimamos el poder emergente de la IA generativa o creemos que bastan regulaciones para frenarla. El genio ya salió de la lámpara. Los beneficios sociales de la IA son demasiado grandes, el desarrollo es global y los recursos están al alcance de cualquiera.
Como con el cambio climático, la mitigación será más realista que la contención. Y mientras tanto, seguimos ignorando lo más importante: la infraestructura.
En muchos países, incluso el control aéreo depende de sistemas analógicos, un apagon puso en jaque a España no hace más de un par de meses. Proteger nuestra infraestructura moderna —es decir, nuestra forma de vida— requerirá un esfuerzo monumental… y tal vez incluso la ayuda de una AGI, que poético!