IA y seguridad global: lo que aprendimos en DrupalCon Chicago

Ponente en atril junto a gráficos de un globo terráqueo y un cubo de datos interconectados.

En el marco de DrupalCon Chicago, asistimos a la keynote The Security Implications of AI, a cargo de Alexandra Bell, directora en el Bulletin of the Atomic Scientists y exdiplomática con décadas de experiencia en control de armamentos y no proliferación nuclear.

Bell presentó una visión profunda y equilibrada sobre cómo la IA está transformando la seguridad global. Su mensaje central: la humanidad aún conserva la agencia para decidir cómo la IA afectará nuestro futuro, pero solo si actuamos con responsabilidad, preparación y cooperación.

Dos narrativas, una decisión: ¿dónde estará la IA?

Bell comenzó reconociendo las dos narrativas dominantes. La visión optimista sostiene que la IA hará el trabajo más eficiente, impulsará avances en ciencia, medicina y educación, y podría incluso contribuir a revertir la crisis climática. La visión pesimista, en cambio, advierte que nos volverá dependientes y menos capaces, destruirá empleos en masa generando inestabilidad social, exacerbará la desinformación y amenazará la privacidad, hasta llegar a escenarios extremos como el control autónomo militar o fantasías distópicas como el "paperclip maximizer".

Su conclusión fue clara: la realidad estará en un punto intermedio, pero la dirección depende de las decisiones que tomemos ahora.

El dilema nuclear de la inteligencia artificial

Este fue el eje más crítico de la charla. Bell explicó que la IA podría tanto facilitar la construcción de armas nucleares —gracias a su mayor capacidad de análisis y diseño— como ayudar a prevenirla, mejorando el monitoreo de materiales fisibles y haciendo más eficientes los acuerdos de control de armas mediante mejores herramientas de verificación.

Pero los riesgos más graves aparecen cuando la IA se integra en sistemas militares y de comando nuclear. Para ilustrarlo, Bell recordó el incidente de Stanislav Petrov en 1983, cuando fallas técnicas casi desataron una guerra nuclear. Petrov evitó el desastre porque pudo usar intuición humana e incorporar información externa que el sistema no tenía prevista.

Un sistema de IA, por diseño, no puede hacer eso: no se sale del guion ni procesa datos que no fueron programados, lo que lo vuelve más vulnerable a errores y fallas sistémicas. Para Bell, la integración descontrolada de IA en decisiones nucleares es uno de los mayores riesgos existenciales del siglo.

¿Herramienta climática o carga ambiental?

La IA puede ser una herramienta clave para optimizar redes eléctricas, mejorar modelos climáticos, diseñar tecnologías de resiliencia y apoyar la transición energética global. Pero Bell también advirtió la otra cara: el consumo energético exponencial de los data centers, la dependencia de combustibles fósiles o energía nuclear sin controles, las presiones sobre recursos hídricos, la minería destructiva para fabricar chips y hardware, y el aumento de desechos electrónicos.

Su mensaje fue directo: la IA puede ayudar al clima, pero actualmente también lo está empeorando.

IA y patógenos: el riesgo que más desvela a Bell

Bell destacó que la IA puede detectar pandemias tempranamente, acelerar diagnósticos, mejorar la producción de vacunas y reforzar sistemas de vigilancia biológica. Sin embargo, también podría facilitar la creación de patógenos manipulados extremadamente peligrosos, aumentar el riesgo de accidentes en laboratorios si se usa sin supervisión, e incluso abrir la puerta a formas de biología sintética con riesgos existenciales todavía difíciles de dimensionar. No es casualidad que Bell haya calificado la bioseguridad como el tema que más la desvela.

Desinformación a escala industrial

La IA multiplica la desinformación a una velocidad sin precedentes y diluye la capacidad colectiva de distinguir lo real de lo fabricado. Eso tiene consecuencias concretas: debilita democracias y rompe la cadena entre el conocimiento experto y el público. Bell lo ilustró con un caso cercano: los análisis del propio Bulletin of the Atomic Scientists terminan siendo mal reinterpretados por LLMs de baja calidad, perdiendo matiz y precisión en el camino. 

Si no podemos confiar en la información que consumimos, tampoco podemos organizarnos para enfrentar ninguna amenaza global.

Normas, cooperación y un reloj que aún puede retroceder

Bell fue clara: todavía estamos a tiempo. No como optimismo fácil, sino como una lectura honesta de lo que está en juego. Los gobiernos necesitan acuerdos internacionales reales, especialmente entre EE. UU., Rusia y China. La industria necesita más ética y menos consumo descontrolado. Y la sociedad necesita alfabetización digital, periodismo responsable y escepticismo crítico ante todo lo que genera una IA.

El Reloj del Apocalipsis, que el Bulletin mantiene desde 1947, está hoy más cerca de la medianoche que en cualquier otro momento de la historia. Pero Bell no lo mencionó como una sentencia: lo mencionó como una advertencia. Ha retrocedido antes. Puede retroceder otra vez. Y eso, en última instancia, depende de las decisiones que tomemos ahora.