¿Puede ser la Inteligencia Artificial la nueva bomba atómica?

Te invito a recrear una famosa serie de los años 70, “El túnel del tiempo”. En ella, sus protagonistas eran capaces de transportarse a diferentes momentos del pasado y convertirse en actores y espectadores de las circunstancias más apasionantes de la historia de la humanidad.

Hoy, entrar en ese túnel, implica convivir con tres épocas o momentos históricos simultáneos de enorme trascendencia para todos los seres humanos contemporáneos.

Primó la ley. Aunque tardó 23 años en firmarse el Tratado de No Proliferación Nuclear y el recorrido tuvo sus altos y bajos, podemos decir que el mecanismo fue una respuesta global frente a los riesgos de extinción existencial.

Hoy estamos frente a la preponderancia de un Momento Manhattan en términos de la IA, en medio de reclamos universales para establecer “líneas rojas” que no puedan traspasarse en su desarrollo. Se afirma que la carrera armamentística rumbo a la creación de una Super-IA, que supere a toda la inteligencia humana en su conjunto, podría significar un dominio que se escapa del control humano, con consecuencias catastróficas.

En el Atlas de IA para el Desarrollo Humano exploramos similitudes y diferencias con aquellos procesos.

En un sentido, hoy es más fácil fabricar una bomba atómica IA en secreto, porque muchos modelos de IA son lanzados al mercado sin control adecuado de pruebas de seguridad y, a través de un código abierto, pueden ser empleados para la fabricación de armas biológicas devastadoras. Tampoco se necesitan bienes físicos para hacerlo: ni uranio, ni plutonio, ni grandes centrales nucleares. Ni mucho menos un conjunto de científicos exportados en secreto entre las potencias reinantes.

La minería de uranio y el enriquecimiento se comparan con la fabricación de chips y el entrenamiento de IA, ambos procesos producen salidas que pueden usarse para fines seguros o dañinos. Por ejemplo, el enriquecimiento de uranio puede producir uranio de bajo enriquecimiento o uranio altamente enriquecido, similar a cómo la capacitación en IA puede producir modelos de baja o alta capacidad.

• Al igual que las medidas utilizadas para controlar la producción, el flujo y el uso de materiales nucleares (controles de exportación, inspecciones por la Agencia Internacional de Energía Atómica, monitoreo remoto, identificadores únicos como números de serie), se podría considerar regímenes similares para rastrear y monitorear la fabricación de chips de IA y su destino final en centros de datos.

• Las limitaciones de estas analogías también son evidentes. Mientras que el material nuclear es tangible y su presencia y uso pueden ser monitoreados de manera efectiva, los chips de IA representan un desafío diferente debido a su no radiactividad, lo que hace difícil su detección en puertos y otros cruces fronterizos.

Lo que sí está claro, es que la decisión de apretar el botón no puede dejarse librada a sistemas de IA autónomos. Aunque parezca exótico, se ha llegado a discutir cómo la IA podría influir en la estabilidad nuclear al mejorar la racionalidad en la toma de decisiones, lo que podría ayudar a prevenir lanzamientos accidentales o escaladas no deseadas. Sin embargo, también se reconoce que los juicios sobre los intereses nacionales no son bien interpretados por la IA. Además, se destaca que un proceso de razonamiento puramente lógico basado en valores erróneos podría tener consecuencias desastrosas, especialmente si se permite que una máquina basada en IA tome decisiones de lanzamiento nuclear.

Porque en la emulación de los seres humanos, las IAs también aprenden a mentir, cuando no saben: el engaño de las máquinas puede significar que han ingresado en una tarea evolutiva que las preserve como especie, así como otros seres del reino animal se camuflan para preservar su existencia.

Una selección natural darwiniana es el espectro que también recorre el universo de la IA, tanto en relación con otros modelos de IA con los cuales puedan competir o federarse, como en relación con los seres humanos.

Los comentarios están cerrados.