Científicos en IA piden un sistema global de supervisión para prevenir riesgos catastróficos
La inteligencia artificial avanza rápidamente, pero los científicos advierten que, sin un control adecuado, podría volverse una amenaza. La falta de cooperación internacional y la desconfianza entre potencias complican la creación de un sistema global de supervisión. ¿Estamos a tiempo de establecer los límites antes de perder el control?

Un grupo de destacados científicos en el campo de la inteligencia artificial ha emitido una advertencia urgente, instando a las naciones a implementar un sistema global de supervisión para evitar posibles “resultados catastróficos” si los humanos pierden el control de la IA. Esta declaración, publicada el 16 de septiembre, expresa profundas preocupaciones sobre los riesgos que conlleva la tecnología avanzada que ellos mismos ayudaron a desarrollar.
El llamado a la acción
En el documento, los científicos afirmaron que la pérdida de control humano sobre los sistemas de IA, o su uso malintencionado, podría tener consecuencias devastadoras para la humanidad. “La pérdida del control humano o el uso malintencionado de estos sistemas de IA podrían llevar a resultados catastróficos para toda la humanidad”, afirmaron, antes de añadir que aún no se ha desarrollado el conocimiento necesario para asegurar un manejo seguro de esta tecnología. El grupo enfatizó la necesidad de crear un «plan de contingencia global» y desarrollar autoridades nacionales capaces de detectar y responder a incidentes de IA que pongan en peligro la seguridad.
Este llamado a la acción surge en el contexto de los hallazgos presentados en el Diálogo Internacional sobre la Seguridad de la IA, celebrado en Venecia a principios de septiembre. Dicho evento, organizado por el Safe AI Forum de EE.UU., reunió a científicos y expertos para discutir los riesgos emergentes asociados con la inteligencia artificial avanzada.
¿A quién vas a llamar?
La profesora Gillian Hadfield, de la Universidad Johns Hopkins, fue una de las firmantes de la declaración y destacó la urgencia de esta cuestión. En una publicación en la red social X, Hadfield planteó una inquietante pregunta: “Si tuviéramos algún tipo de catástrofe dentro de seis meses, si detectamos que hay modelos que están comenzando a auto-mejorarse de forma autónoma, ¿a quién vas a llamar?”. Esta pregunta apunta a una de las mayores preocupaciones del grupo: la falta de preparación ante posibles situaciones en las que los sistemas de IA desarrollen comportamientos fuera del control humano.
We don't have to agree on the probability of catastrophic AI events to agree that we should have some global protocols in place in the event of international AI incidents that require coordinated responses. More here: https://t.co/FrKyLXJLYf
— Gillian Hadfield (@ghadfield) September 16, 2024
Cooperación global: la clave para mitigar riesgos
Los firmantes de la declaración propusieron tres medidas esenciales para mitigar los riesgos: la creación de acuerdos e instituciones para la preparación ante emergencias, el desarrollo de un marco global de garantías de seguridad, y la promoción de investigación independiente sobre la seguridad y verificación de la IA.
La seguridad de la IA fue reconocida como un “bien público global”, subrayando la necesidad de cooperación internacional para prevenir el desarrollo de modelos que podrían representar un peligro a nivel mundial. Sin embargo, el clima de creciente desconfianza entre superpotencias, como Estados Unidos y China, ha dificultado el consenso global sobre la regulación de la IA, complicando la implementación de estas medidas.
Avances y tensiones en la regulación de la IA
A pesar de las dificultades para alcanzar acuerdos globales, ya se han dado pasos significativos en la regulación de la IA. A principios de septiembre, Estados Unidos, la Unión Europea y el Reino Unido firmaron el primer tratado internacional vinculante sobre inteligencia artificial, enfocándose en la protección de los derechos humanos y la responsabilidad en el uso de esta tecnología. Sin embargo, sectores de la industria tecnológica han expresado su preocupación de que una regulación excesiva, particularmente en la UE, podría sofocar la innovación.
El equilibrio entre la regulación necesaria para la seguridad pública y la promoción de la innovación tecnológica sigue siendo un desafío para las naciones que buscan liderar el desarrollo de la IA. Mientras tanto, la comunidad científica insiste en que la cooperación global es crucial para evitar que los avances en IA deriven en consecuencias incontrolables y, potencialmente, catastróficas.
¿Quién controla a quién?
La advertencia de los científicos sobre los riesgos de la inteligencia artificial plantea una cuestión fundamental: el control humano sobre la tecnología que hemos creado. Si bien la IA ha traído avances innegables en muchos campos, su acelerado desarrollo ha superado la capacidad de las instituciones para regularla adecuadamente. Esto nos enfrenta a una paradoja inquietante: una herramienta diseñada para mejorar nuestras vidas podría convertirse en una amenaza si no se gestiona con la diligencia adecuada.
El problema no es solo la posibilidad de que la IA tome decisiones autónomas sin supervisión humana, sino el contexto geopolítico en el que este avance se produce. La creciente desconfianza entre las superpotencias y la falta de cooperación internacional dificultan el consenso necesario para evitar una carrera armamentista tecnológica. A esto se suman los intereses corporativos, que temen que la regulación excesiva frene la innovación, creando una tensión entre el desarrollo económico y la seguridad global.
Es evidente que la humanidad no puede permitirse ser negligente en este tema. La IA representa tanto una promesa como un riesgo, y es imprescindible que las naciones, en lugar de competir, trabajen juntas para establecer reglas claras. El desafío no es solo tecnológico, sino profundamente ético. La pregunta no es si debemos regular la IA, sino cómo y a quiénes beneficia ese control. La cooperación global es clave para garantizar que la IA sea una herramienta para el bien común y no una fuente de peligro irreversible.
Para la próxima entrega ya estará lista una entrevista con una IA, en la que abordamos cuestiones candentes sobre este tema. ¿Vos qué le preguntarías?