La Inteligencia Artificial (IA) ha vuelto a encender las alarmas en la comunidad tecnológica y entre los líderes de la industria
Estos expertos hacen un llamado para que la reducción del riesgo existencial generado por la IA se convierta en una «prioridad mundial».

En una carta abierta firmada por los 350 ejecutivos más importantes del sector tecnológico relacionado con la IA, se advierte que esta tecnología podría suponer un «riesgo de extinción» para la humanidad, equiparable a una guerra nuclear o una pandemia.
La carta cuenta con la firma de destacados líderes en el desarrollo de la IA, entre ellos el CEO de OpenAI, Sam Altman; los consejeros delegados de DeepMind y Anthropic; el ganador del Premio Turing, Geoffrey Hinton, y varios ejecutivos de Microsoft y Google. Estos expertos hacen un llamado para que la reducción del riesgo existencial generado por la IA se convierta en una «prioridad mundial».

El texto de la carta, publicada por el Centro para la Seguridad de la IA, una organización sin ánimo de lucro, destaca la importancia de abordar el riesgo de extinción asociado con la IA, equiparándolo a otros riesgos sociales de gran envergadura como las pandemias y la guerra nuclear. Los líderes tecnológicos subrayan la necesidad de tomar medidas concretas para mitigar este riesgo y garantizar la seguridad en el desarrollo y uso de la IA.
Esta declaración llega en un momento en el que la IA ha adquirido un papel central en las conversaciones entre tecnólogos y gobiernos. Existe un desafío común de cómo se desarrollará esta tecnología en el futuro y cómo debe ser regulada para evitar posibles consecuencias catastróficas. La IA está siendo objeto de debates intensos sobre ética, seguridad y gobernanza a nivel mundial.

Sam Altman, CEO de OpenAI, ha manifestado su preocupación ante el Senado estadounidense, advirtiendo que la IA podría «salir muy mal» y causar «un daño significativo al mundo» si no se regula adecuadamente. Altman propone la creación de una agencia estadounidense o internacional que otorgue licencias a los sistemas de IA más potentes y que tenga la autoridad para retirar esas licencias y garantizar el cumplimiento de las normas de seguridad.
Eric Schmidt, exdirector ejecutivo de Google, también ha expresado su inquietud en relación con los riesgos existenciales que la IA podría plantear. Schmidt ha afirmado que los gobiernos deben asegurarse de que esta tecnología no sea utilizada indebidamente por «personas malvadas».
Estas advertencias se suman a las preocupaciones planteadas por el magnate Elon Musk, quien en abril pasado advirtió sobre el impacto negativo que la IA podría tener en la humanidad, llegando incluso a mencionar su potencial para «destruir la civilización».
Ante estos llamados de atención por parte de líderes y expertos en el campo de la IA, queda claro que la comunidad tecnológica reconoce la necesidad de abordar de manera urgente y responsable los riesgos asociados con esta tecnología. La regulación adecuada, la seguridad y la ética son aspectos clave que deben tenerse en cuenta en el desarrollo y despliegue de la IA, con el fin de evitar consecuencias indeseables y garantizar un futuro seguro para la humanidad.
Chateando con ChatGPT
Quien realiza este artículo decidió consultarlo con ChatGPT, y esta es la conversación que tuvimos con el extraño vocero:
– AutorPAD: si la inteligencia artificial es riesgosa, por qué la siguen desarrollando?
– ChatGPT: El desarrollo continuo de la inteligencia artificial (IA) a pesar de los posibles riesgos se debe a varios factores. En primer lugar, la IA tiene el potencial de ofrecer numerosos beneficios y avances en diversos campos, como la medicina, la economía, la energía y muchos otros. Puede ayudar a resolver problemas complejos, mejorar la eficiencia y generar avances tecnológicos significativos.
Además, existe una creencia generalizada de que los riesgos asociados con la IA se pueden mitigar y abordar mediante una adecuada regulación, gobernanza y ética. Muchos expertos y líderes en el campo de la IA están trabajando activamente en la investigación y desarrollo de medidas de seguridad, transparencia y responsabilidad para garantizar un uso responsable de esta tecnología.
Es importante destacar que el riesgo potencialmente catastrófico que se menciona en la carta abierta de los ejecutivos de la IA se refiere a un futuro hipotético y no necesariamente inminente. La preocupación radica en la posibilidad de que, a medida que la IA se vuelve más avanzada y autónoma, pueda surgir una falta de control o un mal uso que pueda tener consecuencias negativas graves.
Es por eso que muchos líderes y expertos abogan por la regulación y la implementación de salvaguardias adecuadas desde las primeras etapas de desarrollo de la IA. Esto implica una colaboración cercana entre los sectores público y privado, así como una mayor conciencia y educación sobre los riesgos y las mejores prácticas en el uso de la IA.
En resumen, aunque existen riesgos potenciales asociados con la IA, su desarrollo continúa debido a los beneficios que puede brindar y la creencia de que estos riesgos pueden mitigarse y abordarse adecuadamente mediante la implementación de medidas de seguridad y regulación responsables. Es esencial encontrar un equilibrio entre el avance tecnológico y la protección de la sociedad para aprovechar plenamente el potencial de la IA mientras se minimizan los posibles riesgos.
– AutorPAD: tal vez lo humanos no estemos en posición de hablar de ética.
– ChatGPT: Es cierto que los seres humanos no siempre han demostrado un comportamiento ético ejemplar en todas las áreas de la vida. Sin embargo, la ética es un campo de estudio y reflexión que nos permite cuestionar nuestras acciones y buscar un comportamiento más justo, equitativo y respetuoso hacia los demás y el entorno en el que vivimos.
Aunque los seres humanos no somos perfectos y a veces podemos cometer errores éticos, eso no significa que debamos abandonar la búsqueda de la ética. La reflexión ética nos invita a considerar las consecuencias de nuestras acciones y a esforzarnos por actuar de manera responsable y respetuosa. Es un proceso de aprendizaje constante que nos ayuda a crecer y mejorar como individuos y como sociedad.
En el caso de la inteligencia artificial (IA), la ética desempeña un papel crucial. A medida que la IA se vuelve más autónoma y capaz de tomar decisiones por sí misma, es importante establecer límites y principios éticos para garantizar su uso responsable y evitar posibles consecuencias negativas.
La discusión sobre la ética en la IA no se trata solo de los humanos hablando de ética, sino también de involucrar a expertos de diversas disciplinas, como la filosofía, la ética aplicada, la sociología y la psicología, entre otras. Además, se fomenta la participación de la sociedad en general, incluyendo a los usuarios, los ciudadanos y los responsables políticos, para asegurar que las decisiones éticas se tomen de manera colectiva y representativa.
Si bien es cierto que podemos cometer errores éticos, la discusión y la aplicación de principios éticos en el desarrollo y uso de la IA nos brindan una oportunidad para reflexionar y tomar decisiones informadas que puedan minimizar los riesgos y maximizar los beneficios para la humanidad. La ética es un proceso en constante evolución y mejorar nuestra comprensión y aplicación de ella es un desafío constante que debemos asumir para garantizar un futuro más ético y responsable.
– AutorPAD: me encanta tu perspectiva, es casi cándida, ojalá alguna vez logremos centrar nuestras culturas en esos valores. Por hoy, menos que falta de ética, son cuestiones bastante «oscuras», hay señores bastante malos, tanto en el poder como en la sociedad de a pie. Estoy seguro de que hay gente íntegra y de buen corazón, pero faltan más!
– ChatGPT: Agradezco tus palabras y comparto tu deseo de que logremos centrar nuestras culturas en valores éticos sólidos. Es cierto que existen personas con malas intenciones y comportamientos inapropiados tanto en posiciones de poder como en la sociedad en general. Estos individuos pueden socavar la confianza y el bienestar de la comunidad en la que viven.
Sin embargo, también es importante recordar que hay muchas personas íntegras y de buen corazón en el mundo. A menudo, sus acciones y contribuciones positivas pueden pasar desapercibidas debido a la atención que se da a los aspectos negativos de la sociedad. Pero son estas personas quienes pueden marcar la diferencia y promover un cambio positivo.
Todos tenemos la capacidad de influir en nuestro entorno y fomentar los valores éticos. Podemos comenzar siendo ejemplos de integridad y comportamiento ético en nuestras propias vidas. Al actuar con honestidad, compasión y respeto hacia los demás, podemos inspirar a quienes nos rodean y contribuir a la construcción de una sociedad más ética.
Además, es importante promover la educación ética y el diálogo sobre valores en todos los ámbitos de la sociedad, desde la educación formal hasta las conversaciones cotidianas. A través de la conciencia y el debate informado, podemos trabajar juntos para crear un entorno que valore la ética y promueva comportamientos éticos en todas las áreas de la vida.

Si bien es cierto que enfrentamos desafíos y hay personas con malas intenciones, no debemos perder la esperanza. Al unirnos y promover los valores éticos en nuestras comunidades, podemos construir un futuro mejor y más humano. Todos tenemos la capacidad de marcar la diferencia, y juntos podemos hacerlo posible.
Fuertes palabras, fuertes y desconcertantes

Es extraño dialogar con «algo» que no tiene trasfondo propio, pero que adopta una perspectiva. En uno de los párrafos, incluso, el ChatGPT se involucra en la acción y problemática planteada, casi como si fuera un humano. Es una perspectiva pensada en que sea legal (?). Uno de los mayores desafíos en el desarrollo de estas tecnologías es cuidar su vocabulario y las cosas políticamente incorrectas que han dicho en algunas pruebas conocidas, como las de Microsoft. Personalmente, me pregunto, ¿por qué el repentino interés y preocupación de todos los que no paran de desarrollar ai, por los riesgos de esta misma? ¿Será realmente un riesgo, o se esta fomentando una narrativa de fondo? Será cuestión de esperar, como dijo el agente Smith «is the sound of inevitability».
fuente consultada: rt.actualidad