Normas para el desarrollo responsable de Inteligencia Artifical
07 noviembre 2023
News

Fuente: InfoBae

Entre los compromisos se encuentra formar una red de científicos que investigarán los alcances del desarrollo de las herramientas con IA

Desde que la inteligencia artificial se convirtió en un tema central como parte del desarrollo tecnológico, uno de los debates comunes involucró su regulación o al menos la supervición respecto a sus avances para asegurarse de que esta herramienta no se convierta en un problema de alcances globales que pueda afectar a la humanidad.

Es por eso que al menos 28 países de todo el mundo entre los que se encuentran Estados Unidos, China, además de la Unión Europea, acordaron desarrollar de forma responsable este tipo de tecnología y mantenerla como un recurso seguro con respecto a su uso.

Durante la cumbre que se desarrolló en el museo Bletchley Park de Buckinghamshire, en Inglaterra, llamada “AI Safety Summit”, los representantes de los países involucrados se comprometieron a realizar esfuerzos para tener “un futuro más seguro tanto para la IA como para el mundo”. Este acuerdo mundial, que fue consolidado el día 1 de noviembre, indica cuáles deberían ser los alcances y oportunidades, además de los riesgos del uso de la IA en el mundo.

El comunicado oficial establecido por el gobierno de Reino Unido indica que todos los países que formaron parte de la reunión indicaron que están de acuerdo con la gestión de los riesgos potenciales de la aplicación de esta tecnología y estarían incluidos en los esfuerzos globales para asegurarse de que la inteligencia artificial no genere riesgos que podrían afectar a la comunidad internacional.

“Los países acordaron que pueden surgir riesgos sustanciales debido a un posible uso indebido intencional o problemas no deseados de control de la IA fronteriza, con especial preocupación causada por riesgos como la ciberseguridadbiotecnología desinformación”, indica el documento difundido por Reino Unido.

Además, se toma en cuenta que los países reunidos se declaran conscientes de otros riesgos relacionados al uso de esta tecnología, como la capacidad de mostrar sesgos y afectar a la privacidad de los usuarios. “Hay un riesgo potencial para daños serios e incluso catastróficos, ya sean deliberados o accidentales”, afirma la declaración.

Colaboración global para el desarrollo de inteligencia artificial

Debido a que la inteligencia artificial es una tecnología que se encuentra en constante desarrollo y mejora, los países firmantes de la declaración también se han comprometido a realizar esfuerzos para seguir comprendiendo los riesgos y capacidades de estas herramientas, por lo que se creará una red de científicos que estará dedicada a la seguridad de la inteligencia artificial.

No solo eso, sino que además esta tendrá el apoyo del Instituto de Seguridad de IA, que estará colaborando de forma activa con grandes organizaciones internacionales como el G7, OCDE, Consejo EuropeoNaciones Unidas y la Asociación Global sobre IA. “De este modo, los usuarios podrán tener las mejores investigaciones científicas y las más recientes que se pueden utilizar para crear datos basados en el estado actual de la inteligencia artificial”.

En ese sentido, estas reuniones entre países se volverán a repetir dentro de seis meses en Corea del Sur y en un año en Francia, pues ese fue el compromiso de esos países aunque no se ha indicado la fecha exacta en la que se desarrollará cada reunión o cuál sería la agenda en cada uno de ellos.

Según la representación de Inglaterra, el mantener el contacto y las reuniones entre los líderes de estos países “garantiza un legado duradero de la Cumbre y una acción internacional continua para abordar los riesgos de la IA, incluida informar sobre políticas nacionales e internacionales basadas en riesgos en estos países”.

De momento, los representantes de los países deberán retornar a sus territorios e implementar los compromisos en cada uno de ellos.

También te puede interesar

Recibe las últimas noticias del mercado y el mundo legal