Las naciones más poderosas del mundo nucleadas en el G7 acordaron el primer código de conducta para limitar las acciones de las empresas desarrolladoras de Inteligencia Artificial (IA). El objetivo, según informaron, se vincula con restringir las prácticas de desinformación que la IA podría ocasionar, así como también la vulneración de derechos fundamentales como la privacidad y la intimidad. El documento, bautizado como “Proceso de IA de Hiroshima”, constituye una de las primeras iniciativas que buscan regular el fenómeno.

Las autoridades de Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido ratificaron la hoja de ruta que podría servir para que, de aquí en más, todos los desarrollos ligados con los sistemas de aprendizaje automático sean diseñados con pautas transparentes y fiables. Invitan, de este modo, a “gestionar los riesgos” y a aprovechar de una manera adecuada “el potencial innovador y transformador” de la herramienta. En la actualidad, la lupa se estaciona, especialmente, en robots conversacionales como el Chat GPT que, desde noviembre de 2022, fue fuente de maravilla (frente al enorme abanico de posibilidades que presenta), pero también de resistencia (ante el terror por los usos indebidos al alcance de la mano).

El código representa un nuevo paso al interior de una serie de esfuerzos de Estados, empresas privadas y organizaciones por empezar a hacer más efectivos los principios de ética y derechos humanos vinculados a la inteligencia artificial”, dice Natalia Zuazo, especialista en política y tecnologías. Y continúa la directora de Salto Agencia: “Lo que tiene de interesante es que está destinado a los desarrolladores de las tecnologías. Tiene sentido que lo impulse el G7 porque justamente son las naciones que más promueven la IA”.

Hay principios, pero faltan multas

En este marco, el Grupo de los Siete propuso un documento con once principios para que las instituciones que se dediquen a la elaboración de este tipo de softwares puedan cumplir. Entre ellos, se destacan la supervisión de observadores independientes previa a la salida de las innovaciones al mercado; la divulgación pública de la información sensible relacionada a sus potencialidades y límites; la precisión en la caracterización de los usos apropiados e inapropiados; los mecanismos de autentificación para que los usuarios puedan discernir qué productos son el resultado de una inteligencia artificial y cuáles no; y el compromiso con un monitoreo constante del sistema, entre otros.

“Es importante destacar que todavía falta el establecimiento de las sanciones y las multas para las empresas que incumplan. Por ahora, todo lo que se propone es no vinculante y solo se emiten recomendaciones. Es una fase de diálogo en la que se intenta dejar en claro la importancia de garantizar una supervisión humana y colectiva para que la creación de nuevos sistemas sea más equilibrada”, apunta la especialista.

Aunque este acuerdo servirá de base, luego requerirá que cada nación pueda instrumentar políticas públicas con el propósito de poner en acto dichas intenciones. Como siempre, de acuerdo a sus tradiciones, cada país podrá ajustar más o menos las restricciones en torno a la generación y los usos de la IA.

Intentos previos de regulación

El código de conducta elaborado por el G7 no nace de un repollo. Por el contrario, forma parte de un rosario de acciones que el mundo realiza en pos de limitar el alcance de un fenómeno de consecuencias globales. Uno de los grandes marcos normativos de referencia previo lo constituye la Recomendación sobre la ética de la Inteligencia Artificial de Unesco. Se trata de principios generales que fueron confeccionados con el objetivo de que luego se adecuen a nivel doméstico por las diferentes agencias gubernamentales.

En octubre de 2022, desde la Casa Blanca, el gobierno de Joe Biden compartió la Carta de Derechos de Inteligencia Artificial. Se trata de un plan que no fija acciones específicas de ejecución, pero se presenta como un llamado a la acción con el propósito de proteger, ante el avance de la IA, los derechos digitales y civiles. En marzo de 2023, en la misma línea, más de cien especialistas de diversas disciplinas realizaron un llamamiento para “una inteligencia artificial latinoamericana al servicio de las personas”. Fue en el marco del Encuentro Latinoamericano de Inteligencia Artificial realizado en Montevideo. Constituyó la primera vez que la comunidad científica y tecnológica de la región reflexionó desde una perspectiva de los derechos humanos sobre la influencia de la IA en todos los ámbitos de la sociedad.

A principios de abril, referentes como el CEO de Twitter, Tesla y Space X, Elon Musk, y el cofundador de Apple, Steve Wozniak, firmaron una carta en la que instaron a “pausar inmediatamente” el entrenamiento de los sistemas de IA, al menos por seis meses. La misiva, ratificada por miles de especialistas, entre ellos, el best seller e historiador israelí Yuval Harari, fue publicada en el sitio del Future of Life Institute. En el texto, se podía entrever: “Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad”; al tiempo que instaba a “planificar y administrar con el cuidado y los recursos correspondientes”.

En junio, el Parlamento Europeo aprobó una ley para controlar el empleo de la IA en el continente y abrió el debate entre las 27 naciones que conforman la Unión Europea. Lo que se busca a partir de la sanción de la norma es comenzar a monitorear de cerca los riesgos que, potencialmente, puedan llegar a ocasionar. En concreto, dispone que cuanto mayor sea el riesgo de afectar los derechos o la salud de las personas, más obligaciones tendrán los sistemas tecnológicos. En este sentido, algunos órdenes como la educación, las migraciones, el orden público y los recursos humanos ya fueron incorporados como espacios “de alto riesgo”, con lo cual, las tecnologías que se apliquen de aquí en más en esos rubros deberán cumplir con condiciones rigurosas.

Más allá de las diferencias, existen características comunes y principios transversales a cualquier intento de regular el avance de las Inteligencias Artificiales: deben garantizar la seguridad y la protección de las personas y sus datos; asegurar el cumplimiento de la equidad y la no discriminación; así como también evitar causar daños a sus usuarios. 

[email protected]



Fuente-Página/12