Presentaron un código de conducta para regular la Inteligencia Artificial

 Presentaron un código de conducta para regular la Inteligencia Artificial

Las naciones líderes del G7 han anunciado la implementación de un código de conducta histórico destinado a supervisar las actividades de las empresas desarrolladoras de Inteligencia Artificial (IA). Este esfuerzo tiene como objetivo mitigar las amenazas de desinformación generadas por la IA, así como proteger los derechos fundamentales, incluyendo la privacidad y la intimidad. El documento, denominado «Proceso de IA de Hiroshima», representa uno de los primeros pasos hacia la regulación de esta tecnología en constante evolución.

Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido han ratificado este código, que pretende establecer directrices claras y transparentes para el desarrollo de sistemas de aprendizaje automático. El objetivo es gestionar los riesgos asociados con la IA y aprovechar su potencial innovador de manera responsable. En la actualidad, el enfoque se centra en aplicaciones de IA como los chatbots conversacionales, como el Chat GPT, que han generado tanto asombro como preocupación debido a su amplio alcance y posibles abusos.

Natalia Zuazo, especialista en política y tecnología, señala que «el código representa un nuevo avance en los esfuerzos de estados, empresas privadas y organizaciones para aplicar principios éticos y de derechos humanos relacionados con la inteligencia artificial». Añade que es lógico que el G7 impulse esta iniciativa, ya que estas naciones son líderes en la promoción de la IA.

El código de conducta propuesto por el G7 incluye once principios que las instituciones que desarrollan software de IA deben seguir. Estos principios abogan por la supervisión independiente previa al lanzamiento de nuevas innovaciones, la divulgación pública de información sensible, la definición clara de usos apropiados e inapropiados, la autenticación de productos generados por IA, y un compromiso con la supervisión continua del sistema, entre otros.

Es importante destacar que, aunque este acuerdo sienta las bases, todavía no se han establecido sanciones o multas para las empresas que incumplan. Por ahora, las recomendaciones son no vinculantes, y se trata de un paso inicial en un proceso de diálogo destinado a resaltar la importancia de una supervisión humana y colectiva en el desarrollo equilibrado de sistemas de IA.

Este código de conducta se suma a una serie de esfuerzos globales para regular la IA. La Unesco ha elaborado principios generales de ética en la IA, mientras que en octubre de 2022, el gobierno de Estados Unidos presentó la Carta de Derechos de Inteligencia Artificial. Además, expertos y líderes tecnológicos han llamado a la pausa en el entrenamiento de sistemas de IA, y el Parlamento Europeo ha aprobado una ley para controlar el uso de la IA en el continente, centrándose en la protección de los derechos y la prevención de daños a los usuarios.

A pesar de las diferencias en los enfoques, existe un consenso en la necesidad de garantizar la seguridad, protección de datos, equidad y no discriminación en el desarrollo y uso de la Inteligencia Artificial.