UNESCO lanza un observatorio para monitorear cómo regulan los países la ética en la IA

Ciencia y Tecnología 05 de febrero de 2024 Mila Matos Mila Matos
unesco-IA-fotor-2024020563115

Kranj (Eslovenia).- La UNESCO lanza hoy un observatorio donde expondrá que regulación y medidas de control están poniendo en marcha los 194 Estados miembros de la organización para asegurar un desarrollo ético de la inteligencia artificial (IA) a nivel país.

Así lo avanza en una entrevista con EFE la mexicana Gabriela Ramos, subdirectora general de Ciencias Humanas y Sociales de la UNESCO, quien subraya que esta plataforma, desde hoy disponible en internet, pretende ser una especie de espejo «que evidencie qué están haciendo los Estados realmente parar asegurar tecnologías éticas, más allá de grandes declaraciones».

El observatorio se presenta este mediodía en el II Foro Global de Ética de la Inteligencia Artificial promovido por la UNESCO, que en esta ocasión se celebra en Kranj, Eslovenia, con el fin de que los países den cuenta de qué medidas han tomado a nivel nacional para adoptar el Marco Ético Mundial que promovió esta organización en 2021 y suscriben sus 194 Estados.

«El problema con la inteligencia artificial es que se plantea como un mero avance tecnológico cuando la gran reflexión debería de ser cómo alinear esos desarrollos tan impresionantes con nuestros objetivos como sociedades y seres humanos», subraya Ramos.

El gran dilema
Es decir, «el gran dilema ético de la inteligencia artificial es si nos está ayudando a construir sociedades más justas, más igualitarias, más sostenibles, y si está contribuyendo a reducir las brechas existentes en todos esos campos», continúa la subdirectora de UNESCO.

¿Y cuál es la respuesta, rema la IA hacia sociedades más justas? «No. Por una combinación de las bases de datos a las que recurren los desarrolladores, los algoritmos usados o el entrenamiento que se hace de estas tecnologías vemos cómo, por lo general, perpetúan y reproducen las discriminaciones y sesgos que ya conocemos».

Ramos considera que el hecho de que sea un limitado grupo de multinacionales globales las que estén desarrollando tecnologías de IA (más del 80% de las mismas vienen de Estados Unidos y China) y de que sobre todo estén diseñadas por hombres «apenas el 20% de los trabajadores del sector son mujeres) es el origen de que estén perpetuando desigualdades.

El papel de los estados
De ahí, «la importancia de que los países aseguren que estos desarrollos tecnológicos respeten las normas de del Estado de derecho», y ahí es donde viene la misión de los países».

Sobre cómo deben proceder los estados, Ramos explica que «los Gobiernos no pueden ir a cada desarrollador para controlar lo que hacen, eso es imposible, pero sí pueden regular la eliminación de sesgos en los algoritmos, pueden capacitar a sus funcionarios para supervisar mejor estas tecnologías y pueden asegurar que sean éticas con cantidad de instrumentos, como las compras gubernamentales».

Te puede interesar
Lo más visto