EN EL ESCAPARATE

Límites éticos a la Inteligencia Artificial

La mayoría de los ciudadanos europeos piensan que la inteligencia artificial puede mejorar su vida cotidiana, pero también ven amenazas que les hacen desconfiar de su implantación. Para minimizar los riesgos que conlleva, las autoridades europeas debaten una Ley de Inteligencia Artificial que garantice un enfoque ético y centrado en el ser humano. Recientemente, el Parlamento Europeo ha aprobado nuevas medidas para reforzar la seguridad de los sistemas de IA. España asume la presidencia de la UE con el deseo de que en 2023 vea la luz esta normativa, que sería la primera del mundo sobre inteligencia artificial.
ELVIRA ARROYO

La inteligencia artificial es ya habitual en áreas como la salud, la movilidad, la agricultura o la seguridad.

La inteligencia artificial (IA) es ya habitual en áreas como la salud (herramientas de diagnóstico de enfermedades), la movilidad (sistemas de conducción), la agricultura (herramientas de seguimiento y análisis del suelo) o la seguridad de los datos que custodian las empresas. En nuestro día a día, los smartphones permiten el reconocimiento facial, ofrecen asistentes de voz y disponen de sistemas de rastreo que proporcionan información muy valiosa sobre las preferencias y hábitos de cada usuario gracias a la IA.

Todas estas tecnologías tienen un gran potencial para generar beneficios sociales, crecimiento económico y competitividad, pero también plantean preocupaciones sobre la seguridad y la protección de los derechos fundamentales de la ciudadanía. En este contexto, la Comisión Europea presentó en abril de 2021 una propuesta de Ley de Inteligencia Artificial (Ley AI) que se encuentra muy avanzada. Recientemente, el Parlamento Europeo, tras introducir varias enmiendas al texto inicial, aprobó un proyecto de mandato de negociación que será llevado al Consejo de Europa para darle forma final.

El eurodiputado Dragos Tudorache (Renew, Rumania), uno de los ponentes, ha subrayado que “la Ley de IA es probablemente la pieza legislativa más importante en este mandato. Es la primera legislación de este tipo en todo el mundo, lo que significa que la Unión Europea (UE) puede liderar el camino para hacer que la IA sea confiable».

 


LA LEGISLACIÓN EUROPEA PROHIBIRÁ LOS SISTEMAS DE IDENTIFICACIÓN BIOMÉTRICA REMOTA EN TIEMPO REAL EN ESPACIOS DE ACCESO PÚBLICO


 

Más prohibiciones.

La futura ley establece obligaciones para proveedores y usuarios en función del nivel de riesgo que la IA pueda generar e identifica cuatro tipos de riesgo: inadmisible, alto, limitado y mínimo.

Los sistemas de IA con un nivel inadmisible de riesgo estarán estrictamente prohibidos. Aquí se incluyen aquellos que implementan técnicas subliminales o deliberadamente manipuladoras (ejemplo: juguetes activados por voz que fomenten comportamientos peligrosos en los niños); explotan las vulnerabilidades del ser humano; o se utilizan para clasificar a las personas en función de su comportamiento social, estatus socioeconómico o personal.

Las últimas enmiendas del Parlamento Europeo han incluido en este nivel nuevas prohibiciones relacionadas con los usos intrusivos y discriminatorios de los sistemas de IA. Son los siguientes:

  • Los sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público.
  • Los sistemas de identificación biométrica a distancia a posteriori, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial.
  • Los sistemas de categorización biométrica que utilizan características sensibles como el género, la raza, la etnia, la religión o la orientación política.
  • Los sistemas policiales predictivos basados en perfiles, ubicación o conducta delictiva pasada.
  • Los sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas.
  • El raspado indiscriminado de datos biométricos de las redes sociales o imágenes de CCTV (circuito cerrado de televisión) para crear bases de datos de reconocimiento facial violando los derechos humanos y el derecho a la privacidad.

Dentro de lo que se considera inteligencia artificial de alto riesgo, se han añadido los daños a la salud, la seguridad, los derechos fundamentales de las personas y el medioambiente. En esta misma categoría están los sistemas de IA que tratan de influir en los votantes en las campañas políticas y los sistemas de recomendación utilizados por las plataformas de redes sociales.

 


LAS AUTORIDADES EUROPEAS IMPULSARÁN EL DERECHO DE LOS CIUDADANOS A PONER QUEJAS SOBRE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL


 

Transparencia.

También se contemplan nuevas exigencias para los sistemas de IA de uso general con el fin de asegurar su fiabilidad y proteger a los usuarios de un fenómeno tan extendido como la desinformación.

Los modelos básicos generativos, como ChatGPT, tendrán que cumplir con requisitos de transparencia adicionales como revelar que el contenido fue generado por IA, evitar que se cree contenido ilegal y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento de la aplicación.

Igualmente, los sistemas de IA de riesgo limitado deben cumplir con unas normas de transparencia que permitan a los usuarios tomar decisiones informadas. Después de interactuar con las aplicaciones, el usuario podrá decidir si desea continuar usándolas y deberá saber siempre cuándo interactúa con inteligencia artificial. Esto incluye modelos de IA que generan o manipulan contenido de imagen, audio o video, como las deepfakes (un ejemplo que se viralizó rápidamente fue el video en el que un falso Barak Obama insultaba a Donald Trump).

Estas reglas tendrán exenciones cuando se realicen actividades de investigación y en componentes de IA proporcionados bajo licencias de código abierto. En estos casos y para favorecer la innovación, la ley promueve entornos de pruebas controlados (sandboxes regulatorios) definidos por las autoridades para probar la IA antes de su implementación.

Permanencia.

Otro aspecto clave de la nueva normativa es que apuesta por una definición uniforme de IA, tecnológicamente neutral, que pueda aplicarse a los sistemas actuales y futuros. Como ha señalado el eurodiputado Brando Benifei (S&D, Italia), ponente de la ley, “estamos a punto de implementar una legislación histórica que debe resistir el desafío del tiempo”.

Además, las autoridades europeas quieren impulsar el derecho de los ciudadanos a poner quejas sobre los sistemas de IA y a recibir explicaciones de las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente sus derechos. Esto ha llevado a reformar el papel de la Oficina Europea de IA, que se encargará de monitorear cómo se implementa el reglamento de IA en cada país.

 


LOS MODELOS BÁSICOS GENERATIVOS, COMO CHATGPT, DEBERÁN REVELAR QUE EL CONTENIDO FUE GENERADO POR IA Y EVITAR LA CREACIÓN DE CONTENIDO ILEGAL


 

Si todo va como está previsto, en el segundo semestre de 2023 tendrán lugar las conversaciones con los Estados miembros de la UE en el Consejo de Europa sobre la forma final de la ley. El objetivo es llegar a un acuerdo a finales de este año.

PARA SABER MÁS

Desafíos éticos y sociales de la tormenta tecnológica que se avecina. Estudio que analiza las consecuencias éticas de la convergencia de la inteligencia artificial y las tecnologías de la comunicación, y propone opciones políticas para abordarlas. (En inglés). Servicio de Investigación del Parlamento Europeo. Julio de 2022

El Consejo de Europa y la Inteligencia Artificial. Documento que recoge una visión global de la labor realizada hasta la fecha, o prevista, por los comités intergubernamentales y otras entidades del Consejo de Europa en el ámbito de la inteligencia artificial. Consejo de Europa. Marzo de 2023.

Proyecto de Recomendación sobre la ética de la Inteligencia Artificial. Primer instrumento normativo mundial con recomendaciones para ayudar a gobiernos de todo el mundo a poner en marcha acciones de concienciación y herramientas para evaluar el impacto ético de la IA en todos los ámbitos. Unesco. 2022.

Propuesta de Ley de Inteligencia Artificial. Comisión Europea. 21 de abril de 2021.

¿Cómo se regula fuera de Europa la inteligencia artificial?

Los países que lideran el ranking mundial de IA* son, por este orden: Estados Unidos, China, Reino Unido y Canadá (España ocupa el puesto 21). Ninguno de ellos tiene una legislación específica de inteligencia artificial, pero todos trabajan en ello. Analizamos los avances normativos en cada uno:

Estados Unidos. En octubre de 2022 la Casa Blanca dio a conocer una Declaración de Derechos de IA que identifica cinco principios que deben guiar el diseño, uso e implementación de sistemas de inteligencia artificial para proteger a la ciudadanía estadounidense. En el Congreso se han presentado algunos proyectos de ley y cada vez adquiere más importancia la necesidad de crear un marco regulador de la IA.

China. En 2017 el gobierno chino anunció su Plan de Desarrollo de la Nueva Generación de Inteligencia Artificial con el objetivo de convertirse en líder mundial en IA en 2030. En octubre de 2021 dio a conocer un código ético para la inteligencia artificial, poniendo énfasis en proteger los derechos de los usuarios. Recientemente, el gobierno ha afirmado que desarrollará una legislación específica sobre IA.

Reino Unido. Dentro de su Estrategia Nacional de IA, en 2022 el gobierno manifestó que defenderá una regulación que permita a las empresas crecer haciendo una innovación responsable, manteniendo la confianza del público. En esta misma línea, en marzo de 2023 publicó un libro blanco que guiará el uso de la inteligencia artificial en este país.

Canadá. El Parlamento debate la Ley de Implementación de la Carta Digital 2022, que contempla nuevas medidas para fortalecer la confianza de los canadienses en el desarrollo y despliegue de sistemas de IA.

*Índice Global de IA, que compara a los países por su nivel de inversión, innovación e implementación de IA.

Los usuarios deberán saber que interactúan con inteligencia artificial cuando se les muestren imágenes, audios o videos manipulados.
La sociedad civil pide más protección de los derechos fundamentales

Una de las prioridades de la presidencia española del Consejo Europeo (del 1 de julio al 31 de diciembre de 2023) será concluir la negociación del reglamento europeo de Inteligencia Artificial (IA). Aunque las últimas enmiendas aprobadas por el Parlamento Europeo han sido bien valoradas, la sociedad civil cree que aún quedan asuntos pendientes.
En una carta abierta dirigida el 17 de mayo a la presidencia española del Consejo de la Unión Europea, 60 organizaciones nacionales e internacionales de la sociedad civil expresaban su preocupación por las deficiencias en la propuesta del reglamento de la UE y pedían que, durante las negociaciones finales, se tuvieran en cuenta estas cuestiones:

  1. Ampliar el listado de sistemas de IA prohibidos que representan un riesgo inaceptable para los derechos fundamentales.
  2. Eliminar la discrecionalidad en el proceso de clasificación de sistemas de alto riesgo.
  3. Definir obligaciones significativas de rendición de cuentas y transparencia pública para los usos públicos y los implementadores de sistemas de IA de alto riesgo.
  4. Garantizar derechos y mecanismos de reparación para las personas afectadas por los sistemas de IA.
  5. Asegurar que los estándares técnicos no comprometan los derechos fundamentales y promover una mayor participación de la sociedad civil en su desarrollo.
Entre los sistemas de IA prohibidos se incluyen aquellos que implementan técnicas subliminales o deliberadamente manipuladoras.
España, referente de Inteligencia Artificial ética

España es pionera en impulsar el desarrollo de una inteligencia artificial ética y humanista, con iniciativas como:

  • La puesta en marcha de la primera Agencia de Supervisión de la Inteligencia Artificial en Europa, que tendrá sede en A Coruña. España se adelanta así a la entrada en vigor de la futura legislación europea, que exigirá a los Estados miembros tener una autoridad supervisora en esta materia.
  • La creación de un banco de pruebas (sandbox) en colaboración con la Comisión Europea, para analizar el efecto que tendrá la aplicación del futuro reglamento europeo de Inteligencia Artificial en las empresas, especialmente en las pymes.
  • La ubicación en Sevilla del Centro Europeo para la Transparencia Algorítmica (ECAT por sus siglas en inglés), que fue inaugurado el pasado mes de abril. Su objetivo es proporcionar asistencia técnica y orientación para implantar sistemas algorítmicos transparentes y confiables.
La inteligencia artificial en la Unión Europea
  • Europa produce más del 25% de los robots industriales y profesionales.
  • Más del 50% de los principales fabricantes europeos utilizan la IA.
  • La UE tiene el objetivo de atraer más de 20.000 millones de euros (de la UE, nacional y de empresas) de inversión anual en IA.
  • Los investigadores europeos publican el mayor número de artículos científicos sobre IA a escala mundial.
    Fuente: Comisión Europea.