contacto@diariodigitalis.com

914 121 156

La UE prohibirá ciertos usos de la IA por su “riesgo inadmisible” para los derechos fundamentales

La Unión Europea ha presentado su Propuesta de Reglamento sobre un enfoque europeo de la Inteligencia Artificial, el primer paso del que será el marco legal sobre IA en el territorio de la Unión. En el texto destaca poderosamente la catalogación del uso de la IA según el riesgo que puede suponer para los derechos fundamentales: desde su utilización con riesgo mínimo o nulo, que no tendrá regulación, al riesgo inadmisible, que directamente prohibirá el uso de IA para determinados objetivos.

Esta Propuesta de Reglamento es un marco de discusión para desarrollar las normas definitivas, y nace con dos objetivos: garantizar el uso ético de la Inteligencia Artificial, respetando los derechos fundamentales de personas y empresas, y colocar a la UE en una posición líder a nivel internacional en esta tecnología clave.

Hace unos días ya adelantamos la filtración de que la UE trabajaba en un marco regulador para el uso de IA. En palabras de las propia Margrethe Vestager, Comisaria Europea de Economía y Sociedades Digitales: “Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”.

Los sistemas de «Puntuación Social» serán inadmisibles

Para hacer frente a este reto, el nuevo reglamento preparado por la UE catalogará el uso de la Inteligencia Artificial en función del riesgo que podría suponer para la seguridad y derechos fundamentales de ciudadanos y empresas. Esta clasificación presentará cuatro categorías que irán desde el riesgo inadmisible al riesgo mínimo o nulo:

Riesgo Inadmisible:

Los sistemas de I.A. que entren en esta categoría estarán estrictamente prohibidos. La UE los define como “aquellos que supongan una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas”. Y cita expresamente las inteligencias artificiales que intenten manipular el comportamiento humano y los sistemas de puntuación social por parte de los gobiernos, es decir, aquellos sistemas que “puntúen” a los ciudadanos según ciertos comportamientos que se consideran adecuados o inadecuados.

Alto riesgo:

Estos sistemas estarán sujetos a obligaciones estrictas y controles antes de poder ponerse en funcionamiento. Es muy destacable que aquí están incluidos los sistemas de identificación biométrica remota: se prohíbe su uso con fines policiales salvo excepciones estrictas (y se mencionan entre ellas casos como búsqueda de menores desaparecidos, amenazas terroristas o localización de sospechosos de delitos graves). Estas excepcionen deberán estar autorizadas por órganos jucidiciales u “otro organismo independiente”, y tendrán que especificarse límites de duración, alcance geográfico y bases de datos exploradas.

Se incluyen en esta categoría:

  • Infraestructuras críticas.
  • Formación educativa o profesional.
  • Componentes de seguridad de los productos.
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia.
  • Servicios públicos y privados esenciales.
  • Aplicación de las leyes.
  • Gestión de la migración, el asilo y el control de las fronteras.
  • Administración de justicia procesos democráticos.

Y, ¿en qué consisten las obligaciones estrictas que deberán cumplir las tecnologías de IA aplicadas en estos campos? Así las enumera la UE:

  • Sistemas adecuados de evaluación y mitigación de riesgos:
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios.
  • Registro de la actividad para garantizar la trazabilidad de los resultados.
  • Documentación detallada que aporte toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad.
  • Información clara y adecuada al usuario.
  • Medidas apropiadas de supervisión humana para minimizar el riesgo.
  • Alto nivel de solidezseguridad precisión.

Riesgo Limitado:

Para el uso de las IA en los campos que se consideren de riesgo limitado se diseñarán obligaciones específicas de transparencia. Aquí la UE pone de ejemplo los robots conversacionales, destacando que los usuarios deben saber siempre que están interactuando con máquinas y no con otras personas.

Riesgo Mínimo o nulo:

Aquí entran la gran mayoría de los usos de los sistemas de IA, incluyendo la inteligencia artificial que usan los videojuegos o los filtros de correo basura. De momento, el Reglamento no se ocupará de estos usos de la IA.

Los estados, responsables del control

En la propuesta de la UE, serán las autoridades de vigilancia del mercado de cada uno de los estados las que se encarguen del control de las aplicaciones de las nuevas normas.

Por su parte, la UE creará el Comité Europeo de Inteligencia Artificial para el desarrollo de las normas específicas en este campo, que también “facilitará su aplicación” trabajando junto a los organismos estatales y asesorándoles en lo que necesiten.

Pero, ¿y el liderazgo en I.A.?

La UE está preocupada por el uso ético de la Inteligencia Artificial, pero al mismo tiempo es consciente de que participa en una carrera internacional por liderar el sector. Por ello, mientras trabaja en el desarrollo legislativo, ha actualizado su Plan Coordinado sobre la IA, que se alimentará de los presupuestos de los programas Europa Digital y Horizonte Europa, del Mecanismo de Recuperación y Resilencia y de la Política de Cohesión.

Los objetivos serán los siguientes:

  • Crear las condiciones para el desarrollo y la implantación de la IA mediante el intercambio de información estratégica y de datos, y la inversión en capacidades informáticas críticas.
  • Fomentar la excelencia de la IA a través de la colaboración público-privada y el apoyo a la investigación, el desarrollo y la innovación.
  • Velar por que la IA sirva a las personas y sea una fuerza en pro del bien social.
  • Fomentar el liderazgo estratégico en sectores y tecnologías de gran impacto como el medio ambiente, centrándose en la contribución de la IA a la producción sostenible, la salud mediante la ampliación del intercambio transfronterizo de información, así como el sector público, la movilidad, los asuntos de interior, la agricultura y la robótica.

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter