Eurodiputados y Plena inclusión piden “máxima vigilancia” en la aplicación y desarrollo de la ley europea de Inteligencia Artificial

Fecha

19/02/2024

Medio

Servimedia

Facebook
Twitter
LinkedIn

Eurodiputados españoles de PSOE y PP, así como la entidad de la discapacidad Plena inclusión España, destacaron este lunes “el avance importantísimo” que la nueva normativa europea sobre Inteligencia Artificial (IA) supone en el ámbito de los derechos humanos, cuyo desarrollo e implantación exigieron someter a “la máxima vigilancia” para no discriminar a ninguna persona.

Así lo indicaron en un diálogo sobre ‘Inteligencia artificial y normas comunitarias’ organizado por la agencia de noticias Servimedia y Plena inclusión España, confederación que agrupa más de 950 entidades de personas con discapacidad intelectual y del desarrollo y a sus familias.

La eurodiputada del PP Rosa Estarás explicó que este reglamento supone “la primera normativa sobre IA del mundo”, con la que “nos hemos propuesto ser pioneros en innovación, pero también en protección de derechos fundamentales”.

Apuntó que plantea dos años de trasposición, con distintos plazos para la creación de diferentes instancias, así que advirtió de que “tendremos que estar muy atentos”.

Estarás destacó la contribución de ONCE, Cermi, Plena inclusión y otras organizaciones del sector de la discapacidad, que “tanto han colaborado con el intergrupo de discapacidad del Parlamento Europeo”. Aseguró que “entre todos, estaremos vigilantes” para que la IA tenga un enfoque inclusivo y centrado en el ser humano, cuyo centro sean la accesibilidad universal y el diseño para todos”.

“Si los futuros desarrollos respetan los principios de igualdad, no discriminación y diversidad, entonces la IA será una oportunidad única para todos”, valoró. “Nos ayudará a ser más interactivos y aumentará las posibilidades de empleo, formación, aprendizaje y participación social”.

Además, puede “ayudar a mejorar la prestación de apoyos a las personas con discapacidad y permitir una mejor individualización de los servicios que se prestan”.

PELIGROS

Entre los desafíos que esta normativa implica, Estarás resaltó “los riesgos para la igualdad y la no discriminación, la posibilidad de desinformación, la identificación biométrica en función de características físicas, la comercialización de los datos y la necesidad de asegurar el acceso a las nuevas tecnologías, que es mucho menor entre las personas con discapacidad”.

Por su parte, el director de Plena inclusión España, Enrique Galván, alertó de que sin “vigilancia humana” los algoritmos pueden conducir a “sistemas que excluyan de forma permanente a las personas con discapacidad intelectual en los procesos de contratación”.

También advirtió del peligro de la identificación en función de características físicas y de que el empleo de los datos “genere clasificaciones (scoring) donde se ponga a unas personas por encima de otras por factores relativos a su discapacidad, salud, edad… ”. Ello puede generar una gran discriminación en el sector de la banca y de los seguros de salud, explicó.

A su juicio, “la IA se caracteriza por su opacidad y por su dependencia de la extracción de buenos datos”, con los que “se alimentan sus sistemas de aprendizaje”. Por ello, resulta preciso que “exista supervisión de los algoritmos de aprendizaje sobre los que después se construyen las distintas funcionalidades de la IA”.

La normativa actual recoge el acceso de las autoridades a esta información, a fin de que realicen una evaluación de riesgos (anterior o posterior). De hecho, el reglamento clasifica los posibles sistemas de IA en cuatro niveles: riesgo bajo, riesgo moderado, riesgo alto (donde ya se exige una evaluación de impacto en derechos humanos) y riesgo inaceptable.

En cuanto a la cesión de datos, Galván destacó la urgencia de que todas las cláusulas de consentimiento y utilización sean “comprensibles y accesibles para las personas con discapacidad o pertenecientes a otros grupos vulnerables.

El reglamento dibuja el camino, pero “el reto es cómo desplegarlo desde la rapidez y la inmediatez”, y subrayó que cuando empezó a discutirse esta norma, Chat GPT “ni siquiera se conocía”.

En opinión de Estarás, “la IA ha venido para quedarse”. “Todos vemos su cara amable, llena de oportunidades en el ámbito del empleo, la salud, la educación y el desarrollo tecnológico, pero implica riesgos serios para los derechos humanos, la no discriminación y la salud”.

En este sentido, Galván advirtió de que “muchas personas con problemas de integración en la comunidad pueden engancharse a una realidad paralela y no distinguir entre una y otra, lo que representa un peligro importante para la salud mental”.

Según Iban García del Blanco, “la exigencia de realizar actividades y gestiones telemáticas de todo tipo se ha incrementado de forma exponencial, sin profundizar en las brechas que los sectores más vulnerables encuentran para lograr las aptitudes y recursos que les permitan acceder a la tecnología.

“Conseguir el DNI electrónico, rellenar un formulario para solicitar ayudas o hacer una gestión resulta imposible para muchas personas si no cuentan con alguien que les ayude”, declaró a través de un vídeo.

Puntualizó que una de cada siete personas en el mundo tienen discapacidad, y solo en la UE son cerca de 87 millones. De ellos, casi 30 millones son ciegosEn el SID sugerimos utilizar la palabra o expresión Personas ciegas en su lugar. o tienen discapacidad visual.

En la misma línea, Estarás citó un trabajo de Unicef y de la OMS sobre que casi 2.500 millones de personas necesitarán alguna tecnología de asistencia en 2030, cuyo acceso está vetado para 1.000 millones en la actualidad.

LAGUNAS

En opinión de Estarás, faltan “puentes” entre las normativas que regulan los temas de accesibilidad y discapacidad. Lamentó que la Estrategia Comunitaria sobre personas con discapacidad 2021-2030 “apenas contiene menciones a la IA” y el reciente reglamento “habla de grupos vulnerables, no de discapacidad como tal”.

Galván también criticó que muchas demandas presentadas por el Foro Europeo de Discapacidad (EDF) no se tuviesen en cuenta, aunque consideró que el reglamento es “pionero en el mundo y marca el camino a seguir”.

Además, animó a empresas y organizaciones del tercer sector a “hacer un uso responsable de la IA en cuanto a su adopción, adaptación y desarrollo de sistemas”, tal como propone el último informe de Cotec.

Señaló que “está en sus manos desarrollar una IA inclusiva, ética y que sea referente”, y les instó a aplicar los códigos de conducta sobre accesibilidad, cuya adhesión recomienda, pero no obliga la ‘ley Europea’. “Existe una sensación de espacio vacío, que quizás se pueda cumplir con legislación vertical o sectorial”, sugirió.

Por ello, llamó a no renunciar nunca a la “vigilancia humana” y pidió a asociaciones, autoridades y legisladores que estén “atentos al desarrollo y aplicación de la nueva ley”. “Habrá que hacer evaluaciones, reajustes y corregir problemas sistémicos”, agregó Estarás.

“Estamos cambiando nuestra sociedad y nuestra cultura, Y no podemos perder el tren de los derechos humanos”. De ahí la relevancia de esta norma, defendió. Por su parte, Galván manifestó que “nos estamos jugando mucho”, pues “no hay avances humanos si no los hay en derechos”.

Quizás te interese:

¿Quieres recibir noticias en tu email?