PSOE y PP defienden una regulación ética de la IA que no excluya a las personas con discapacidad

Fecha

29/02/2024

Medio

Servimedia

Facebook
Twitter
LinkedIn

Los portavoces sobre Inteligencia Artificial (IA) en el Congreso de los Diputados de PSOE y PP, Luisa Sanz y Juan Luis Pedreño, respectivamente, defienden la necesidad de que las administraciones públicas regulen las características que estos sistemas y aplicaciones deben reunir para ser éticos e inclusivos” con el fin de evitar “sesgos que contribuyan a la exclusión de colectivos vulnerables, como las personas con discapacidad”.

En este mismo sentido, la asesora jurídica de la confederación Plena inclusión España, Inés de Araoz, reclamó que “la IA no se convierta en una nueva barrera de exclusión” para las personas con discapacidad intelectual.

Los tres participaron en un encuentro sobre ‘Los desafíos de la Inteligencia Artificial’, organizado por la confederación y la agencia de noticias Servimedia, donde se abordó el reciente acuerdo entre el Parlamento y el Consejo europeos sobre un reglamento de IA.

A juicio de los expertos, este es “un paso importante” porque se va aplicar “directamente” en todas las legislaciones nacionales, aunque “aún debe desarrollarse” y tiene varios retos pendientes.

PELIGROS

Sanz destacó los peligros que la IA implica en ámbitos como la educación, la creación artística y de contenidos, la salud, la privacidad de los datos, el reconocimiento de la propiedad intelectual y del trabajo o la adjudicación de concursos públicos.

“¿Debemos pagar lo mismo por una obra que lleva 600 horas de trabajo individual detrás que por otra incluso mejor generada mediante IA en una hora?”, inquirió.

“Estos avances nos tienen que hacer pensar sobre muchas cosas”, comentó, destacando que se pueden producir “sesgos” y una exclusión social de colectivos vulnerables, como las personas con discapacidad.

Los datos que emplean los sistemas de IA proceden “de grandes corpus”, explicó, por lo que “siempre se quedarán con lo más general, lo que está en la norma”.

Así, propuso Pedreño, “imaginemos una empresa de ‘delivering’ cuyo algoritmo pone en contacto a hosteleros y repartidores; si el sistema de IA utiliza criterios a partir de los casos estándar, habrá trabajadores con discapacidad que nunca recibirán un pedido”.

De ahí la necesidad de que “además de evitar datos sesgados, los sistemas sean entrenados de forma ética”, con criterios de inclusividad, defendió.

En su opinión, “la tecnología va siempre muy por delante de la regulación y en IA todavía más, por lo que “tendremos que estar atentos a los nuevos riesgos que aparezcan con el uso”.

El actual reglamento comunitario contempla cuatro niveles de riesgo (prohibido, elevado, asumible y bajo), pero esta escala se basa en “cómo se están utilizando ahora los desarrollos que existen”. “En el futuro, su uso podría revelar nuevos desafíos”, alertó Pedreño.

OPORTUNIDADES

Con todo, se mostró convencido de que “la IA puede tener un efecto disruptivo en la calidad de vida de las personas con discapacidad”, pues “hay muchas ‘app’ que pueden ayudar a reducir la brecha digital” al facilitar las interacciones sociales.

Puso el ejemplo de una tecnología capaz de identificar deseos en el cerebro y convertirlos en impulsos eléctricos en los músculos, que contribuirán a que muchas personas con lesiones en la médula espinal recuperen movilidad.

Aunque Sanz puso reparos a esta teoría, al destacar que este adelanto puede resultar “muy útil para las personas con discapacidad”, pero también “una potencial intromisión en la mente, en lo más íntimo de los seres humanos”.

“Por cada ventaja que ofrece la IA, siempre puede aparecer un peligro”, alertó. “No pretendo alarmar, pero sí que estemos atentos”, dijo. Además, comentó que las administraciones deben regular y procurar un marco amplio para proteger a la población.

A su juicio, “la IA es la energía nuclear del siglo XXI, con múltiples potencialidades y también con riesgos. Por eso, las administraciones deben garantizar que las aplicaciones, por lo menos las comerciales, funcionan de forma ética y son transparentes”.

POSIBLE BARRERA

También Inés de Araoz subrayó que “la IA puede ser incluyente o excluyente”, según “los datos que emplee y cómo sea entrenada”.

Para empezar, “debe funcionar con criterios de inclusividad” y “tener en cuenta el modelo social de la discapacidad”, que concibe esta como “la interacción entre una deficiencia y las barreras que impone el entorno”.

En su opinión, la actual IA genera “un entorno discapacitante, que si no se corrige, se convertirá en una nueva barrera de exclusión”.

Así, señaló que “el 50% de las personas con discapacidad intelectual encuentran dificultades para interactuar con las nuevas tecnologías”. No sólo en redes sociales, sino sobre todo “en plataformas de compra venta, servicios bancarios y webs de las administraciones”.

“Apenas un 8% de las personas con discapacidad dispone del certificado digital, que resulta básico para realizar muchos trámites con la Administración, destacó.

Por todo ello, exigió que “las personas con discapacidad sean incluidas en los procesos de IA”, para que se “tenga en cuenta la diversidad”.

LECTURA FÁCIL

Araoz apuntó que ya se está investigando cómo aplicar la IA en la adaptación a lectura fácil de todas las informaciones que generan las administraciones públicas.

La ley sobre accesibilidad cognitiva concede un plazo de tres años para que así sea, algo que le parece “prácticamente inasumible”.

De hecho, ya se trabaja en una IA que produzca un primer borrador en lectura fácil, que luego revisen personas formadas en adaptación y, sobre todo, sea validado por personas con discapacidad intelectual.

La participación de estas personas, y no sólo de los técnicos, “resulta esencial” de cara a conseguir “una IA inclusiva”, concluyó.

Quizás te interese:

¿Quieres recibir noticias en tu email?