El Real Patronato sobre Discapacidad del Ministerio de Derechos Sociales y Agenda 2030 ha pedido que la Inteligencia Artificial (IA) respete los derechos de las personas con discapacidad, en cuanto a la no discriminación, a su representación y a la privacidad en los espacios de datos.
Así se recoge en el estudio ‘Impacto de la Inteligencia Artificial en los derechos de las personas con discapacidad’, elaborado por el Real Patronato sobre Discapacidad con la asistencia técnica de Fundación ONCE, editado por el Centro Español de Documentación e Investigación sobre Discapacidad (CEDID), publicado esta semana.
«Abordar el impacto de la IA en los derechos de las personas con discapacidad implica necesariamente analizarla en el marco de la Convención Internacional de Derechos de las Personas con Discapacidad, o lo que es lo mismo, en el marco de un paradigma social de la discapacidad, que define la misma por las interacciones con el contexto social y desde la defensa de respetar tanto la no discriminación y la autodeterminación de los proyectos de vida de las personas, como el reconocimiento no excluyente de su ciudadanía», se lee en el informe.
El estudio, basado en las encuestas a 864 personas con discapacidad, revela que, si bien el 99,8% de las personas entrevistadas conocen productos o ‘gadgets’ de inteligencia artificial, más de un 87% no las usa.
Además, identifica como barreras tanto la «falta de accesibilidad» de estos productos como el «sobrecoste» añadido para las personas con discapacidad, así como la «complejidad» de las instrucciones y los menús de estas tecnologías.
Asimismo, los autores del informe señalan que la Inteligencia Artificial aprende mediante algoritmos en base a grandes cantidades de datos, pero advierten de que, si en estos datos no hay ejemplos positivos de las personas con discapacidad, la inteligencia artificial tenderá a «subrepresentarla, a ignorarla y, por tanto, a discriminarla».
Para el director del Real Patronato sobre Discapacidad, Jesús Martín Blanco, «la inteligencia artificial suscita importantes cuestiones éticas en relación con la naturaleza, la inocuidad y la idoneidad de esas tecnologías, así como sus repercusiones en la vida de las personas con discapacidad».
Por ello, considera que era necesario impulsar este estudio, «porque la Administración Pública debe estar vigilante para que, en este caso, la inteligencia artificial, no se nutra del capacitismo y vuelva a repetir los patrones de opresión y de exclusión».
En el caso de las personas con discapacidad desempleadas o en búsqueda activa de empleo, los impulsores del estudio se muestran preocupados por la «inaccesibilidad y dificultad de uso» de las plataformas de ofertas de empleo en base a inteligencia artificial.
Igualmente, apuntan que, si bien la discapacidad se considera información personal, los sistemas actuales pueden detectar si el candidato o candidata tiene, ha tenido o puede tener una discapacidad. Si las empresas no tienen obligación de revelar cómo se ha diseñado, «esta funcionalidad pone en jaque al sistema legal de antidiscriminación laboral», según advierten.
Además, los autores del estudio señalan que existen ya numerosas aplicaciones en el mercado basadas en inteligencia artificial que permiten «mediante la obtención de datos biométricos (reconocimiento facial, pulseras de lectura de signos vitales) y combinados con datos personales (historia clínica), preferencias (actividad en redes sociales) y rastros de información (ingresos en centros de salud), predecir y advertir a una persona con esquizofrenia cuando se aproxima a un brote psicótico».
En este sentido, añaden que las tecnologías basadas en IA también están dirigidas a personas autistas, «con la promesa de enseñarles a actuar de manera más neurotípica». En teoría, aclaran las responsables del estudio, «nada impediría que este tipo de funcionalidades sea implementado por empresas, instituciones públicas, centros educativos, asociaciones civiles, para cribar y prevenir el ingreso de personas con discapacidad psicosocial», por ejemplo.