Inteligencia artificial (IA), ¿capacitista?

COMPARTIR
Lograr una IA libre de sesgos capacitistas no sólo es una cuestión de justicia social e inclusión, también beneficia y enriquece a la propia tecnología
El capacitismo es un concepto desarrollado por movimientos sociopolíticos por los derechos civiles de las décadas de 1960 y 1970. Suele utilizarse para explicar un tipo de discriminación o perjuicio en contra de las personas con discapacidad. Esto se debe a la distinción que se hace entre los seres humanos a partir de sus habilidades físicas o cognitivas (o la falta de ellas), que tienen las personas, y las clasifica entre “capaces” o “estándar” y las que no lo son.
Lo anterior cobra especial relevancia por su relación con uno de los fenómenos más disruptivos de la actualidad: la inteligencia artificial (IA). En ese contexto, el capacitismo puede verse reflejado en la programación de estos sistemas y algoritmos cuando no se contempla la diversidad funcional de las personas.
TE PUEDE INTERESAR: Paz y conciliación, incluso en tiempos de caos
El sesgo capacitista está presente desde los parámetros que la IA considera como comunes, normales o generales; y quienes no encajan en este modelo, no son visibilizados. Por eso, las barreras sociales que se encuentran en los espacios sociales son trasladados a los digitales y tecnológicos, e incluso se agravan.
Por ejemplo, una de las herramientas de inteligencia artificial más utilizada es la asistencia de voz o reconocimiento del habla. Estos presentan un mal funcionamiento cuando personas con patrones de habla atípicos hacen uso de ellos. Los comandos de voz no son entendidos y, como consecuencia, no pueden hacer uso de ellos. Esto no es un problema de las personas, es de la tecnología.
Respecto a los algoritmos de asistencia vehicular usados en medios de transporte autónomos también existe un sesgo discriminativo: los sensores de reconocimiento sólo determinan como peatones a las personas que caminan sin ayuda de una herramienta externa (como lo es una silla de ruedas o muletas); esto sin duda afecta su funcionamiento y pone en peligro tanto a quienes están a bordo del vehículo, como a los transeúntes.
Finalmente, un refuerzo discriminativo hacia quienes tienen discapacidad son los sistemas de contratación utilizados por algunas empresas para filtrar los currículums que son recibidos día con día. Si alguien que no entra en el modelo capacitista y no cuenta con todas las características que son consideradas como normales, queda descartado inmediatamente.
Incluso si una persona con discapacidad está calificada para el perfil que se postula, pero la IA no reconoce su diversidad o la considera de manera negativa, no será tomará en cuenta para ser candidata, basado solamente en estas características.
Todo lo anterior parte de problemas técnicos o de diseño, que no son precisamente errores al azar. Es decir, los seres humanos vuelven capacitista a la IA, ya que esta aprende analizando una gran cantidad de datos. Si en el momento de diseñarla y alimentarla no se le proporcionan los ejemplos o supuestos suficientes de personas con discapacidad, entonces replica el sesgo humano discriminatorio.
Las personas estamos conscientes de que la IA no piensa por sí sola, los patrones que encuentra y que pone en marcha son los que logra identificar a través de los datos con los que es diseñada. Sin embargo, la existencia de sesgos en esta herramienta no hace más que reflejar las prácticas de segregación actuales o históricas que ha construido el humano.
Para evitar estas discriminaciones, es necesario que quienes diseñan y programan los sistemas de la IA implementen cambios que impidan la continuidad de los sesgos. Un ejemplo de solución a esto es la adopción de principios del diseño universal, que es inclusivo y tiene como objetivo alcanzar un rango de funcionamiento más amplio.
Esto se refiere a la creación de productos, entornos, programas y servicios que puedan ser utilizados por todas las personas, en la mayor medida posible, sin necesidad de adaptaciones o diseños especializados. No está pensado sólo para personas con discapacidad, incluye también variaciones en edad, habilidades, contextos culturales o situaciones temporales, buscando beneficiar a toda la población.
La IA tiene el potencial de mejorar la vida y hacer fáciles algunas tareas específicas de las personas con discapacidad, pero esto sólo se alcanza cuando dicha herramienta se desarrolla de manera equitativa y toma en cuenta la diversidad de las personas sin generalizaciones.
Si quienes se encargan de crear cualquier IA desconocen las implicaciones de los derechos humanos en la tecnología, indiscutiblemente contribuirán a la desigualdad. Su valioso trabajo en el desarrollo social perderá utilidad y pasará de facilitar a obstaculizar; perpetuará el capacitismo ya existente y creará nuevos retos para millones de personas.
TE PUEDE INTERESAR: Habrá penas más severas por mal uso de IA: SCJN
Lograr una IA libre de sesgos capacitistas no sólo es una cuestión de justicia social e inclusión, también beneficia y enriquece a la propia tecnología, pues atiende la variedad de capacidades humanas y permite construir soluciones más robustas, creativas y útiles para todas y todos.
Prevenir la discriminación hacia las personas con discapacidad –y hacia cualquier persona en general– es una responsabilidad colectiva, sin importar si sus causas se remontan al pasado o si han surgido recientemente.
La autora es auxiliar de investigación del Centro de Educación para los Derechos Humanos de la Academia Interamericana de Derechos Humanos
Este texto es parte del proyecto de Derechos Humanos de VANGUARDIA y la Academia IDH