La tecnología de vigilancia utilizada en una variedad de industrias, incluida la vigilancia y la educación, a menudo se basa en algoritmos que dejan a las personas discapacitadas en mayor riesgo de discriminación, advierte un informe reciente del Centro para la Democracia y la Tecnología.

El estudio revisa los desarrollos recientes en la toma de decisiones automatizada y la tecnología de vigilancia en la atención médica, el empleo, la policía y la educación, que la autora principal y asesora de políticas de CDT, Lydia XZ Brown, dijo a The Record que solo se arraigaron más en nuestras vidas durante la pandemia.

“Los algoritmos son ineludibles”, dijo Brown. “Como resultado, las prácticas y patrones de discriminación existentes se están replicando, exacerbando y acelerando mediante el uso de tecnología algorítmica”.

Es probable que la pandemia provoque un aumento en las personas que experimentan discapacidades: un estudio reciente de los Centros para el Control y la Prevención de Enfermedades informó que 1 de cada 5 adultos sobrevivientes de Covid-19 parece desarrollar problemas de salud a largo plazo.

Y la enfermedad por sí sola no es el único aspecto incapacitante de la pandemia.

“Muchas personas que ahora están experimentando una discapacidad, porque tuvieron y sobrevivieron al covid-19, o porque experimentaron efectos en la salud mental a largo plazo por la pandemia, o experimentaron el trauma del terrorismo racial o relaciones interpersonales. violencia por ser dependientes por más tiempo y atrapados alrededor de sus abusadores, pueden no entender o darse cuenta de que podrían contar legalmente como discapacitados”, dijo Brown.

Pero ya sea que las personas sean conscientes de su estado de discapacidad o no, aún pueden verse perjudicadas por ello.

Las tecnologías de vigilancia y los algoritmos que las operan pueden discriminar directamente cuando se procesan datos relacionados con discapacidades, pero también puede haber discriminación indirecta cuando la información se analiza de forma discriminatoria, según Brown.

Por ejemplo, muchas escuelas recurrieron a sistemas de supervisión remota para monitorear si los estudiantes hacían trampa en los exámenes en línea, algunos de los cuales se basan en algoritmos para señalar posibles signos de deshonestidad académica.

Sin embargo, los comportamientos prohibidos o considerados sospechosos por esos sistemas también pueden ser signos de discapacidades protegidas, como movimientos irregulares de los ojos o mirar fuera de la pantalla y la necesidad de ir al baño con frecuencia, dijo Brown.

En algunos casos, el conocimiento de que un estudiante está siendo vigilado de cerca también podría exacerbar condiciones de salud como la ansiedad o el trastorno de estrés postraumático, explicaron.

Las personas discapacitadas ya enfrentan una variedad de barreras económicas y tienen el doble de probabilidades de estar desempleadas que las personas no discapacitadas, según la Oficina de Estadísticas Laborales de EE. UU. Sin embargo, los sistemas de vigilancia en el lugar de trabajo, como el software de monitoreo de productividad automatizado, pueden castigar a las personas discapacitadas que pueden necesitar cosas como flexibilidad de horarios para realizar sus tareas laborales.

Dependiendo de cómo se implementen, esos sistemas también pueden poner a las empresas en el lado equivocado de la ley general de derechos laborales y de discapacidad, aunque la aplicación es inconsistente.

“Tenemos una gran variedad de leyes sobre los derechos de las personas con discapacidad, a nivel federal y en muchos estados”, explicó Brown. “Sin embargo, el simple hecho de que esos derechos existan no significa que todas las personas discapacitadas sepan cómo hacer valer sus derechos, se sientan cómodas al revelar una discapacidad y solicitar una adaptación, o incluso que sean conscientes de que están siendo discriminadas”.

Algunas partes del gobierno ahora están trabajando para brindar más claridad sobre estos temas.

A mediados de mayo, la División de Derechos Civiles del Departamento de Justicia anunció una nueva guía sobre las formas en que la inteligencia artificial y el uso de algoritmos en las herramientas de contratación podrían violar la Ley de Estadounidenses con Discapacidades.

Comentarios Facebook