Nos guste o no, la inteligencia artificial (IA) se está volviendo omnipresente en nuestra vida diaria, y investigadores de la Universidad de Michigan han descubierto que las personas trans y no binarias tienen menos probabilidades de ver la IA con buenos ojos. Según otro estudio de principios de este año, podría haber una buena razón para ello.
“En nuestro estudio, encontramos que las personas no binarias y transgénero tienen significativamente más probabilidades de ver la IA de manera negativa que las personas cisgénero”, dijo el profesor asociado Oliver Haimson, autor principal del artículo de la UMich y autor de Tecnologías transdijo Nación LGBTQ. “Dado que la IA se está volviendo tan omnipresente en la vida cotidiana, es importante comprender que no todos quieren usarla, lo cual es preocupante porque a menudo se les exige que la usen (como en contextos de atención médica y empleo) sin un consentimiento significativo”.
El equipo de la UMich encuestó a más de 700 participantes que incluían una muestra representativa a nivel nacional combinada con una sobremuestra intencional de ciertas minorías. Luego hicieron preguntas sobre sus actitudes hacia la IA, incluyendo cómo veían la tecnología, si pensaban que mejoraría sus vidas y si la usarían ellos mismos.
En su artículo, los investigadores señalan que el disgusto por la IA por parte de las personas trans no carece de mérito y no se basa en una desconfianza más amplia hacia la sociedad institucional. Más bien, se basa en una historia de problemas con la tecnología.
“El daño de la IA hacia las personas trans y no binarias se ha demostrado en tecnologías que incluyen algoritmos de reconocimiento facial en la aplicación de la ley y la vigilancia, moderación algorítmica de contenido e imágenes estereotipadas y ofensivas de personas trans y no binarias producidas por sistemas generativos de IA”, dicen los investigadores. “El daño de la IA que sufren las minorías de género puede ser físico, psicológico, social y económico, lo que resulta en errores algorítmicos de género y violaciones de la privacidad y el consentimiento”.
La IA no es el ser omnisciente imparcial que a algunos les gustaría creer que es. Es una serie de algoritmos creados por humanos. Esos humanos tienen prejuicios y los modelos de IA inevitablemente heredan algunos de esos prejuicios.
En su periódico, La ética de la IA en la intersección de la identidad transgénero y la neurodivergenciaMax Parks descubrió que los sesgos históricos contra las comunidades trans y neurodivergentes no solo eran heredados por los modelos de IA, sino que amplificado.
Parks proporciona un ejemplo médico para resaltar el problema. “Debido a que los profesionales médicos han etiquetado (a las personas trans y no binarias) como desviados durante décadas, los datos subyacentes en los registros médicos y los conjuntos de datos públicos aún reflejan esos sesgos. Comprender estas historias conectadas ayuda a explicar por qué los sistemas de inteligencia artificial actuales a menudo perpetúan patrones similares de exclusión y normalización en la intersección de identidades transgénero y neurodivergentes”.
Otro ejemplo que señala Parks es que “las tecnologías de reconocimiento facial a menudo se basan en conjuntos de datos construidos en torno a categorías binarias de género, lo que lleva a una clasificación errónea o exclusión de personas transgénero y no binarias… Estas clasificaciones erróneas tienen repercusiones directas en el diseño algorítmico”.
La IA ha sido entrenada en base a un historial de datos que a menudo solo ha reconocido géneros binarios cis. Tiene mucho que aprender sobre el mundo, pero hacerlo es más difícil con las políticas de la administración actual, como la orden ejecutiva de “dos sexos”, que decretó que sólo existen géneros binarios cis. Si bien obviamente no es cierto, sí significa que solo se pueden ingresar géneros binarios cis en los formularios gubernamentales. El presidente también firmó una orden reciente que impide que los estados regulen la IA.
Esa orden causó preocupación a Haimson, quien dijo que, si se aplica, “esencialmente significa que la IA no será regulada en los EE. UU., al menos durante los próximos años”.
Todo esto es frustrante para quienes ven los beneficios que la IA podría tener si no existieran estos obstáculos. Parks señala que “es prometedor para mejorar el acceso a la atención médica y los resultados para las comunidades transgénero y neurodivergentes cuando se diseña e implementa adecuadamente”.
“Por ejemplo, las plataformas de telesalud impulsadas por IA han demostrado potencial para aumentar el acceso a la atención de afirmación de género, particularmente en áreas rurales o desatendidas. Los trabajadores de salud comunitarios pueden usar herramientas habilitadas por IA para localizar proveedores amigables con las personas trans analizando los datos de retroalimentación de los pacientes, reduciendo así las barreras documentadas que enfrentan las personas transgénero para encontrar atención de afirmación. De manera similar, se están explorando tecnologías de entrenamiento de voz basadas en IA, que ayudan a las personas trans a alinear la presentación vocal con la identidad de género, para implementaciones más amplias dirigidas por la comunidad. Estos enfoques informados por la comunidad demostrar el potencial de la IA para convertirse en un aliado proactivo en lugar de un instrumento de marginación”.
Parks también señala una barrera importante para llegar a ese punto. “Para tener éxito, los desarrolladores deben incorporar activamente perspectivas trans y neurodivergentes en las fases de diseño y capacitación, evitando los sesgos cisnormativos o neurotípicos que pueden afectar a estas tecnologías”.
Pero incluso los intentos de solucionar estos problemas podrían causar problemas bajo la administración actual: “Los esfuerzos para recopilar más datos sobre poblaciones transgénero y neurodivergentes, aunque bien intencionados, pueden exponer inadvertidamente a estos grupos a una mayor vulnerabilidad”, dijo Parks.
A pesar de las fallas actuales en la tecnología de inteligencia artificial, las personas trans todavía la utilizan como terapia y no pueden encontrar un terapeuta viable en el mundo real. Haimson dijo que la popularidad del uso de la IA para la terapia “es una respuesta a la falta de acceso a los servicios de salud mental que enfrenta tanta gente. Si bien las personas pueden encontrar útiles a los ‘terapeutas’ de IA, es importante tener en cuenta que los chatbots de IA pueden poner a las personas en riesgo porque no tienen la educación y la certificación para poder brindar atención de salud mental de manera ética”, agregó.
“Además, en su mayoría no están regulados y no se les puede responsabilizar si algo sale mal. Para las personas trans, que a menudo necesitan proveedores de atención de salud mental de calidad que les ayuden a navegar la exploración de género y los casos de discriminación y acoso contra las personas trans, la atención de salud mental basada en IA puede ser especialmente riesgosa. Necesitamos solucionar el verdadero problema aquí, que es la escasez de proveedores de atención de salud mental y la falta de acceso para quienes más lo necesitan”.
Suscríbete al Boletín de la Nación LGBTQ y sé el primero en conocer los últimos titulares que dan forma a las comunidades LGBTQ+ en todo el mundo.



