La tecnología de reconocimiento facial con IA podría tener consecuencias devastadoras para las personas trans

Gabriel Oviedo

La tecnología de reconocimiento facial con IA podría tener consecuencias devastadoras para las personas trans

Siempre ha sido difícil encontrar una sensación de seguridad en Internet como persona queer. Y con un mundo digital que cambia rápidamente, las cosas parecen volverse cada vez más complejas.

Para mí, el surgimiento de la IA (inteligencia artificial) surgió de la nada: no sabía nada sobre el tema y luego mi feed se inundó de capturas de pantalla de chatbots, dramas deepfake y videos musicales generados.

Por supuesto, todo esto plantea la pregunta: ¿qué es exactamente la IA? Ha dado pasos agigantados en los últimos tiempos, pero también llevamos muchos años utilizando versiones simplificadas.

En pocas palabras, la inteligencia artificial es la “inteligencia” exhibida por máquinas que puede reflejar la capacidad humana: la capacidad de aprender, leer, escribir, crear y analizar.

Por supuesto, esta misma definición se pone en duda si se tiene en cuenta que la IA se entrena con conjuntos de datos preexistentes: todo lo que la máquina “crea” se regurgita a partir de conocimientos pasados. Por ejemplo, si utiliza la popular herramienta ChatGPT y le pide que le escriba una historia original, hará lo mejor que pueda, pero sería imprudente publicar estos trabajos, ya que es probable que reflejen material previamente publicado con derechos de autor.

En algunos casos, la IA puede resultar útil. Ya está alterando la fuerza laboral a medida que los empleadores eligen la IA para crear contenido más rápido (aunque a menudo con menor calidad) de lo que podría hacerlo una persona. La IA se utiliza en la investigación médica y otros campos STEM; El uso de IA puede reducir drásticamente el tiempo que le tomaría a un individuo procesar grandes cantidades de datos.

Lamentablemente, los rasgos que hacen que la IA sea tan útil en algunas circunstancias también la hacen enormemente perjudicial en otras. Cuando descubrí por primera vez el procesamiento de imágenes y los transcriptores de imágenes con IA, puse algunas imágenes mías por curiosidad. En su mayoría obtuve resultados precisos: descriptores como 'joven con cabello rosado', 'hombre de veintitantos años sonriendo levemente', etc.

Sin embargo, cuando se le pide a la IA que genere una imagen de una persona trans, los resultados se vuelven terriblemente ofensivos.

Sourojit Ghosh, investigador del diseño de sistemas centrados en el ser humano, encuentra problemas preocupantes en la forma en que Stable Diffusion, un procesador de imágenes, conceptualiza la personalidad. “Considera que las personas no binarias son las que menos se parecen a una persona o las que están más alejadas de su definición de 'persona'”.

Ghosh señaló que cuando se le pidió a Diffusion que produjera imágenes de personas con indicaciones que incluyeran “no binario”, el programa se confundió y a menudo creó una monstruosa amalgama de rostros humanos que no se parecían a ninguna persona real. De manera similar, incluir indicaciones para “hombre trans” o “mujer trans” puede confundir a la IA, dar como resultado imágenes hipersexualizadas a pesar de una indicación neutral, o dar como resultado una versión vergonzosamente estereotipada y vergonzosa de cómo podría verse una persona trans.

Lo que es más preocupante para muchas personas transgénero y/o no binarias es el creciente impulso al software de reconocimiento facial de IA. El uso del software de análisis facial está aumentando con fines de marketing y seguridad; Como si la idea de una cámara escaneando tu rostro para usarla en estadísticas de marketing no fuera lo suficientemente preocupante, no está claro qué significa esto para las personas transgénero.

“Descubrimos que los servicios de análisis facial funcionaron consistentemente peor en personas transgénero y fueron universalmente incapaces de clasificar géneros no binarios”, dijo el autor principal Morgan Klaus Scheuerman, estudiante de doctorado en el departamento de Ciencias de la Información de la Universidad de Colorado. “Si bien existen muchos tipos diferentes de personas, estos sistemas tienen una visión extremadamente limitada de cómo se ve el género”. Esto podría significar que el software etiqueta incorrectamente a las personas transgénero con una frecuencia que causaría problemas en los resultados finales.

Los investigadores recopilaron 2.450 imágenes de rostros de Instagram. Luego, las imágenes se dividieron en siete grupos de 350 imágenes (#mujeres, #hombres, #mujeres trans, #hombres trans, #agender, #agenderqueer, #nonbinary) y posteriormente fueron analizadas por cuatro de los mayores proveedores de servicios de análisis facial (IBM, Amazon). , Microsoft y Clarifai).

Tanto los hombres como las mujeres cisgénero tuvieron altas tasas de precisión: el 98,3% de las mujeres cis y el 97,6% de los hombres cis fueron identificados de acuerdo con su género.

Pero fuera de las personas cis, el sistema empezó a tener más inconvenientes. Los hombres trans fueron identificados erróneamente como mujeres hasta el 38% de las veces; aquellos que se identificaron como agenero, queer o no binario (lo que indica que no se identifican ni como hombres ni como mujeres) fueron caracterizados erróneamente el 100% de las veces.

“Estos sistemas corren el riesgo de reforzar los estereotipos sobre cómo debes lucir si quieres ser reconocido como hombre o mujer. Y eso afecta a todos”. dijo Scheuerman.

A medida que el software de análisis facial se vuelve cada vez más común, no está claro cómo se verán afectadas las personas transgénero. Soy una persona preocupada por naturaleza, pero mi mente no puede evitar correr con los peores escenarios. ¿Podría fallar la autorización de seguridad por no coincidir con el género en mi tarjeta de identificación?

Ya está bien documentado que las personas trans enfrentan más dificultades en las autorizaciones de seguridad y pueden estar sujetas a cacheos si algo en su físico parece “mal”. Un ejemplo notable de esto es el asalto a Megan Beezley, una mujer trans a quien la TSA cacheó de manera inapropiada y le pidió que mostrara una identificación adicional en el Aeropuerto Internacional de Raleigh-Durham (esta historia me tocó muy de cerca, ya que crecí en Durham). , y parte de mi impulso para mudarme fuera del estado fue la creciente incidencia de crímenes de odio queer).

Si este software se vuelve público, ¿podrán todos encontrar fotografías mías del pasado, antes de la transición, ingresando una imagen mía ahora? Parece que el futuro de volverse 'sigilo' (pasar en tu vida diaria como tu identidad de género elegida, sin aclarar que hiciste la transición) está en riesgo, ya que podrías tener que discutir sobre tus rasgos faciales con cualquiera y con todos. quién utiliza este software.

Está claro que estos programas necesitan más trabajo antes de ser utilizados en público; después de todo, un sistema que no puede identificar correctamente a un grupo completo de personas es, por decir lo menos, defectuoso.