AI schools LGBTQ+ students

Esteban Rico

La IA en las escuelas pone en riesgo a los estudiantes LGBTQ+, revela un nuevo estudio

Un nuevo informe advierte que el uso de inteligencia artificial y vigilancia digital en las escuelas de EE. UU. representa un riesgo para los estudiantes LGBTQ+ y podría vulnerar sus derechos.

Expertos del Centro para la Democracia y la Tecnología, una organización no partidista y sin fines de lucro que aboga por los derechos civiles en el mundo digital, han publicado un informe sobre las experiencias de profesores, estudiantes y padres con respecto a la privacidad de los datos de los estudiantes, el filtrado y bloqueo de contenidos y el seguimiento de la actividad de los estudiantes. e IA generativa (programas como ChatGPT).

En el informe, publicado el miércoles (20 de septiembre), los investigadores descubrieron que la tecnología utilizada para bloquear contenido explícito para adultos y señalar a los estudiantes en riesgo de autolesionarse o dañar a otros está poniendo en riesgo a los estudiantes que ya son vulnerables, particularmente aquellos que son LGBTQ+, discapacitados o estudiantes de color.

Para su muestra, el Centro para la Democracia y la Tecnología encuestó a 1.029 estudiantes de noveno a 12.° grado, 1.018 padres de estudiantes de 6.° a 12.° grado y 1.005 maestros de estudiantes de 6.° a 12.° grado.

El estudio encontró que los alumnos LGBTQ+ tienen más probabilidades de enfrentar consecuencias negativas por su actividad en línea a través del monitoreo de la actividad estudiantil que sus compañeros heterosexuales cisgénero.

El veintinueve por ciento de los estudiantes LGBTQ+ informaron que ellos mismos u otro estudiante habían sido descubiertos como LGBTQ+, lo cual es un “evento potencialmente traumático”, y la mitad (50 por ciento) de todos los estudiantes LGBTQ+ encuestados dijeron que ellos u otro alumno habían sido disciplinados por hacer algo en línea, en comparación con el 39 por ciento de los estudiantes no LGBTQ+.

Se descubrió que el seguimiento de la actividad de los estudiantes está muy extendido: casi nueve de cada 10 profesores (88 por ciento) informaron que se utiliza en dispositivos proporcionados por la escuela. Cuatro de cada 10 profesores también dijeron que su escuela monitorea los dispositivos personales de los estudiantes. Este seguimiento se lleva a cabo tanto dentro como fuera del horario escolar: el 38 por ciento de los docentes informó que se realizaba seguimiento fuera del horario escolar.

Un tercio de los profesores entrevistados dijo que es más probable que el contenido relacionado con temas LGBTQ+ y el contenido que explora la raza esté restringido por filtros de contenido de IA. El centro dijo que esto “equivale a una prohibición de libros digitales” similar a las recientes restricciones legales y prohibiciones de materiales LGBTQ+, como la denostada ley de Florida ‘No decir gay’.

La encuesta también señala que la mayoría de padres, estudiantes y profesores sufren una “confusión generalizada” sobre el papel de la inteligencia artificial en el aula, y dicen que quieren más información y formación sobre cómo utilizarla correctamente.

Los mismos investigadores advirtieron hace algún tiempo sobre el potencial de la inteligencia artificial y la tecnología de vigilancia para dañar a la comunidad LGBTQ+. En 2022, el Centro para la Democracia y la Tecnología publicó el artículo de investigación. ‘Daños ocultos: dirigidos a estudiantes LGBTQ+’, que destacó exactamente estas preocupaciones.

Descubrió que los algoritmos utilizados por las escuelas escaneaban los mensajes, documentos y sitios web de los estudiantes que visitaban para encontrar palabras como “gay” y “lesbiana” y señalarlas automáticamente a los profesores. Aunque esto fue aparentemente por “seguridad” de los estudiantes, era más probable que fuera perjudicial, ya que equivalía a “salir sin consentimiento”.

El veintitrés por ciento de los estudiantes dijeron que ellos, o alguien que conocían, habían sido descubiertos ante los maestros o los padres por esta tecnología. También encontró que los estudiantes LGBTQ+ tenían más probabilidades de ser disciplinados por maestros y padres debido a los hallazgos de la tecnología de moderación.

Al comentar sobre los resultados del estudio, Elizabeth Laird, directora de equidad en tecnología cívica del Centro para la Democracia y la Tecnología, dijo: “Hay ciertos grupos de estudiantes que ya deberían estar protegidos por las leyes de derechos civiles existentes y, sin embargo, todavía están experimentando consecuencias desproporcionadas y negativas debido al uso de estos datos y tecnología educativos”.

La Casa Blanca publicó un documento técnico sobre la Declaración de Derechos de la IA en octubre de 2022, que describe un conjunto de principios para ayudar a guiar de manera responsable el diseño y el uso de la inteligencia artificial.

Sin embargo, los grupos de derechos civiles, incluidos la ACLU, la Asociación Estadounidense de Bibliotecarios Escolares, la Asociación Estadounidense de Bibliotecas, el Fondo de Defensa de los Derechos de las Personas con Discapacidad en la Educación y la Fundación Frontera Electrónica, firmaron una carta que acompaña al informe de 2022 del Centro para la Democracia y la Tecnología pidiendo “educación- protecciones relacionadas” a raíz del “surgimiento explosivo de la IA generativa”.

A pesar de esto, el 57 por ciento de los docentes en la encuesta más reciente dijeron que no han recibido ninguna capacitación sustancial en IA desde que se redactó el documento técnico del Blueprint.

Según el Centro para la Democracia y la Tecnología, un número cada vez mayor de estudiantes y padres expresan su preocupación sobre cómo estas tecnologías podrían causar daño a los estudiantes marginados.

Sobre lo que debe suceder a continuación para protegerlos, el centro dijo: “Las escuelas deben ser más intencionales en la forma en que utilizan estas tecnologías para asegurarse de que no discriminen ni causen otros daños.

“Deben garantizar que las tecnologías se implementen de manera que beneficien a todos los estudiantes”.