A Annie Leibovitz no le preocupan los peligros de las imágenes generadas por IA

Gabriel Oviedo

A Annie Leibovitz no le preocupan los peligros de las imágenes generadas por IA

La fotógrafa Annie Leibovitz dice que no le preocupa la amenaza potencial que representa la inteligencia artificial para la fotografía.

Muchos artistas e incluso algunos expertos de la industria tecnológica se han alarmado por la reciente y rápida proliferación de herramientas de inteligencia artificial que pueden generar imágenes convincentes a partir de mensajes de texto, infringiendo potencialmente el trabajo protegido por derechos de autor de los artistas y eliminando la necesidad de fotógrafos humanos reales.

Las principales empresas de software de IA, incluidas Midjourny y Stability AI, ya han sido demandadas por un grupo de artistas visuales que afirman que las empresas utilizaron ilegalmente su arte para entrenar sus sistemas de IA. Dicen que los usuarios pueden generar arte con el software que es “indistinguible” de sus obras originales.

Leibovitz, sin embargo, dijo a la Agencia France-Presse que no le preocupan los riesgos potenciales que plantea la tecnología.

“Eso no me preocupa en absoluto”, dijo la fotógrafa en una entrevista coincidiendo con su ingreso a la Academia Francesa de Bellas Artes esta semana.

De hecho, Leibovitz parece ansioso por adoptar la IA como herramienta en la fotografía. “Con cada avance tecnológico, surgen dudas y preocupaciones”, afirmó. “Sólo hay que dar el paso y aprender a utilizarlo”.

“La fotografía en sí misma no es realmente real”, añadió. “Me gusta usar PhotoShop. Utilizo todas las herramientas disponibles”.

Al mismo tiempo, los críticos dicen que la IA puede usarse indebidamente para crear imágenes y videos convincentemente realistas de celebridades y políticos diciendo y haciendo cosas que, de hecho, nunca dijeron o hicieron. Expertos, legisladores y figuras públicas han advertido sobre el peligro que representan los “deepfakes” generados por IA en la difusión de información errónea, así como la capacidad de la tecnología para crear imágenes y videos falsos y explícitos de celebridades e incluso niños.

En 2019, los legisladores del Congreso introdujeron la “Ley de Responsabilidad de FALSIFICACIONES PROFUNDAS”, que requeriría que los creadores colocaran una marca de agua digital en las imágenes deepfake. Otro proyecto de ley, la Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales (DEFIANCE), presentada en enero, permitiría a las víctimas demandar a las personas que creen imágenes falsas de ellas sin consentimiento.

En un testimonio ante el Congreso el año pasado, Sam Altman, el CEO gay de OpenAI, dijo que estaba preocupado por la capacidad de la tecnología “para manipular, persuadir y proporcionar una especie de desinformación interactiva uno a uno”. Altman dijo que apoyaba la creación de una agencia gubernamental que podría ayudar a establecer estándares de seguridad y auditorías para evitar que la IA infrinja las leyes de derechos de autor, instruya a las personas sobre cómo infringir las leyes, recopile ilegalmente datos de usuarios e impulse publicidad engañosa.

Sin embargo, no se comprometería a rediseñar OpenAI para evitar el uso de obras protegidas por derechos de autor de artistas, sus voces o sus imágenes sin recibir primero el consentimiento de los artistas.