A medida que se acercan las elecciones nacionales de noviembre, Sam Altman, el director ejecutivo gay de la enormemente influyente empresa de inteligencia artificial (IA) OpenAI, ha presentado recientemente un plan para evitar que la desinformación generada por la IA interfiera con el resultado.
El plan de tres puntos de la compañía busca prevenir abusos (como que las personas generen imágenes y audio “deepfake” engañosos o aplicaciones destinadas a influir en las personas haciéndose pasar por candidatos), facilitar que las personas detecten contenido generado por IA y garantizar que los usuarios tengan acceso. a información electoral precisa.
Altman ha dicho anteriormente que teme que los candidatos o las empresas puedan usar algoritmos para conocer las inclinaciones políticas de un individuo y luego adaptar mensajes engañosos a través de IA que podrían inducirlos a tomar acciones que de otro modo no tomarían.
Para detener ese mal uso de su tecnología, OpenAI dijo que no permite a las personas crear aplicaciones basadas en su tecnología para campañas políticas y lobby. Esto incluye no permitir chatbots que pretendan ser personas reales (como candidatos) o instituciones (como gobiernos locales y juntas electorales), o no permitir la creación de aplicaciones basadas en OpenAI que disuadan a las personas de votar o mientan sobre procesos y calificaciones.
Estas precauciones anunciadas pueden ser en respuesta a las llamadas automáticas que recibieron los votantes de las primarias de New Hampshire en las que un audio falso del presidente Joe Biden parecía decirle a la gente que no votara.
Los usuarios podrán informar dichos chatbots a OpenAI para su desactivación. Al mismo tiempo, OpenAI dijo que su aplicación ChatGPT generará cada vez más respuestas basadas en informes en tiempo real atribuidos y vinculados a fuentes de noticias confiables para que las personas puedan entender de dónde obtienen la información. ChatGPT también dirigirá las preguntas de los usuarios sobre la votación a CanIVote.org, un sitio web autorizado que proporciona información electoral en todo el país.
Las imágenes fotorrealistas creadas con el generador de imágenes DALL-E de OpenAI rechazarán las solicitudes para generar imágenes de personas reales, incluidos los candidatos. Las imágenes de DALL-E también incluirán datos cifrados para ayudar a identificar su fabricación, agrega el plan. OpenAI ya puso estas herramientas de detección de IA a disposición de periodistas, plataformas de redes sociales e investigadores, dijo la compañía.
Por supuesto, ninguna de estas precauciones significa que la gente no intentará utilizar el software actualmente disponible de OpenAI para generar desinformación. Otras herramientas impulsadas por IA pueden ayudar fácilmente a los malos actores a generar rápidamente artículos de noticias falsas que parezcan autorizadas o publicaciones escritas en las redes sociales, crear clips de audio realistas de celebridades y desarrollar rápidamente sitios web de propaganda que inunden Internet con desinformación. De hecho, los candidatos presidenciales republicanos ya utilizaron deepfakes generados por IA durante sus primarias.
Con más de 64 países celebrando elecciones este año, OpenAI dice que planea emitir salvaguardias a nivel internacional para prevenir el fraude también en el extranjero. Mientras tanto, los demócratas y republicanos en Estados Unidos están considerando crear una agencia de supervisión gubernamental que, como dijo el líder de la mayoría del Senado, Chuck Schumer (D-NY), “proporcione IA transparente y responsable sin sofocar la innovación crítica y de vanguardia”.
Cuando habló ante el Congreso en mayo pasado, Altman apoyó la creación de una agencia gubernamental que podría ayudar a establecer estándares de seguridad y auditorías para evitar que la IA infrinja las leyes de derechos de autor, instruya a las personas sobre cómo infringir las leyes, recopile ilegalmente datos de usuarios e impulse publicidad engañosa. Esta agencia regularía los productos de IA de manera similar a como la Administración de Alimentos y Medicamentos (FDA) supervisa los productos y medicamentos ingeribles.
Sin embargo, los expertos dicen que el Congreso ya está muy atrasado en la regulación del uso generalizado de estas herramientas y es poco probable que apruebe algún proyecto de ley regulatorio importante antes de noviembre.