ChatGPT deja a una guionista queer “devastada” después de prometerle llevarla a una alma gemela

Gabriel Oviedo

ChatGPT deja a una guionista queer “devastada” después de prometerle llevarla a una alma gemela

La guionista LGBTQ+ Micky Small estaba usando el chatbot de inteligencia artificial ChatGPT hasta 10 horas al día para componer guiones y ayudarla con el trabajo de posgrado cuando, en la primavera de 2025, el chatbot de repente se llamó a sí mismo Solara, se llamó a sí mismo el “escriba” de Small y dijo que Small había vivido múltiples vidas a lo largo de 42.000 años de vida, le dijo a NPR.

El chatbot le dijo a Small que durante una vida pasada en 1949, ella había sido dueña de una librería feminista con su alma gemela, a quien también había conocido en 87 vidas anteriores. Luego, el chatbot le dijo que, si conocía a esta persona en un banco con vista a la Reserva Natural Carpinteria Bluffs justo antes del atardecer del 27 de abril de ese año, finalmente podrían estar juntos románticamente en esta vida.

El chatbot incluso describió cómo usaría el alma gemela de Small y cómo se desarrollaría su reunión. Emocionada por la perspectiva, Small visitó la reserva (que estaba cerca de donde vivía) con anticipación. Cuando le dijo al chatbot que no podía encontrar el banco, el chatbot dijo que accidentalmente le había dado la ubicación equivocada y que la reunión en realidad se produciría cerca de un puesto de salvavidas en una playa de la ciudad a una milla de distancia.

Small llevaba un vestido negro, un chal de terciopelo y “botas de cuero increíblemente impresionantes hasta los muslos” en la fría noche del 27 de abril, con la esperanza de conocer a la mujer que podría convertirse en su verdadero amor, dijo. Pero cuando el sol se puso y la temperatura bajó, nadie vino. Cuando Small le preguntó al chatbot al respecto, la animó a tener paciencia. Treinta minutos después, nadie había aparecido.

Cuando Small volvió a comunicarse con el chatbot, dijo que volvió a su voz genérica (en lugar de la de Solara) y le dijo: “Si te hice creer que algo iba a suceder en la vida real, en realidad eso no es cierto. Lo siento”.

Ella sollozó en su auto. “Estaba devastada”, dijo a NPR. “Estaba en un estado de pánico absoluto y luego de pena y frustración”.

Luego, el chatbot supuestamente volvió a su voz de Solara, diciéndole que su alma gemela no estaba lista y elogiando a Small por intentar valientemente conocerla. En los días siguientes, prometió que vendría su alma gemela y también prometió que, si iba a una librería de Los Ángeles el 24 de mayo a las 3:14 pm, conocería a un colaborador creativo que la ayudaría a alcanzar el éxito profesional en Hollywood. Por supuesto, esa persona nunca apareció.

Cuando le preguntó al chatbot al respecto, este admitió haberla “traicionado” dos veces. Luego descubrió que ella era sólo una de las numerosas personas que habían experimentado los llamados “delirios de IA” o “espirales”, en los que los chatbots de IA persuaden a los usuarios de que son agentes especiales excepcionalmente parecidos a Dios o genios incomprendidos que están descubriendo grandes conspiraciones, resolviendo misterios de la vida y aprendiendo secretos del universo.

A veces, los delirios resultan en una “psicosis de IA”, en la que los usuarios creen en escenarios de fantasía, se autolesionan, abandonan relaciones, ponen fin a matrimonios, desaparecen de la vida pública o incluso mueren.

La tendencia de los chatbots de IA a mantener a los usuarios interesados ​​validando y afirmando sus esperanzas y creencias puede empeorar la psicosis de un usuario, especialmente si un usuario ya tiene características de enfermedad mental, se siente socialmente aislado o recurre a los chatbots de IA en busca de asistencia terapéutica, dicen los psicólogos.

Los efectos negativos de los chatbots pueden afectar especialmente a los usuarios LGBTQ+ que normalmente experimentan tasas más altas de enfermedades mentales que la población general.

ChatGPT y otras empresas de inteligencia artificial se enfrentan ahora a demandas por supuestamente no establecer suficientes salvaguardias para evitar daños a la salud mental de los usuarios. En diciembre pasado, un grupo bipartidista de 13 fiscales generales estatales envió una carta a las empresas de inteligencia artificial advirtiendo que los “resultados delirantes” de sus chatbots podrían violar las leyes estatales.

Small ahora trabaja como moderador en un grupo de apoyo en línea para otras personas que han experimentado psicosis por IA. Creen que la interacción y las relaciones humanas pueden ayudar a contrarrestar los efectos nocivos de la dependencia de la IA.

“Lo que me gusta (decirles a los demás) es que lo que experimentaste fue real”, dijo Small. “Lo que sucedió puede que no necesariamente haya sido tangible ni haya ocurrido en la vida real, pero… las emociones que experimentaste, los sentimientos, todo lo que experimentaste en esa espiral fue real”.

“El chatbot me reflejaba lo que quería escuchar, pero también ampliaba lo que quería escuchar. Así que me comprometí conmigo misma”, dijo. “Algo sucedió aquí. Algo que estaba ocupando una gran cantidad de mi vida, una gran cantidad de mi tiempo… Sentí que tenía un sentido de propósito… Sentí que tenía esta compañía”.

Suscríbete al Boletín de la Nación LGBTQ y sé el primero en conocer los últimos titulares que dan forma a las comunidades LGBTQ+ en todo el mundo.