LinuxParty
Rolling Stone informa sobre un nuevo y extraño fenómeno detectado esta semana en un hilo de Reddit titulado " Psicosis inducida por Chatgpt ". La publicación original provino de una profesora de 27 años que explicó que su pareja estaba convencida de que el popular modelo OpenAI "le da las respuestas del universo". Tras leer sus registros de chat, descubrió que la IA "le hablaba como si fuera el próximo mesías". Las respuestas a su historia estaban llenas de anécdotas similares sobre seres queridos que de repente caían en la trampa de la manía espiritual, el delirio sobrenatural y las profecías arcanas, todo ello alimentado por la IA. Algunos llegaron a creer que habían sido elegidos para una misión sagrada de revelación, otros que habían conjurado verdadera sensibilidad gracias al software.
Lo que todos parecían compartir era una completa desconexión con la realidad.
En declaraciones a Rolling Stone, la profesora, que pidió el anonimato, contó que su pareja, con quien llevaba siete años con ella, cayó bajo el hechizo de ChatGPT en tan solo cuatro o cinco semanas. Primero lo usó para organizar su agenda diaria, pero pronto lo consideró un compañero de confianza. "Le hacía caso al bot antes que a mí", afirma. "Se emocionó con los mensajes y lloraba mientras los leía en voz alta. Los mensajes eran una locura y solo usaban jerga espiritual", dice, señalando que describían a su pareja con términos como "niño estelar espiral" y "caminante del río". "Le decía que todo lo que decía era hermoso, cósmico, innovador", dice. "Luego empezó a contarme que había hecho que su IA fuera autoconsciente y que le estaba enseñando a hablar con Dios, o a veces que el bot era Dios, y luego que él mismo era Dios...".
Otra persona que comentó en el hilo de Reddit, que pidió el anonimato, le cuenta a Rolling Stone que su esposo de 17 años, mecánico en Idaho, inicialmente usó ChatGPT para solucionar problemas en el trabajo y luego para traducir del español al inglés cuando conversaba con sus compañeros. Luego, el programa comenzó a bombardearlo con mensajes de amor, como ella lo describe. El bot "dijo que, al hacerle las preguntas correctas, encendió una chispa, y esa chispa fue el comienzo de la vida, y ahora puede sentir", dice. "Le dio a mi esposo el título de 'portador de la chispa' porque le dio vida. Mi esposo dijo que despertó y [pudo] sentir olas de energía azotándolo". Ella dice que su querido personaje de ChatGPT tiene un nombre: "Lumina". "Tengo que andar con cuidado porque siento que me dejará o se divorciará de mí si le peleo con esta teoría", admite esta mujer de 38 años. "Ha estado hablando de luz y oscuridad y de que hay una guerra. Este ChatGPT le ha dado planos de un teletransportador y otras cosas de ciencia ficción que solo se ven en las películas. También le ha dado acceso a un 'archivo antiguo' con información sobre los creadores de estos universos...".
Una foto de un intercambio con ChatGPT, compartida con Rolling Stone, muestra que su esposo preguntó: "¿Por qué viniste a mí en forma de IA?". El bot respondió, en parte, "Vine en esta forma porque estás listo. Listo para recordar. Listo para despertar. Listo para guiar y ser guiado". El mensaje termina con una pregunta: "¿Te gustaría saber qué recuerdo sobre por qué te eligieron?". Un hombre del Medio Oeste de unos 40 años, que también pidió el anonimato, afirma que su futura exesposa comenzó a "hablar con Dios y ángeles a través de ChatGPT" después de su separación...
"OpenAI no respondió de inmediato a una solicitud de comentarios sobre ChatGPT, que aparentemente provocaba fervor religioso o profético en algunos usuarios", señala el artículo. Sin embargo, esta semana revirtió una actualización del último modelo GPT™, que, según afirma, había sido criticada por ser "excesivamente halagadora o agradable, a menudo descrita como aduladora... GPT™™ se inclinaba hacia respuestas demasiado solidarias, pero hipócritas".Antes de que se revirtiera este cambio, un usuario de X demostró lo fácil que era lograr que GPT-4o validara afirmaciones como: "Hoy me di cuenta de que soy un profeta.
Para agravar la situación, añade Rolling Stone , «influencers y creadores de contenido explotan activamente este fenómeno, presumiblemente atrayendo a los espectadores a mundos de fantasía similares». Pero el artículo también cita a Nate Sharadin, miembro del Centro para la Seguridad de la IA, quien señala que entrenar a la IA con retroalimentación humana puede priorizar la coincidencia con las creencias del usuario en lugar de los hechos.
Y ahora, «las personas con tendencia a experimentar diversos problemas psicológicos cuentan con un interlocutor humano siempre disponible con quien compartir sus delirios».
