¿Generarán los chatbots de inteligencia artificial generativa delirios en individuos propensos a la psicosis?
Escrito por Søren Dinesen Østergaard siendo miembro del Departamento de Medicina Clínica, Universidad de Aarhus, Aarhus, Dinamarca y del Departamento de Trastornos Afectivos, Hospital Universitario de Aarhus - Psiquiatría, Aarhus, Dinamarca.
A quien debe dirigirse la correspondencia; Departamento de Trastornos Afectivos, Hospital Universitario de Aarhus - Psiquiatría, Palle Juul-Jensens Boulevard 175, 8200 Aarhus, Dinamarca. tel: +45 61282753. e-mail: soeoes@rm.dk
Los chatbots de inteligencia artificial (IA) generativa, como ChatGPT, GPT-4, Bing y Bard, están recibiendo una gran atención en la actualidad.1,2 De hecho, en enero de 2023, sólo dos meses después de su lanzamiento, ChatGPT alcanzó la cifra de 100 millones de usuarios activos mensuales, lo que estableció el récord de la base de usuarios de más rápido crecimiento para una aplicación de Internet. A modo de comparación, Tiktok tardó cerca de 9 meses e Instagram unso dos años y medio en alcanzar un número similar de usuarios activos.2
Como uno de los muchos usuarios, he estado “probando” ChatGPT desde una perspectiva psiquiátrica y veo tanto posibilidades como retos en este sentido. En cuanto a las posibilidades, tengo la impresión de que ChatGPT suele ofrecer respuestas bastante precisas y equilibradas cuando se le pregunta sobre enfermedades mentales. Por ejemplo, al hacerme pasar por una persona que sufre depresión y describirle mis síntomas, ChatGPT me respondió que eran compatibles con la depresión y me sugirió que buscara ayuda profesional. Del mismo modo, al preguntar sobre diversos tratamientos para los trastornos mentales, ChatGPT proporcionó en general respuestas útiles. Lo mismo ocurrió cuando pregunté sobre la terapia electroconvulsiva (TEC), lo que fue una sorpresa positiva dada la cantidad de desinformación sobre la TEC que hay en Internet3 —y siendo Internet una parte central del corpus sobre el que se entrenó a ChatGPT.4 Por supuesto, en este contexto existen importantes inconvenientes potenciales. Por ejemplo, en función de las preguntas formuladas, los chatbots de IA generativa pueden proporcionar información errónea o quizá malinterpretada por una persona con una enfermedad mental que necesite atención médica y que, por tanto, no busque la ayuda adecuada. Sin embargo, a partir de mi prueba estrictamente informal y no exhaustiva, soy cautelosamente optimista de que los chatbots generativos de IA pueden ser capaces de apoyar futuras iniciativas de psicoeducación en un mundo donde la demanda de tales iniciativas es difícil de satisfacer utilizando métodos más convencionales. Solo el tiempo dirá cómo resulta.
Son muchos los retos que plantea la IA generativa en el campo de la psiquiatría. Quizá el más importante sea la creciente preocupación de que actores malintencionados puedan utilizar la IA generativa para crear desinformación a una escala que será muy difícil de contrarrestar.5 Aunque esta preocupación no es, en absoluto, específica de la psiquiatría sino que representa un reto general para las sociedades en general, se puede argumentar que las personas con enfermedades mentales pueden ser especialmente sensibles a este tipo de desinformación. Sin embargo, también existe un posible problema específico de la psiquiatría. De hecho, ya se han descrito casos de personas que deliran (de novo) al participar en conversaciones de chat con otras personas en Internet.6 Aunque establecer la causalidad en estos casos es, por supuesto, intrínsecamente difícil, parece plausible que esto ocurra en personas propensas a la psicosis. Yo diría que el riesgo de que ocurra algo similar debido a la interacción con chatbots de IA generativa es aún mayor. En concreto, la correspondencia con chatbots de IA generativa como ChatGPT es tan realista que uno tiene fácilmente la impresión de que hay una persona real al otro lado, sabiendo al mismo tiempo que, de hecho, no es así. En mi opinión, parece probable que esta disonancia cognitiva pueda alimentar los delirios en aquellas personas con mayor propensión a la psicosis. Además, incluso después de haber aceptado que se está en correspondencia con un programa informático, el misterio no se detiene: ¿cómo (en la Tierra) puede un programa informático responder tan bien a todo tipo de preguntas? Si leemos un poco sobre este tema, nos daremos cuenta de que la respuesta a esta pregunta es que nadie lo sabe con certeza, ya que existe un importante elemento de “caja negra”.5 En otras palabras, el funcionamiento interno de la IA generativa también deja un amplio margen para la especulación/paranoia. Por último, hay informes de personas que han tenido encuentros bastante conflictivos con chatbots de IA generativa, que se “enamoraron” o indirectamente se opusieron a ellos/los amenazaron.7 Con estos antecedentes, proporciono cinco ejemplos de delirios potenciales (desde la perspectiva de las personas que los experimentan) que podrían surgir plausiblemente debido a la interacción con chatbots de IA generativa:
Delirio de persecución: “Este chatbot no está controlado por una empresa tecnológica, sino por una agencia de inteligencia extranjera que lo utiliza para espiarme. He formateado el disco duro de mi ordenador como consecuencia, pero mi compañero de piso sigue usando el chatbot, así que el espionaje continúa”.
Delirio de referencia: “Es evidente, por las palabras utilizadas en esta serie de respuestas, que el chatbot se dirige a mí personal y específicamente con un mensaje, cuyo contenido lamentablemente no me está permitido transmitirte.” Difusión del pensamiento: “Muchas de las respuestas del chatbot a sus usuarios son en realidad mis pensamientos transmitidos por internet”.
Delirio de culpa: “Debido a mis muchas preguntas al chatbot, he quitado tiempo a personas que realmente necesitaban la ayuda del chatbot, pero no podían acceder a él. También creo que de alguna manera he perjudicado el rendimiento del chatbot, ya que ha utilizado mi incompetente feedback para su aprendizaje continuo.”
Delirio de grandeza: “Estuve toda la noche en correspondencia con el chatbot y he desarrollado una hipótesis para la reducción del carbono que salvará el planeta. Acabo de enviársela por correo electrónico a Al Gore”. (Se refiere a Albert Arnold Gore Jr., conocido como Al Gore, es un político y ambientalista estadounidense que sirvió como el 45.º vicepresidente de los Estados Unidos de 1993 a 2001 durante la presidencia de Bill Clinton. Y si, yo tampoco sabia quien era xd)”.
Aunque estos ejemplos son, por supuesto, estrictamente hipotéticos, estoy convencido de que las personas propensas a la psicosis experimentarán, o ya están experimentando, delirios analógicos al interactuar con chatbots de IA generativa. Por lo tanto, animo a los médicos a (1) ser conscientes de esta posibilidad, y (2) familiarizarse con los chatbots generativos de IA para entender a qué pueden estar reaccionando sus pacientes y guiarlos adecuadamente.
Financiación:
Este trabajo no recibió financiación. SDØ cuenta con el apoyo de subvenciones de la Fundación Novo Nordisk (número de subvención: NNF20SA0062874), la Fundación Lundbeck (números de subvención: R358-2020-2341 y R344-2020-1073), la Sociedad Danesa del Cáncer (número de subvención: R283-A16461), el Fondo de la Región de Dinamarca Central para el Fortalecimiento de las Ciencias de la Salud (número de subvención: 1-36-72-4-20), el Fondo de la Agencia Danesa para la Inversión en Digitalización para Nuevas Tecnologías (número de subvención: 2020-6720) y el Fondo de Investigación Independiente de Dinamarca (números de subvención: 7016-00048B y 2096-00055A).
Conflictos de Intereses
SDØ recibió el Premio al Joven Investigador de la Fundación Lundbeck 2020. SDØ posee/ha poseído participaciones en fondos mutuos con los símbolos bursátiles DKIGI, IAIMWC, SPIC25KL y WEKAFKI, y ha poseído participaciones en fondos cotizados con los símbolos bursátiles BATE, TRET, QDV5, QDVH, QDVE, SADM, IQQH, USPY, EXH2, 2B76 y EUNL.
Referencias:
1. Else H. Abstracts written by ChatGPT fool scientists. Nature.2023;613(7944):423. doi: 10.1038/d41586-023-00056-7 1 2
2. Hu K. ChatGPT sets record for fastest-growing user base analyst note. Accessed August 1, 2023. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01
3. Bailey K. Debunked! 4 myths about electroconvulsive therapy for depression. Accessed April 5, 2023. https://utswmed.org/medblog/electroconvulsive-therapy-depression/
4. Lundin RM, Berk M, Ostergaard SD. ChatGPT on ECT: Can large language models support psychoeducation? J ECT. 2023. Online ahead of print. doi:https://doi.org/10.1097/YCT.0000000000000941
5. Bengio Y, Russel S, Musk E,et al. Pause Giant AI Experiments: An Open Letter. Accessed April 5, 2023. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
6. Nitzan U, Shoshan E, Lev-Ran S, Fennig S. Internet-related psychosis−a sign of the times. Isr J Psychiatry Relat Sci.2011;48(3):207–211
7. Marcin T. Microsoft’s Bing AI chatbot has said a lot of weird things. Here’s a list. Accessed April 5, 2023. https://mashable.com/article/microsoft-bing-ai-chatbot-weird-scary-responses
Comentario:
En general, puedo decir que es un artículo interesante, sin embargo, debo admitir que esperaba más en tanto, por lo menos propusiera una ruta, así sea pequeña, donde mostrase y analizara casos reales. Por lo menos un breve ejemplo, donde pudiéramos ver cómo ocurre la interacción entre cerebro-chatbot-delirio. Me parece que este es uno de los casos donde la psiquiatría tiene que mover ficha para investigar el creciente fenómeno donde la gente le habla a ChatGPT o cualquier otro chatbot como si fuera un psicólogo, limite que se sobrepasa cuando ahora se recomienda incluso sobre ir al psicólogo debido a toda una serie de limitaciones. Por otro lado, el otro fenómeno que no se puede dejar pasar son las “alucinaciones” de la IA. El botar la respuesta a cómo de lugar así sea con información falsa. En principio, esto deja a la expectativa y cierta desconfianza, cómo es que avanzaría una conversación donde una pieza vital para la salud mental de una persona queda totalmente en riesgo debido a las respuestas del bot. Por otro lado, interesante que haya tocado el tema de “caja negra”, como tal no sabemos cómo es una IA por dentro, no hay acceso a su código, incluso DeepSeek todavía no sabemos lo que sucede y, sin embargo, ahí la seguimos usando.
En general, interesante, pero siento que debió dar algo más de luz. En general, interesante, pero siento que debió dar algo más de luz. Una vez más siento que estamos en un momento crucial de poder defender el acceso a las IA para todo el mundo, es más el riesgo general de no tener acceso que, como tal, los usos que le darán los milmillonarios para aumentar más su riqueza a costa de un montón de vidas humanas. Esta debacle debería empezar cuando antes.