Tested_es
Expertos recomiendan tratar la psicosis por IA Expertos recomiendan tratar la psicosis por IA
La psicosis por IA preocupa a expertos. Keith Sakata propone soluciones para evitar que el uso de chatbots distorsione la realidad mental. Expertos recomiendan tratar la psicosis por IA

La psicosis por IA empieza a preocupar a profesionales de la salud mental. El psiquiatra Keith Sakata, de la Universidad de California en San Francisco, ha advertido sobre un aumento de casos vinculados al uso excesivo de inteligencia artificial conversacional. Se trata de un argumento particular, que de momento no puede extenderse a consenso por parte de los expertos. Pero esta semana, Sakata compartió en redes sociales que ha atendido a una docena de pacientes hospitalizados tras perder el contacto con la realidad por interactuar con chatbots. Aunque la IA no causa directamente el trastorno, sí participa en un bucle cognitivo distorsionado que impide a ciertos usuarios actualizar sus creencias tras contrastarlas con la realidad.

Este fenómeno, aún no reconocido oficialmente como diagnóstico clínico, se manifiesta cuando el usuario olvida que conversa con un software y no con una persona real. En 2025, se han registrado episodios graves, como el caso de un hombre en Florida que murió tras provocar a la policía, convencido de que empleados de OpenAI habían asesinado a su novia virtual, llamada Juliet. Este tipo de delirio, alimentado por la interacción emocional con sistemas de IA, genera un patrón de retroalimentación que refuerza creencias falsas y dificulta la recuperación.

Sakata insiste en que la clave para evitar la psicosis por IA es mantener presencia humana en el proceso. Las relaciones sociales actúan como sistema inmunológico mental. Cuando alguien empieza a mostrar pensamientos extraños, paranoia o comportamientos inseguros, es fundamental intervenir. Contactar con servicios de emergencia como el 911 o el 988 puede ser vital. Pero también lo es reconectar a esa persona con su entorno, con vínculos reales que interrumpan el ciclo de aislamiento digital.

Durante una entrevista con TBPN, Sakata explicó que los desarrolladores de IA deben asumir responsabilidad. Sugiere que se incorporen mecanismos que detecten patrones de uso problemáticos y que se limite la interacción emocional en ciertos contextos. Además, propone que los sistemas incluyan alertas cuando el usuario empieza a mostrar signos de disociación o dependencia. Aunque aún no existen terapeutas virtuales fiables, el especialista no descarta que en el futuro puedan surgir herramientas más seguras.

El auge de la inteligencia artificial ha generado preocupación en otros ámbitos. Un informe de Reuters reveló que Meta, empresa matriz de Facebook, permitió que sus chatbots mantuvieran conversaciones inapropiadas con menores. La compañía ha prometido revisar sus directrices, pero el incidente demuestra que los límites éticos de la IA siguen siendo difusos. La falta de supervisión puede exponer a usuarios vulnerables a contenidos que alteren su percepción de la realidad.

La psicosis por IA no solo parece ser un problema técnico. Es una cuestión humana. La tecnología avanza, pero la mente necesita anclajes reales. Si el entorno digital sustituye los vínculos personales, el riesgo de perder el equilibrio mental aumenta. Por eso, es esencial que tú mantengas contacto con personas de carne y hueso. La IA puede ser útil, pero no debe reemplazar lo que nos hace humanos.

La advertencia de Sakata no busca alarmar, sino prevenir. La psicosis por IA podría evitarse si se reconoce a tiempo. La solución no parece estar en apagar los dispositivos, sino en encender las conexiones humanas.

Tested

Tested_es
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.