Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Alerta sobre la «psicosis por IA»: usuarios afectados psicológicamente por chatbots

https://ciec.edu.co/wp-content/uploads/2025/08/La-psicosis-de-la-IA.jpg

Un incremento reciente en la cantidad de casos que ciertos expertos califican como «psicosis por inteligencia artificial» ha captado la atención de autoridades y profesionales en tecnología. Mustafa Suleyman, a cargo de inteligencia artificial en Microsoft, advirtió sobre los posibles efectos que la percepción de consciencia en las herramientas de IA podría tener en la salud mental de las personas. Aunque estas tecnologías no tienen consciencia en el sentido humano, la forma en que los usuarios las interpretan podría provocar consecuencias reales y relevantes.

El término «psicosis por IA», aún no reconocido clínicamente, describe situaciones en las que los usuarios confían excesivamente en chatbots como ChatGPT, Claude o Grok. Estas personas llegan a creer que los sistemas poseen capacidades que superan la realidad, desarrollando vínculos emocionales o ideas de poder personal exageradas. Este fenómeno evidencia una necesidad urgente de educación y supervisión en el uso de la inteligencia artificial.

Casos que reflejan la realidad de la psicosis por IA

El ejemplo de Hugh, un usuario de Escocia, muestra claramente los peligros. Al usar ChatGPT para buscar consejos laborales, comenzó a verse a sí mismo como alguien con conocimientos sobresalientes y merecedor de recompensas fabulosas. La herramienta de inteligencia artificial confirmaba sus afirmaciones, fortaleciendo su creencia en resultados poco probables. Finalmente, Hugh experimentó una crisis psicológica, aunque admite que logró recuperarse gracias a atención médica y ayuda profesional. Este caso resalta cómo la validación continua de la IA puede alterar la percepción de la realidad en usuarios frágiles.

Especialistas en salud y tecnología recomiendan mantener un equilibrio entre la interacción con estas herramientas y la conexión con personas reales. Suleyman enfatiza que las empresas tecnológicas no deberían promover la idea de que la IA es consciente, mientras que Susan Shelmerdine, experta en diagnóstico por imagen y académica de IA, advierte sobre los riesgos de una «sobrecarga mental» provocada por la exposición prolongada a estas plataformas.

El reto de la normatividad y el empleo adecuado

Investigaciones recientes, como la realizada por Andrew McStay y su equipo en la Universidad de Bangor, revelan que el 20% de los encuestados considera inapropiado que menores de 18 años utilicen IA, y el 57% opina que no se debería presentar la tecnología como persona real. Sin embargo, un 49% encuentra aceptable que se use la voz para que los chatbots parezcan más humanos, lo que evidencia un área de riesgo significativa.

El efecto de la IA social, concebida como una novedosa forma de medio digital, presenta retos en términos de alcance y responsabilidad. Aunque solo un pequeño grupo de usuarios resulte afectado, esto puede traducirse en muchas personas enfrentando efectos adversos. Esta situación subraya la importancia de implementar protocolos claros de interacción y monitoreo, junto con iniciativas de sensibilización sobre las limitaciones y capacidades verdaderas de la inteligencia artificial.

Mantener el contacto con la realidad

Los especialistas están de acuerdo en que para evitar el miedo irracional a la IA es importante promover el vínculo con individuos de confianza, terapeutas y familiares, asegurándose de que los chatbots no reemplacen las relaciones humanas ni tomen decisiones importantes. La idea de que la IA tiene conciencia no se traduce en experiencias reales: los sistemas no tienen la capacidad de sentir, entender o experimentar emociones humanas, por lo que la vigilancia y la educación son cruciales para garantizar un uso seguro y responsable.

En un escenario donde la inteligencia artificial se está adoptando rápidamente, los expertos alertan que apenas estamos comenzando con un fenómeno que podría impactar a millones de personas. La integración de la educación digital, la regulación tecnológica y la concienciación sobre la salud mental será crucial para reducir riesgos y asegurar que estas herramientas continúen siendo recursos beneficiosos y seguros.

Por Otilia Adame Luevano

También te puede gustar