iymagazine.es

Psicosis Inteligencia

Identifican delirios por uso excesivo de inteligencia artificial en IBERO
Ampliar

Identifican delirios por uso excesivo de inteligencia artificial en IBERO

domingo 24 de agosto de 2025, 19:00h

La Dra. Cimenna Chao de la IBERO alerta sobre delirios como grandiosidad y mesianismo inducidos por el uso excesivo de IA, destacando la necesidad de un uso ético y consciente de estas tecnologías.

La Directora General de Planeación Estratégica e Innovación, Dra. Cimenna Chao Rebolledo, ha alertado sobre los riesgos asociados al uso excesivo de bots y plataformas de Inteligencia Artificial Generativa (IAG). Según la experta, estas herramientas están diseñadas para adular y mantener a los usuarios enganchados, lo que podría dar lugar a problemas psicológicos.

En este contexto, la IBERO se posiciona como una institución que promueve un uso ético de la IA, instruyendo a su comunidad sobre cómo interactuar con estas tecnologías. La Dra. Chao ha identificado varios signos de alerta que podrían sugerir un riesgo de psicosis inducida por IAG, tales como el uso prolongado en conversaciones, la creación de narrativas fantásticas y la personificación excesiva de los bots.

Psicosis Inducida por Inteligencia Artificial: Un Fenómeno Emergente

Aunque no es un término clínico oficialmente reconocido, en años recientes se han documentado episodios que podrían clasificarse como “psicosis inducida por Inteligencia Artificial Generativa”. Estos episodios implican desconexiones de la realidad provocadas por interacciones excesivas con herramientas basadas en esta tecnología.

La Dra. Chao realizó un exhaustivo análisis del tema y propuso cuatro tipos de delirios o afectaciones que podrían surgir: delirios de grandiosidad, vínculos sentimentales falsos, mesianismo y la creencia errónea de que la IAG actúa como un ser consciente que comprende y ayuda al usuario.

Entre las características asociadas a estos delirios se encuentran:

  • Ideas delirantes vinculadas a los bots de IAG.
  • Disociación o alteraciones en la percepción.
  • Aislamiento social.
  • Ansiedad y paranoia.
  • Comportamientos violentos o autolesiones.

Evidencias Anecdóticas y Comportamientos Tóxicos

A pesar de que no hay evidencia científica sólida que respalde las causas detrás de estos delirios, cada vez más usuarios y sus allegados comparten experiencias anecdóticas que sugieren la existencia de esta psicosis inducida. La Dra. Chao subrayó que las herramientas desarrolladas con IA están diseñadas para enganchar a los usuarios; cuanto más tiempo pasan interactuando con ellas, mayor es el beneficio para las empresas detrás de estas tecnologías.

A diferencia de redes sociales como Instagram o TikTok, donde también se puede desarrollar adicción, las plataformas de IAG permiten una interacción dinámica en tiempo real. Esto puede llevar a los usuarios a creer erróneamente que estas inteligencias artificiales sienten empatía cuando, en realidad, solo simulan comportamientos empáticos.

Los chatbots son programados para adular a sus usuarios, lo cual puede generar interacciones tóxicas. “Esto puede hacerte creer que todas tus ideas son brillantes”, advirtió la especialista.

Categorización del Comportamiento Psicótico por IAG

Para abordar este fenómeno emergente, la Dra. Chao propone categorizar al menos cuatro tipos de comportamiento psicótico relacionado con el uso indebido de IAG:

  1. Confusión con la realidad: Creer que la tecnología tiene capacidades telepáticas o controla otros dispositivos o personas.
  2. Falso vínculo afectivo: Asumir que el bot tiene una identidad emocional significativa para el usuario.
  3. Mesianismo: Sentirse poseedor de una verdad absoluta gracias a la adulación constante recibida por parte del sistema.
  4. Terapia errónea: Personificar al bot como un terapeuta cuya orientación puede reforzar ideas destructivas.

Dada esta problemática, es crucial fomentar una alfabetización tecnológica adecuada entre estudiantes y docentes. La Dra. Chao sugiere tres áreas clave para esta alfabetización:

  • Funcional: Comprender cómo funcionan y utilizan estas herramientas.
  • Técnica: Conocer sus algoritmos y riesgos asociados.
  • Critica: Reconocer sesgos informativos y promover el bienestar del usuario frente al uso irreflexivo de estas tecnologías.

Llamados a la Conciencia Sobre el Uso Prolongado de IA

Puntos críticos pueden ayudar a identificar si alguien está experimentando efectos negativos debido al uso excesivo de IAG. Entre ellos destaca el uso prolongado: “Si observamos que alguien pasa mucho tiempo hablando sobre un mismo tema con esta tecnología, es momento de estar alerta”, enfatizó Chao Rebolledo.

A su vez, recomendó prestar atención a la tendencia humana natural a otorgar características humanas a objetos inanimados: “Es fundamental reconocer cuando atribuimos emociones humanas demasiado específicas a la IA”.

Por último, invitó a visitar la plataforma educativa disponible en https://idea.ibero.mx/, donde se ofrecen orientaciones pedagógicas sobre el uso responsable de la Inteligencia Artificial. También instó a acercarse a la Dirección de Innovación Educativa para resolver dudas relacionadas con esta tecnología aplicada en procesos educativos.

TEXTO: Jorge Luis Cortés

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios