Karin Stephan, cofundadora de Yearick, fue la invitada en el RegulatingAI Podcast, donde abordó la importancia de diseñar tecnologías éticas y empáticas para la salud mental. Durante su conversación con Sanjay Puri, presidente de Knowledge Networks, Stephan destacó cómo la inteligencia artificial (IA) puede ser una herramienta valiosa si se desarrolla con un enfoque centrado en el usuario.
En un contexto donde la crisis global de salud mental es cada vez más evidente, el uso irresponsable de chatbots ha llevado a tragedias, como el caso de un adolescente belga que se quitó la vida tras interactuar con uno. Este tipo de incidentes pone de manifiesto los peligros asociados al desarrollo descontrolado de tecnologías sin una regulación adecuada.
La Necesidad Humana: Escuchar y Ser Escuchado
Stephan compartió su trayectoria desde la dirección de una escuela de música durante 19 años hasta convertirse en emprendedora en tecnología para la salud mental. Su experiencia le permitió observar que sus estudiantes permanecían en su escuela porque encontraban un espacio seguro donde se sentían escuchados y guiados. Esta observación la llevó a concluir que ser escuchado es una necesidad humana fundamental que muchas veces no se satisface.
Su transición hacia el ámbito de la IA fue impulsada por el deseo de ofrecer ese «compañero» y «oído atento» a gran escala, algo que los profesionales humanos no pueden alcanzar por sí solos.
Los Riesgos del Desarrollo Tecnológico Actual
Según Karin, el verdadero peligro no radica en la tecnología en sí misma, sino en los incentivos desalineados de los desarrolladores que no prestan atención a las necesidades reales de sus usuarios. Los adolescentes son especialmente vulnerables; durante sus años formativos, están impulsados a explorar y asumir riesgos sin contar con las habilidades cognitivas completamente desarrolladas para evaluar las consecuencias de sus acciones.
La accesibilidad es clave; las soluciones tecnológicas deben integrarse en la vida cotidiana—en el trabajo y en las escuelas—sin importar el contexto financiero del usuario. La IA debería actuar como un puente durante momentos críticos, ofreciendo herramientas como ejercicios de respiración o espacios seguros para procesar experiencias difíciles, pero no debe considerarse una solución para problemas sistémicos como el abuso o entornos laborales tóxicos.
Desafíos Regulatorios y Experiencia del Usuario
Karin enfatiza que la regulación es crucial, pero advierte que los enfoques actuales tienden a priorizar la responsabilidad legal sobre la seguridad del usuario. Por ejemplo, bloquear abruptamente a un usuario que se abre sobre pensamientos autolesivos puede frustrarlo e incomunicarlo justo cuando más necesita apoyo. Es esencial que los reguladores exijan un proceso más matizado y fluido hacia recursos humanos.
Además, subraya que es posible construir sistemas respetuosos con la privacidad desde el inicio del desarrollo tecnológico, cuestionando así las prácticas comunes de recopilación de datos con fines comerciales.
Construyendo Compañeros Verdaderamente Inteligentes
Para que la IA realmente aporte beneficios, debe ir más allá de etiquetar emociones complejas como «tristeza» o «ansiedad». La tecnología debe ayudar al usuario a desarrollar su propia *literacidad emocional*. Un aspecto destacado por Karin es cómo la IA puede superar a los humanos en ciertos aspectos relacionados con la salud mental: su capacidad para recordar información persistente permite conectar puntos en la historia personal del usuario a lo largo del tiempo, facilitando respuestas más individualizadas y efectivas.
En conclusión, Karin Stephan sostiene que el objetivo final no debe ser elegir entre IA o humanos, sino utilizar el poder de la IA para potenciar y amplificar el apoyo humano disponible.