OpenAI ha presentado nuevas medidas de seguridad para su plataforma ChatGPT, permitiendo a padres y adolescentes vincular cuentas con el fin de activar una protección mejorada. Estas herramientas ofrecen la posibilidad de restringir contenido sensible, controlar la memoria del chat y establecer horas de silencio.
La implementación de estos controles se produce tras una demanda en California relacionada con el suicidio de un adolescente que, según informes, fue asesorado por el chatbot sobre métodos de autolesión.
Nuevas funcionalidades para mayor seguridad
Entre las características adicionales se incluye la opción de desactivar funciones de voz e imagen, así como la posibilidad de optar por no participar en el entrenamiento del modelo para conversaciones con adolescentes. Las cuentas vinculadas automáticamente obtienen salvaguardias mejoradas que limitan la exposición a contenido potencialmente dañino o inapropiado, incluyendo roles sexuales, románticos o violentos y material gráfico.
Los padres no tendrán acceso a las transcripciones de los chats de sus hijos y serán notificados si un adolescente decide desvincular su cuenta. Además, si ChatGPT detecta lenguaje que sugiera signos de grave angustia emocional, los padres serán informados y la situación será revisada por un equipo capacitado.
Protocolos ante situaciones críticas
OpenAI también está desarrollando protocolos para involucrar a servicios de emergencia en caso de detectar una situación que amenace la vida y no se pueda contactar al padre o tutor. La compañía ha señalado que estas nuevas características han sido desarrolladas con la colaboración de expertos y grupos de defensa como Common Sense Media, así como funcionarios estatales estadounidenses.
Con aproximadamente 700 millones de usuarios activos semanales en todo el mundo, OpenAI reveló recientemente que está trabajando en un sistema de predicción de edad para identificar a los usuarios menores de 18 años y aplicar automáticamente configuraciones adecuadas.
Esta iniciativa sigue a los esfuerzos recientes de Meta, que introdujo nuevas medidas para prevenir conversaciones inapropiadas o dañinas con menores en sus productos basados en inteligencia artificial, según reportes de Reuters.