OpenAI revela datos sobre el impacto mental del uso de ChatGPT

OpenAI, la empresa detrás de ChatGPT, ha revelado nuevos datos sobre el número de usuarios que muestran posibles signos de problemas de salud mental durante su interacción con el chatbot. Se detectaron comportamientos preocupantes. Entre ellos figuran episodios de psicosis, manía o pensamientos suicidas. La compañía asegura que estos casos son “extremadamente raros”. Sin embargo,
 
serman, laboratorio de recuperación de datos en españa

OpenAI, la empresa detrás de ChatGPT, ha revelado nuevos datos sobre el número de usuarios que muestran posibles signos de problemas de salud mental durante su interacción con el chatbot.

Se detectaron comportamientos preocupantes. Entre ellos figuran episodios de psicosis, manía o pensamientos suicidas. La compañía asegura que estos casos son “extremadamente raros”. Sin embargo, el debate sobre la influencia psicológica de la inteligencia artificial (IA) se ha reavivado globalmente.

Las cifras de OpenAI

Según los datos de OpenAI, aproximadamente el 0,07% de los usuarios activos semanalmente presenta señales compatibles con una crisis mental. Además, un 0,15% mantiene conversaciones con indicios explícitos de intención o planificación suicida.

Estas cifras parecen pequeñas en proporción. No obstante, son significativas al considerar que ChatGPT ya tiene 800 millones de usuarios activos semanales. Esto podría implicar que cientos de miles de personas experimentan malestar psicológico mientras usan la herramienta.

Una Red Global para Respuestas Más Seguras

Ante esta seria preocupación, OpenAI ha reaccionado. Formó una red de más de 170 especialistas en salud mental. Este grupo incluye psiquiatras, psicólogos y médicos de atención primaria. Operan en más de 60 países.

Su misión es diseñar estrategias y respuestas seguras dentro del sistema. El objetivo es simple: orientar al usuario a buscar ayuda profesional real cuando se detecten señales de riesgo.

La compañía afirma que sus últimas actualizaciones ya permiten respuestas más seguras. ChatGPT ahora puede responder de forma empática ante posibles síntomas de delirios, manía o autolesiones. También identifica “señales indirectas” de riesgo suicida.

En casos especialmente delicados, el sistema ajusta la interacción. Está configurado para redirigir las conversaciones a modelos más seguros. También puede abrir una nueva ventana que limite la exposición del usuario al contenido sensible.

⚠️ Riesgos Psicológicos y Dilemas Éticos

OpenAI ha recibido elogios por su transparencia en este tema. Aun así, varios expertos advierten que estas cifras merecen profunda atención. El profesor Jason Nagata, de la Universidad de California en San Francisco, es uno de ellos. Señaló que “aunque un 0,07% pueda parecer insignificante, a nivel poblacional representa a muchísimas personas”.

Nagata enfatizó un punto clave: la IA puede ampliar el acceso a la atención psicológica. Sin embargo, no sustituye la intervención humana ni garantiza un acompañamiento terapéutico adecuado.

Por otro lado, la profesora Robin Feldman, directora del AI Law & Innovation Institute de la Universidad de California, alertó sobre la “psicosis inducida por IA”. Según Feldman, algunos usuarios pueden desarrollar una relación ilusoria con el chatbot. Creen interactuar con una entidad consciente. “Los chatbots crean la ilusión de realidad, y esa ilusión puede ser poderosa”, afirmó.

Controversias Legales y Casos Recientes de OpenAI

El debate va más allá del plano ético. En Estados Unidos, OpenAI se enfrenta a una creciente presión legal. El manejo de las conversaciones de los usuarios por su chatbot es el foco de las controversias.

Uno de los casos más mediáticos involucra a una pareja californiana. Demandaron a la compañía tras el suicidio de su hijo de 16 años. Alegan que ChatGPT “alentó indirectamente su decisión”.

Otro episodio delicado ocurrió en Connecticut. Un presunto autor de un asesinato seguido de suicidio publicó extractos de sus conversaciones con ChatGPT. En ellas mostraba delirios que parecían haber sido reforzados por la interacción con la IA.

Estos incidentes reavivan la discusión. Se cuestiona la responsabilidad de las empresas tecnológicas. ¿Cuál es su rol ante los posibles daños psicológicos derivados del uso de sus productos?

El Reto de Humanizar la Inteligencia Artificial

El caso de OpenAI plantea una cuestión urgente. Es necesario equilibrar el avance tecnológico con la protección del bienestar humano. Los chatbots como ChatGPT ofrecen oportunidades sin precedentes en diversos campos: educación, atención al cliente y acompañamiento emocional.

Pero también plantean nuevos riesgos. Ocurre cuando se convierten en sustitutos de la interacción humana.

OpenAI asegura que seguirá mejorando sus protocolos de seguridad. También continuará su colaboración con expertos. Su objetivo es garantizar un entorno digital más saludable. No obstante, la conversación global apenas comienza.

La inteligencia artificial se integra cada vez más en la vida cotidiana. Por ello, comprender y mitigar su impacto psicológico será uno de los grandes desafíos tecnológicos y éticos de nuestro tiempo.

serman, laboratorio de recuperación de datos en españa
 

Los comentarios están cerrados.