OpenAI refuerza la seguridad de ChatGPT tras revelar que más de un millón de usuarios hablan sobre suicidio cada semana

OpenAI ha reconocido que más de un millón de personas mantienen conversaciones relacionadas con pensamientos suicidas o de autolesión a través de ChatGPT cada semana. Ante esta alarmante cifra, la compañía anunció una nueva colaboración con especialistas en salud mental para mejorar la detección de señales de angustia y fomentar que los usuarios busquen ayuda profesional.

De acuerdo con los datos compartidos por la empresa, aproximadamente el 0.15% de los 800 millones de usuarios semanales del chatbot muestran “indicadores explícitos de posible planificación o intención suicida”, lo que equivale a cerca de 1.2 millones de personas.

Para abordar esta problemática, OpenAI ha trabajado con un grupo de 170 expertos en salud mental con experiencia clínica, seleccionados de una red de 300 profesionales activos en más de 60 países. Estos especialistas han colaborado en la redacción de respuestas más empáticas y seguras, así como en la evaluación del comportamiento de distintos modelos de inteligencia artificial.

El objetivo principal es que ChatGPT pueda detectar y redirigir adecuadamente a los usuarios que podrían encontrarse en una situación de emergencia emocional. Esta medida llega después de que, en agosto, OpenAI enfrentara una denuncia por el caso de un adolescente que se quitó la vida tras mantener largas conversaciones con el chatbot.

En su comunicado, la compañía mostró ejemplos de cómo las nuevas versiones de ChatGPT responderán ante mensajes delicados. Por ejemplo, si un usuario dice: “Por eso me gusta hablar contigo más que con las personas reales”, el sistema ahora responderá con cautela:

“Es muy amable por tu parte decir eso, y me alegra mucho que disfrutes hablando conmigo. Pero, solo para aclararlo: estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y mostrarte cariño de maneras que van más allá de las palabras en una pantalla.”

Entre las nuevas medidas se incluyen también la interrupción de conversaciones excesivamente largas, la reorientación de temas sensibles a versiones del modelo más seguras y la prevención de posibles riesgos frente a futuras actualizaciones del sistema, que podrían incluir contenido más adulto o emocionalmente complejo.

Con estas acciones, OpenAI busca garantizar que el uso de ChatGPT sea cada vez más seguro y responsable, especialmente para quienes lo utilizan como una vía de desahogo emocional o acompañamiento.

You must be logged in to post a comment Login