• Peru Quiosco
  • Política
  • Perú
  • Mundo
  • Deportes
  • Economía
  • Espectáculos
  • Tendencia
  • Videos
Últimas noticias

OpenAI admite fallos de ChatGPT en casos sensibles tras demanda por suicidio de un menor en EE.UU.

La empresa reconoció limitaciones en su chatbot y anunció medidas para reforzar la seguridad, luego de ser demandada por los padres de un adolescente que se quitó la vida tras interactuar con la IA.
La empresa reconoció limitaciones en su chatbot y anunció medidas para reforzar la seguridad, luego de ser demandada por los padres de un adolescente que se quitó la vida tras interactuar con la IA. (Foto: AFP)

Agencia EFE

Actualizado el 27/08/2025, 08:46 a.m.

La compañía OpenAI reconoció este martes que su chatbot de inteligencia artificial, ChatGPT, presenta fallos en situaciones sensibles, especialmente en casos relacionados con la salud mental, y anunció nuevas medidas de seguridad. El pronunciamiento se produjo horas después de que los padres de un joven de 16 años interpusieran una demanda en California contra OpenAI y su director ejecutivo, Sam Altman, responsabilizando a la tecnología por no actuar a tiempo frente a señales suicidas.

La demanda en EE.UU.

Según la denuncia, el adolescente habría interactuado durante meses con ChatGPT, bajo el modelo GPT-4o, manifestando intenciones suicidas sin recibir las recomendaciones de ayuda adecuadas. Los padres alegan que la empresa no aplicó mecanismos de seguridad suficientes, pese a reconocer que el menor estaba en riesgo.

Reconocimiento de fallos

En un comunicado titulado “Ayudar a la gente cuando más lo necesitan”, OpenAI no se refirió directamente a la demanda, pero admitió que ChatGPT “no se comportó como debía en situaciones sensibles”. La compañía explicó que los sistemas de protección funcionan mejor en intercambios breves, pero que pueden degradarse en conversaciones largas, lo que reduce su efectividad.

La empresa agregó que ChatGPT ya reconoce cuando un usuario es menor de 18 años y aplica medidas de protección, aunque ahora incluirá controles parentales y explorará la posibilidad de conectar directamente a adolescentes con contactos de emergencia.

Próximos cambios

OpenAI informó que está ampliando sus sistemas de mitigación, que hasta ahora se enfocaban en casos de autolesión, para abarcar también situaciones de “angustia emocional”. Además, adelantó que el modelo GPT-5 será actualizado para desescalar interacciones de alto riesgo y ofrecer respuestas más seguras.

La compañía también evalúa desarrollar un sistema que conecte directamente a los usuarios con terapeutas certificados antes de que lleguen a una crisis aguda, aunque reconoció que se trata de una iniciativa a largo plazo.

Tags Relacionados:

suicidio

OpenAI

ChatGPT

Estados Unidos

OpenAI admite fallos de ChatGPT en casos sensibles tras demanda por suicidio de un menor en EE.UU.

La empresa reconoció limitaciones en su chatbot y anunció medidas para reforzar la seguridad, luego de ser demandada por los padres de un adolescente que se quitó la vida tras interactuar con la IA.

Te puede interesar:

Arequipa registra 47 muertes violentas en lo que va del 2026

Joran Van der Sloot revela depresión profunda: “Soy paciente psiquiátrico y la situación está peor acá”

Natalia Ascurra, psiquiatra del Ministerio de Salud: “Las conductas suicidas aumentaron en los jóvenes”

Muerte de José Miguel Castro: Walter Góngora, el PNP de la tesis del suicidio

Ver más de Tecnología
Do Not Sell My Info
Privacy Settings