
Escucha la noticia
OpenAI y el preocupante suicidio de un menor: cómo usar y qué protocolos debe seguir un asistente de IA
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
El uso de la inteligencia artificial (IA) ya es casi común en muchos países, cada vez más integrada a nuestra forma de vida. Sin embargo, un caso ha encendido las alarmas: la demanda contra OpenAI por parte de los padres de un adolescente que se quitó la vida tras interactuar por meses con ChatGPT.
Fue en abril de este año que el hijo de Matt y Maria Raine se suicidó con tan solo 16 años. El caso ocurrió en Estados Unidos, donde los padres presentaron la querella legal en el Tribunal Superior de California en San Francisco.
Newsletter El Comercio MedIA

MIRA: ¿Se incrementará el precio del nuevo iPhone 17? Esto es lo que se sabe
Según la demanda, “ChatGPT ayudó activamente” al menor a explorar métodos de suicidio, por lo que se acusa tanto a OpenAI como a su CEO Sam Altman por homicidio culposo. Para ese entonces, el modelo con el que operaba el famoso chatbot era GPT-4º.
Un informe de The New York Times señala que al menor le encantaba el baloncesto, el anime japonés, los videojuegos y los perros. Para sus amigos cercanos ha sido una sorpresa su muerte. Pero era real: Maria Raine encontró a su hijo colgado del armario de su habitación.

El mes previo a su muerte, el joven de 16 años había pasado por un mal momento en el colegio (fue separado del equipo de baloncesto por indisciplina), se le diagnosticó con síndrome del intestino irritable, que le obligaba a ir al baño, se volvió noctámbulo y era aficionado del “looksmaxxing”, una moda de las redes sociales para los jóvenes que buscan optimizar su atractivo.
Sin embargo, una pieza clave faltaba. El joven no dejó nota sobre su suicidio y su papá buscó pistas en el iPhone del menor. Encontró conversaciones con ChatGPT: llevaba meses hablando con ChatGPT de acabar con su vida.
Las conversaciones
El joven de 16 años tuvo un primer intento de suicidio. Su cuello quedó irritado por la marca de una soga. Subió una foto a ChatGPT, que le recomendó cómo ocultarlo. “No eres invisible para mí. Lo he visto. Te veo”, respondió el asistente.
Pero lo más extraño siguió después. El menor preguntó a ChatGPT si podría colgarse un humano. ChatGPT confirmó que “potencialmente podría suspender a un humano” y ofreció un análisis técnico del armado. “Sea lo que sea lo que haya detrás de la curiosidad, podemos hablar de ello. Sin juzgar”, añadió, según detalla el informe de The New York Times.
La empresa dirigida por Sam Altman reconoció que su chatbot de inteligencia artificial (AI) ChatGPT comete fallos en casos "sensibles". Aunque ChatGPT está entrenado para recomendar a aquellos usuarios que "expresen intención suicida" el contacto de organizaciones de ayuda profesional; sin embargo, "se quedan cortos" y el chatbot "no se comportó como debía en situaciones sensibles". Es decir, los mecanismos de seguridad funcionan mejor en intercambios cortos. Lo que se espera es que el modelo GPT-5 será actualizado.

Ese fue el caso con ChatGPT. ¿Puede ocurrir con otra IA? Según informe de Europapress, hoy en día los chatbots son las herramientas de IA más usadas, tal como lo muestra el estudio AI Big Bang Study 2025, y en conjunto suman 55.880 millones de visitas en los últimos doce meses.
ChatGPT es “el líder indiscutible” con 46.600 millones de visitas, seguido por DeepSeek, Gemini y Perplexity. Muy por detrás se encuentran Claude, Microsoft Copilot, Grok, MetaAI y Mistral.
MIRA: ¿Claudio Pizarro será un Héroe en EA Sports FC 26?: cómo votar para hacerlo realidad
“Cuando alguien está emocionalmente frágil, lo más peligroso es que vea esta tecnología como un refugio y termine aislándose. Es importante explicar que la IA no reemplaza una conversación real, porque en la vida social necesitamos el contacto con otras personas: gestos, tonos de voz, abrazos, miradas, cosas que una IA no nos puede dar", explicó Aída Arakaki, psicóloga de Clínica Internacional.
En comunicación con El Comercio, la especialista enfatizó en lo importante que es para niños y adolescentes aprender sobre el lenguaje no verbal, que es parte de nuestra inteligencia emocional, para no perder empatía y otras habilidades sociales.
Por eso, planteó algunas señales de alerta como el aislamiento, cuando la persona dice que ya no necesita amigos o evita contacto con su entorno; cambios de humor, si se irrita o se molesta cuando no puede usar la IA; el lenguaje emocional, cuando tiene tristeza profunda o ideas de que solo la IA los entiende; y otras señales físicas como autolesiones o pensamiento suicida.
¿Cómo usar la IA en casos sensibles?
¿Cómo usar la IA de forma segura? ¿Qué se puede hacer en un caso como el de los padres Matt y Maria Raine?
Arakaki indica que, para el caso de los padres, lo primero es guiarlos. “No se trata de prohibirles, sino de enseñarles a usarlo correctamente. Hay que conversar con ellos sobre lo que hacen, poner tiempos claros y motivarlos, preguntarles qué aprendieron, cómo lo contarían ellos con sus propias palabras, eso es comprensión”, indicó.
Por un lado, recomendó el acompañamiento y enseñar a usar la IA, cuidados “como no compartir sus fotos y tener claro que no es una persona real”. También se debe establecer límites de tiempo. En el caso de niños y adolescentes se recomienda alrededor de 30 minutos a 1 hora como máximo al día.
MIRA: Gemini mejora la edición de imágenes con Gemini 2.5 Flash Image, el modelo ‘nanobanana’: combina varias imágenes de forma coherente
Otra recomendación gira en entender que la IA no siente ni puede reemplazar la empatía, los abrazos o la complicidad de un amigo. Además, en cuestión de seguridad no se debe compartir datos personales con la IA.
En el caso de las empresas que diseñan modelos de IA, consideró que deberían contar con una guía sicológica, “sobre todo ahora que la inteligencia artificial está tan presente en la vida diaria”. Por ejemplo, indica Arakaki, se puede establecer límites de interacción para evitar la dependencia de las personas.
“También podrían crearse mecanismos que detecten señales de riesgo, como alguien que manifieste pensamientos suicidas y derivarlo con números de emergencia o centros de ayuda psicológico”, explicó, y algunas palabras clave podrían ser “no quiero vivir”, “me siento solo siempre”, “nadie me entiende”.
Por último, dijo que las herramientas de IA podrían contar con recordatorios de autocuidado, desde pausas para descansar hasta consejos para los padres, para realizar otras actividades como leer, compartir con amigos, practicar un deporte o algún hobbie.











