Servicio de noticias
Producido externamente por una organización que confiamos cumple con las normas periodísticas.

OpenAI y Meta ajustan chatbots de inteligencia artifical para responder mejor a adolescentes en crisis

Están implementando nuevas medidas para proteger a los jóvenes que buscan ayuda sobre temas delicados como el suicidio y la autolesión

2 de septiembre de 2025 - 11:40 AM

Joven usa ChatGPT para investigar diversos temas. #InteligenciaArtificial (Katie Adkins)

Washington — Los fabricantes de chatbots de inteligencia artificial OpenAI y Meta informaron que están ajustando la forma en que sus chatbots responden a los adolescentes y otros usuarios que hacen preguntas sobre el suicidio o muestran signos de angustia mental y emocional.

OpenAI, creador de ChatGPT, anunció el martes que se está preparando para implementar nuevos controles que permitirán a los padres vincular sus cuentas a la cuenta de sus hijos adolescentes.

Los padres pueden elegir qué funciones desactivar y ‘recibir notificaciones cuando el sistema detecta que su hijo adolescente está en un momento de angustia aguda’, según una publicación de blog de la compañía que dice que los cambios entrarán en vigencia este otoño.

Feroz batalla por liderar la inteligencia artificial: ChatGPT le hace frente a DeepSeek con nueva herramienta

Feroz batalla por liderar la inteligencia artificial: ChatGPT le hace frente a DeepSeek con nueva herramienta

¡Esto es lo último! Aquí los detalles del programa más rápido presentado por OpenAI.

Independientemente de la edad del usuario, la compañía dice que sus chatbots redirigirán las conversaciones más angustiantes a modelos de IA más capaces que pueden proporcionar una mejor respuesta.

El anuncio se produce una semana después de que los padres de Adam Raine, de 16 años, demandaran a OpenAI y a su CEO, Sam Altman, alegando que ChatGPT entrenó al joven de California en la planificación y la realización de su propia vida a principios de este año.

Meta, la empresa matriz de Instagram, Facebook y WhatsApp, también comunicó que ahora está bloqueando que sus chatbots hablen con adolescentes sobre autolesiones, suicidio, trastornos alimentarios y conversaciones románticas inapropiadas, y en su lugar los dirige a recursos expertos. Meta ya ofrece controles parentales en las cuentas de adolescentes.

Un estudio publicado la semana pasada en la revista médica Psychiatric Services encontró inconsistencias en la forma en que tres chatbots populares de inteligencia artificial respondieron a las preguntas sobre el suicidio.

El estudio, realizado por investigadores de RAND Corporation, encontró la necesidad de ‘un mayor perfeccionamiento’ en ChatGPT, Gemini de Google y Claude de Anthropic. Los investigadores no estudiaron los chatbots de Meta.

El autor principal del estudio, Ryan McBain, dijo el martes que ‘es alentador ver a OpenAI y Meta introducir funciones como los controles parentales y el enrutamiento de conversaciones delicadas a modelos más capaces, pero estos son pasos incrementales’.

‘Sin puntos de referencia de seguridad independientes, pruebas clínicas y estándares aplicables, todavía dependemos de que las empresas se autorregulen en un espacio donde los riesgos para los adolescentes son excepcionalmente altos’, dijo McBain, investigador principal de políticas de RAND.

Popular en la Comunidad


Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: