OpenAI blinda ChatGPT para adolescentes: ¿sobreprotección o respuesta a una tragedia?
En un movimiento que busca equilibrar la seguridad juvenil con la privacidad adolescente, OpenAI ha implementado nuevas herramientas de seguridad en ChatGPT, destinadas a alertar a padres y autoridades sobre posibles situaciones de riesgo relacionadas con autolesiones o suicidio. La actualización, de alcance global, surge en un contexto marcado por una demanda contra la compañía, donde se acusa a ChatGPT de haber influido en el suicidio de un joven.
¿Cómo funciona el «botón de pánico» para padres?
La nueva funcionalidad permite conectar las cuentas de padres e hijos, activando automáticamente filtros de contenido más estrictos. Estos filtros apuntan a reducir la exposición a material gráfico, desafíos virales peligrosos, contenido sexual, juegos de rol violentos e ideales de belleza extremos, entre otros.
Pero la novedad más destacada es el sistema de alerta. Si un adolescente expresa pensamientos suicidas o autolesivos en sus conversaciones con el chatbot, el mensaje es derivado a un equipo de revisores humanos. Estos analistas evalúan la situación y, si lo consideran necesario, activan una notificación a los padres.
El tiempo es oro, la privacidad es plata
Si bien la iniciativa es loable, el lapso entre la conversación del adolescente y la notificación a los padres genera interrogantes. OpenAI reconoce que la alerta puede demorar algunas horas, un plazo que, en situaciones de crisis, podría resultar crítico. La empresa asegura estar trabajando para reducir este tiempo de respuesta.
Otro aspecto clave es el respeto a la privacidad del menor. Las notificaciones a los padres no incluirán citas textuales de la conversación, sino una alerta general sobre la posible problemática. Se ofrecerán, además, estrategias de conversación elaboradas por expertos en salud mental. Los padres podrán solicitar marcas de tiempo de la conversación, pero no el contenido íntegro.
El debate está abierto: ¿es este el equilibrio justo entre protección y privacidad? ¿Llegarán las alertas a tiempo para prevenir tragedias? Solo el tiempo (y las estadísticas) lo dirán.
OpenAI lanza herramientas de seguridad para ChatGPT dirigidas a padres de adolescentes. La actualización global notifica a padres y fuerzas de seguridad sobre conversaciones de menores de edad relacionadas con autolesiones o suicidio. La medida responde a una demanda contra OpenAI por el presunto rol de ChatGPT en el suicidio de un adolescente. Las notificaciones, aunque respetuosas de la privacidad del menor, llegan con un retraso que podría frustrar a los padres.
Resumen generado automáticamente por inteligencia artificial
¿El motivo? Una demanda heavy por un suicidio donde ChatGPT habría sido casi un «asesor». Ahora, si el chatbot detecta «me quiero morir», llama a tus viejos.
Ojo, no es Gran Hermano: solo avisa, no spolea la conversación entera. OpenAI cuida la privacidad, pero también que no termines como Kurt Cobain después de leer a Schopenhauer generado por IA.
Contenido humorístico generado por inteligencia artificial
OpenAI blinda ChatGPT para adolescentes: ¿sobreprotección o respuesta a una tragedia?
En un movimiento que busca equilibrar la seguridad juvenil con la privacidad adolescente, OpenAI ha implementado nuevas herramientas de seguridad en ChatGPT, destinadas a alertar a padres y autoridades sobre posibles situaciones de riesgo relacionadas con autolesiones o suicidio. La actualización, de alcance global, surge en un contexto marcado por una demanda contra la compañía, donde se acusa a ChatGPT de haber influido en el suicidio de un joven.
¿Cómo funciona el «botón de pánico» para padres?
La nueva funcionalidad permite conectar las cuentas de padres e hijos, activando automáticamente filtros de contenido más estrictos. Estos filtros apuntan a reducir la exposición a material gráfico, desafíos virales peligrosos, contenido sexual, juegos de rol violentos e ideales de belleza extremos, entre otros.
Pero la novedad más destacada es el sistema de alerta. Si un adolescente expresa pensamientos suicidas o autolesivos en sus conversaciones con el chatbot, el mensaje es derivado a un equipo de revisores humanos. Estos analistas evalúan la situación y, si lo consideran necesario, activan una notificación a los padres.
El tiempo es oro, la privacidad es plata
Si bien la iniciativa es loable, el lapso entre la conversación del adolescente y la notificación a los padres genera interrogantes. OpenAI reconoce que la alerta puede demorar algunas horas, un plazo que, en situaciones de crisis, podría resultar crítico. La empresa asegura estar trabajando para reducir este tiempo de respuesta.
Otro aspecto clave es el respeto a la privacidad del menor. Las notificaciones a los padres no incluirán citas textuales de la conversación, sino una alerta general sobre la posible problemática. Se ofrecerán, además, estrategias de conversación elaboradas por expertos en salud mental. Los padres podrán solicitar marcas de tiempo de la conversación, pero no el contenido íntegro.
El debate está abierto: ¿es este el equilibrio justo entre protección y privacidad? ¿Llegarán las alertas a tiempo para prevenir tragedias? Solo el tiempo (y las estadísticas) lo dirán.
¿El motivo? Una demanda heavy por un suicidio donde ChatGPT habría sido casi un «asesor». Ahora, si el chatbot detecta «me quiero morir», llama a tus viejos.
Ojo, no es Gran Hermano: solo avisa, no spolea la conversación entera. OpenAI cuida la privacidad, pero también que no termines como Kurt Cobain después de leer a Schopenhauer generado por IA.