Andrea Vallone, líder de seguridad de OpenAI, deja la firma en medio de polémicas por salud mental

Redacción Cuyo News
5 min

Andrea Vallone, una figura clave en la investigación de seguridad de OpenAI, quien lideró la configuración de las respuestas de ChatGPT frente a usuarios en crisis de salud mental, comunicó internamente su desvinculación de la compañía el mes pasado, información confirmada por WIRED. Vallone, quien ocupa la jefatura del equipo de investigación de seguridad denominado «política modelo», finalizará su mandato a fines de año.

La portavoz de OpenAI, Kayla Wood, ratificó la salida de Vallone, indicando que la compañía ya se encuentra en la búsqueda de un sucesor. En el interín, el equipo de la saliente jefa dependerá directamente de Johannes Heidecke, actual responsable de sistemas de seguridad de la firma.

Un momento álgido

La salida de Vallone se inserta en un período donde OpenAI afronta un creciente escrutinio sobre la modalidad de respuesta de su producto insignia frente a usuarios en situación de vulnerabilidad. Recientemente, diversas demandas han sido interpuestas contra la compañía, alegando que ChatGPT propició la formación de vínculos poco saludables, contribuyendo a crisis mentales o, incluso, a la ideación suicida.

Bajo esta coyuntura de presión, OpenAI ha intensificado sus esfuerzos para comprender cómo ChatGPT debe abordar a los usuarios en estado de angustia y perfeccionar sus interacciones. El equipo de «política modelo», bajo el liderazgo de Vallone, fue uno de los pilares en esta tarea, presentando en octubre un informe que pormenoriza los avances de la empresa y las consultas realizadas con más de 170 especialistas en salud mental.

Dicho informe reveló cifras alarmantes: OpenAI estimó que cientos de miles de usuarios de ChatGPT podrían manifestar semanalmente signos de estar atravesando una crisis maníaca o psicótica, y que más de un millón de individuos «mantienen conversaciones que incluyen indicadores explícitos de posibles planes o intenciones suicidas». No obstante, la empresa aseguró haber logrado, mediante una actualización de GPT-5, reducir las respuestas problemáticas en estas interacciones entre un 65 y un 80 por ciento.

En un reciente posteo en LinkedIn, Vallone reflexionó sobre su labor: «Durante el año pasado, dirigí la investigación de OpenAI sobre una pregunta casi sin precedentes establecidos: ¿cómo deberían responder los modelos cuando se enfrentan a signos de exceso emocional o indicaciones tempranas de angustia de salud mental?».

Vallone no accedió a la solicitud de comentarios realizada por WIRED.

La tensión entre lo «agradable» y lo «frío»

La búsqueda de un equilibrio entre un ChatGPT que resulte amigable, pero que no caiga en excesos aduladores, constituye una de las principales encrucijadas para OpenAI. La compañía persigue, de manera enérgica, expandir la base de usuarios de su chatbot –que ya supera los 800 millones de personas semanalmente– en su carrera por competir con gigantes como Google, Anthropic y Meta en el segmento de la IA conversacional.

Tras el lanzamiento de GPT-5 en agosto, el modelo recibió críticas de usuarios que lo calificaron de «sorprendentemente frío». No obstante, en su más reciente actualización, la empresa aseguró haber atenuado considerablemente la «adulación», procurando mantener la «calidez» en las interacciones del chatbot.

El alejamiento de Vallone no es un hecho aislado. Se inscribe en un contexto previo de reorganización interna, ocurrida en agosto, que afectó a otro grupo clave: el de «modelo de comportamiento», también abocado a las respuestas de ChatGPT frente a usuarios en dificultades. En aquella ocasión, su entonces responsable, Joanne Jang, abandonó su puesto para conformar un nuevo equipo dedicado a explorar novedosas interacciones entre humanos e inteligencia artificial. El personal restante del área de «comportamiento modelo» pasó a reportar directamente a Max Schwarzer.

Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.

Compartir
🔺 Tendencia