Un estudio de The Lancet advierte que la IA podría ser más perjudicial para la salud mental de jóvenes que las redes sociales. La falta de investigación dificulta la regulación, mientras que funciones de IA que imitan la cognición humana y crean deepfakes son foco de preocupación. El estudio critica las medidas que solo limitan el tiempo de uso y pide un enfoque en regular el contenido dañino.
Los sistemas de inteligencia artificial (IA), esos bichos que ahora pretenden imitarnos, podrían estar cocinando un caldo de cultivo para problemas de salud mental en niños y adolescentes, incluso peor que lo que ya le achacamos a las redes sociales. Así lo plantea un estudio que acaba de salir del horno en la prestigiosa revista The Lancet.
Karen Mansfield, la psicóloga de la Universidad de Oxford que encabeza este trabajo, nos deja con la mosca detrás de la oreja: hay muy poca investigación sobre este tema. Y claro, si no sabemos a qué nos estamos enfrentando, ¿cómo vamos a ponerle límites a las empresas tecnológicas o regular el asunto? Una pregunta que nos deja a todos pensando.
¿Estamos jugando con fuego?
El informe destaca cómo la falta de consenso científico sobre los efectos de las redes sociales en la salud mental de los más jóvenes complica aún más el panorama. Ya sabemos, algunos dicen que son la perdición, otros que hasta tienen su lado bueno. Mientras tanto, el exdirector de salud de EEUU, Vivek Murthy, le pone pimienta al asunto advirtiendo que el uso excesivo de estas plataformas puede llevar a problemas psicológicos y de comportamiento, por ejemplo, alteraciones del sueño y dificultades para relacionarse. Por otro lado, la Asociación Estadounidense de Psicología sale a tirar un poco de agua fría diciendo que las redes sociales "no son inherentemente beneficiosas ni perjudiciales" para los jóvenes. Un lío bárbaro, como para que a uno le duela la cabeza.
El reloj corre y los pibes están en la mira
Los colegas de Mansfield no se andan con chiquitas y tiran la posta: hay que centrar la discusión en la IA y rápido, antes de que los más jóvenes adopten masivamente esta tecnología. Recuerdan que, desde la televisión hasta los smartphones, la humanidad siempre se preocupó por las tecnologías basadas en pantallas. El problema es que la historia vuelve a repetirse y terminamos más preocupados que regulando o estableciendo políticas de salud adecuadas. ¿Será que vamos a tropezar otra vez con la misma piedra?
“A lo largo de estos ciclos muchos estudios han problematizado la innovación, reforzando las preocupaciones en lugar de establecer guías útiles [de uso] o establecer políticas de salud bien dirigidas. Si no aprendemos de los errores del pasado, podríamos perder la oportunidad cada vez menor de comprender y dar forma a la manera en que la IA afectará a los niños y adolescentes en la próxima década”, sentencia la especialista, sin dejar mucho espacio para las dudas.
El equipo detrás del estudio señala con el dedo a las funciones de IA que intentan imitarnos, como esas que crean deepfakes, y advierte que pueden ser muy perjudiciales para la salud mental de los pibes. Y ojo, que también meten en la bolsa a las herramientas de autodiagnóstico y los sistemas que recomiendan contenido, que pueden aumentar los casos infantiles de depresión, ansiedad y trastornos alimentarios. ¿Estaremos creando una bomba de tiempo?
“Con una IA similar a la humana que mejora o habilitada para moderar las interacciones en línea, la gama de beneficios y daños para los niños y adolescentes es más diversa de la que se atribuye a las redes sociales y los juegos en línea”, advierte la especialista, sacudiendo la modorra.
Los científicos también le pegan un sopapo a los estudios que miden todo por el tiempo de uso: esa métrica es muy limitada para medir el impacto real de las nuevas tecnologías. Aparentemente, esos estudios no le dan bola al contenido nocivo al que los menores están expuestos, ni a las dinámicas de interacción perjudiciales que se generan en estas plataformas. Y, para ponerle la frutilla al postre, dejan claro que no están muy convencidos con eso de limitar las horas de uso o las restricciones de edad para acceder a ciertas aplicaciones.
Los expertos dicen que estas medidas “minimizan el deber y la necesidad [de las empresas] de regular el contenido dañino, poniendo la responsabilidad en los padres y tutores o en la integración masiva de tecnologías de control no probadas, que se ha relacionado con riesgos para la privacidad y la seguridad”.
Finalmente, los investigadores insisten en que hay que ponerse las pilas para conseguir datos consistentes y estandarizados. Hay que apresurarse a investigar los riesgos de la IA, al menos para evitar los debates que nos trajeron las redes sociales allá por el 2010, y que hoy nos están limitando los esfuerzos por garantizar la seguridad en línea de los más chicos. Si de algo sirve, que esta sea un llamado de atención para los que deciden en estos temas.