IA para detectar melanoma: ¿un riesgo para la salud?

Redacción Cuyo News
6 min
Cortito y conciso:

Un algoritmo de inteligencia artificial, Quantus Skin, utilizado en el País Vasco para detectar melanoma, muestra una preocupante tasa de falsos negativos, omitiendo un tercio de los casos. Además, su entrenamiento con datos predominantemente de pieles blancas plantea serias dudas sobre su eficacia en pacientes con piel más oscura, generando controversia sobre su implementación y posible discriminación en el diagnóstico.

## ¿Inteligencia Artificial para detectar melanoma? Un algoritmo con serias dudas

El melanoma, ese cáncer de piel que te puede voltear de un día para el otro, exige una detección temprana para aumentar las chances de gambetear a la muerte. En España, las estimaciones hablan de casi 9.400 casos para el 2025. Un número que asusta y que pone en evidencia la necesidad de herramientas que agilicen el diagnóstico. Pero, ¿estamos poniendo la carreta delante de los caballos?

El País Vasco apostó fuerte por la inteligencia artificial (IA) con «Quantus Skin», un algoritmo diseñado para detectar el riesgo de cáncer de piel, incluido el melanoma. La idea es que los médicos de atención primaria envíen imágenes de lesiones sospechosas y el algoritmo calcule la probabilidad de malignidad, priorizando la atención de los pacientes más urgentes. Un golazo, en teoría.

Sin embargo, los números cuentan otra historia, una que nos obliga a levantar la ceja y preguntarnos si realmente estamos haciendo las cosas bien.

## El talón de Aquiles de Quantus Skin: Sensibilidad baja y sesgos raciales

Un estudio realizado por dermatólogos del Hospital Ramón y Cajal de Madrid reveló que Quantus Skin pasa por alto uno de cada tres melanomas. ¡Uno de cada tres! Una sensibilidad del 69% significa que este algoritmo deja escapar el 31% de los casos reales. Un porcentaje alarmante para una enfermedad donde cada segundo cuenta.

«Para cáncer de piel, tener una sensibilidad del 70% es muy malo. Es muy pobre», sentencia el doctor Josep Malvehy Guilera, director de la Unidad de Cáncer cutáneo del Hospital Clínic de Barcelona. La doctora Rosa Taberner Ferrer, dermatóloga en el Hospital Son Llàtzer de Mallorca, lo resume sin anestesia: «Un 31% de falsos negativos suena cuanto menos peligroso. Como cribado es una castaña».

Pero la cosa no termina ahí. Quantus Skin, como muchos sistemas de IA, tiene un sesgo preocupante: fue entrenado principalmente con imágenes de pieles blancas. Esto significa que su capacidad para detectar melanoma en personas con piel más oscura es una incógnita. Y las consecuencias podrían ser devastadoras.

«Es muy fácil hacer que los algoritmos se equivoquen», advierte Adewole Adamson, profesor de dermatología en la Universidad de Texas. En dermatología, cuando los algoritmos se alimentan principalmente con imágenes de pacientes blancos, disminuye “la fiabilidad diagnóstica en pieles oscuras”.

## ¿Estamos automatizando la discriminación en el diagnóstico?

La falta de diversidad en los datos de entrenamiento de la IA no es un problema nuevo. Ya hemos visto cómo los sistemas de reconocimiento facial fallan al clasificar a mujeres negras y cómo los algoritmos de predicción de enfermedades cardiovasculares tienen un rendimiento peor en mujeres si los datos están desequilibrados.

En el caso de Quantus Skin, la ausencia de datos de entrenamiento en pieles más oscuras podría generar una discriminación sistemática en el diagnóstico de melanoma. Un problema que preocupa a expertos como Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU): “A la hora de pensar en utilizarla para hacer diagnóstico temprano, puede haber una porción de la población que esté subrepresentada. En ese caso, el diagnóstico puede llegar a ser erróneo y tener un impacto en la salud de la persona. Se puede pensar incluso en un daño”.

## Un contrato millonario y muchas preguntas sin responder

Osakidetza, el Servicio Vasco de Salud, adjudicó un contrato de casi 1,6 millones de euros a Transmural Biotech, la empresa que comercializa Quantus Skin. Un contrato que exigía una sensibilidad y especificidad del 85% «como mínimo». Sin embargo, los datos publicados sobre la eficacia clínica de Quantus Skin están lejos de ese umbral.

¿Conocía Osakidetza estos datos? ¿Por qué se eligió Quantus Skin a pesar de su baja sensibilidad y los posibles sesgos raciales? ¿Estamos poniendo la salud de los ciudadanos en manos de una tecnología que aún no está lista para salir a la cancha?

Las respuestas a estas preguntas son urgentes. La IA tiene un potencial enorme para mejorar la salud, pero no podemos permitirnos caer en la ingenuidad de creer que es una solución mágica. Necesitamos datos sólidos, transparencia y una mirada crítica para evitar que la tecnología reproduzca y amplifique las desigualdades que ya existen. Porque, al final del día, la salud es un derecho, no un algoritmo.

Compartir

🔺 Tendencia

🔺 Tendencia