Esta pregunta abierta da título al editorial de último número de The Lancet Digital Health:
https://www.thelancet.com/journals/landig/article/PIIS2589-7500(20)30295-8/fulltext
Seis ideas:
- Durante el año 2020 y forzados por la necesidad de contar de forma rápida con herramientas basadas en IA para combatir el COVID-19 se han relajado los criterios de validación y puesta en producción de sistemas IA.
- Un sistema IA sin una validación adecuada puede ser en vez de un elemento de ayuda un riesgo para el paciente.
- Las revisiones sistemáticas de los modelos publicados en la literatura manifiestan que muchos de éstos han presentado escasez de detalles y han sido entrenados con conjuntos de datos pequeños o de baja calidad, lo que supone un riesgo de sesgo elevado.
- Las investigación en IA debe ser reproducible, código fuente y datos deben ser accesibles al ecosistema investigador.
- No basta con que el modelo pruebe su capacidad para diagnosticar la enfermedad sino que deben aportar valor al sistema de salud. Para ello es clave la participación de profesionales de la salud en el desarrollo de estos sistemas que ayuden a comprender a los ingenieros IA cómo se pueden aplicar los modelos en la atención sanitaria.
- Las intervenciones basadas en IA deben ser evaluadas mediante ensayos clínicos siguiendo directrices como las establecidas por SPIRIT-AI y CONSORT-AI si queremos tener garantías para su aplicación a pacientes en el mundo real.
Tres aspectos claves que tenemos que lograr en el 2021 para conseguir una IA robusta y aplicable en salud:
Rigor metodológico en el desarrollo y evaluación del modelo + Investigación reproducible + Aportación de valor al sistema de salud.