¿Por qué el aprendizaje automático es una tendencia en la investigación médica pero no en los consultorios de nuestros médicos?
Tecnología científica
El aprendizaje automático (ML, por sus siglas en inglés) programa las computadoras para que aprendan de la misma manera que lo hacemos nosotros, a través de la evaluación continua de datos y la identificación de patrones basados en resultados anteriores. ML puede detectar rápidamente tendencias en grandes conjuntos de datos, operar con poca o ninguna interacción humana y mejorar sus predicciones con el tiempo. Debido a estas habilidades, está encontrando rápidamente su camino en la investigación médica.
Es posible que pronto se diagnostique a las personas con cáncer de mama a través de ML más rápido que a través de una biopsia. ML también puede ayudar a las personas paralizadas a recuperar la autonomía usando prótesis controladas por patrones identificados en los datos de escaneo cerebral. La investigación de ML promete estas y muchas otras posibilidades para ayudar a las personas a llevar vidas más saludables. Pero mientras crece la cantidad de estudios de ML, su uso real en los consultorios médicos no se ha expandido.
Las limitaciones radican en los pequeños tamaños de muestra de la investigación médica y los conjuntos de datos únicos. Estos pequeños datos dificultan que las máquinas identifiquen patrones significativos. Cuantos más datos, más precisión en los diagnósticos y predicciones de ML. Para muchos usos de diagnóstico, se necesitaría un número masivo de sujetos en miles, pero la mayoría de los estudios usan números más pequeños en docenas de sujetos.
Pero hay formas de encontrar resultados significativos a partir de pequeños conjuntos de datos si sabe cómo manipular los números. Ejecutar pruebas estadísticas una y otra vez con diferentes subconjuntos de sus datos puede indicar la importancia en un conjunto de datos que en realidad pueden ser solo valores atípicos aleatorios.
Esta táctica, conocida como piratería P o piratería de características en ML, conduce a la creación de modelos predictivos que son demasiado limitados para ser útiles en el mundo real. Lo que se ve bien en el papel no se traduce en la capacidad de un médico para diagnosticarnos o tratarnos. Estos errores estadísticos, a menudo cometidos sin saberlo, pueden conducir a conclusiones peligrosas.
Para ayudar a los científicos a evitar estos errores e impulsar las aplicaciones de ML, Konrad Kording, profesor de Penn Integrates Knowledge University con nombramientos en el Departamento de Neurociencia en la Escuela de Medicina Perelman y en los Departamentos de Bioingeniería y Ciencias de la Información y la Computación en la Escuela de Ingeniería y Ciencias Aplicadas, lidera un aspecto de un gran programa financiado por los NIH conocido como CENTRO: creación de un nexo educativo para la capacitación en rigor experimental. Kording liderará la cohorte de Penn mediante la creación de Community for Rigor, que proporcionará recursos de acceso abierto para realizar ciencia sólida. Los miembros de esta comunidad científica inclusiva podrán participar en simulaciones de aprendizaje automático y cursos basados en debates.
"La razón de la falta de ML en escenarios del mundo real se debe al uso indebido de estadísticas más que a las limitaciones de la herramienta en sí", dice Kording. "Si un estudio publica una afirmación que parece demasiado buena para ser verdad, por lo general lo es, y muchas veces podemos rastrear eso hasta su uso de las estadísticas".
Para lograr avances significativos en el campo de ML en la investigación biomédica, será necesario generar conciencia sobre estos problemas, ayudar a los investigadores a comprender cómo identificarlos y limitarlos, y crear una cultura más sólida en torno al rigor científico en la comunidad investigadora.
Kording tiene como objetivo comunicar que el hecho de que la incorporación del aprendizaje automático en la investigación biomédica pueda generar espacio para el sesgo no significa que los científicos deban evitarlo. Solo necesitan entender cómo usarlo de una manera significativa.
Community for Rigor tiene como objetivo abordar los desafíos del campo con planes específicos para crear un módulo sobre aprendizaje automático en la investigación biomédica que guiará a los participantes a través de conjuntos de datos y pruebas estadísticas y señalará las ubicaciones exactas donde se introduce comúnmente el sesgo.
Esta historia es de Melissa Pappas. Lea más en Penn Engineering Today.