Diagnóstico Automático de Enfermedades a partir de Imágenes de Rayos X de tórax

Un grupo de investigadores de Stanford han desarrollado un algoritmo que ofrece diagnósticos automáticos basados ​​en imágenes de rayos X de tórax. Su método, llamado CheXNet, puede diagnosticar hasta 14 tipos de patologías, como neumonías, hernias o fibrosis. El trabajo se ha llevado a cabo de forma conjunta entre investigadores del grupo de Machine Learning liderado por Andrew Ng, y el profesor asistente de radiología Matthew Lungren y su equipo. El método y los resultados se publicaron el pasado mes de noviembre en el portal de prepublicación científica de acceso abierto arXiv [1].

Image credit: imagen creada a partir de imágenes de [1]

Este trabajo de investigación hace un énfasis especial en el diagnóstico de neumonías. Los investigadores eligieron centrarse en esta enfermedad, que lleva a un millón de estadounidenses al hospital cada año, según los Centros para el Control y la Prevención de Enfermedades, y es especialmente difícil de detectar en las radiografías, dicen los expertos.

Durante la investigación el equipo pidió a cuatro radiólogos de Stanford que cada uno anotara, de forma independiente, 420 de las imágenes según posibles indicaciones de neumonía. El método desarrollado no solo diagnosticaba las patologías de una forma más fiable que los sistemas automáticos previos sino que además también superó a los cuatro radiólogos de Stanford en la precisión del diagnóstico de la neumonía.

Detrás de estos espectaculares resultados de análisis de imagen médica hay, como no, un algoritmo de Deep Learning o Aprendizaje Profundo. El algoritmo está entrenado con un conjunto de datos públicos que consta de más de 100.000 imágenes de rayos X de tórax, con vista frontal, manualmente etiquetadas con las 14 posibles patologías. El método desarrollado, a parte de diagnosticar las enfermedades, también puede detectar en la imagen las áreas más indicativas de la patología detectada. Estas áreas se pueden visualizar con un mapa de calor sobrepuesto a la imagen original, donde rojo significa muy indicativo y azul poco indicativo. En la imagen anterior se puede ver un ejemplo de estos mapas de calor. Lo más interesante es que el algoritmo descubre automáticamente y sin supervisión cómo localizar estas regiones de interés. Es decir, las imágenes se etiquetan según la patología presente pero no se da al algoritmo información específica de la región afectada.

Curiosamente, esta técnica de visualización de regiones informativas para la clasificación de imágenes tiene su origen en el campo de la interpretación de escenas. La técnica se desarrolló en el Massachusetts Institute of Technology, en un proyecto en el que yo participé en colaboración con el grupo de Visión por Computador liderado por el profesor Antonio Torralba. El método se llama Class Activation Map (CAM) y fue publicado en 2016 en el congreso Computer Vision and Pattern Recognition [2]. La clave de la técnica es usar una red neuronal dónde todas las capas son de un tipo concreto, llamadas capas convolucionales, las cuales mantienen la información espacial, en relación a la imagen original, hasta la capa de clasificación. Esto permite recuperar matemáticamente la contribución que ha tenido cada parte de la imagen para la clasificación final y visualizarla.

En la siguiente imagen podéis ver resultados de la misma técnica de visualización en diferentes tareas de interpretación de escenas, como reconocimiento de acciones (a) o el reconocimiento de espacios (b). Por ejemplo, en las imágenes dónde se ha reconocido la acción “Limpiar el suelo”, podemos ver que la región marcada en rojo en el mapa de calor, que es la que corresponde con la región más informativa según el algoritmo, se solapa con la persona y los objetos o productos de limpieza, que claramente son las regiones más informativas de la acción “Limpiar el suelo”.

Es fascinante ver cómo métodos desarrollados para una área de investigación pueden aplicarse con éxito a otras áreas tan diferentes. Para ello, a parte de adaptar el algoritmo al nuevo dominio, es fundamental disponer de datos. Este trabajo en el diagnóstico de enfermedades a partir de imágenes de Rayos X es un ejemplo de cómo la medicina puede beneficiarse del análisis de grandes volúmenes de datos médicos. Estoy segura que en los próximos años iremos viendo cómo el Big Data y las técnicas de Aprendizaje Artificial, o Machine Learning, nos permiten descubrir patrones relacionados con enfermedades que actualmente nos son desconocidos.

Referencias:

[1] Pranav Rajpurkar, Jeremy Irvin, Kaylie Zhu, Brandon Yang, Hershel Mehta, Tony Duan, Daisy Ding, Aarti Bagul, Curtis Langlotz, Katie Shpanskaya, Matthew P Lungren, Andrew Y Ng, “CheXNet: Radiologist-Level Pnsumonia Detection on Chest X’Rays with Deep Learning”, arXiv preprint arXiv:1711.05225.

[2] Bolei Zhou, Aditya Khosla, Agata Lapedriza, Aude Oliva, and Antonio Torralba, “Learning Deep Features for Discriminative Localization”, Computer Vision and Pattern Recognition (CVPR), 2016.

 

Agata Lapedriza es Licenciada en Matemáticas y Doctora en Informática. Es profesora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, dónde dirige el Máster Universitario en Bioinformática y Bioestadística. Actualmente es también profesora visitante en el Medialab del Massachusetts Institute of Technology (MIT). En el pasado estuvo afiliada como investigadora en el Computer Science and Artificial Intelligence Lab del MIT del 2012 al 2015. Es también investigadora del grupo Scene Understanding and Artificial Intelligence Lab de la UOC. Su actividad de investigación se centra en temas de visión por computador y aprendizaje computacional.

Comentar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer entrada anterior
Los Interesados

En un par de entradas recientes, el profesor José Ramón Rodríguez ha reflexionado sobre ¿Beneficios para qué? y ¿Beneficios para quién?,...

Cerrar