Diagnóstico Automático de Enfermedades a partir de Imágenes de Rayos X de tórax

Un grupo de investigadores de Stanford han desarrollado un algoritmo que ofrece diagnósticos automáticos basados ​​en imágenes de rayos X de tórax. Su método, llamado CheXNet, puede diagnosticar hasta 14 tipos de patologías, como neumonías, hernias o fibrosis. El trabajo se ha llevado a cabo de forma conjunta entre investigadores del grupo de Machine Learning liderado por Andrew Ng, y el profesor asistente de radiología Matthew Lungren y su equipo. El método y los resultados se publicaron el pasado mes de noviembre en el portal de prepublicación científica de acceso abierto arXiv [1]. Image credit: imagen creada a partir de imágenes de [1] Este trabajo de investigación hace un énfasis especial en el diagnóstico de neumonías. Los investigadores eligieron centrarse en esta enfermedad, que lleva a un millón de estadounidenses al hospital cada año, según los Centros para el Control y la Prevención de Enfermedades, y es especialmente difícil de detectar en las radiografías, dicen los expertos. Durante la investigación el equipo pidió a cuatro radiólogos de Stanford que cada uno anotara, de forma independiente, 420 de las imágenes según posibles indicaciones de neumonía. El método desarrollado no solo diagnosticaba las patologías de una forma más fiable que los sistemas automáticos previos sino que además también superó a los cuatro radiólogos de Stanford en la precisión del diagnóstico de la neumonía. Detrás de estos espectaculares resultados de análisis de imagen médica hay, como no, un algoritmo de Deep Learning o Aprendizaje Profundo. El algoritmo está entrenado con un conjunto de datos públicos que consta de más de 100.000 imágenes de rayos X de tórax, con vista frontal, manualmente etiquetadas con...

Pantallas y retinas

¿Cuántas horas nos pasamos al día delante de una pantalla de móvil u ordenador? ¿Puede tener este hábito un impacto en nuestra salud visual? Probablemente habrás oído estas preguntas antes. De hecho, no es una pregunta nueva: si eres de mi generación (ya he cumplido los cuarenta), quizás recuerdes a alguien que te decía cuando eras un niño: “no te pongas tan cerca de la televisión que te vas a quedar ciego”. Esta es una pequeña broma, pero está claro que la exposición a fuentes de luz nos preocupa desde hace mucho tiempo, y parece que desde que los dispositivos móviles han llegado para quedarse hay nuevos argumentos para reavivarla: nos pasamos muchas horas delante de una pantalla, y la tecnología LED que está detrás de estas pantallas en sus diferentes variantes cada vez produce luz más intensa. De hecho, esta preocupación ha llegado a crear un nicho de mercado. Actualmente existen varias empresas que han lanzado al mercado diversos productos que están destinados a proteger nuestros ojos de la luz de estos dispositivos: filtros para tablets o móviles, o lentes de gafas que aseguran que nos protegen de la luz de las pantallas [1]. En general, estos productos están destinados a bloquear la luz azul que llega a nuestra retina, ya que hay diferentes estudios que hablan de que la luz azul de las fuentes LED tiene efectos en la salud de las personas [2]. ¿Por qué preocupa especialmente la luz azul? La luz es una onda electromagnética y, dependiendo de su color, puede ser más o menos energética: la luz azul es más energética que la luz...

Realización de beneficios en Informática

Venimos predicando por aquí que, aunque entendemos la fascinación por la elegancia de un algoritmo o por la robustez de un artefacto, las TIC tienen sentido si resuelven problemas de la gente y de la empresa y… si la gente y la empresa son capaces de extraer los beneficios de la aplicación de la tecnología para resolver sus problemas. En eso consiste la adopción y uso efectivo de las TIC o, si nos ponemos metafísicos, la diferencia entre el mundo de los objetos y el mundo de los significados, el mundo de lo social. En el fondo, como decía Keen, éste es el sentido del estudio de los sistemas de información. Reedición de clásico de John Ward sobre Gestión de Benficios En el nivel macroeconómico, la realización de beneficios de la informática es una combinación de las inversiones en IT y en “capital organizativo”: el esfuerzo dedicado a cambiar la forma de tomar las decisiones y los procesos de trabajo, utilizar la información, desarrollar el talento o relacionarse con el entorno. Esto se llama la teoría de la complementariedad, desarrollada por Brynjolfsson y otros, y cuenta con evidencias cuantitativas que, por ejemplo, han llevado al Instituto de Estadística norteamericano a cambiar su manera de medir la productividad o contabilizar los activos intangibles de las empresas. En el nivel local, en cada organización, la efectividad de la informática parece depender también más de factores organizativos, sociales y culturales. “Típicamente, los beneficios se consiguen a través de cambios intensivos en las prácticas de negocio y la toma de decisiones”, decía Markus, uno de los pioneros del estudio de la gestión de...

Segmentación semántica: de imagen a vídeo

El pasado 6 de julio tuve la oportunidad de asistir a una charla que dio el investigador de Google Deepmind Joao Carreira llamada “Learning video representations from YouTube” en el marco de una summer school sobre Learning Systems impartida en el ETH Zürich. En una entrada anterior comenté los distintos benchmarks que existen para la segmentación semántica de imágenes, tales como PASCAL y Microsoft COCO. La charla en cuestión hacía hincapié en que ya es momento de dar el salto al vídeo, a aprender nuevos modelos a partir de vídeos en lugar de imágenes. Ya que los challenges de imágenes empiezan a estar saturados y las mejoras que se consiguen con tanto poco margen son muy poco significativas y porque sería intuitivo pensar que si la personas aprendemos a partir de nuestra percepción, la cual se asemeja más a información en forma de vídeo (percibimos constantemente la información visualmente), puede que estemos limitando la capacidad de nuestros modelos entrenándolos a partir de imágenes. En la conferencia más prestigiosa del ámbito de computer vision (Computer Vision and Pattern Recognition, CVPR), el año pasado (CVPR’16) ya aparecieron un par de datasets más interesantes que ya empezaban a ir en esta dirección. Se trata de los datasets Cityscapes Dataset y DAVIS (Densely Annotated VIdeo Segmentation). La primera de ellas, Cityscapes, consiste en un conjunto de secuencias de vídeo que han sido tomadas desde un coche en varias ciudades, la mayoría de ellas situadas en Alemania. Contiene 5000 secuencias que han sido anotadas con un alto nivel de detalle y 20000 secuencias que no han sido anotadas con tanto detalle. La siguiente figura muestra la...

Computación cuántica (III): de los qubits a los computadores cuánticos

La unidad de información en el mundo cuántico es el qubit (del inglés “quantum bit”). Un qubit puede tener los estados 0 y 1, pero a diferencia de los bits clásicos, también puede tener una superposición de estos estados. Siendo poco rigurosos, podemos ver estas superposiciones como estados intermedios entre 0 y 1 (en realidad, son combinaciones de dichos valores). Para construir un computador cuántico, es necesario resolver diversos retos técnicos, el primero de los cuales es: ¡cómo “construir” un qubit!. Además, hay que representar los qubits, operar con ellos, definir el valor inicial de los qubits al inicio del cálculo y medir el resultado final. Es decir, el qubit deberá corresponder a alguna propiedad física de una partícula, y todas las manipulaciones sobre los qubits deberán poder realizarse alterando dicha propiedad de alguna forma. Además, deberá ser posible fijar un valor concreto para dicha propiedad (para inicializar los qubits) y medir dicha propiedad para obtener el resultado al final del cálculo. Fijémonos en la paradoja que todo esto comporta. Por un lado, necesitamos disponer de un control muy preciso sobre las propiedades que se usan para codificar los qubits; pero por otro, también nos interesa que nuestro computador esté lo más aislado posible, para garantizar que dichas propiedades no son alteradas por interferencias externas. Estas interferencias, denominadas ruido cuántico, nunca pueden eliminarse del todo al tratarse de fenómenos a escala subatómica. Por eso, es necesario disponer de mecanismos de redundancia para garantizar la fiabilidad del resultado, igual que se usan códigos correctores de errores para detectar y/o reparar errores de comunicación. Este punto es especialmente importante, ya que...

Computación cuántica (II): un nuevo paradigma

El modelo actual de ordenador no es el único posible. Existen otros paradigmas para diseñar un ordenador que son radicalmente diferentes al modelo “convencional”. Un potencial cambio de paradigma se refiere a la electrónica digital: los ordenadores representan la información de forma discreta, usualmente con los valores 0 o 1. Para hacerlo, se consideran dos niveles de voltaje: el nivel “tierra” (0) y el voltaje proporcionado por la fuente de alimentación (1), con un cierto margen de tolerancia para cada nivel. A partir de estos valores pueden realizarse operaciones lógicas (las definidas en el álgebra de Boole, como AND, OR o NOT), que en la práctica se implementan como puertas lógicas mediante transistores que transmiten o bloquean el voltaje para reflejar el resultado de la operación. Pero también hay dispositivos que utilizan un modelo de computación analógica, donde la información se almacena como una magnitud continua: no hay rangos de valores discretos (entre A y B, el valor es X), sino que se utiliza el valor completo de una magnitud. El uso de valores continuos introduce el problema del ruido: fluctuaciones imprevistas que pueden distorsionar este valor y que limitan el rango de valores observables y la precisión. Este problema también aparece en la electrónica digital, pero se resuelve con los márgenes de tolerancia definidos para cada nivel de voltaje. Cabe destacar que esta magnitud puede ser el voltaje en un cable, pero también podrían ser magnitudes mecánicas (p.ej. la contracción de un muelle elástico) o hidráulicas. Así pues, no es necesario limitarse a propiedades electrónicas para implementar un ordenador: es posible cambiar a un paradigma basado en otras...