Realización de beneficios en Informática

Venimos predicando por aquí que, aunque entendemos la fascinación por la elegancia de un algoritmo o por la robustez de un artefacto, las TIC tienen sentido si resuelven problemas de la gente y de la empresa y… si la gente y la empresa son capaces de extraer los beneficios de la aplicación de la tecnología para resolver sus problemas. En eso consiste la adopción y uso efectivo de las TIC o, si nos ponemos metafísicos, la diferencia entre el mundo de los objetos y el mundo de los significados, el mundo de lo social. En el fondo, como decía Keen, éste es el sentido del estudio de los sistemas de información. Reedición de clásico de John Ward sobre Gestión de Benficios En el nivel macroeconómico, la realización de beneficios de la informática es una combinación de las inversiones en IT y en “capital organizativo”: el esfuerzo dedicado a cambiar la forma de tomar las decisiones y los procesos de trabajo, utilizar la información, desarrollar el talento o relacionarse con el entorno. Esto se llama la teoría de la complementariedad, desarrollada por Brynjolfsson y otros, y cuenta con evidencias cuantitativas que, por ejemplo, han llevado al Instituto de Estadística norteamericano a cambiar su manera de medir la productividad o contabilizar los activos intangibles de las empresas. En el nivel local, en cada organización, la efectividad de la informática parece depender también más de factores organizativos, sociales y culturales. “Típicamente, los beneficios se consiguen a través de cambios intensivos en las prácticas de negocio y la toma de decisiones”, decía Markus, uno de los pioneros del estudio de la gestión de...

Segmentación semántica: de imagen a vídeo

El pasado 6 de julio tuve la oportunidad de asistir a una charla que dio el investigador de Google Deepmind Joao Carreira llamada “Learning video representations from YouTube” en el marco de una summer school sobre Learning Systems impartida en el ETH Zürich. En una entrada anterior comenté los distintos benchmarks que existen para la segmentación semántica de imágenes, tales como PASCAL y Microsoft COCO. La charla en cuestión hacía hincapié en que ya es momento de dar el salto al vídeo, a aprender nuevos modelos a partir de vídeos en lugar de imágenes. Ya que los challenges de imágenes empiezan a estar saturados y las mejoras que se consiguen con tanto poco margen son muy poco significativas y porque sería intuitivo pensar que si la personas aprendemos a partir de nuestra percepción, la cual se asemeja más a información en forma de vídeo (percibimos constantemente la información visualmente), puede que estemos limitando la capacidad de nuestros modelos entrenándolos a partir de imágenes. En la conferencia más prestigiosa del ámbito de computer vision (Computer Vision and Pattern Recognition, CVPR), el año pasado (CVPR’16) ya aparecieron un par de datasets más interesantes que ya empezaban a ir en esta dirección. Se trata de los datasets Cityscapes Dataset y DAVIS (Densely Annotated VIdeo Segmentation). La primera de ellas, Cityscapes, consiste en un conjunto de secuencias de vídeo que han sido tomadas desde un coche en varias ciudades, la mayoría de ellas situadas en Alemania. Contiene 5000 secuencias que han sido anotadas con un alto nivel de detalle y 20000 secuencias que no han sido anotadas con tanto detalle. La siguiente figura muestra la...

Computación cuántica (III): de los qubits a los computadores cuánticos

La unidad de información en el mundo cuántico es el qubit (del inglés “quantum bit”). Un qubit puede tener los estados 0 y 1, pero a diferencia de los bits clásicos, también puede tener una superposición de estos estados. Siendo poco rigurosos, podemos ver estas superposiciones como estados intermedios entre 0 y 1 (en realidad, son combinaciones de dichos valores). Para construir un computador cuántico, es necesario resolver diversos retos técnicos, el primero de los cuales es: ¡cómo “construir” un qubit!. Además, hay que representar los qubits, operar con ellos, definir el valor inicial de los qubits al inicio del cálculo y medir el resultado final. Es decir, el qubit deberá corresponder a alguna propiedad física de una partícula, y todas las manipulaciones sobre los qubits deberán poder realizarse alterando dicha propiedad de alguna forma. Además, deberá ser posible fijar un valor concreto para dicha propiedad (para inicializar los qubits) y medir dicha propiedad para obtener el resultado al final del cálculo. Fijémonos en la paradoja que todo esto comporta. Por un lado, necesitamos disponer de un control muy preciso sobre las propiedades que se usan para codificar los qubits; pero por otro, también nos interesa que nuestro computador esté lo más aislado posible, para garantizar que dichas propiedades no son alteradas por interferencias externas. Estas interferencias, denominadas ruido cuántico, nunca pueden eliminarse del todo al tratarse de fenómenos a escala subatómica. Por eso, es necesario disponer de mecanismos de redundancia para garantizar la fiabilidad del resultado, igual que se usan códigos correctores de errores para detectar y/o reparar errores de comunicación. Este punto es especialmente importante, ya que...

Computación cuántica (II): un nuevo paradigma

El modelo actual de ordenador no es el único posible. Existen otros paradigmas para diseñar un ordenador que son radicalmente diferentes al modelo “convencional”. Un potencial cambio de paradigma se refiere a la electrónica digital: los ordenadores representan la información de forma discreta, usualmente con los valores 0 o 1. Para hacerlo, se consideran dos niveles de voltaje: el nivel “tierra” (0) y el voltaje proporcionado por la fuente de alimentación (1), con un cierto margen de tolerancia para cada nivel. A partir de estos valores pueden realizarse operaciones lógicas (las definidas en el álgebra de Boole, como AND, OR o NOT), que en la práctica se implementan como puertas lógicas mediante transistores que transmiten o bloquean el voltaje para reflejar el resultado de la operación. Pero también hay dispositivos que utilizan un modelo de computación analógica, donde la información se almacena como una magnitud continua: no hay rangos de valores discretos (entre A y B, el valor es X), sino que se utiliza el valor completo de una magnitud. El uso de valores continuos introduce el problema del ruido: fluctuaciones imprevistas que pueden distorsionar este valor y que limitan el rango de valores observables y la precisión. Este problema también aparece en la electrónica digital, pero se resuelve con los márgenes de tolerancia definidos para cada nivel de voltaje. Cabe destacar que esta magnitud puede ser el voltaje en un cable, pero también podrían ser magnitudes mecánicas (p.ej. la contracción de un muelle elástico) o hidráulicas. Así pues, no es necesario limitarse a propiedades electrónicas para implementar un ordenador: es posible cambiar a un paradigma basado en otras...

Action Design Research

Hubo un tiempo en que la investigación en informática (computer sciences) consistía en inventar un nuevo artefacto o mejorar uno que ya existía. Un artefacto, en este contexto, es un producto informático: un algoritmo, un programa, una instalación, un modelo, un método, una ilustración (una instancia, en spanglish) o todo junto. “Computer Science is the art of constructive thinking” (decía Wirth, el inventor de Pascal). La informática es una ciencia (?) práctica. Su método de investigación por excelencia es el de diseño (Design Research), cuyos criterios de evaluación son experimentos: ¡algo es verdad si funciona! Figuras de azúcar creadas con una impresora 3D. Fuente: www.directoalpaladar.com Ocurre que muchos inventos en informática se producen en interacción con las personas y las empresas, de manera que la evaluación se relaciona entonces con el uso: algo funciona o no en un contexto y la prueba del éxito es que el artefacto se utilice efectivamente. Este es el espacio teórico de los sistemas de información, en el cual la prueba por el experimento es un poco más complicada. Los sistemas de información tampoco son, por lo demás, una disciplina muy científica, o sea, pertenecen a las ciencias sociales: estudian el uso y la gestión de la tecnología. En la última década, los diseñadores teóricos han buscado nuevos paradigmas para integrar en la investigación la prolija realidad del contexto y ser más útiles para los practicantes; y los científicos sociales han intentado crear productos (modelos y métodos) cuya verdad se pueda probar con la limpieza apolínea que proveen las ciencias experimentales. Este es el origen de algunas combinaciones de métodos, como la Design Science Research Methodology (DSRM)...

Un sistema de comunicación distribuido de 37 billones de elementos

El siglo XXI es el siglo de la multidisciplinariedad. El conocimiento avanza y se extiende solapando disciplinas de tal forma que hoy día resulta prácticamente imposible atribuir el éxito al conocimiento de una sola persona. Hoy en día son los equipos los que consiguen el éxito por encima de la individualidad  de otros tiempos. En la época del big data, cuando se habla de cifras de billones de elementos interconectados tendemos a  pensar  en grandes y potentes ordenadores distribuidos a escala mundial, trabajando en sinergia para conseguir resolver problemas, extraer patrones de comportamiento o desarrollar avances en el campo  de la inteligencia artificial. Al pensar en magnitudes tan elevadas nos alejamos de la unidad para irnos al todo. Cuando a alguien le hablan de un sistema de comunicación de 37 billones de elementos cuesta imaginarse que este sistema se encuentre en nuestro propio organismo. Si, 37 billones de elementos celulares interconectados consiguen que nuestro organismo funcione con el grado de precisión de un reloj suizo, comunicándose cual red fotónica para  mantener la homeostasis de nuestro organismo y regular de forma casi instantànea cientos de parámetros vitales. La investigación en el campo de la medicina durante los últimos años ha ido enfocada hacia la mejora de los procesos biológicos que permiten el buen funcionamiento de nuestro organismo. Atacar al patógeno ya no es suficiente para acabar con la enfermedad, y la aparición de un número cada vez creciente de enfermedades de etiología compleja como las autoinmunes, degenerativas y otras ha llevado a cambiar el enfoque de la investigación hacia el correcto funcionamiento celular. El objetivo diana deja de ser el...