El fractalista: Benoît Mandelbrot

La suerte (buena o mala) de tener un buen amigo que en estos tiempos que corren se arriesga a poner una librería, y que este amigo conozca las debilidades de uno, es que acabas acumulando demasiados libros pendientes de leer en la mesilla de noche. Entre mis debilidades (en todas sus acepciones) están la informática (por supuesto), la física (frontera, si es posible y si me es posible) y la historia de la ciencia y l@s que la dictan. Es así como cayó en mis manos la autobiografía del matemático Benoît Mandelbrot, conocido principalmente por acuñar (y trabajar en) el concepto de fractal.

Como informático, de los recuerdos que me quedan de la carrera, los fractales me traen a la cabeza los gráficos por ordenador y la compresión de datos. Supongo que si fuese “teleco” me sonaría también a antenas. Y si fuese matemático, incluso los entendería. 😉

Antes de hablar del libro, eso sí, permítanme una pequeña (extremadamente divulgativa ausente de notación matemática) aproximación al concepto, para saber de qué estamos hablando. Los fractales son objetos geométricos que muestran la misma estructura a diferentes escalas de “zoom”. En la naturaleza, son frecuentes, y de hecho, antes que Mandelbrot los “nombrase” por primera vez, ya se habían identificado varios. Un ejemplo claro, para visualizar el concepto, es la imagen que acompaña a esta entrada: el brócoli. Dejando de lado otras características de este vegetal, si observamos su geometría, nos damos cuenta que al aproximarnos y aislar una de las partes, volvemos a tener una estructura similar a la original,…

fractal

Brócoli (ecológico). Foto propiedad del autor

Una vez tenemos una ligera idea de qué es un fractal pasemos a hablar de la vida de su “descubridor”. En general, lo que diría de esta biografía es que sorprende y “engancha”, por varias razones: por un lado, por lo complicada que fue la vida del científico (principalmente por pertenecer a una familia polaca judía en la segunda guerra mundial) y por el otro, por las elecciones científicas que hizo. Benôit era un científico extremadamente dotado que no se encerró en las matemáticas, sino que intentó exportarlas a otras disciplinas. Era lo que hoy llamaríamos un científico interdisciplinar, cosa que en aquella época era poco común y (por algunos) poco aceptado o comprendido. No paró de cambiar de universidad, país, proyecto, compañeros de viaje,… Para hacernos una idea de la diversidad de estos últimos, trabajó entre otros, con Piaget (les sonará si han estudiado psicología o magisterio o…) y así, aplicó sus teorías a campos desde la economía a la sociología, o desde la educación a la tecnología. Pasó por IBM y por multitud de universidades. Y dejemos aquí los spoilers.

En fin, creo que es un libro que vale la pena y que nos acerca (en la búsqueda constante que hacemos en este blog) a uno de los padres y madres (o tíos, en este caso) de la informática. ¡Ah!, se me olvidaba. Decía antes que a mi me sonaban (de la carrera) los fractales, entre otros, por su aplicación a los gráficos por ordenador: en el dibujo de montañas, nubes, y en general, paisajes, porque al final de todo, los fractales, como las matemáticas, nos envuelven y están siempre presentes. Benôit Mandelbrot se dio cuenta e intentó explicárnoslo.

 

 

La segmentación semántica y sus benchmarks

Relacionado con distintos problemas de la visión por computador que se han visto en previas entradas, tales como el reconocimiento de escenas y objetos, también existe el problema conocido como segmentación semántica. El problema de segmentación semántica consiste en otorgar una etiqueta o categoría a cada píxel de una imagen. A diferencia de los sistemas de detección y reconocimiento de objetos, que dan como resultado la ventana rectangular donde se ha detectado un objeto y son evaluados por la precisión de estas ventanas, los sistemas de segmentación semántica tienen como objetivo delimitar precisamente los objeto de las distintas categorías a nivel de píxel, dando como resultado cualquier forma arbitraria.

Dentro del campo de la visión por computador, ha habido un gran auge de las técnicas desarrolladas para solucionar el problema de la segmentación semántica, siendo PASCAL Visual Object Classes (VOC) Challenge [1] uno de los benchmarks más reconocido, contando con más de 2,500 citas. Inicialmente, esta competición únicamente evaluaba sistemas de clasificación y detección de objetos. Los sistemas de clasificación consisten en la predicción sobre la presencia/ausencia de un tipo de objeto en la imagen mientras que los de detección indican donde el objeto está presente en forma de ventana rectangular. Por ejemplo, dado un tipo de objeto o categoría como avión, un sistema de clasificación predice si hay o no algún avión en la imagen, mientras que un sistema de detección indica en qué lugar de la imagen se encuentra el avión en caso que el sistema considere que hay algún avión en la imagen. Fue a partir del 2009 que el PASCAL VOC Challenge también incluyó una tarea de segmentación semántica, donde ya no bastaba un sistema que diera como resultado la localización de los objetos como ventanas rectangulares y se evaluaron los resultados a nivel de píxel.

Dados los buenos resultados que se están obteniendo recientemente en este benchmark, clasificando correctamente casi el 80% de los píxeles en promedio y con algunas categorías superando el 90% de píxeles correctamente clasificados, recientemente otro benchmark llamado Microsoft Common Objects in Context (COCO) [2] está imponiéndose como el nuevo benchmark de referencia para segmentación semántica. Por un lado, PASCAL VOC 2012 Challenge incluye 2,913 imágenes anotadas semánticamente con 6,929 instancias de objetos que se utilizan para entrenar los modelos de las 20 categorías semánticas que se evalúan en un conjunto de test de 1,456 imágenes. Por otro lado, Microsoft COCO incluye más de 120,000 imágenes anotadas semánticamente con más de 800,000 instancias de objetos que se utilizan para entrenar los modelos de las 80 categorías semánticas que se evalúan en un conjunto de test de más de 40,000 imágenes. Se puede, por tanto, apreciar la considerable diferencia tanto en número de imágenes como el número de categorías. Este elevado número de imágenes anotadas ha permitido construir recientemente modelos más fiables y supone un nuevo desafío ya que actualmente se están obteniendo una precisión promedia que no supera el 30%, habiendo aún mucho espacio para la mejora. Realmente, los resultados de casi un 80% en PASCAL se han obtenido utilizando modelos que se han entrenado a partir de las anotaciones disponibles tanto en PASCAL como en Microsoft COCO, mientras que cuando únicamente se usan las anotaciones disponibles en PASCAL los resultados no llegan al 65% (en abril de 2016 no llegaban incluso al 50%).

Por último, destacar que el challenge propuesto en Microsoft COCO también tiene otro importante rasgo diferenciador respecto el popular PASCAL VOC y es que en la evaluación se considera cada instancia de los objetos. Mientras que en PASCAL VOC cuando había, por ejemplo, un grupo de personas se consideraba que la segmentación semántica era correcta si los píxeles correspondientes a personas se habían etiquetado correctamente, en Microsoft COCO se requiere la segmentación individual de cada persona que conforma el grupo. Este ejemplo se puede extrapolar a cualquier conjunto de objetos de cualquier otra categoría.

Referencias

[1] Everingham, Mark, et al. “The pascal visual object classes (voc) challenge.”International journal of computer vision 88.2 (2010): 303-338.

[2] Lin, Tsung-Yi, et al. “Microsoft coco: Common objects in context.” Computer Vision–ECCV 2014. Springer International Publishing, 2014. 740-755.

 

Introducir o no introducir la programación en los niños y niñas, esta es la cuestión…

Cuando era niño (estamos hablando de hace unos 30 años) ya quería ser informático. Digamos que en mi caso era vocacional. El cine y la televisión ayudaron a alimentarlo. Películas como Star Wars  o Electric Dreams (aún me pregunto como el champán puede inducir Inteligencia Artificial en un ordenador) y series como Star Trek hicieron mucho daño (descripción interesante en Wikipedia como Western Espacial).

joke_programming

No fue hasta el instituto que pude descubrir que significaba la informática. Hemos de tener en cuenta que la sociedad aún no era consciente de la importancia de esta área en el futuro y por lo tanto no se le daba la suficiente importancia. Algunas escuelas privilegiadas enseñaban “informática” con el software LOGO. Una tortuga que se podía dirigir con instrucciones de movimiento (qué avance!). Pero aparte de estas incursiones en algunas escuelas, a un niño le era difícil introducirse en estas edades tempranas a la Informática. Los entornos familiares tampoco ayudaban ya que nuestros padres sabían igual o menos que nosotros del tema.

Después de 30 años, ¿Ha cambiado alguna cosa? En mi opinión sí y poco a poco a mejor. Hemos de tener en cuenta que hoy en día no se habla de “enseñar a programar” en edades tempranas, sino de introducir el “pensamiento computacional”.  Término que define enseñar a pensar como lo haría un ingeniero e intentar resolver problemas de forma sistemática como lo solucionaría un programa informático. Es una dirección interesante. Intentar diseñar algoritmos para problemas cotidianos desde pequeños puede  ayudar a pensar de otra forma y desarrollar el razonamiento científico.

Aunque en el entorno educativo español aún se está debatiendo cuándo introducir la informática y de qué forma, ya hay algunas iniciativas territoriales (Madrid, Navarra,…) que van en este camino.  Si hablamos de iniciativas internacionales, países como Canadá, Inglaterra o Japón ya hace algunos años que han introducido la informática como obligatoria.

¿Podemos hacer alguna cosa para introducir el pensamiento computacional a niños y niñas? Esperando un cambio en el curriculum escolar, en mi opinión sí. La sociedad se ha informatizado y casi todo el mundo tiene acceso a la tecnología (ordenador, tablet, teléfono móvil,…). Aunque no seamos informáticos, ni sepamos programar nuestra influencia como adultos es primordial. Introducir a los menores en el pensamiento computacional puede ayudar mucho en su desarrollo cognitivo. Puede que no estemos preparados pero la mejor forma de enseñar a veces es aprender juntos. Existen iniciativas que nos pueden ayudar: CodeClub, CodeDojo como actividades extraescolares o cursos gratuitos para introducir los adultos en el pensamiento computacional (MOOC de Programación para todos con Scratch).

Todas estas iniciativas tienden a utilizar software diverso. Software como Scratch, que permite construir pequeños programas para crear animaciones y juegos en forma de instrucciones apilables (tipo piezas de construcción). Utilizando este software se han creado extensiones para utilizar dispositivos externos (Lego Wedo, Arduino, Kinect, Leap Motion…) con una gran aceptación por el público infantil (y no tan infantil ;P). También hay otras opciones para dispositivos móviles: Scratch Jr,  Move the turtle, CargoBot, LigthBot.

Con todas estas opciones ya no tenemos excusa para dejar instalado en nuestros dispositivos algunos de estos softwares para pasar un rato divertido (y educativo) con los niños/niñas de la casa…

David Bañeres es doctor en Informática por la Universidad Politécnica de Cataluña (UPC) e Ingeniero Superior en Informática por la misma universidad. Es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y director del máster oficial en Software Libre de la UOC. Pertenece al grupo de investigación SOM y al grupo Inventa  de la UOC. Su trabajo de investigación se relación con métodos formales y herramientas de e-learning.

¿Qué hacen las empresas para transformarse digitalmente? (y II)

En la entrada anterior nos propusimos revisar algunos de los mayores estudios -entre científicos, periodísticos y comerciales- sobre la extensión de la transformación digital en empresas y sectores y los elementos reportados como clave para esta transformación.

MGI_USDigitization_1536x1536_Original GRAFICA: McKinsey Global Institute, Digital America, Diciembre 2015.

Hace unos meses, presentamos aquí el estudio multi-anual que lleva realizando desde 2011 el Centre for Digital Business (CDB, la web es bastante cutre y no está a la altura de lo que hacen), también del MIT con la consultora Cap-Gemini. Primero se hizo un estudio en profundidad entre 150 directivos, que luego se extendió a 450 más a través de encuestas. El estudio relaciona la intensidad en el uso de las TIC (digital intensity) con el nivel de transformación de las práctica de gestión (transformation management intensity) para establecer cuatro niveles de madurez. Los digirati,  las menos, son compañías maduras digitalmente, que han desarrollado modelos de empresa y tienen ejecutivos cultos con visión del valor de las iniciativas tecnológicas para el negocio. Según el director del estudio, nuestro amigo Erik Brynjolfsson, las TIC son ciertamente un catalizador del cambio; pero es la combinación de la inversión en tecnologías de la información, transformación de los procesos, orientación externa, capital humano y uso de la información lo que caracteriza a las compañías líderes, que además consiguen mayor productividad y beneficios. El libro más famoso y citado de estos años, The Second Machine Age, se basa en la investigación del CDB.

El estudio más amplio y completo (no necesariamente el más interesante) es la encuesta realizada durante tres años entre 4.800 directivos de 121 países por la revista MIT Sloan Management Review con la consultora Deloitte, cuya última entrega se ha publicado en Julio del año pasado. Según los encuestados, un 29% pertenece a empresas que ya están en un estadio superior de madurez digital y un 26% está dando los primeros pasos. El estudio establece unos niveles de madurez y una hoja de ruta. Las empresas líderes son aquellas que tienen 1) una estrategia digital bien definida, 2) la alta dirección lidera la iniciativa, 3) orientan el cambio hacia el negocio, no hacia la tecnología, 4) forman a sus empleados en competencias digitales y 5) toman y aceptan riesgos. La transformación digital, dice el informe, no es un tema de tecnología, sino de estrategia. O sea, de libro.

El último publicado de estos megaestudios de consultoras con profesores es, salvo error, el del Instituto McKinsey, muy interesante o, al menos, muy ingenioso. El estudio, realizado de momento para la economía norteamericana y publicado en Diciembre pasado, establece un “índice de digitización sectorial” por una combinación de 27 indicadores que afectan a la inversión en recursos, la intensidad de uso y el talento digital. Los sectores mejor situados son las industrias tecnológicas, los medios de comunicación (¿hay diferencia actualmente?) y las entidades financieras. Las empresas digitales incrementan más su capitalización, sus beneficios y su cuota de mercado… El gap entre líderes y principiantes es de casi diez veces. Los peor situados son el sector público, el turismo y la sanidad. El gap entre líderes y principiantes se ha multiplicado por cuatro en los últimos diez años. Globalmente, la economía americana sólo utiliza el 18% de su potencial digital, aunque el impacto de la digitalización sobre la productividad y el empleo está ahora en discusión. En la economía digital, los consumidores parece que ganan, los trabajadores parece que pierden y las empresas, pues depende -como dice el estudio, unos tienen (the haves) y otros tienen más (the haves-more). Y otros no tienen nada.

¿Qué hacen las empresas para transformarse digitalmente? (I)

La próxima semana se celebra en Madrid un magno evento sobre Empresa Digital, el nuevo mantra de los negocios y de la informática. Según la encuesta anual que hace Gartner entre primeros ejecutivos (CEOs, o sea consejeros delegados o directores generales), las preferencias de inversión en tecnologías de la información (ver gráfica) se dirigen principalmente a la cosa que se está llamando “agenda digital”, “digitalización” o “transformación digital”: experiencia de cliente, marketing y negocio digital (incluyendo nuevos productos y el negocio en la nube) y la analítica de datos. En la encuesta de CIO (directores de organización y sistemas de información, directores de informática), la prioridad sigue siendo por cuarto año la inteligencia de negocio. Unos y otros, sin embargo, ven la “digitalización” todavía como una preocupación más operativa y funcional (mejorar y adaptar procesos, aumentar paulatinamente la proporción de negocio en el canal digital) que estratégica (crear nuevos productos, establecer plataformas o cambiar el modelo de negocio).

Descargar (PDF, 110KB)

GRAFICA: Gartner. Prioridades tecnológicas de los CEOs. CEO Survey 2015.

En una entrada anterior, definimos la transformación digital como la manera en que las empresas asimilan y aplican las tecnologías de la información, para modificar de forma significativa sus procesos de gestión, la relación con su personal, sus clientes, proveedores y socios, e incluso para crear nuevos productos y modelos de negocio; o sea, los usos estratégicos de las TIC para la empresa que hemos venido trayendo a este blog y a un libro. Y, al revés: la cultura digital de las empresas y de los directivos son los factores que mejor explican la capacidad de las organizaciones para optimizar el rendimiento de sus inversiones en IT.

Desde mediados de los 2000 se ha investigado sobre cuáles son los rasgos de las empresas que están viviendo estos procesos, los motores (drivers) que conducen la transformación digital, en qué tipo de sectores y compañías, cuáles son sus beneficios potenciales, las estrategias al alcance, los inhibidores y facilitadores. Como otras veces, ésto debe llevar a alguna clase de índice de la madurez digital de la empresa y a una hoja de ruta útil para ejecutivos, consultores e investigadores.

Vamos a repasar aquí algunos de estos trabajos.

En el estudio de Zhu y colegas (2006), basado en entrevistas con directivos de 1415 empresas de seis países europeos, el mayor factor facilitador de la incorporación del comercio electrónico en las empresas analizadas era la “compatibilidad” entre sus procesos de negocio (logística, producción, distribución y ventas) y la plataforma tecnológica así como el nivel de preparación de sus proveedores, clientes y socios de negocio para trabajar en red, mientras que el mayor inhibidor era la precaución sobre la seguridad de las transacciones. El factor tamaño correlacionaba negativamente: o sea, de forma contraintuitiva, las empresas más grandes sufren de una inercia organizativa que les limita. Ni en ésta ni en otras investigaciones, el coste aparece como un inhibidor relevante.

Desde entonces, se han ido realizando estudios de este tipo basados principalmente en encuestas. Uno de los más interesantes y extenso es el del Center for Information Systems Research (CISR) del MIT de 2007, cuyas conclusiones y consecuencias están publicadas en el libro IT Savvy (2009) de Ross y Weill. En el estudio, menos de un tercio de las 1500 empresas encuestadas se estaban transformando digitalmente. Las empresas líderes 1) preparan su arquitectura de empresa  para la era digital, 2) luego establecen su infraestructura digital de procesos, aplicaciones y sistemas modulares basados en estándares  y 3) desarrollan capacidades y cambian estructuras, maneras de trabajar e incentivos para monetizar su inversión en la práctica.

Veremos algunos ejemplos más en la segunda parte de la entrada.