Del amateur al profesional del deporte a través de los datos

Sigo hablando de casos de uso, esta vez en el deporte. En el deporte profesional ya sabemos desde hace tiempo que se compite en el dato. Por ejemplo, en la NFL se usa sensores RFID para monitorizar el movimiento de los jugadores y modificar las estrategias en tiempo real (aquí). En la fórmula 1, la telemetría permite predecir el comportamiento del coche durante la carrera (aquí). O incluso los datos permite llegar a afirmar que Messi es el mejor jugador del mundo (aquí). El deporte ya no es sólo arte, ¡tiene mucho de ciencia! Y más que queda por llegar.

Skynet. Logo de la compañía detrás de la inteligencia cibernética de la película Terminator. Derechos reservados a la distribuidora del film.

Skynet. Logo de la compañía detrás de la inteligencia cibernética de la película Terminator. Derechos reservados a la distribuidora del film.

Si, lo sabemos. Lo vemos en las retransmisiones en directo. Cuando vibramos por nuestro equipo o deportista favorito. Sabemos que los profesionales usan sensores para medir su respiración, pulsaciones, fatiga, rendimiento y movimiento. Que pueden predecir futuras lesiones, diseñar estrategias para competir, mejorar coches u otros artilugios (como raquetas!). Y como consumidores nos estamos acostumbrando poco a poco a saber más sobre el tema y, en cierta medida, a generar una cultura analítica.

Algo que es interesante es todo este tipo de avances que han tenido durante largo tiempo como objetivo a los deportistas de élite ahora están permeando en consumo. Podemos medir nuestros pasos (con fitbit y equivalentes), conocer qué calorías ingerimos (con myfitnesspal entre otros), mejorar nuestro rendimiento (con runtastic y otros). Pero de camino ya tenemos los complementos de alto rendimiento: por ejemplo vestimenta sensorizada que mide la respiración, los latidos y la fatiga muscular (por ejemplo, Athos) o incluso conocer nuestro momento de máxima energía y saber cuánto tiempo debemos dormir (por ejemplo jaybird reign).

Este amalgama de dispositivos y servicios va poco a poco (y debe) a confluir en un único ecosistema conectado que va a permitirnos conocernos mejor. Ecosistema en que el smartphone se está postulando en esta fase inicial como el hub de referencia.

Estamos ante la emergencia de una nueva serie de empresas que no sólo recopilan nuestros datos sino que nos proporcionan recomendaciones y buscar mejorar nuestros hábitos o habilidades. Es en definitiva la que se conoce como quantified-self. Ya no es posible crear un producto si no se genera valor a partir de los datos que lo rodean.

Al final de tanto dato y tanta inteligencia que no nos extrañe que nos levantemos por la mañana y veamos Skynet en las pantallas de nuestros dispositivos.

Lo que es interesante es que las organizaciones pueden aprender muchísimo del mundo del deporte y cómo aplican la analítica de negocio. Por ejemplo, os recomiendo uno de los últimos artículos de Davenport donde se discuten estas ideas.

 

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

LaTeX: documentos científicos con acabados profesionales

Allá por el año 2000, estaba completando la memoria de mi proyecto final de carrera. Era un documento de 200 páginas en Word, con contenido muy diverso: texto, fragmentos de código, gráficos, imágenes… La semana antes de la entrega (no podía ser de otra forma) empezó la pesadilla. Primero, editar algunas partes del documento alteraba el estilo del resto de la memoria sin motivo aparente. Luego, algunas imágenes desaparecían y eran reemplazadas por unas cruces rojas, momento en que no se podía recuperar la imagen original. Para salir del paso, tuve que partir la memoria en diferentes ficheros y gestionar los números de página de forma manual. Lección aprendida: las herramientas ofimáticas no escalan bien a documentos grandes y complejos.

Poco después, empecé el doctorado y descubrí que muchas tesis y artículos científicos se preparaban de forma diferente. En lugar de utilizar un editor WYSIWYG, los investigadores utilizaban un lenguaje de marcas para describir el contenido del documento y un compilador para generar la versión “imprimible” (PostScript en su día y PDF en la actualidad). El lenguaje permitía escribir fórmulas matemáticas complejas y gestionar de forma automática aspectos de estilo como los números de página, la tabla de contenidos, … Además, también permitía gestionar las referencias bibliográficas, necesarias y muy abundantes en las comunicaciones científicas. Y lo mejor de todo, el documento generado como salida tenía un acabado profesional, superior incluso al que podía conseguirse con software de ofimática. Acababa de descubrir una herramienta muy potente: LaTeX.

Diagrama de estados del protocolo TCP, hecho con LaTeX (código). Fuente - TeXample, Licencia: CC BY-2.5

Diagrama de estados del protocolo TCP, creado con LaTeX (código). Fuente – TeXample, Licencia: CC BY 2.5

LaTeX ofrece un entorno de creación de documentos que se ha convertido en el estándar en muchas comunidades científicas, como por ejemplo la informática. Sus fortalezas más usualmente citadas son las fórmulas matemáticas, la gestión de la bibliografía y la calidad del documento final. Sin embargo, me gustaría destacar otros puntos fuertes desde el punto de vista “informático”:

  • Aunque están incluidos en el mismo documento, el lenguaje separa adecuadamente el contenido y la presentación. Es sencillo definir un estilo homogéneo en todo un documento y modificarlo después con un par de comandos.
  • LaTeX gestiona automáticamente muchos aspectos de la edición: justificado del texto, espaciado, gestión de líneas huérfanas, ubicación de figuras y tablas, … Esta forma de trabajar permite al escritor despreocuparse de la forma y centrarse en el contenido, sabiendo que el entorno sabrá dar un acabado profesional al texto.
  • El lenguaje nos permite definir nuestros propios estilos, comandos, y macros. Esta potencia y flexibilidad permite reducir muchísimo el esfuerzo de crear documentos con una estructura compleja y repetitiva. Por ejemplo, podéis ver lo fácil que resulta describir algoritmos, circuitos, partidas de ajedrez, crucigramas o sudokus.
  • Existe un rico ecosistema de editores, herramientas, paquetes, documentación y tutoriales creados por la comunidad. ¿Quieres hacer X en LaTeX? Seguro que ya está inventado, sólo tienes que buscarlo.
  • Las tecnologías LaTeX han sabido adaptarse a los nuevos tiempos: ya existen editores visuales para LaTeX y una gran diversidad de entornos para preparar documentos LaTeX de forma colaborativa en la nube, como Overleaf o ShareLaTeX (que además pueden usarse desde el navegador web sin instalar nada).

 

LaTeX Basics: a video tutorial from UOC EIMT on Vimeo.

 

Si nunca lo habéis utilizado, desde estas líneas quiero animaros a probar LaTeX como herramienta para crear vuestros documentos. Por mi parte yo lo he usado para preparar tesis, artículos, informes, materiales didácticos y enunciados de Pruebas de Evaluación Continua. Después de 15 años, no tengo queja. Sin embargo, tampoco quiere dejaros con la impresión de que todo es fácil y perfecto. Hacer el paso a LaTeX requiere algunos sacrificios:

  • Cuando editamos podemos introducir errores en el documento y es necesario saber interpretarlos y corregirlos. A l@s informátic@s esto nos sonará normal, pero personas con otra formación pueden ponerse nerviosos al tener que lidiar con “errores de compilación”.
  • LaTeX no es la herramientas más apropiada para documentos donde sea necesario un control preciso sobre la ubicación de los elementos, como figuras, imágenes o tablas muy complejas. Ojo, cualquier cosa puede hacerse en LaTeX, pero algunas tareas requieren menos esfuerzo con editores visuales.
  • Si es un documento que va a editarse en equipo, lo ideal es que todos los miembros tengan nociones de LaTeX. Igualmente, hay que tener en cuenta que así como casi todos los ordenadores tienen alguna herramienta ofimática instalada, normalmente es necesario instalar las herramientas LaTeX ex professo.
  • El “cortar & pegar” desde un fichero LaTeX a documentos en otros formatos (y viceversa) no es trivial. Cuidado, que hacerlo entre documentos LaTeX es mucho más sencillo que entre documentos Word por el tema de cambios de formato. Sin embargo, pasar de LaTeX a Word no es directo (aunque tampoco sea imposible).

Como recurso para iniciaros, os recomendamos unos vídeo-tutoriales sobre LaTeX que hemos preparado en la UOC. Venga, a escribir, ¡que ya no tenéis excusa!

Inteligencia de Negocio: de las ideas a las operaciones

A veces al hablar tanto de estrategia (aquí y aquí), uno podría pensar que esto de las estrategias de datos (BI, BA y Big Data) viven sólo en el mundo de las ideas y de los planes a largo plazo. ¡Cuando en realidad es todo lo contrario! El uso de los datos que están relacionados con una organización está actualmente más limitado por la imaginación, el conocimiento y buen hacer de la propia organización que por la tecnología.

Alegoría de la Caverna. Jan Saenredam (1604) - Fuente: Wikipedia, Licencia: Dominio público

Alegoría de la Caverna. Jan Saenredam (1604) – Fuente: Wikipedia, Licencia: Dominio público

Dejadme que nos centremos en un determinado sector para ejemplificar la discusión: la distribución y suministro de agua. En una fase inicial, podemos aplicar la inteligencia de negocio a conocer mejor nuestro negocio: cuántos clientes tenemos, cuánto facturamos por mes, qué costes tenemos,… y cómo evolucionan estos parámetros a lo largo del tiempo.

Como os podéis imaginar esto es sacarle poco partido al tema. Como empresa en este sector, uno de los principales activos de la organización es su red de suministro. ¿No sería maravilloso poder optimizar este recurso?  Es decir, reducir costes operacionales, reducir el consumo de energía o mejorar el control de fugas (¡dicen los expertos que hasta un 50% del agua se pierde en el circuito de distribución!).

Para eso es necesario conocer y comprender nuestro recurso a partir de los datos que lo componen y que se generan durante su uso. Es cierto, me diréis algunos que para empezar debemos tener datos. Y que eso es otro tipo de proyecto. No nos engañemos, se trata de generar competencias digitales basadas en los datos, pero estos proyectos en su naturaleza combinan múltiples elementos para lograr el impacto adecuado.

En este caso, la Internet de las cosas (IoT). O sea que, si se quiere optimizar la red de suministro, no queda otra que desplegar sensores para medir aspectos como la presión, el flujo y la temperatura en la red.

En primera instancia este despliegue nos va a permitir desarrollar un primer grado de madurez en el BI operacional: la monitorización. Es decir, saber qué sucede. Tras alcanzar este grado nuestra organización estará preparada asumir el control de este activo ligando la gestión de la distribución a los datos. Y no nos debemos quedar aquí sino que debemos llegar hasta creación de una capacidad de optimización automática de la presión, temperatura y el flujo para ajustar la oferta a los patrones adecuados de una zona.

Será entonces cuando estemos realmente generando valor de los datos. Y habremos transformado las ideas en acciones cuyo impacto transforma profundamente nuestras operaciones.

Así que  hay que ponerse el traje de faena y empezar a dar los pasos como decía Machado: “caminante, no hay camino, se hace camino al andar.”

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Big Data: Más allá de la tecnología (y 2)

Retomamos el repaso al mundo del Big Data, viendo algunos ejemplos de aplicación del Big Data al mundo del arte y las previsiones sobre cómo será  Big Data en el futuro.

Big Data en el arte

Big Data también es arte, es expresividad, en esencia también se utiliza para expresar emociones.

World Processor | Ingo Günther

Ingo Günther es un profesor, periodista y videoartista alemán. Es el autor de esta obra artística que tiene su origen en el año 1988 y finaliza el año 2005. La pieza es totalmente artesana, son globos terráqueos como los que todos hemos tenido en la escuela, manipulados de forma artística para expresar datos estadísticos contando una historia sobre el mundo: desde las corrientes de refugiados del siglo XX, hasta los países sin acceso al mar, pasando por las zonas del planeta ciegas a los satélites. La espectacular obra se compone de 300 globos diferentes.

World Processor | Ingo Günther

World Processor | Ingo Günther

Referencias [último acceso, marzo 2015]

Cinema Redux | Brendan Dawes

Tal vez sea ésta una de mis piezas favoritas en lo referente a Big Data y Arte.

Brendan Dawes es un Diseñador y artista que en esta pieza plasma en una única fotografía lo que sería la huella de una película cinematográfica. El artista crea una representación gráfica donde cada fila está compuesta por 60 cuadros, cada cuadro es una foto tomada en intervalos de un segundo. El producto final es desconcertante, algo tan cinético como el cine queda plasmado en una sucesión de fotogramas gracias a los cuales, en un solo vistazo, se puede comprender una obra cinematográfica en su conjunto.

Cinema Redux | Brendan Dawes

Cinema Redux | Brendan Dawes

Referencias [último acceso, marzo 2015]:

Big Data en el futuro

El futuro es prometedor por la propia evolución tecnológica, en 10 años habremos dado una gran salto hacia delante y me atrevo a añadir un adverbio a Big Data y hablar de “Very Big Data”.

El almacenamiento en términos de Zettabyte, una mayor capacidad de proceso y un negocio consolidado, nos introducirá el Big Data en la mejora de nuestra salud. Es muy probable que en los próximos años Big Data tenga nuevas aplicaciones asociadas a un terreno muy diferente a los mencionados como el diagnóstico y resolución Adhoc en medicina de enfermedades para pacientes específicos.

Es fácil entrever que mediante procesos de obtención de imágenes del cuerpo humano similares a los TAC actuales, más la asignación de coordenadas y asignación de atributos a cada célula del cuerpo, así como la aplicación de la inteligencia artificial necesaria para simular crecimiento asociados a ciertos agentes externos, seamos capaces de simular el cuerpo humano. Podremos analizar la evolución de una persona, probar medicinas y evaluar su consecuencia en tiempos acelerados para definir su pronóstico y ahorrar el dolor y las pruebas innecesarias que se aplican actualmente.

Obviamente su resultado será aproximado y hasta que no se aplique al paciente la solución médica no se tendrá al 100% la garantía de que el tratamiento funciona.

Conclusión

A mi modo de ver, Big Data ya existía con otros nombres en el pasado, aunque la evolución tecnológica nos lo ha presentado en sociedad en estos últimos cinco años. Si lo tuviésemos que desglosar se reduciría a los siguientes conceptos: información estructurada, análisis y presentación. En la actualidad Big Data está asociado a negocio pero también a arte.

Los próximos años van a ser prometedores y Big Data se va introducir en nuestras vidas a través de la salud. Supongo que para entonces ya le habremos vuelto a cambiar el nombre.

Juan Ramón Mesa Díaz es experto en SIG trabaja en la empresa ACEFAT como Director de Sistemas de Información. Tutor en el Postgrado de SIG, anteriormente también fue consultor en el mismo Postgrado.

Big Data: más allá de la tecnología (1)

Como experto en Sistemas de Información Geográfica desde hace aproximadamente cinco años, Big Data resuena cada vez con más intensidad.

Nosotros ya hacíamos Big Data hace ¡10 años!…valiente novedad. Este exabrupto lo he escuchado en más de una ocasión. Y en cierta manera muchos profesionales tienen razón. Hace 10 años ya movíamos grandes volúmenes de datos bancarios, los cruzábamos con información de compras y a través de esto definíamos tendencias y ofrecíamos ofertas.

En la última jornada del ACTIG realizada en el Institut Cartogràfic i Geològic de Catalunya, un ponente que trabaja para una multinacional del mundo de las Tecnologías de la Información y la Comunicación, calificaba que Big Data era un 50 % de marketing y un 50% de hechos. Con cierto alivio comentaba que la parte referente a marketing había descendido durante estos últimos años incrementándose el factor “hechos”.

Entonces… ¿qué es Big Data? Para explicarlo utilizaré algunos ejemplos de la exposición con el nombre: “Big Bang Data” que tuvo lugar a finales del pasado año 2014 en el Centro de Cultura Contemporánea de Barcelona (CCCB). Y para dar una respuesta lo más completa posible, trataré de abordarla desde diferentes puntos de vista. Por cierto, esta exposición, en breve, visitará la ciudad de Madrid: http://bigbangdata.cccb.org/es/

Big Data en el Pasado

Tal vez Big Data haya existido siempre. Hay dos ejemplos que, desde el punto de vista de los Sistemas de Información Geográfica, se utilizan como base histórica. Por supuesto no son únicos.

Pertes de l’armée française dans la Campagne de Russie | Charles Joseph Minard

La tecnología utilizada es la propia de la época: un cuaderno donde recopilar los datos, un mapa donde situarlos, y para la capa de presentación, los colores que pudiesen proporcionar las acuarelas, el óleo o la tinta de la época.

Si nos remontamos al Siglo XIX ya encontramos antecedentes de lo que hoy llamamos Big Data. En un sencillo mapa del año 1869 el cartógrafo Francés Charles Joseph Minard plasmó geográficamente las batallas de la Campaña de Napoleón contra Rusia en 1812, el número de muertos, la temperatura y el recorrido realizado por las tropas.

Referencias [último acceso, marzo 2015]:

On the mode of comunication of Cholera | John Snow

Otro gran ejemplo es el mapa del médico inglés John Snow referente a la epidemia de cólera que asolaba en 1854 el Soho de Londres. El médico demostró mediante su estudio la siguiente hipótesis: la propagación del cólera se realizaba a través del agua y no a través del aire.

En un mapa John Snow fue situando los casos de cólera que había detectado durante la epidemia, eliminó aquellos casos que estuviesen alejados del área de concentración y a partir de esta concentración, trazando los posibles focos de la epidemia, relacionó la aparición de los casos con una fuente cercana en Broadwick Street. Al principio la hipótesis no era muy creíble, obviamente desde el punto de vista de la época, y por precaución, la fuente se cerró al público. A partir del momento en que se clausuró la fuente de agua el número de casos remitió. Un año más tarde acabó de demostrar, gracias a su famoso mapa, que la fuente de la calle Broardwick proporcionaba agua recogida en una zona contaminada del rio Támesis.

Por primera vez un Sistema de Información Geográfico, supuestamente primitivo, salvó la vida a unos cuantos ciudadanos.

On the mode of comunication of Cholera | John Snow

“On the mode of comunication of Cholera” por John Snow. Fuente: CCCB

Big Data en la actualidad

En la actualidad son innombrables los ámbitos de conocimiento que se han transformado debido al acceso a grandes conjuntos de datos. Las diferentes metodologías de la ciencia de los datos se abren paso en múltiples disciplinas y crean dominios especializados, con nuevos perfiles profesionales. Así, actualmente en la planificación urbanística se habla de ciudades inteligentes (smartcities); en la prensa, de periodismo de datos, y en los departamentos de historia, de humanidades digitales.

Surge así la necesidad de visualizar y analizar grandes volúmenes de datos, de revelar patrones de comportamiento, tendencias y relaciones entre conceptos que de otra manera seríamos incapaces de intuir. Teniendo en cuenta que la mayor parte de esta información está georeferenciada, el reto está en analizar y visualizar grandes volúmenes de información geoespacial mediante el uso de Bases de Datos NoSQL y de Sistemas de Información Geográfica ubicados en la nube.

Dejadme que os exponga algunos casos que por impacto me parecen interesantes. Hay miles de ejemplos de Big Data en la actualidad relacionados con la investigación espacial, la representación del tráfico de Google o algo tan habitual como la retransmisión de un espectáculo deportivo. Voy a utilizar dos ejemplos que me son atractivos por su proximidad y que responden a la pregunta: ¿Qué hacen nuestros visitantes?

Una de las pasiones más en boga es controlar cuales son los hábitos de los visitantes a nuestras ciudades, en mi caso voy a focalizarme en Barcelona. La idea es: ¿somos capaces de predecir la actividad de los visitantes de la ciudad?

Mobile World Congress Impact | CARTODB y BBVA

Este proyecto, o mejor dicho visualización, utilizando como Sistema de Información Geográfica CartoDB y datos proporcionados por la entidad bancaria BBVA permite ilustrar dónde se centra la actividad económica en la ciudad de Barcelona mientras se celebra el Mobile World Congress (MWC2012); además, compara las transacciones con tarjeta de crédito la semana anterior y la semana del MWC. La visualización refleja datos tanto diurnos como nocturnos y se puede observar cómo se desplazan los visitantes del MWC a lo largo de la ciudad.

Referencias [último acceso, marzo 2015]

Comportamiento de los turistas de cruceros | Telefónica I+D

En este estudio patrocinado por Telefónica, mediante la conexión de los turistas de cruceros con sus móviles a las compañías de telefonía local, se dibuja un mapa de impacto donde se representan las zonas más visitadas o más atractivas para este tipo de turista. Este estudio permite averiguar qué zonas de Barcelona son las menos explotadas desde el punto de atracción al turista de cruceros y diseñar qué productos podrían atraer a los turistas a las zonas poco impactadas.

Referencias [último acceso, marzo 2015]

Juan Ramón Mesa Díaz es experto en SIG trabaja en la empresa ACEFAT como Director de Sistemas de Información. Tutor en el Postgrado de SIG, anteriormente también fue consultor en el mismo Postgrado.