Octubre: regreso a los básicos

En una entrada anterior presentábamos algunos artículos del número de Octubre de la Harvard Business Review  que anunciaban la afluencia de los Big Data como la “última revolución del management” y el trabajo del analista de datos como “la profesión más sexy del siglo XXI”. Wow! En fin, hay gente que vive de esos títulos: “the ultimate tal cosa o tal otra“. Pero en este trance, temo que perdamos de vista cómo empezó todo ésto y cuáles son los “básicos” de cualquier clase de inteligencia de negocio. Así acabábamos precisamente el artículo, con las palabras de Peter Drucker: no puedes gestionar lo que no puedes medir; se mide lo que se hace y se hace lo que se mide. El mismo número de la revista se acompaña, por decírlo así, de otros dos artículos de menos campanillas pero cuya lectura recomiendo. Uno de Michael Mauboussin (consultor en Legg Mason y profesor en Columbia) sobre “Métricas” y otro de Thomas Ricks (escritor) sobre “Accountability“, o sea, responsabilidad. Es probable que éstos sean los verdaderos dos pilares de la inteligencia de negocio y de sus formas y modismos más avanzados y recientes, el “Business Analytics” y los Big Data. Yo quizá les añadiría un tercero: “Execution“, o sea ejecución, hacer que las cosas pasen. Veamos. En un artículo pionero (no tengo la referencia a mano) de Thomas Davenport, uno de los inventores de todo ésto, se decía que la gestión de la información servía para: 1) Medir, 2) Comparar, 3) Reportar, 4) Analizar, 5) Predecir, 6) Avisar, 7) Colaborar, 8) Saber. Acaso hoy podríamos añadir una novena, “Experimentar”, probar cosas de forma científica y ver qué pasa (siguiendo...

Investigando

Tomé hace unos meses la decisión de hacer (o intentarlo) mi tesis doctoral. No es una tontería, es una decisión trascendente, algo que te cambia la vida, no sé aún si por un tiempo o para siempre. Ahora los Estudios de Informática, Multimedia y Telecomunicaciones de la UOC ya tenemos un programa de doctorado propio, que se llama NIT (Network and Information Technologies), después de la perseverancia de David Megías y un equipo de gente estupenda. Y toda la Universidad está en un trance investigador, bajo la energía que no es poca de la Vicerrectora Teresa Sancho, que viene también de nuestros Estudios. Perdonad estas primeras impresiones los que de verdad lleváis haciendo todo esto mucho tiempo. En la fase en la que estoy, la investigación me recuerda irónicamente la filología que pasé en una vida anterior y en una galaxia muy lejana. Se estudian, comparan y datan textos antiguos, se discute acaloradamente con otros filólogos y eruditos. Descubrir un cambio en la posición de una coma o comentar una sinécdoque puede resultar una contribución de interés para la comunidad. Hace muchos años escribí un trabajo de final de carrera que se titulaba “El uso del adjetivo en el relato “El incivil maestro de ceremonia Kiranosuké no Suké” del libro Historia Universal de la Infamia de Jorge Luis Borges, a la luz de la gramática generativa y transformacional”. Quiero decir que quizá tengo una preparación previa. Esta etapa, que corresponde al estudio del estado del arte y la revisión bibliográfica, me recuerda aquella frase un poco sarcástica de Anthony Johnston: “Si copias de un autor, se llama plagio; si...

La carrera del espacio de Dropbox y los hackers del MIT

La empresa de almacenamiento en la nube Dropbox está lanzando una ingeniosa campaña de márqueting viral: la Space Race. Esta campaña está dirigida a estudiantes universitarios y ofrece espacio de almacenamiento adicional durante tiempo limitado si disponen de una dirección de correo “.edu”. Cada universidad recibe “puntos” por cada usuario nuevo al que se recomienda el servicio Dropbox, y se obtiene espacio adicional si se llega a cierta cantidad de puntos. También hay un ranking global de todas las universidades a nivel mundial y por países, para animar a los que tienen mentalidad competitiva. En estos momentos, la UOC ocupa la octava posición a nivel español y la 107 a nivel mundial. Es importante destacar la universidad que actualmente ocupa la primera posición, el Massachussetts Institute of Technology (MIT). Y hay que destacarlo por un motivo: están manipulando artificialmente su posición en este ranking. Dado que como “concurso” no tiene mayor relevancia, es interesante explicar el tipo de maniobras y “trampas” que están haciendo para ganar puntos. La lectura es entretenida y tiene su miga a nivel técnico: no sólo tienen que generar direcciones de correo “fantasma”, sino que también tienen que responder al correo de invitación e instalar el software de forma automatizada. Si sois usuarios de Dropbox y miembros de la comunidad UOC, os recomendamos que os aprovechéis de esta iniciativa para conseguir espacio extra. A día de hoy, la UOC ha conseguido 15 Gb adicionales para cada usuario y pueden llegar a ser 25Gb extra. No obstante, os recomendamos precaución al usar esta oferta: el espacio adicional sólo está disponible durante 2 años. Si empezáis a usar...

Realmente, ¿llegará el análisis instantaneo a la cadena logística?

Se aproximan tiempos interesantes para los responsables de la Cadena Logística en muchas empresas, especialmente en el sector del Gran Consumo. El status-quo nos muestra que gran parte de la función de soporte al Supply Chain Management (SCM) se basa en antiguos sistemas DRP (Distribution Resource Planning) y desde ya hace una decena de años, en otras herramientas más sofisticadas de planificación, basadas parcialmente en la Business Intelligence, como podían ser el módulo APO de SAP, o los sistemas Manugistics o i2 (actualmente propiedad ambos de JDEdwards). En el último Hype Cycle sobre tecnologías alrededor del SCM publicado por Gartner hace unas semanas (Hype Cycle for Supply Chain Management, 2012 – Payne, T – G00233680) es muy indicativo cuáles son las tres tecnologías llamadas a ser una realidad consolidada en la mejora de la Cadena Logística en los próximos tres años: La tecnología de intercambio de información RFID, por motivos obvios La optimización de precios en ‘casi-tiempo-real’ en las transacciones B2B (algún día podíamos hablar largo y tendido sobre el tema…) La aparición de soluciones de mercado en la tecnología de Bases de Datos en Memoria (IMDBMS) Es en este tercer aspecto donde quisiera hacer énfasis. Todos los grandes players del mercado (IBM, Oracle, SAP,…) ya tienen en su portafolio de productos o en sus roadmaps tecnológicos aplicaciones de soporte a los procesos de negocio basados en tecnologías IMDBMS. Es curioso constatar que, soluciones que parecían radicalmente innovadoras un par de años atrás como el appliance Exadata presentado conjuntamente entre Oracle y HP, quedan ahora, en opinión de los expertos como Scott Tiazkun, desplazadas por apuestas más fuertes como...
El movimiento NoSQL (II)

El movimiento NoSQL (II)

Seguimos tratando las bases de datos NoSQL, de las que ya empezamos a hablar en la entrada anterior. NoSQL se orienta principalmente a entornos altamente distribuidos –donde existen miles de ordenadores (o nodos) trabajando de manera colaborativa– que necesitan gestionar grandes volúmenes de datos con alta disponibilidad. La mayoría de estos sistemas usan la replicación y fragmentación de los datos, y explotan el paralelismo para potenciar la escalabilidad y la disponibilidad. Además, a diferencia de los gestores de bases de datos relacionales, en este tipo de soluciones es posible añadir nuevos nodos (normalmente “en caliente”) para conseguir mayor capacidad. Esto se conoce como escalabilidad horizontal. En este contexto, es necesario considerar la conjetura de Brewer, también conocida como teorema CAP (Consistency, Availability and tolerance to network Partition). Dicho teorema establece que en un sistema distribuido es imposible conseguir simultáneamente las tres características, y que en consecuencia es necesario elegir dos de las tres. La consistencia (consistency) se refiere a la capacidad de que se puedan recuperar siempre los mismos datos en un mismo instante de tiempo. Por su parte la disponibilidad (availability) se refiere a que si alguno de los nodos del sistema distribuido no se encuentra disponible, el resto pueda seguir trabajando. Finalmente, la tolerancia a la partición de red (tolerance to network partition) significa que el sistema distribuido pueda seguir operando, incluso ante posibles fallos en parte de la red de comunicaciones. La tolerancia a la partición de red, más que una decisión, constituye una necesidad en la mayoría de sistemas altamente distribuidos. Por lo tanto, la decisión consiste en elegir entre consistencia o disponibilidad, y en...