El movimiento NoSQL (I)

El movimiento NoSQL (I)

El pasado 6 de Octubre se celebró en la Casa de la Convalescència de Barcelona la conferencia NoSQL Matters . La conferencia incluyó diferentes ponencias donde se trataban aspectos técnicos, presentación de productos y casos de uso. Algunas de estas ponencias están comentadas en el blog “Alapamui!“. La organización fue impecable e incluyó contenidos interesantes, proporcionando además un marco adecuado para que asistentes y ponentes pudieran compartir experiencias e inquietudes. Bajo la denominación NoSQL (Not Only SQL) se engloba un amplio abanico de tecnologías para gestionar y analizar datos en entornos de aplicación donde las bases de datos relacionales no son la mejor solución, invalidando la máxima one size fits all esgrimida en ocasiones por los fabricantes de gestores de bases de datos relacionales. Existen diferentes propuestas de bases de datos NoSQL, buena parte de ellas tratadas en NoSQL Matters, y cuyas principales tendencias pueden resumirse en 3 grandes grupos: 1) Almacenes clave-valor (Key-value stores), que emulan el funcionamiento de las tablas de dispersión (hash tables), como sería el caso del sistema Dynamo desarrollado por Amazon, Redis, y los populares almacenes para grandes datos (Big data stores) como BigTable de Google, su versión de código abierto Apache HBase y Cassandra, liberado por Facebook y ahora proyecto Apache. Los almacenes para grandes datos añaden el concepto de familias al de clave-valor para explotar el almacenamiento físico por columnas. 2) Bases de datos documentales, que se orientan al almacenamiento y recuperación  eficiente de documentos. Son similares a los almacenes clave-valor, con la peculiaridad que el valor es el documento en sí mismo. Algunos ejemplos serían MongoDB, Couchbase y Riak. 3) Bases...

Efectos colaterales

Muchos lectores prefieren los blogs de noticias comentadas por encima de otras cosas más profesionales o más eruditas. A mí me gustan las noticias que me confunden y me muestran las paradojas de la modernidad. El periodista estadounidense Edward Murrow (el de “Buenas noches y buena suerte”) decía: “Anyone who isn’t confused doesn’t understand the situation”. Espero que tuviera razón y que todo esto nos ayude a entender más cosas. Aquí van dos piezas de estos días y he guardado algunas más para otro momento. La nube (the “cloud”) parecía una cosa apolínea, un ejemplo de eficiencia y ahorros para todos. En realidad, según un estudio del New York Times con el McKinsey Global Institute, los almacenes digitales que sostienen la red, situados en cualquier desierto del mundo que creemos civilizado o al lado de cualquier ciudad que llamamos incivilizada, utilizan unos 30.000 millones de vatios de electricidad, o sea el equivalente a 30 plantas de energía nuclear. La “nube” está diseñada por definición para atender los picos de demanda de cualquier cliente, pero la manera de distribuir esta carga hace que en realidad sólo se use entre el 6% y el 12% de la capacidad disponible. Para prevenir rupturas en el flujo de electricidad (en Estados Unidos y en muchas partes, como el campo de fútbol del Rayo Vallecano, los cortes de electricidad son frecuentes) o para refrigerar los servidores, estos centros de datos utilizan energía de origen fósil, en realidad gasoil. En cualquier otra industria, semejante polución y desperdicio habría arrojado a sus agentes fuera del mercado, provocado oleadas de indignación popular y ecologista o habría desaparecido....

Open Access Week

La semana del 22 al 28 de octubre se celebra a nivel mundial el Open Access Week, que tiene por objetivo promover el acceso abierto a los textos académicos. Dentro de este marco, la UOC ha organizado una serie de actividades, algunas de las cuales se impulsan desde los Estudios de Informática, Multimedia y Telecomunicación, como un taller sobre recursos educativos en abierto y una jornada técnica para aprender a programar bots en Wikipedia, coorganizada con Amical Wikipedia. Si desea más información de cualquiera de estos actos no dude en contactar con Julià Minguillón. Esperamos que sea de su interés. NOTA: En principio, la jornada se realizará en catalán. En caso que hubiese suficientes personas interesadas en que se hiciese una sesión en castellano, ésta se programaría a posteriori. Si les interesa esta opción, por favor, escríbanos. Julià Minguillón es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la...

Octubre, el mes de los grandes datos

Ya lo decíamos últimamente, este es el año de los Big Data, “la gran revolución del Management”, según nos avisan. El número de octubre de la Harvard Business Review está dedicado a ellos, con tres artículos de autores de campanillas: Brynjolfsson y McCafee (MIT),  Davenport (Harvard) y Potil (ex Linkedin), y Barton y Court (McKinsey). Como otras veces, el contenido no es muy nuevo ni aporta grandes cosas a la gente que lleva tiempo trabajando con ésto o los que tienen una cultura general en Inteligencia de Negocio, pero tiene el valor especial de publicarse en la revista de negocios más leída y más influyente del mundo y la que forma en mayor medida la opinión de los ejecutivos educados pero sin un gran conocimiento de la tecnología. La publicación recorre desde los temas más generales y estratégicos (por qué la gestión del “diluvio de datos” es una revolución para la gestión de las empresas y cuáles son los principales retos de la alta dirección) hasta algunas indicaciones operativas (por dónde empezar o dónde reclutar a la gente). Llama la atención el artículo de Davenport y Potil sobre la profesión de “científico de datos” (data scientist), del que dice que es “el trabajo más sexy del siglo XXI”. ¿Qué hay de nuevo con los Big Data, comparado con lo que siempre hemos llamado inteligencia de negocio y, más recientemente inteligencia analítica (analytics)? Seguramente la diferencia principal es una cuestión cuantitativa que se convierte hegelianamente en cualitativa: la multiplicación de la velocidad, el volumen y la variedad y tipología de datos y la división del coste de su producción, tratamiento y almacenamiento. Cada día...

Buenas noticias para la gestión de proyectos

Los libros y artículos de gestión de proyectos comienzan con las cifras apocalípticas de los desastres de gestión (el famoso informe anual del Standish Group, llamado el “Informe del Caos”, o el blog de Michael Krigsman titulado “IT Failures” han hecho del desastre una razonable manera de ganarse la vida) y el reparto de culpas entre los sospechosos habituales (las “principales causas de fracaso” ). Luego está la sección y las webs de chistes y bromas. Nosotros, en las asignaturas de gestión de proyectos solemos empezar con un debate donde los estudiantes, muchos de ellos profesionales, ponen en común sus experiencias de fracasos (y a veces también de éxitos). “El fracaso es la madre del éxito”, dicen que decía Confucio. Este año estamos usando para el debate la estupenda y “seminal” entrada de Robert Clarisó sobre el hundimiento del barco “Vasa”. Pero un paseo reciente por algunas noticias profesionales da algunos motivos de alegría a nuestra profesión, que siempre creemos maltrecha y poco reconocida. Fuera de las cifras del Standish Group, si miramos otras fuentes más ponderadas, las cosas no son tan graves, si puede decirse. El informe más o menos anual de Gartner de este año (“Survey Shows Why Project Fails”, ID: G00231952; los estudiantes de la UOC tienen acceso a la base de datos de Gartner) viene a decir que un 75% de los proyectos suelen salir bien y las cifras van mejorando. Lo pequeño es hermoso: las cifras aumentan hasta el 80% en los proyectos más pequeños y algunas compañías están implantando mecanismos para limitar el tamaño máximo de cualquier proyecto. Cuanto más grande, más equivocado, especialmente...