Impresiones del Smart City World Congress

La semana del 18 al 20 de noviembre hubo un importante evento en Barcelona, además de los premios a los mejores trabajos finales de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. Ese evento fue el Smart City World Congress de 2014.

Se haría difícil hacer un resumen de todo lo que aconteció, por lo que resumiré algunas de mis impresiones, y comentaré algunos apuntes curiosos de una de de las charlas.

Anuncio de 1936 ofreciendo transporte inteligente. Fuente: Flickr - Licencia:  CC BY-ND 2.0

Anuncio de 1936 ofreciendo “transporte inteligente”. Fuente: Flickr – Licencia: CC BY-ND 2.0

El cambio más importante respecto a ediciones anteriores fue el enfoque: este año creo que se ha logrado una clara orientación a negocio y se hicieron muchos contactos que, esperamos, acaben dando fruto.

En cuanto a gadgets, los más curiosos para mi fueron: varios robots de limpieza con forma humanoide; un robot japonés “abrazable” orientado a mejorar la compañía de la gente mayor; o unas gafas (estilo Google Glasses, pero no de Google) que permitían localizar palets en un almacén.

Por descontado, se veían mapas en muchas de las pantallas que había por allí porque, la mayoría de las veces, la forma de mostrar y gestionar la información smart es a través de un sistema de información geográfica (SIG). De hecho, tuve oportunidad de saludar a varios conocidos de mi época como consultor SIG.

Pero además de los expositores, el congreso es, huelga decir, un congreso, y en una de las charlas había responsables de ayuntamientos de diversas grandes ciudades del mundo que hicieron algunas reflexiones interesantes sobre movilidad en la ciudad:

  • No basta con poner sensores. Lo importante es saber qué información se quiere conseguir y qué se quiere hacer con ella. Esto me recordó un comentario de un responsable de empresa de sensores: dijo que él vendía retorno de la inversión, y que lo que hacía el sensor podría hacerlo una persona.
  • El transporte inteligente no lo es porque sea más eficiente energéticamente, sino porque es la manera más rápida de ir de un punto al otro.
  • Hay que reflexionar a la hora de incorporar o no una innovación. Sería el caso de los coches inteligentes capaces de conducirse solos, ya que con ellos podríamos saturar la ciudad con tráfico de coches vacíos: imaginemos por ejemplo la persona que va a comprar y no encuentra aparcamiento, podría dejar el coche dando vueltas conduciéndose solo, mientras hace la compra.
  • Y finalmente, la clave para mejorar el transporte público es hacerlo más rápido y más barato. La tecnología puede ayudar a ello, pero ella sola no resolverá el problema.

Así pues, resumiendo, la impresión que me dio es que muchos elementos de Smart Cities se asientan sobre tecnologías bien consolidadas y maduras (como son los SIG o ciertos tipos de sensores, por ejemplo). Y en cualquier caso, lo más importante de las Smart Cities no es tanto la tecnología, sino la forma en que ésta se utiliza (o no) para hacer las ciudades más eficientes y agradables a los ciudadanos.

Antoni Pérez Navarro es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, donde es experto en los ámbitos de Sistemas de Información Geográfica y de Física.

Publicado en Coloquio, Profesión | Etiquetado , , , | 1 comentario

Gestión de programas y portfolios

En la informática, o en la dirección de sistemas de información, la gestión del portfolio es una herramienta potente para manejar el conjunto de activos y procesos que desarrolla el departamento de IT. Es un concepto amplio y a veces dudoso que incluye la gestión de los servicios (o sea que funcionen las impresoras o se mantenga una aplicación de contabilidad), la colección de mejoras (la demanda del usuario en el día a día) o los proyectos de transformación del negocio. La gestión del portfolio, en esta visión, incluye por lo tanto también la gestión de programas y proyectos.

Portolio Management según Gartner

La gestión del portfolio según Gartner (Noviembre 2011)

Según los modelos de algunos analistas (como el que presentamos arriba, procedente de Gartner), sería posible establecer una cartera integrada, clasificando estos procesos según dos variables: el nivel de novedad o cambio (lo nuevo frente a lo viejo) y el nivel de proactividad o planificación (lo reactivo frente a lo proactivo). También sería posible establecer niveles de madurez de la gestión del portfolio: o sea, mientras más estratégico, más proactivo y más planificado, mejor sería nuestra gestión. Aunque la buena gestión, creo yo, es la que se adapta a las circunstancias y momentos de la empresa y a veces, en informática y en casi todo, lo mejor es enemigo de lo bueno.

En una encuesta de directores de sistemas de información (o CIOs), que presentamos aquí hace un tiempo, la gestión estratégica del portfolio aparecía como una herramienta de transformación, sobre todo en ausencia de un ejercicio más o menos sistemático de planificación estratégica y alineamiento con las prioridades del negocio: una manera inteligente de ordenar la oferta y la demanda de IT, de establecer prioridades y asignar recursos.

Sin embargo, cuando se quiere poner el énfasis en el contenido transformador de los programas de informática o para gestionar grandes iniciativas de actuación de una forma potente e integrada, como puede ser un plan estratégico de sistemas, es frecuente establecer una “oficina del plan”, en realidad una oficina de programa, para no diluir “lo nuevo” entre “lo de siempre”. Esta oficina tiene un papel movilizador y coordinador de recursos, tiene una visión global del plan de proyectos y actúa como brazo armado del director de sistemas de información (o a veces, incluso de alguien que está por encima). Estas oficinas (externas en algunas ocasiones) pueden ser también un nuevo engendro burocrático de fichas y procedimientos, hay que ir con cuidado.

A la hora de diseñar estructuras organizativas y modelos de gobierno, es bueno recordar que no hay un algoritmo, no hay recetas y no hay algo que funcione bien siempre y no tenga inconvenientes. Una solución genera también un problema. Si escogemos una organización orientada al cambio, podemos dejar de atender los problemas del día a día. Si escogemos una organización centralizada, podemos limitar las capacidades de innovación y enlentecer la toma de decisiones. Si escogemos un modelo de desarrollo en cascada, renunciamos a las ventajas de otras formas más ágiles. Y lo mismo ocurre al revés.

En algunas entradas recientes, ya hemos hecho notar que la gestión de la informática es un equilibrio cambiante y complejo entre el músculo y el cerebro, entre el desarrollo ágil y las metodologías estructuradas, etc. Podríamos decir lo mismo de lo táctico y lo estratégico, los plazos cortos y largos y, al final, lo que llaman el BCG o McKinsey la informática de dos velocidades. Una cuestión de equilibrio, al que hay que dedicar más de un pensamiento y revisarlo de vez en cuando.

El Máster Plan (o Plan Estratégico) de Sistemas de Información de la UOC, en el que he tenido el privilegio (y el peso) de participar, ya se encuentra en el inicio de la ejecución, con una nueva estructura de gestión y un nuevo CIO, Emili Rubió. Su encargo principal es la ejecución del plan, para lo que se ha dotado de una “oficina de programa” específica. Pero sabe que se ganará el crédito y la confianza de la organización mejorando la percepción de servicio e interlocución de sus clientes (estudiantes, profesores y personal de gestión  de muchos niveles), algunos arreglos básicos en las cañerías y que la máquina, al final del día, funcione.

Mucha suerte, Emili. Molta sort!

Publicado en Gestión de proyectos, Profesión, Sistemas de información | Etiquetado , , , | 2 comentarios

La aguja en el pajar: cómo buscar un patrón de texto en un documento

Una actividad que realizamos con mucha frecuencia es la búsqueda de información dentro de ficheros de texto. Por ejemplo, en un documento en un procesador de texto, una página web en un navegador, un fichero de configuración del sistema operativo, etc.

El objetivo de esta entrada es hablar sobre cómo se realiza esta búsqueda de forma eficiente. Vaaaleee…. pensaréis que esto está chupado y que con un par de bucles todo queda resuelto. Pero si queremos obtener la máxima eficiencia hay que complicarse un poquito la vida. Y, en este problema, la eficiencia puede ser un factor crítico, especialmente si estamos hablando de buscar texto en el fichero de log de una aplicación o una secuencia de nucleótidos en un genoma. Este tipo de ficheros puede ocupar muchísimo espacio (estamos hablando de varios Gb) por lo que estamos buscando una aguja en un pajar: cualquier mejora en la eficiencia por pequeña que sea tendrá un gran impacto en el tiempo de ejecución.

La búsqueda de cadenas tiene gran relevancia en el ámbito de la bioinformática. Fuente: Wikipedia - Licencia: Dominio público

Muchos avances en Bionformática se basan métodos eficientes para buscar y comparar strings. Fuente: Wikipedia – Licencia: Dominio público

El problema que tratamos, llamado string matching en inglés, consiste en encontrar una cadena de caracteres (el patrón) dentro de otra cadena de caracteres (el texto o documento). En ocasiones se asume que el tamaño del patrón (k) es muy pequeño respecto al tamaño del documento (N), es decir, N >> k. Respecto a nuestro objetivo, nos puede interesar buscar la primera aparición del patrón o bien todas las apariciones. Por otro lado, puede interesarnos encontrar apariciones literales del patrón (exact string matching) o bien fragmentos del documento que sean cercanos al patrón, aunque no coincidan exactamente (approximate string matching).

Como os podéis imaginar, la búsqueda exacta de cadenas es más sencilla que la versión aproximada, por lo que en esta entrada nos centraremos en la versión exacta. El algoritmo trivial para resolver este problema es bastante claro:

  1. Recorremos el documento carácter a carácter buscando el primer carácter del patrón;
  2. Una vez encontrado el primer carácter del patrón en la posición i del documento, comparamos el segundo carácter del patrón con el carácter i+1 del documento y sucesivamente la posición k-del patrón con la i+k-1 del documento;
  3. Si todos los caracteres del patrón coinciden con los del documento, hemos hallado un match en la posición i.
  4. Si algún carácter del patrón no coincide, volvemos al paso 1 desde la posición i+1 del documento.
  5. La condición de final puede ser encontrar el primer match (alcanzar el paso 3) o bien hallarlos todos  (alcanzar la posición N-k-1 del documento en el paso 1).

¿Prueba superada, no? Pues sí, pero podemos hacerlo mucho mejor. Por ejemplo, pensemos qué pasaría sí como patrón usamos la cadena “aaaa” (cuatro a’s consecutivas) y como texto “aaabaaabaaabaaab” (tres a’s consecutivas seguida de b, repetido en múltiples ocasiones). Con estos datos de entrada, el algoritmo llegaría hasta la primera “b” del documento antes darse cuenta que el match no es posible. Después de llegar a esa “b”, volvería a la posición 2 dentro del documento y volvería a intentar encontrar el patrón. Es decir, la segunda “a” del documento se comparará dos veces con el patrón, y la tercera “a” tres veces… aun cuando está claro que estamos condenados al fracaso.

Una posible mejora del algoritmo trivial es el algoritmo que se conoce como Knuth-Morris-Pratt: preprocesar el patrón para construir una “tabla de fallo”, que  se consulta cuando llegamos a un punto muerto en la comparación del patrón con el documento. En ese caso, la tabla nos indica en qué punto del documento (y del patrón) podemos retomar la búsqueda. Con este método tenemos que realizar un cálculo adicional, construir la tabla de fallo, pero hay que tener en cuenta que preprocesar el patrón (que es pequeño) puede ser beneficioso si nos ahorra tiempo al buscar en el documento (que es muy grande).

El objetivo de la tabla es aprovechar que posiblemente hayamos leído una parte del patrón de entrada donde podamos continuar la comparación. Por ejemplo, con el patrón “abcxyabcwz”, si fallamos en la letra “w” sabemos que ya habremos encontrado “abc” en el documento y podemos seguir la comparación desde ese punto. Es decir, nos ahorramos recorrer de nuevo los caracteres “abcxyabc” del documento y retomamos la búsqueda en el cuarto carácter del patrón en lugar de empezar por la “a”. Parece una tontería pero nos hemos ahorrado 8 comparaciones de caracteres y en ficheros grandes estas mejoras contribuyen a acelerar la búsqueda.

Ésta es sólo una de la múltiples posibles mejoras del algoritmo trivial: usar autómatas finitos, usar operaciones bit a bit, …. Es todo un mundo donde se han propuesto muchos algoritmos con nombres propios como por ejemplo Boyer-Moore.

En resumen, la búsqueda de patrones en ficheros de texto es un problema fácil de resolver con un algoritmo trivial, pero se complica si se pretende conseguir la máxima eficiencia posible. Por eso, siempre que sea posible es mejor usar algoritmos y herramientas maduros más que reinventar la rueda, p.ej. una librería de un lenguaje de programación o bien alguna herramienta del sistema operativo como grep y equivalentes.

Publicado en Desarrollo | Etiquetado , | 1 comentario

La denegación de servicio: cómo se hace y cuánto cuesta (I)

[Versió en català]

Los pasados días 8 y 9 de noviembre la Generalidad de Catalunya sufrió un ataque informático que puso en riesgo algunos servicios como la página web de la Generalitat. A raíz de estos ataques, explicaremos en detalle cómo se realizan y cómo se pueden mitigar.

La denegación de un servicio en Internet (por ejemplo, una página web, un servidor de correo, de noticias, etc.) consiste en bloquearlo con múltiples peticiones continuadas. Puede ser tan sencillo como pedir una página web en concreto miles de veces por segundo desde un ordenador. En la medida que el servidor atacado tenga un ancho de banda muy pequeño, una tarjeta de red antigua y lenta, o tenga que hacer operaciones lentas antes de responder a las peticiones recibidas, éste se colapsará rápidamente y quedará inutilizado.

img1_cast

Para hacer aún mayor el ataque y por tanto con más intensidad, lo que se hizo fue atacar desde diferentes puntos hacia el mismo servidor, es decir, que ahora ya no sólo un único sistema envía peticiones al servidor, sino que en son muchos a la vez. A estos ataques se les conoce como denegación de servicio distribuido o DDoS (Distributed Denial-of-Service, en inglés). ¿Pero cómo se consigue esto? Utilizando las redes “zombies” o redes de sistemas troyanizados, que controla un mismo ciberdelincuente. Fijémonos que llamamos “sistema” en vez de “ordenador”, ya que en este caso los teléfonos móviles también pueden formar parte de esta red de zombis. Una persona podría enviar correos electrónicos con archivos adjuntos con un troyano que controla remotamente y que en un determinado momento envía la orden a través de la red de atacar una máquina o servidor en concreto.

img2_castCon esta técnica se consiguen dos cosas muy importantes, la primera, elevar la intensidad del ataque y con ello, el daño que se hace sobre el sistema atacado. Así, la caída del servicio está casi garantizada. Al haber muchos más sistemas intentando interactuar contra un mismo servicio, el ancho de banda se bloquea antes y con más efectividad. Y la segunda, que no quede rastro de la persona que ha ordenado el ataque.

Pero aun así, ¿se puede agravar aún más el ataque? Pues sí, además de la red de troyanos se pueden utilizar los servidores de nombres (DNS) que hay distribuidos por Internet. Estos servidores traducen los nombres a los que estamos acostumbrados a los números que entienden las máquinas, los routers de la red Internet. Por ejemplo nos traducen www.uoc.edu por 213.73.40.242, la dirección IP, que tiene más sentido para las máquinas que encaminan las peticiones por la red que no los nombres de los servidores de dichas páginas.

Pero, ¿cómo se pueden usar? Manipulando las peticiones a estos servidores de nombre. Normalmente los proveedores de servicios de Internet (ISP) tienen sus propios DNS, pero existen algunos libres a los que se pueden enviar peticiones de resolución de nombres.

En el momento en que desde mi teléfono pongo en el navegador web http://www.uoc.edu, éste se conecta al DNS que tengamos configurado y pedirá que le devuelva la numeración (IP) para luego enviar la petición hacia la dirección correcta. Si un DNS no pueden hacer la conversión porque desconoce la dirección IP reenvía la petición a otros servidores DNS para buscarlo, devolviendo todos la respuesta correcta en el momento de encontrarla.

Pero si lo que se envía hacia el DNS es una petición con una dirección muy larga (mucho), y la dirección de retorno a la que ha de enviar la dirección IP la manipulamos para que no sea nuestra máquina, sino que sea la dirección de la máquina que se quiere atacar, lo que obtenemos es que todos los DNS contestarán a la vez hacia la máquina atacada, amplificando aún más el ataque que ya estaba sufriendo.

img3_castEsto es lo que pasó durante el día 8 de noviembre, en el que, a pesar de no saberse aún la intensidad del ataque, éste podría estar sobre los 200 o 400 Gbps (Giga bits por segundo). Es decir, que cada segundo la red de la Generalitat recibía un equivalente a 50 Gbytes que evidentemente hace que quede inmediatamente colapsada.

Pero, ¿es tan fácil de realizar? Y ¿se puede evitar o solucionar un ataque de este tipo?

Lo veremos en la próxima entrega.

Jordi Serra es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y el director del Máster Interuniversitario en Seguridad de las TIC (UOC-UAB-URV).


Els passats dies 8 i 9 de novembre la Generalitat de Catalunya va patir un atac informàtic que va posar en risc alguns serveis com ara la pàgina web de la Generalitat. Arrel d’aquests atacs, explicarem en detall com es realitzen i com es poden mitigar.

La denegació d’un servei a Internet (per exemple, una pàgina web, un servidor de correu, de notícies, etc.) consisteix en bloquejar-lo amb múltiples peticions continuades. Pot ser tan senzill com demanar des d’un ordinador milers de vegades per segon una pàgina web en concret. En la mesura que el servidor atacat tingui un ample de banda molt petit, una tarja de xarxa antiga i lenta, o hagi de fer operacions lentes abans de respondre a les peticions rebudes, aquest es col·lapsarà ràpidament i quedarà inutilitzat.

img1_CATPer fer encara més gran l’atac i per tant amb més intensitat, el que es va fer va ser atacar des de diferents punts cap al mateix servidor, es a dir, que ara ja no només un únic sistema envia peticions cap al servidor, sinó que en son molts a la mateixa vegada. A aquests atacs se’ls coneix com denegació de servei distribuït o DDoS (Distributed Denial-of-Service, en anglès). Però com s’aconsegueix això? Doncs fent servir les xarxes “zombis” o xarxes de sistemes troianitzats que te pertanyen a una mateixa xarxa delinqüent. Fixem-nos que diem “sistema” en comptes de “ordinador”, ja que en aquest cas els telèfon mòbils també poden formar part d’aquesta xarxa de zombis. Una persona podria enviar molts correus electrònics amb fitxers adjunts en el que hi ha un troià que controla remotament i que en un determinat moment envia l’ordre a través de la xarxa d’atacar una màquina o servidor en concret.

img2_CATAmb aquesta tècnica s’aconsegueix dues coses molt importants, la primera aconseguir que la intensitat de l’atac sigui molt més elevada, i per tant el mal que es fa sobre el sistema sigui molt més elevat i per tant la caiguda del servei està més garantida. Al haver molts més sistemes intentant interactuar contra un mateix servei l’ample de banda es bloqueja abans i amb més efectivitat, i la segona, que no queda rastre de la persona que ha ordenat l’atac.

Però tot i això, es pot agreujar encara més l’atac? Doncs sí, a més de la xarxa de troians es poden fer servir els servidors de noms (DNS) que hi ha distribuïts per Internet. Aquests servidors tradueixen els noms als que estem acostumats als números que entenen les màquines, els encaminadors de la xarxa internet. Per exemple ens tradueixen www.uoc.edu per 213.73.40.242, l’adreça IP, que té més sentit per les màquines que no pas els noms.

Però com es poden fer servir? Doncs manipulant les peticions a aquests servidors. En el moment en que des del meu telèfon poso al navegador web http://www.uoc.edu, aquest es connecta al DNS que tinguem configurat del nostre proveïdor d’internet  (ISP) demanarà que li retorni la numeració per després enviar la petició cap a l’adreça correcta. A més, tal i com funcionen els DNS, si no poden fer la conversió perquè desconeixen l’adreça IP ho reenvien a altres servidors DNS per a buscar-lo, retornant tots la resposta correcta en el moment de trobar-la.

Però si el que s’envia cap al DNS és una petició amb una adreça molt llarga (molt), i l’adreça de retorn la manipulem per a que no sigui la nostre màquina, sinó que sigui l’adreça de la màquina que es vol atacar, el que tenim és que tots els DNS contestaran a la vegada cap a la màquina atacada, amplificant encara més l’atac que ja estava patint.

img3_CATAixò és el que va passar durant el dia 8 de novembre, en el que, tot i no saber-se encara la intensitat de l’atac podria estar sobre els 200 o 400 Gbps (Giga bits per segon). És a dir, que cada segon la xarxa de la Generalitat rebia un equivalent a 50 Gbytes que evidentment fa que en un inici quedi completament col·lapsada.

Però és tant fàcil de realitzar? I es pot evitar o solucionar un atac d’aquest tipus?

Ho veurem a la propera entrega.

Jordi Serra és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC i el director del Màster Interuniversitari en Seguretat de les TIC (UOC-UAB-URV).

Publicado en Profesión, Redes | Etiquetado , , , | 1 comentario

Habilidades directivas según los CIOs de la mesa redonda

De niños, a algunos nos parecía una enorme suerte que programaran por televisión alguna antigua película sobre los caballeros de la mesa redonda, el rey Arturo y Merlín el mago, ambientada en el siempre sugerente escenario de Camelot. Los miembros de ese consejo de caballeros asesoraban al rey y no dejaban de demostrar su lealtad al mismo y, sobre todo, el porqué habían sido nombrados caballeros.

Siempre me he preguntado si las conferencias o charlas que actualmente denominamos “Mesas Redondas” han heredado el nombre de esa leyenda. Por la definición de la RAE parece que las actuales trasladan la idea de que los participantes de la misma, por el hecho de ser redonda, no tenían diferencia de jerarquías.

Los caballeros de la Mesa Redonda, ilustración anónima para el manuscrito Lanzarote-Grial, escrito por Michel Gantele en 1470. Fuente: Wikipedia - Licencia: Dominio público

Los caballeros de la Mesa Redonda, ilustración anónima para el manuscrito Lanzarote-Grial, escrito por Michel Gantele en 1470. Fuente: Wikipedia – Licencia: Dominio público

Sea como sea, creo que eso fue lo que pasó en la mesa redonda alrededor de las habilidades directivas de los CIOS que organizamos junto con CIOs.cat el pasado 8 de octubre (y que ya os habíamos anunciado en una entrada anterior sobre nuestro MDITI). Nuestros participantes, a los que no hacía falta jerarquizar en ningún caso, fueron cinco de sobrada y contrastada nobleza:

y debatieron (o se batieron entre iguales) alrededor de los tres bloques de preguntas:

  • Habilidades de los CIO en la gestión de las personas: las de sus departamentos pero también todos sus otros stakeholders, en un contexto de crisis y de evolución acelerada de los perfiles de TI.
  • Retos de los CIO respecto a proyectos estratégicos de SI/TI: los que implican la implantación de sistemas de BI o ERP, los que implican externalizaciones, los que se basan en provisión en local o en la nube…
  • Habilidades de los CIO en otros aspectos directivos: las competencias no tecnológicas sobre la comunicación, la negociación o incluso la seducción… y sobre cómo obtenerlas.

En los anteriores enlaces encontraréis unas breves entrevistas a los caballeros protagonistas y en este enlace, si tenéis más tiempo, podéis ver toda la película, película menos divertida que las que veíamos de niños, pero muy interesante ahora que nos hemos hecho mayores y, además, profesionales de las TI. Si la veis, nos daréis la razón en que no tuvo el carácter mágico de la mesa redonda del rey Arturo y sus caballeros. Pero si queréis, podréis jugar a decidir quien desarrollaba el rol de qué caballero, y, sobre todo, si alguien hacia la función de Arturo, o, incluso, de Merlín.

Josep Maria Marco y Joan Antoni Pastor son codirectores del MDITI y profesores de los EIMT en el ámbito de Sistemas de Información.

Publicado en Coloquio, Dirección de las TIC, Profesión | Etiquetado , , , , , | 2 comentarios

Retos analíticos de las universidades

Las empresas y las universidades son diferentes. La empresa se caracteriza por tener ánimo de lucro, es decir, tiene como objetivo obtener el máximo beneficio para distribuirlo entre los accionistas. Esto la lleva tanto a definir una cultura de valores y normativas internas orientadas a los objetivos estratégicos, como a establecer en sus misiones su razón de existencia, que es obtener un mayor beneficio económico. Por el contrario, la universidad se caracteriza por no tener ánimo de lucro [1], sigue una cultura orientada al aprendizaje continuado a lo largo de la vida y dispone de normativas reguladas a través de agencias externas para garantizar la calidad de sus servicios. Así, la razón de existencia de las universidades no es económica, sino social: hacer una sociedad más culta, crítica y preparada.

Las universidades y las empresas han vivido bajo unas condiciones y entornos diferentes, como por ejemplo, en su forma de financiación. Gran parte de las universidades gozan de subvenciones de entes públicos, que garantizan su existencia aunque, en algunos casos, puedan no ser sostenibles económicamente. Mientras tanto, las empresas sólo existen si son rentables y su financiación proviene mayoritariamente de fondos privados. No obstante, el entorno de la universidad está cambiando, principalmente en términos de financiación y de competitividad [1]. Algunos de los factores que impulsan el cambio son el decremento de matrículas, el aumento de la oferta formativa, la internacionalización favorecida por los MOOC (Massive Open Online Course), la irrupción de universidades “lucrativas” que son gestionadas como empresas [2] (como por ejemplo la University of Phoenix) o el recorte de la financiación gubernamental.

En la situación actual, los gestores de las universidades deben buscar una mejor sostenibilidad estableciendo nuevos objetivos, encaminados, por una parte, a mejorar la gestión interna de la universidad (disminuir gastos y optimizar procesos) y, por la otra, a ser más competitivos, incrementando su calidad docente e investigadora. Los sistemas analíticos podrían ayudar en esa dirección. En este cambio de paradigma, la universidad podría caer en la tentación de buscar la sostenibilidad sólo jugando con su oferta formativa, es decir, ofreciendo sólo la formación que demanda el mercado laboral. Esto la alejaría de su función social (proporcionar un servicio orientado a las necesidades de la sociedad), convirtiéndola más en una escuela profesionalizadora que en una universidad. Así pues, a pesar de que las razones de existencia de la empresa y la universidad son diferentes, su entorno y algunos de sus objetivos estratégicos empiezan a acercarse.

Buscar el equilibrio siempre es complicado. Fuente: Floato @ Flickr  - Licencia: CC BY-NC-SA

Buscar el equilibrio siempre es complicado. Fuente: Floato @ Flickr – Licencia: CC BY-NC-SA

Muchas empresas ya usan intensamente y extensamente los sistemas de inteligencia de negocio para desarrollar una capacidad analítica y alcanzar sus objetivos estratégicos [3]. Una universidad también debería desarrollar una actitud analítica para alcanzar sus objetivos, mejorar sus procesos y ser más eficiente y sostenible sin perder su carácter social. Esto también le permitiría obtener una visión más global, real, actual, y también futura de la universidad, de los programas, de las asignaturas o los estudiantes.

En las universidades existen diferentes iniciativas analíticas, pero en general, están orientadas a mejorar la gestión administrativa de la universidad (como la contabilidad o la atención al estudiante) [4], pero no están enfocadas a la actividad principal de la universidad, que es la actividad docente e investigadora. Más enfocado a tratar los datos académicos ha aparecido el término de learning analytics, que empieza a sonar con fuerza.

Learning analytics integra distintas iniciativas que permiten recoger los datos producidos durante el proceso de aprendizaje y analizarlos para responder preguntas analíticas en el contexto de la educación. Estas técnicas pueden resolver parte del problema que comentamos, pero deberían ser totalmente integradas en los sistemas analíticos de la empresa para analizar la información de aprendizaje desde distintos prismas.

Creemos que la adaptación de los sistemas analíticos de empresa a las universidades no es directa, ya que los sistemas de de empresa no están diseñados para apoyar la toma de decisiones de la actividad docente de las universidades, como tampoco serán útiles los indicadores que se utilizan en las empresas. Tomemos por ejemplo el indicador de retorno de la inversión (ROI) ¿Cómo se calcularía el ROI de las acciones realizadas para mejorar la calidad de los contenidos de una asignatura? Tener en cuenta sólo el coste de las acciones y el beneficio económico, no tiene mucho sentido. En este contexto quizás tendrían más relevancia otros factores, como por ejemplo la satisfacción del estudiante, incremento de rendimiento, número de matrículas, las opiniones de los estudiantes, el abandono de las asignaturas, la satisfacción y uso de los recursos de aprendizaje, etc.

Por todo ello, creemos que el reto actual de las universidades consiste en hacer un buen uso de sus sistemas analíticos para mejorar su competitividad, su calidad docente y la satisfacción de sus estudiantes (y también del profesor) sin perder su carácter social. Estos sistemas analíticos deberían proveer, como mínimo, herramientas específicas que permitan: 1) a los profesores, detectar de forma más ágil posibles mejoras en su actividad docente y disponer de más tiempo para dedicarse a la docencia y a la innovación docente; 2) a los responsables de programas (como son la dirección de grados y másteres), disponer de información actualizada sobre la calidad y sostenibilidad de sus programas; y 3) a los estudiantes, tener una experiencia de aprendizaje más personalizada, flexible y eficiente.

Referencias

[1] Sterling, S. (2004). Higher education, sustainability, and the role of systemic learning. In Higher education and the challenge of sustainability (pp. 49-70). Springer Netherlands.

[2] Bennet, DL., Lucchesi, AR., Vedder, RK. (2010). For-Profit Higher Education: Growth, Innovation and Regulation. Center for College Affordability and Productivity.

[3] Chen, H., Chiang, R.L., Storey, V.C. (2012). Business Intelligence and Analytics: From Big Data to Big Impact. MIS Quarterly, vol.36, nº34.

[4] Sakys, V., Butleris, R., (2011). Business Intelligence tools and technologies for the analysis of university studies management. Transformation in Business & Economics, vol.10, nº 2.

Isabel Guitart es profesora de los Estudios de Informática, Multimedia y Telecomunicaciones en la UOC. Su docencia se enfoca a las áreas de ingeniería del software y sistemas de información.

Jordi Conesa es profesor de los Estudios de Informática, Multimedia y Telecomunicaciones en la UOC. Su docencia se enfoca a las áreas de bases de datos y ingeniería del software.

Publicado en Business Intelligence, Docencia | Etiquetado , , | 4 comentarios

La emergencia del Chief Data Officer

En el contexto de Business Intelligence, Business Analytics y Big Data, están apareciendo toda una nueva serie de perfiles que necesitan nuevas competencias, como hemos discutido ya aquí, varias veces. Ya hemos hablado que estos perfiles tienen una gran demanda y que Thomas Davenport tilda estos perfiles como la profesión más sexy (aquí). Cerrada la convocatoria de octubre de nuestro Màster y posgrados, estamos considerando si repetirla en Febrero. Veremos.

vercingetorix

Vercingétorix arroja sus armas a los pies de Julio César por Lionel Noel Royer (1899). Museo Crozatier, en Le Puy-en-Velay. Dominio Público.

Muchos de estos perfiles están vinculados al desarrollo de proyectos o a la extracción de valor del dato, como el científico del dato, o data scientist, del que ya hablamos aquí y del que hablaremos más otro día. De todos ellos me quiero centrar en aquél más vinculado con la gestión: la emergencia del Chief Data Officer (CDO).

En la reunión de expertos de Londres de hace unos meses, que recensionamos aquí, ya aparecía con carga vírica. Este rol tiene la responsabilidad de gestionar todas las iniciativas de datos en la organización y, como es posible suponer, cada vez más se está convirtiendo en un perfil imprescindible para las organizaciones. ¿En qué medida?

Ya hemos comentado que según Brynjolfsson, Hitt y Kim, aquellas compañías que usan análisis basado en datos en lugar de la intuición tienen una productividad y unos beneficios de un 5% a 6% más altos que sus competidores. Por lo que contar con un buen estratega debe incrementar la probabilidad llevar a buen puerto estas iniciativas.

Además de los anteriores, hace poco se han publicado nuevos estudios que refuerzan el valor de este rol. De hecho, según IBM, el 25% de las empresas pertenecientes al Fortune 500 ya cuentan con este perfil. Este número puede parecer pequeño, pero en realidad nos indica que las principales empresas del mundo se están preparando para competir usando los datos y buscan liderar el proceso de transformación hacia una empresa orientada al dato (de lo que ya hemos hablado aquí y aquí). Según el estudio, el CDO debería apuntar a cinco prioridades principales:

  • Encontrar formas de explotar los datos actuales en la organización.
  • Aumentar el valor del dato mediante la combinación de fuentes internas y externas.
  • Identificar formas de monetizar el dato.
  • Asegurar privacidad y seguridad para con el dato.
  • Establecer la gobernanza del dato.

De estos cinco puntos, los tres primeros pueden parecer naturales (puesto que están intrínsecamente ligados a la función de este perfil). Los dos últimos nos recuerdan un aspecto muy relevante: no es suficiente con contar con una estrategia de explotación del dato, sino que también es cada vez más relevante conocer y definir los límites de lo que se puede hacer y cómo proteger el que se está convirtiendo en uno de los activos más críticos, sino el que más, de las empresas.

Está claro, al menos desde mi punto de vista, que aquellas empresas que quieran orientarse al dato, no sólo necesitan empezar a desarrollar una estrategia sino establecer un responsable a nivel del comité que sea capaz liderar estas iniciativas para competir en la era del dato. Sea éste el CDO o el Chief Analytic Office (CAO), perfil también en pujanza, será tema de discusión en los próximos años. Eso sí, es de esperar que el número de CDOs o CAOs se incremente en los próximos años ya no sólo en las empresas de Fortune 500 sino más allá. Nos tendremos que rendir al nuevo césar.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio y Big Data de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business IntelligenceBusiness Analytics y Big Data.

Publicado en Business Intelligence, Profesión | Etiquetado , , , , | 2 comentarios

¿Cansados del dato? Esto no ha hecho nada más que empezar

No hace mucho Randy Bean se preguntaba si estábamos cansados del concepto de Big Data. De hecho es una pregunta lícita puesto que por doquier nos encontramos el concepto. Gracias al Big Data, parece que un equipo de fútbol ha ganado el campeonato del mundo o un presidente las elecciones, o que si vamos a cambiar la agricultura. Parece, y en eso tenemos la culpa muchos, que Big Data ha llegado para cambiar el mundo.

Berlín. Antigua prisión convertida en parque sensorizado que detecta visitantes y activa automáticamente una grabación histórica. Fuente: Josep Curto

Berlín. Antigua prisión convertida en parque sensorizado que detecta visitantes y activa automáticamente una grabación histórica. Fuente: Josep Curto

Al final lo que pasa es que se está haciendo mucho ruido con los mismos casos y, aunque las tecnologías de Big Data están mucho más maduras que antaño, lo cierto es que las organizaciones aún distan haber realizado grandes despliegues, como ya apunta Gartner en uno de sus últimos estudios. No nos debería sorprender: esto no quiere decir que las empresas no estén interesadas en Big Data, sino simplemente que es necesario articular una estrategia de calado más profundo, como ya hemos discutido en un par de entradas recientes (aquí y aquí). La realidad es que estamos en una explosión de fuentes de datos que va a empujar la necesidad de soluciones sofisticadas para la captura, el procesamiento, el almacenamiento y el análisis de datos.

Y no pensamos sólo en los datos sociales, cuyo uso cada vez tienen peor fama por la explotación desproporcionada (aunque frecuentemente dentro de la regulación del país en curso) que hacen compañías como Facebook, Google, Linkedin, Twitter y, claro está, clientes y partners de los anteriores. A veces, el uso de los datos supera lo que como consumidores estamos dispuestos a soportar, puesto que se acerca demasiado a futuros como los que describía la película Minority Report.

No. En realidad hago referencia a esos miles de objetos que muchas empresas van sensorizando. A la gran cantidad de smartphones ya existentes, se está sumando una enorme cantidad de objetos de nuestra vida cotidiana o del contexto específico de un sector. Por ejemplo, semáforos, coches, lavadoras, bocas de riego, vigas, ascensores e, incluso, los túneles de una ciudad smart (sí, ¡es cierto!). De hecho, algunos estudios apuntan que para el año 2020 habrán más de 50 miles de millones de objetos/ dispositivos conectados.

Que tenga sentido o no sensorizarlo todo (lo que algunos ya nombran como Internet de Todo, Internet of Everything, en lugar del Internet de las Cosas, Internet of Things), depende de si hay una clara necesidad de negocio ligada a dicha sensorización. Y entonces hay que capturar, procesar, almacenar y analizar el dato para encontrar el valor de negocio. Lo que en definitiva no hace nada más que indicar otra vez que esto de analizar los datos no ha hecho más que empezar.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio y Big Data de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business IntelligenceBusiness Analytics y Big Data.

Publicado en Business Intelligence, Profesión, Redes | Etiquetado , , , | 1 comentario

Finalistas de los Premios UOC-RMF a los mejores trabajos finales

Este mes de febrero os hablamos con mucha ilusión del acto académico para premiar al mejor Trabajo Final realizado en los Estudios de Informática, Multimedia y Telecomunicación (EIMT). En breve, realizaremos un nuevo acto académico con el mismo objetivo, pero con importantes novedades en esta nueva etapa.

En esta ocasión, tenemos el privilegio de contar con un patrocinador de excepción: la Ramon Molinas Foundation (RMF). RMF nace como fundación para garantizar el legado del empresario Ramon Molinas Belza (1940-2012) y su interés por promover la formación en TIC entre los jóvenes. Así pues, la misión de RMF es ser referente “en los ámbitos de la integración social e innovación tecnológica y científica”. Como parte de esta misión, RMF colabora con la UOC ofreciendo becas a estudiantes del ámbito tecnológico y una importante dotación económica para los Premios UOC-RMF al mejor Trabajo Final.

Nube de tags de algunos de los trabajos destacados.

Nube de tags con las palabras clave de Trabajos Finales de nuestros Estudios.

La bases de los Premios UOC-RMF al mejor trabajo final son las siguientes:

  • Pueden participar todos los estudiantes con un trabajo final presentado en los EIMT durante el curso académico 2013-2014 (otoño 2013 y primavera 2014).
  • Hay un tribunal de 7 miembros que evalúa los trabajos Finales, formado por 2 profesores UOC, 1 representante de la Ramon Molinas Foundation y 4 representantes de empresa (2 propuestos por RMF y otros dos por UOC).
  • Hay tres premios, con una remuneración de 5.000€, 3.000€ y 2.000€ respectivamente. Los premios pueden quedar desiertos a criterio del tribunal.
  • El proceso de selección de las candidaturas se realiza en 3 fases:
    • Preselección: El profesorado de los EIMT ha filtrado los 25 mejores trabajos, después de valorar el producto desarrollado, la memoria y la presentación. Cada trabajo ha sido valorado por 2 profesores diferentes.
    • Finalistas: El tribunal ha valorado los 25 mejores trabajos para elegir entre ellos a 6 trabajos finalistas.
    • Premiados: Los 6 finalistas presentarán su trabajo ante el tribunal en un acto presencial el día 20 de noviembre en Barcelona (CosmoCaixa). Al final del acto, el tribunal anunciará los trabajos premiados.

Estas últimas semanas hemos estado ocupados haciendo la preselección y la elección de los finalistas. Hemos recibido 117 candidaturas con un gran nivel de calidad técnica. De entre ellos, hemos seleccionado los 25 mejores y posteriormente los 6 finalistas con ayuda del tribunal. Este tribunal evaluador de los trabajos está formado por:

  • Jordi Castells (Director de Informática en Bodegues Torres)
  • Josep Rof (Director de Tecnología en Aqualogic)
  • Josep Dueso (Patrón vocal de la Ramon Molinas Foundation)
  • Josep Lluís Juanhuix (Socio Director de Nextret)
  • Domingo Olmos (Decano del Colegio Oficial de Ingeniería Informática de Cataluña – COEINF)
  • Antoni Pérez (Coordinador de Posgrado de los Estudios de Informática, Multimedia y Telecomunicación de la UOC)
  • David Masip (Director del Programa de Doctorado en Tecnologías de la Información y redes de la UOC)

Una vez concluida la selección, ya os podemos anunciar los nombres de los 6 finalistas que presentarán sus trabajos en la jornada del 20 de noviembre:

Aprovechamos la oportunidad para invitaros al acto de defensa de los trabajos y entrega de premios, que tendrá lugar el 20 de noviembre en Barcelona (CosmoCaixa, Sala Ágora). El acto está abierto a toda la comunidad UOC, pero debido a la capacidad limitada de la sala es necesario inscribirse previamente. Podéis encontrar el enlace de inscripción aquí.

Deseamos mucha suerte a todos los finalistas y esperamos que podáis acompañarnos en esta jornada. ¡Nos vemos allí!

Publicado en Docencia, UOC | Etiquetado , , | 1 comentario

Tecnologías disruptivas para la próxima década

Hacer una predicción sobre tecnología a largo plazo es un deporte de riesgo. Sólo hace falta fijarse en los éxitos y los fracasos de los pobres meteorólogos. O los nuestros, dado que en este blog también nos la hemos jugado haciendo predicciones.

Sin embargo, aún queda un puñado de valientes que se atreve a sacar la bola de cristal y lanzar sus predicciones. En este caso, ha sido el IEEE Computer Society, la rama informática del IEEE (Institute of Electrical and Electronics Engineers), quien ha preparado un informe que pronostica las 23 tecnologías que serán más relevantes de aquí a 2022.

Galileo enseñando al dux de Venecia el uso del telescopio. Fresco de Giuseppe Bertini (1825–1898). Dominio público.

Galileo enseñando al dux de Venecia el uso del telescopio. Fresco de Giuseppe Bertini (1825–1898). Dominio público.

El escenario que plantea este informe resulta en mi opinión muy verosímil: no se esperan superinteligencias cibernéticas que cambien el mundo o tecnologías que permitan manipular la realidad física con el simple pensamiento. Sólo se plantean mejoras incrementales respecto al estado del arte actual, planteamiento que da verosimilitud a las predicciones. A continuación resumimos los 23 campos donde se prevén avances destacados, agrupados por ámbito temático:

  • Conocimiento abierto: Software y cultura libre, MOOCs (Massively Online Open Courses)
  • Tecnologías de base: Fotónica, Nanotecnología, Circuitos integrados 3D, Memorias universales, Impresión 3D
  • Capacidad de cálculo: Multicore, HPC (High-Performance Computing), Cloud Computing, Computación cuántica
  • Conectividad: Redes, SDN (Software-Defined Networks), Internet of things
  • Sistemas inteligentesBig dataanalytics, Aprendizaje computacional, Visión por computador y reconocimiento de patrones
  • Perspectiva humana: Interfaces de usuario naturales, Seguridad
  • Calidad de vida: Ciencias de la vida, Bioinformática, Robótica médica, Sostenibilidad

Hay una tecnología que me hubiera gustado ver en esta lista… pero parece que no ha podido ser. Se trata de dispositivos que adapten su forma y su interfaz (física) según la aplicación a ejecutar, las condiciones disponibles y las necesidades del usuario. Estoy algo cansado de poseer múltiples dispositivos (smartphone, phablet, tablet, netbook, etc.) cuyas diferencias pueden resumirse en la interfaz de acceso (táctil, teclado, número y posición de los botones) y el tamaño de la pantalla (y de rebote, su peso). El resto (memoria, procesador, batería, altavoces, micrófono, cámara, ….) podría ser perfectamente intercambiable entre diferentes dispositivos. Y no estoy hablando de un dispositivo modular, al estilo del Project Ara de Google, sino de un dispositivo capaz de adaptar dinámicamente el tamaño de su pantalla al espacio disponible.

Vale, se me ha ido un poco la olla y estoy pidiendo algo que entra casi en el terreno de la ciencia ficción. Pero no soy el único que ha pensado en ello: mirad por ejemplo un vídeo de Samsung planteando las posibilidades de esta tecnología o una charla TEDx sobre el tema. Y ya existen algunas piezas de las tecnologías necesarias para conseguir esto: dispositivos que cambian de forma autónomamente y botones que aparecen o desaparecen según nuestras necesidades.

Sin embargo, una parte de mí (la más cínica) me dice que el principal problema no es la tecnología sino el negocio. Con un dispositivo de este tipo… ¿cómo podría convencerte un fabricante que necesitas comprarte otro dispositivo distinto? Porque ahora que cuesta más vender a golpe de megabyte o de megapixel, el tamaño de la pantalla es uno de los principales argumentos de venta.

Aunque echéis de menos vuestra manía particular (¿ninguna mejora destacable en el ámbito de la informática lúdica?), os recomendamos leer el informe completo para contemplar cómo es la foto de 2022 que nos plantean. A mí no desagrada en absoluto.

Publicado en Profesión, Recurso | Etiquetado , , | 2 comentarios