Diez libros para leer este verano

Se acerca el esperado momento de apagar el ordenador por unas semanas e irse de vacaciones. ¿Qué planes tenéis? Ya sea en un largo viaje de avión o de tren, en la playa o en el sofá, si sois amantes de la lectura cualquier destino es bueno para ir acompañado de un libro.

Hoy os traemos una selección de diez libros para todos los gustos:

The Mythical Man-Month: Essays on Software Engineering (Fred Brooks, 1975 (1a ed), 1995 (2a ed))

Aunque fue publicado por primera vez hace más de 40 años, sigue siendo un clásico de la gestión de proyectos que todo ingeniero de software debería leer (disponible sólo en inglés!). En esta recopilación de ensayos, el autor trata aspectos fundamentales (y transversales a la época) del desarrollo de proyectos software tales como los atrasos, la comunicación entre el equipo, la gestión de los errores, la documentación, etc.

 

 

 

Gödel, Escher, Bach: Un eterno y grácil bucle (Douglas R. Hofstadter, 1979 (1a ed))

En sus más de 900 páginas, esta obra hace un recorrido por las matemáticas, la física, la biología, la psicología y muy especialmente el lenguaje, buscando respuestas a la pregunta: ¿Puede un sistema comprenderse a sí mismo? A través de sorprendentes paralelismos ocultos entre los grabados de Escher y la música de Bach, el autor nos remite a las paradojas clásicas de los antiguos griegos y a un teorema de la lógica matemática moderna que ha estremecido el pensamiento del siglo XX: el de Kurt Gödel.

 

 

 

Logicomix: una búsqueda épica de la verdad (Apostolos Doxiadis y Christos H. Papadimitriou, 2011)

Una novela gráfica inspirada en la historia épica de la búsqueda de los Fundamentos de las Matemáticas durante los siglos XIX y XX. El protagonista de la historia, el gran lógico-matemático y filósofo Bertrand Russell, narra de forma enérgica y elocuente las aventuras de grandes pensadores como Frege, Hilbert, Poincaré, Wittgenstein y Gödel, a través de su propia participación apasionada en dicha compleja y trascendental búsqueda. 

 

 

 

El Principio de Dilbert (Scott Adams, 2011)

A pesar de haber sido criticado, no podemos dejar de mencionar esta clásica tira cómica del ingeniero introvertido y su perro megalómano, lleno de profundos pensamientos (sarcasmo), relaciones cleidas (entre hombre y computadora) y ambiciones irrefrenables (delirios de grandeza). Un auténtico repaso a jefes, reuniones inútiles, manas de gerente y demás achaques laborales.

 

 

 

La Catedral de Turing: los orígenes del universo digital (George Dyson, 2012 (inglés), 2015 (castellano))

Con más de 500 páginas, esta obra narra la reveladora historia de cómo surgió el universo digital tras la segunda guerra mundial. En los años 40 y 50 un reducido grupo de hombres y mujeres, liderado por John von Neumann, se reunió en Princeton, New Jersey, para comenzar la construcción de una de los primeros ordenadores que materializaría la visión de Alan Turing de una máquina universal.

 

 

 

 

Los innovadores: Los genios que inventaron el futuro (Walter Isaacson, 2014)

Escrita por el autor de la popular biografía de Steve Jobs, esta obra narra la historia de las personas que inventaron el ordenador e Internet (desde Ada Lovelace, pasando por Vannevar Bush, Alan Turing, John von Neumann, J.C.R. Licklider, Doug Engelbart, Robert Noyce, hasta Bill Gates, Steve Wozniak, Steve Jobs, Tim Berners-Lee o Larry Page). Esta es la historia de cómo funcionan sus cerebros y por qué han sido tan inventivos, pero también de cómo su capacidad para colaborar y dominar el arte del trabajo en equipo les hizo aún más creativos.

 

 

 

ALTERWORLD: Lo saben todo de ti (Antonia Huertas, 2015)

Escrita por una de nuestras profesoras, esta novela de ciberdelincuencia narra las peripecias de una agente de Europol durante su investigación. Extorsión, secuestro, asesinatos, tráfico de órganos, falsificación de identidades, comercialización de medicamentos falsos… Un trepidante thriller con una protagonista con tanto talento para la tecnología como incapacidad para manejar sus emociones.

 

 

 

 

Algoritmos para la vida cotidiana: la ciencia de la informática aplicada a las decisiones humanas (Brian Christian y Tom Griffiths, 2016 (inglés), 2017 (castellano))

Este trabajo interdisciplinario, escrito por el autor Brian Christian y el científico cognitivo Tom Griffiths, explora cómo los algoritmos que utilizan las computadoras se pueden aplicar a nuestra vida diaria. Desde la búsqueda de pareja a encontrar un lugar de estacionamiento, de la organización del buzón de entrada a la comprensión de los funcionamientos de la memoria, este libro transforma la sabiduría de la informática en estrategias para las personas.

 

 

 

Las emocionantes aventuras de Lovelace y Babbage (Sydney Padua, 2016)

Pese a ser una historia de ficción, esta novela gráfica es fruto de un intenso trabajo de documentación que da a conocer la vida y obra de Ada Lovelace (conocida como Lady Byron) y Charles Baggage, considerados como el ingeniero que propuso por primera vez el concepto de ordenador programable, el llamado “motor analítico”, y su primera programadora. El libro ha recibido galardones como el Premio Neumann de la Sociedad Británica para la Historia de las Matemáticas y ha sido candidato a los Eisner Awards (los Óscar del cómic).

 

 

 

Los ordenadores y la programación (Rosie Dickins, 2016)

La última propuesta es para compartir con vuestros hijos/as y/o sobrinos/as pequeñ@s. Un libro con más de 100 solapas bajo las que hay un sinfín de datos fascinantes sobre las tecnologías de la información: qué hay dentro de un ordenador, cómo se almacena la información, cómo funciona Internet y muchísimo más.

 

 

Si tenéis ganas de más, también podéis consultar nuestra entrada sobre las Biblias de la informática.

Y vosotros, ¿tenéis alguna recomendación?

Feliz verano y feliz lectura a todos nuestr@s lectores!

 

Elena Planas es Ingeniera en Informática y Doctora por la Universitat Politècnica de Catalunya. Actualmente es profesora de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya e investigadora del grupo del SOM Research Lab (UOC-IN3).

Nuevas acreditaciones de Másters Universitarios de la UOC

Hoy tenemos buenas noticias para los estudiantes de la UOC, especialmente para aquellos que están estudiando alguno de los Másters oficiales de nuestros Estudios.

En una entrada previa os explicamos qué significa que un título de Grado o Máster sea “oficial”: una agencia de calidad universitaria (como ANECA a nivel estatal o AQU a nivel autonómico) ha evaluado el programa y certifica su calidad. Esta evaluación se realiza principalmente en dos momentos a lo largo de la vida del programa:

  • Verificación: En el momento de la definición del título, la Universidad presenta una memoria describiendo en detalle la propuesta de programa: los objetivos y competencias, las salidas profesionales, el plan de estudios, la metodología docente y de evaluación, el equipo docente y los recursos disponibles.
  • Evaluación y acreditación: Periódicamente, un comité externo evalúa los resultados obtenidos y comprueba si el programa se desarrolla según lo previsto en la memoria de verificación. Por ejemplo se evalúa si el perfil de los egresados es el demandado por las empresas, si la metodología es adecuada o si los estudiantes están satisfechos con el programa. En caso de que las evaluaciones periódicas sean favorables, se concede la acreditación a dicho programa.

Que un Grado o un Máster consiga la acreditación es una noticia excelente para los estudiantes, ya que demuestra que es un programa de calidad, que se está desarrollando de forma adecuada y que sus contenidos son útiles para el mundo profesional.

Sellos de calidad de AQU Catalunya para titulaciones y centros. Fuente: AQU

Sellos de calidad de AQU Catalunya para titulaciones y centros. Fuente: AQU

A finales de 2015 pasaron por el proceso de evaluación externa y acreditación diversas titulaciones de Grado y Máster de nuestros Estudios: el Grado de Ingeniería Informática, el Grado de Tecnologías de Telecomunicación, el Grado de Multimedia, el Máster Universitario de Ingeniería Informática y el Máster Universitario de Aplicaciones Multimedia. Todas las titulaciones fueron evaluadas favorablemente y consiguieron la acreditación.

Pues bien, en esta ocasión han sido evaluados cuatro Másters interuniversitarios que coordina o en los que participa la UOC: el Máster Interuniversitario UOC-UAB-URV de Seguridad de las Tecnologías de la Información y de las Comunicaciones, el Máster Interuniversitario UOC-URL e Ingeniería de Telecomunicación, el Máster Interuniversitario UAB-UOC-UPC-UPF en Visión por Computador y el Máster URV-UOC en Ingeniería Computacional y Matemática. Nuevamente, todos los programas han sido evaluados favorablemente y han conseguido la acreditación.

En los Másters interuniversitarios la evaluación se realiza en la universidad coordinadora del programa. Así pues, un comité evaluador externo visitó la UOC para analizar el Máster de Seguridad y el Máster de Ingeniería de Telecomunicación, mientras que en Visión por Computador e Ingeniería Computacional y Matemática las visitas se realizaron en la UAB y la URV, respectivamente.

En el caso del Máster en Ingeniería de Telecomunicación y del Máster en Seguridad de las Tecnologías de la Información y de las Comunicaciones (MISTIC) destaca la evaluación del profesorado, que se ha valorado de calidad y en progreso hacia la excelencia. En particular el perfil docente del Máster de Seguridad de las Tecnologías de la Información y la Comunicación se ha considerado muy adecuado, puesto que permite combinar la experiencia de docentes que se dedican profesionalmente a la seguridad en empresas e instituciones con la experiencia del profesorado universitario, especialista tanto en el ámbito de la seguridad como en la docencia virtual y que, además, es muy activo en la investigación en este ámbito.

En ambos másteres también destaca el uso de una metodología docente consolidada y en continuo proceso de mejora. Esta metodología, según el informe de la agencia de calidad (AQU), está orientada a potenciar la autonomía del estudiante en el aprendizaje y en su desempeño profesional. Sin duda, para una titulación que da acceso a una profesión regulada, como es el caso del Máster en Ingeniería de Telecomunicación, cabe destacar la función de los laboratorios así como su integración en la metodología docente como un aspecto clave en la valoración de la agencia de calidad.

Todavía hay algunos programas de nuestros Estudios que se han verificado pero no han pasado por el proceso de evaluación y acreditación, como el Grado en Diseño y Creación Digitales, el Máster en Desarrollo de Aplicaciones para Dispositivos Móviles, el Máster en Ciencia de Datos (Data Science) o el Máster en Bioinformática y bioestadística. Todavía faltan algunos añitos para que sean evaluados, pero llegado el momento esperamos poder seguir dando buenas noticias.

Evolución del desarrollo web del lado del cliente

En los últimos años ha habido una gran demanda de desarrolladores de software debido a la inclusión de los sistemas informáticos en prácticamente todo los aspectos del día a día de las personas. A las clásicas demandas de tecnologías tales como C, C++, JAVA, .NET, SQL han surgido un nuevo elenco de nuevas tecnologías tales como JavaScript, ECMAScript, nodeJS, AngularJS, React, Angular 2.0+, VueJS, ember, gulp, webpack, TDD, BDD, CI, CD, etc. El nuevo conjunto de tecnologías que se solicitan como puestos de trabajo pertenecen al desarrollo de aplicaciones web. Una de las mayores críticas de los profesionales del sector (Ingenieros y desarrolladores en general) es el rápido cambio de tecnologías que sufre el desarrollo Web en el lado del cliente (o front-end).

Historia del lenguaje de programación JavaScript

Antes de poder afrontar los últimos avances en el desarrollo de aplicaciones Web hay que comprender por qué y cómo se ha llegado a esta situación, y para ello se va a presentar la evolución que ha sufrido el desarrollo del lado del cliente hasta llegar a nuestros días (Julio 2017).

Hay que retomarse a los orígenes de la Web cuando existían principalmente dos navegadores Web populares para los usuarios: Internet Explorer y Netscape. Internet Explorer hasta hace poco ha sido el navegador por excelencia de la compañía Microsoft y es sobradamente conocido por la mayoría de los lectores, hoy en día ha sido sustituido por Microsoft Edge. Menos conocido es el navegador Netscape, el cual fue el primero que plantó cara al dominio de Internet Explorer y del cual deriva hoy en día Mozilla Firefox.

Para el desarrollo de scripts (i.e. código) del lado del cliente, Internet Explorer utilizaba un lenguaje propio denominado VBScript (VisualBasic Script), el cual permitía realizar interacción con el usuario. Por su parte, Brendan Eich, empleado en Netscape definió un lenguaje de programación que inicialmente se llamó Mocha pero fue renombrado a LiveScript y finalmente a JavaScript. En 1995 la compañía Sun MicroSystems (que había adquirido Netscape y era propietaria del lenguaje de programación Java) anunció el lenguaje JavaScript y a partir de 1996 ya era operativo en el navegador Netscape. Desde ese momento hubo una batalla entre VBScript y JavaScript por ser el lenguaje del lado del cliente predominante, batalla que fue ganando poco a poco JavaScript. Tal fue así que Microsoft ideó un lenguaje de programación denominado JScript que llevó a confusiones entre los desarrolladores por el parecido en el nombre a JavaScript. La compañía Netscape envío a la organización Ecma International la especificación para que se convirtiera en un estándar y de ahí nació la primera edición llamada ECMA-262, el cual fue conocido como ECMAScript. En el desarrollo del estándar trabajan hoy las principales compañías interesadas en el desarrollo del lenguaje de lado del cliente (i.e. Microsoft, Google, Apple o la fundación Mozilla).

Por lo tanto, hoy en día existe un único lenguaje de programación de lado del cliente: JavaScript. Este lenguaje es desarrollado por los diferentes fabricantes de los navegadores: Google, Apple, Microsoft o la fundación Mozilla. Este desarrollo se debe basar en un estándar que “pactan” entre diferentes organizaciones denominado ECMAScript. No obstante, desde que se pactan diferentes características en el estándar hasta que se implementan en los navegadores puede pasar un largo tiempo, o incluso, algunos navegadores, incorporan características no pactadas en el estándar. Por lo tanto, se dan circunstancias como que una característica pactada en una versión pasada de ECMAScript nunca ha sido implementada en uno de los principales navegadores y por tanto el código desarrollado para una aplicación Web no se ejecutará bien en dicho navegador.

Aunque parece simple, es bastante complicado para los desarrolladores de aplicaciones Web tener el control de todas las versiones existentes de los navegadores que tienen los usuarios. La fragmentación de posibles clientes es demasiada elevada, lo que provoca que existan muchísimos problemas en el desarrollo Web.

La biblioteca que unifica la fragmentación: jQuery

La historia de JavaScript nos conduce a un escenario en el que se dispone de una gran fragmentación de dispositivos sobre los que desarrollar y no solo eso, una gran fragmentación de recursos del propio lenguaje de programación puesto que no hay una empresa que determine qué se puede y qué no se puede realizar en el lenguaje, sino que existe un estándar que pueden o no cumplir las diferentes empresas.

Durante la década 1996-2006 el desarrollo de la Web fue muy caótico, puesto que, aunque los desarrolladores quisieran crear aplicaciones Web complejas, no era posible debido a la naturaleza del entorno de ejecución, además que los usuarios finales tampoco lo requerían.

En el año 2006 se presentó jQuery, una biblioteca que trataba de hacer multiplataforma JavaScript en todos los navegadores. Durante una década, jQuery ha sido el estándar de desarrollo de los programadores Web puesto que simplificaba la complejidad de manejar primitivas del desarrollo Web. Hoy en día (2017) sigue siendo la biblioteca más utilizada puesto que se encuentra en aproximadamente el 96% de la Web. Una de las principales características de jQuery es que es código abierto y software libre, lo que ha permitido que se adapte con el tiempo.

Frameworks del lado del cliente

Aunque jQuery es una herramienta muy potente, no hay que olvidar que es una biblioteca construida sobre JavaScript para paliar el problema que provocan los fabricantes de navegadores en su no estandarización. Por lo tanto, la creación de aplicaciones complejas sigue siendo una tarea compleja y costosa. Debido a esto, y tras alcanzar el desarrollo del lado del cliente una cierta madurez, han surgido en los últimos años frameworks en JavaScript para facilitar la creación de aplicaciones de gran envergadura. Las principales ventajas que aportan los frameworks son el desarrollo rápido, la incorporación/rotación de nuevos miembros en los equipos de desarrollo, la garantía de unos mínimos de seguridad, optimización del rendimiento y la reducción de costes. Algunos de los principales frameworks del lado del cliente son Angular, React, Vue.js, ember o backboneJS.

En un próximo artículo se profundizará sobre los frameworks del lado del cliente.

Carlos Caballero González es Ingeniero y Doctor en Informática por la Universidad de Málaga. Máster en Ingeniería del Software e Inteligencia Artificial. Es profesor técnico de formación profesional en la especialidad de sistemas y aplicaciones informáticas, profesor colaborador de los estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC) e investigador en la Universidad de Málaga.

¿Unir PMBOK® y PRINCE2®?

(Trobareu versió en català més avall)

El pasado 22 de junio, en sede UOC pero en el contexto del capítulo de Barcelona del PMI (estrenábamos convenio de colaboración entre las dos entidades), Glòria Segura, una de las profesoras de nuestro equipo docente de Gestión de Proyectos, presentó una ponencia de título provocador: “Gana uniendo PMBOK® y PRINCE2®”.

Hablar de PRINCE2, el método de gestión de proyectos del gobierno británico (Axelos) y considerado competidor directo del PMBOK del PMI, en un contexto del PMI, era una oportunidad para la polémica; pero también una oportunidad para darlo a conocer -es todavía poco usado en nuestro país-, y para, sobre todo, exponer las ventajas de utilizar los dos marcos de trabajo de forma colaborativa, aprovechando las fortalezas de ambos, y obtener así un método de gestión de proyectos aún mejor.

Tanto si ya hemos adoptado (o queremos adoptar) PMBOK o PRINCE2, Glòria defendió que es posible buscar esta confluencia, añadiendo los puntos del uno que puedan complementar al otro en positivo. Por parte de PRINCE2 estos puntos serían:

  • La gran relevancia que se le da a la justificación del proyecto, desde su inicio hasta después de su cierre, definiendo también mecanismos para ser capaces de tomar la difícil decisión de parar un proyecto cuando se prevé que no dará los beneficios que lo justifican.
  • La robusta estructura organizativa de gestión de cada proyecto que tiene en cuenta los diferentes intereses (de negocio, de usuario y de proveedor) en la toma de decisiones, con roles y responsabilidades bien definidos y detallados.
  • La gestión por excepción, que permite delegar con control, definiendo tolerancias y también mecanismos de escalados, y cuándo hay que activarlos.
  • Las fases de gestión, como una capa adicional a las fases técnicas, facilitando una planificación más realista, el compromiso de recursos, la toma de decisiones, así como la mejora continua.
  • Una propuesta de documentos de gestión, con el detalle de apartados recomendados para cada uno, indicando incluso los criterios de calidad a cumplir
  • La facilidad de adaptación a diferentes entornos, entre ellos los ágiles o adaptativos.

Por su parte, PMBOK aportaría:

  • Un gran compendio de técnicas y herramientas a utilizar para cada proceso de gestión, que podríamos visualizar como la caja de herramientas del gestor de proyectos.
  • La gestión de los recursos humanos, para conseguir un uso efectivo de las personas involucradas en el proyecto.
  • Las habilidades y competencias que debe tener el gestor de proyecto, indicando incluso un código ético a seguir.
  • La gestión de adquisiciones que hay que afrontar en la mayoría de proyectos, teniendo en cuenta diferentes escenarios de contratación.

Por otro lado, hay áreas que son tratadas de forma similar por ambos marcos como, por ejemplo, el control de los cambios, la gestión de los riesgos y de la comunicación. También el enfoque de la estructuración en entregables (la WBS para PMBOK, la PBS para PRINCE2) sigue las mismas líneas, aunque PRINCE2 le da incluso más énfasis en el área de calidad.

En definitiva, quedó dicho que tenemos al alcance dos marcos de trabajo de gestión de proyectos muy robustos de los que se puede sacar el máximo beneficio al hacerlos trabajar juntos. Eso sí, siempre teniendo presente que lo más importante es el sentido común y la lógica, y que el objetivo no es seguir al pie de la letra las recomendaciones de estos marcos, sino maximizar el éxito de nuestros proyectos con una gestión lo más eficaz y eficiente posible.

 

Glòria Segura es ingeniera industrial. Lleva más de 25 años trabajando en el mundo IT, en consultoría, gestión de proyectos y gestión de servicios. Actualmente, su actividad se centra en la formación y consultoría de marcos de trabajo de Gestión de Servicios y de Gestión de Proyectos (ITIL, PRINCE2, PMBOK, MSP, Change Management, LeanIT).

Dr. Josep Maria Marco es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y docente del ámbito de Management of Information Systems. Su investigación se focaliza, aunque no exclusivamente, en el estudio de los procesos de provisión de Servicios, Sistemas y Tecnologías de la Información (SSTI), así como en las prácticas de selección de proveedores de SSTI y de la gestión de la relación con ellos (con especial interés por el caso del sector público). Actualmente dirige el Postgrado en IT Project Management.

 

Unir PMBOK® i PRINCE2®?

El passat 22 de juny, a la seu de la UOC però en el context del capítol de Barcelona del PMI (estrenàvem conveni de col·laboració entre les dues entitats), la Glòria Segura (que, entre moltes altres coses, és una de les professores del nostre equip docent de Gestió de Projectes) va presentar una ponència de títol provocador: “Guanya unint PMBOK® i PRINCE2®”.

Parlar de PRINCE2, el mètode de gestió de projectes del govern britànic (AXELOS) i considerat competidor directe del PMBOK del PMI, en un context del PMI, era una oportunitat per a la polèmica; però també una oportunitat per donar-lo a conèixer -és encara poc usat al nostre país- i per, sobretot, exposar els avantatges d’utilitzar els dos marcs de treball de forma col·laborativa, aprofitant les fortaleses d’ambdós, i així obtenir un mètode de gestió de projectes encara millor.

Tant si ja hem adoptat (o volem adoptar) PMBOK o PRINCE2, la Glòria va defensar que és possible buscar aquesta confluència, afegint els punts de l’un que poden complementar a l’altre en positiu. Per part de PRINCE2 aquests punts serien:

  • La gran rellevància que se li dóna a la justificació del projecte, des del seu inici fins després del seu tancament, definint també mecanismes per ser capaços de prendre la difícil decisió d’aturar un projecte quan es preveu que no donarà els beneficis que el justifiquen.
  • La robusta estructura organitzativa de gestió de cada projecte que té en compte els diferents interessos (de negoci, d’usuari i de proveïdor) en la presa de decisions, amb rols i responsabilitats ben definits i detallats.
  • La gestió per excepció, que permet delegar amb control, definint toleràncies i també mecanismes d’escalats i quan cal activar-los.
  • Les fases de gestió, com una capa addicional a les fases tècniques, facilitant una planificació més realista, el compromís de recursos, la presa de decisions i també la millora contínua.
  • Una proposta de documents de gestió, amb el detall d’apartats recomanats per cadascun, indicant fins i tot els criteris de qualitat a complir.
  • La facilitat d’adaptació a diferents entorns, entre ells els àgils o adaptatius.

Per la seva banda, PMBOK aportaria:

  • Un gran compendi de tècniques i eines a fer servir per cada procés de gestió, que podríem visualitzar com la caixa d’eines del gestor de projectes.
  • La gestió dels recursos humans, per aconseguir un ús efectiu de les persones involucrades en el projecte.
  • Les habilitats i competències que cal que tingui el gestor de projecte, indicant fins i tot un codi ètic a seguir.
  • La gestió d’adquisicions que cal fer en la majoria de projectes, tenint en compte diferents escenaris de contractació.

D’altra banda hi ha àrees que són tractades de forma semblant per ambdós marcs com, per exemple, el control dels canvis, la gestió dels riscs i de la comunicació. També l’enfoc de l’estructuració en lliurables (la WBS per PMBOK, la PBS per PRINCE2) segueix les mateixes línies, encara que PRINCE2 li dóna encara més èmfasi en l’àrea de qualitat.

En definitiva, va quedar dit que tenim a l’abast dos marcs de treball de gestió de projectes molt robustos, dels quals se’n pot treure el màxim benefici fent-los treballar junts. Això sí, sempre tenint present que el més important és el sentit comú i la lògica i que l’objectiu no és seguir al peu de la lletra les recomanacions d’aquests marcs sinó maximitzar l’èxit dels nostres projectes amb una gestió al més eficaç i eficient possible.

 

Glòria Segura és enginyera industrial. Porta més de 25 anys treballant en el món IT, en consultoria, gestió de projectes i gestió de serveis. Actualment, la seva activitat se centra en la formació i consultoria de marcs de treball de Gestió de Serveis i de Gestió de Projectes (ITIL, PRINCE2, PMBOK, MSP, Change Management, LeanIT).

Dr. Josep Maria Marco és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC i docent de l’àmbit de Management of Information Systems. La seva recerca se centra, tot i que no exclusivament, en l’estudi dels processos de provisió de Serveis, Sistemes i Tecnologies de la Informació (SSTI), així com en les pràctiques de selecció de proveïdors de SSTI i de la gestió de la relació amb ells (amb especial interès pel cas del sector públic). Actualment dirigeix el Postgrau en IT Project Management.

Realización de beneficios en Informática

Venimos predicando por aquí que, aunque entendemos la fascinación por la elegancia de un algoritmo o por la robustez de un artefacto, las TIC tienen sentido si resuelven problemas de la gente y de la empresa y… si la gente y la empresa son capaces de extraer los beneficios de la aplicación de la tecnología para resolver sus problemas. En eso consiste la adopción y uso efectivo de las TIC o, si nos ponemos metafísicos, la diferencia entre el mundo de los objetos y el mundo de los significados, el mundo de lo social. En el fondo, como decía Keen, éste es el sentido del estudio de los sistemas de información.

Reedición de clásico de John Ward sobre Gestión de Benficios

En el nivel macroeconómico, la realización de beneficios de la informática es una combinación de las inversiones en IT y en “capital organizativo”: el esfuerzo dedicado a cambiar la forma de tomar las decisiones y los procesos de trabajo, utilizar la información, desarrollar el talento o relacionarse con el entorno. Esto se llama la teoría de la complementariedad, desarrollada por Brynjolfsson y otros, y cuenta con evidencias cuantitativas que, por ejemplo, han llevado al Instituto de Estadística norteamericano a cambiar su manera de medir la productividad o contabilizar los activos intangibles de las empresas. En el nivel local, en cada organización, la efectividad de la informática parece depender también más de factores organizativos, sociales y culturales. “Típicamente, los beneficios se consiguen a través de cambios intensivos en las prácticas de negocio y la toma de decisiones”, decía Markus, uno de los pioneros del estudio de la gestión de los beneficios de IT. Entre estos factores organizativos, el más importante parece ser la convicción y compromiso de los equipos directivos. Hace unos meses publicamos un artículo largo sobre todo esto en otro lugar.

En el estudio de los sistemas de información y la gestión de proyectos y programas, en los últimos veinte años ha crecido el interés por la realización de beneficios, aunque también la frustración con sus resultados. El manual de referencia es el de John Ward, del que disponemos de una reedición reciente con Elizabeth Daniel. A diferencia de la gestión de proyectos tradicional, enfocada a la implantación de tecnología en alcance, tiempo y coste, la realización de beneficios pone el énfasis en la aportación de valor para el negocio, la involucración de los interesados y la gestión del cambio. Los beneficios se gestionan a lo largo de todo el ciclo de vida del proyecto y más allá: de hecho, comienzan con la definición del proyecto a través de un caso de negocio (qué beneficios se desean conseguir por qué y para qué) y acaban mucho más tarde que cuando acaba el proyecto y se pone en operación un sistema. Una de las piezas centrales de la gestión de beneficios es hacer “revisiones de beneficios” (benefits reviews) después de la implantación.

La gestión de beneficios es aún más importante en la gestión de programas. Dijimos hace un tiempo: “Un programa no es un proyecto, ni muchos proyectos. Un proyecto consigue unos productos (un software, unos manuales, un entrenamiento, una red desplegada, un sistema para medir audiencias…). Un programa produce resultados para la empresa (un aumento de las ventas, la apertura de un nuevo canal, la reducción de los gastos generales…). El éxito de un proyecto se mide por el cumplimiento de una funcionalidad, unos tiempos y unos costes. El éxito de un programa se mide en indicadores financieros (EBITDA, por ejemplo) o no financieros (cuota de mercado, por ejemplo).” Este es el caso de los planes estratégicos de sistemas de información, en los que precisamente se persigue el diseño y despliegue de una estrategia de TI alineada con la estrategia de la empresa. Todo esto no es nada obvio, ni para los equipos de tecnología ni, paradójicamente, para el negocio: la realización de beneficios de IT parece algo mágico, “hacer visible lo invisible”, como decían Marchand y otros colegas en un libro de hace tiempo, como persiguen los supertelescopios de la NASA o algunas formas de fotografía por computador.

Como parte de un proyecto de investigación, estoy trabajando en la actualidad con el área de Tecnología de la propia UOC en el análisis de la ejecución hasta el momento de su Plan Director de SI, en el que hemos incorporado por primera vez una pieza de análisis de la realización de beneficios, que se trabaja internamente por los equipos de TI y luego se comparte y se desarrolla con los clientes internos (los departamentos de negocio y la dirección de la Universidad). Lo primero que entiendo y explico es que un ejercicio como éste es un proceso de aprendizaje y refinamiento sucesivo, que pide paciencia. Después de este proyecto, más allá del análisis y la presentación de sus resultados, deberíamos ser capaces de establecer un tipo de diálogo diferente y de lenguaje compartido que servirá para los próximos proyectos y para la gestión de las relaciones entre el negocio y la informática en el día a día. Y deberíamos haber creado un enfoque y un método para mejor definir y priorizar los esfuerzos de TI y para evaluar su realización.

Os mantendré informados.

 

José Ramón Rodríguez es profesor de dirección de las TIC en diferentes programas de la UOC y consultor independiente. Investiga la planificación y gestión de proyectos de transformación empresarial facilitados por los sistemas y tecnologías de la información.