Gobierno Corporativo de IT: un Manifiesto, una revista y una mesa redonda

Gobierno corporativo de la IT quiere decir más o menos que para obtener el máximo rendimiento de las TIC hace falta una gestión compartida entre los “tecnólogos”(particularmente, el primer directivo de sistemas o CIO), los líderes funcionales y de las unidades de negocio (particularmente, el primer ejecutivo o CEO) y los propios usuarios. Y al revés: que la falta de este gobierno es probablemente la mayor barrera para la adopción y aprovechamiento inteligente de la informática y para la transformación digital de la sociedad y los negocios.

En la actualidad, es también una parte de la responsabilidad social corporativa y del cumplimiento de las normas de transparencia que deben seguir las empresas, en especial las cotizadas, y también las organizaciones públicas. O sea, tiene que ver con performance conformance. Y, como veremos en seguida, aspira a ir aún más allá.

Esto quiere decir un conjunto de mecanismos de toma de decisiones, procesos de trabajo, estructuras y relaciones. Hay decisiones sobre la informática que no pueden adoptar los informáticos y hay que establecer un marco de trabajo que permita a los informáticos hacer su cometido de la mejor manera posible. Hemos hablado de ésto por aquí algunas veces, incluso escribimos hace un tiempo un medio decálogo.

Ahora, el iTTi (Information Technology Trends Institute), que lidera Miguel García-Menéndez (colega y, sin embargo, amigo) y su comunidad de investigadores y practicantes (la mayoría CIOs en ejercicio), acaban de publicar o provocar un Manifesto of Corporate Governance of Information Technologypara el que piden diseminación, discusión, sugerencias, mejoras y, naturalmente, adhesiones. Os invito a visitarlo, discutirlo y, si es el caso, firmarlo.

"Manifesto on Corporate Governance of Information Technology"

“Manifesto on Corporate Governance of Information Technology” (c) iTTi

La revista Novática, órgano de la mayor organización de ingenieros y practicantes de la informática, ATI, publicará en las próximas semanas un número monográfico dedicado precisamente a este “gobierno corporativo” de las TIC (van por el número 229, esto es una especie de milagro, ¡enhorabuena!).  Novática, ATI y el iTTi son buenos amigos de nuestros Estudios y esperamos pronto ampliar el ámbito de estas colaboraciones.

Con estos motivos o excusas, que nunca están de más, se han organizado dos mesas redondas, una en Madrid y otra en Barcelona, con participación de autores del manifiesto, escritores del monográfico de la revista y otros expertos. La de Barcelona es el próximo día 28 de octubre, martes, en la sede de la UOC en la Avenida del Tibidabo. La de Madrid es el próximo día 3 de noviembre, lunes, en la sede del Instituto de Empresa en la calle María de Molina. Si queréis estar presentes, os animo a inscribiros en esta dirección. Y si queréis la información del acto, la tenéis en este enlace.

Es bonito leer en el Manifiesto que ésto del gobierno corporativo va más allá de los consejos de administración y los comités de dirección de las empresas; y también más allá de la informática y de los informáticos;  y que reclama derechos y deberes de los profesionales, las empresas, los gobiernos y los ciudadanos. Todos los interesados, dice el punto 13 (doce más uno) del documento afirma que todos los interesados deberán:

  • tener acceso a información completa y confiable y ser conscientes de sus implicaciones;
  • desarrollar habilidades y conocimientos adecuados en materia de gobierno corporativo y gestión digital (esto del “empoderamiento” o potenciación digital, que reclama nuestra colega Montse Guitert en su Máster, que aprovecho para publicitar);
  • asumir las acciones, roles y actitudes que conduzcan a obtener un mundo digital sostenible, eficiente, seguro y amable.

Y todo eso es bueno, justo y necesario.

Publicado en Coloquio, Dirección de las TIC, Profesión, Sistemas de información | Etiquetado , , , , | Deja un comentario

Reconocimiento internacional del laboratorio EIMT-UOC (II): Laboratorio Remoto

Retomamos la presentación de los laboratorios de los Estudios de Informática, Multimedia y Telecomunicación. Después de presentar el “Laboratorio en Casa” en una entrada anterior, hablamos ahora sobre el “Laboratorio Remoto”.

Esta tipología de laboratorio tiene en cuenta algunas consideraciones especiales.

  • En primer lugar, todos los recursos utilizados por los estudiantes están físicamente ubicados en las instalaciones de la propia Universidad, por lo tanto todos los recursos son accedidos de una manera remota utilizando Internet, ya sea por protocolos TCP/IP directamente, o por medio de la interfaz de diferentes softwares específicos; en todo caso, siempre sin existir ningún tipo de acceso físico entre el estudiante y los recursos del laboratorio.
  • En segundo lugar, algunos equipamientos electrónicos especializados tienen una limitación temporal dado que sólo pueden ser accedidos por un estudiante a la vez y son compartidos entre ellos (p. ej. generadores de señal), por eso es necesario controlar su acceso utilizando un sistema de reservas o colas.
  • En tercer lugar, experimentos relacionados con HPC (High Performance Computing o Computación de Altas Prestaciones) tienen también una limitación de número de recursos, o exclusividad, que puede limitar la concurrencia, por eso, en este caso, se utiliza un sistema de colas de ejecución, cuando los servidores son accedidos para la realización de los diferentes trabajos de computación de los estudiantes.
  • Finalmente, se tienen que tener en cuenta dos consideraciones más, por un lado la usabilidad del laboratorio y, por la otra, como tiene que ser llevada a cabo la experimentación práctica para adquirir las competencias prácticas utilizando este tipo de laboratorio.

Una vez descrito el Laboratorio Remoto, se presentan algunos casos de uso de aquellos experimentos prácticos que pueden ser llevados a término usando hardware y software. Para empezar, se muestra como se utiliza el hardware en diferentes áreas de conocimiento.

  • Generación y medida de señal. Se pueden llevar a cabo experimentos relacionados con la generación y medida de señales utilizando equipamiento complejo de laboratorio que podría ser encontrado en cualquier laboratorio de electrónica y/o comunicaciones, con la característica principal de ser accesible remotamente. Algunos de estos dispositivos son, por ejemplo: generador arbitrario de señal, osciloscopio digital o analizador vectorial de señal (Figura 3).
Figura 3 - Equipamiento para la generación y medida de señal en el Laboratorio Remoto

Figura 3 – Equipamiento para la generación y medida de señal en el Laboratorio Remoto

  • Electrónica analógica. Estos experimentos están destinados a montar diferente tipo de circuitos electrónicos. Para hacerlo se dispone de matrices de conmutación que permiten que diferentes componentes electrónicos, dispositivos de generación y medida de señal se puedan combinar entre sí. Esta sería una manera original de permitir a los estudiantes montar sus propios circuitos electrónicos en educación en línea.
  • Electrónica digital. Experimentos de electrónica digital son llevados a cabo utilizando placas con FPGA reales en las que los estudiantes cargan su código VHDL para probarlo. Estos experimentos utilizan una placa FPGA de National Instruments junto con el software LabVIEW, que permite crear una interfaz para controlar el código VHDL cargado.
  • Sistemas de comunicación. Estos experimentos están destinados a que los estudiantes puedan practicar diferentes conceptos de Ingeniería de Telecomunicación. Se dispone de una variedad de dispositivos con diferentes objetivos: i) NI Elvis II+ utilizado junto con Emona DATEx y Emona FOTEx para llevar a cabo experimentos de sistemas de comunicaciones (Figura 4) y de fibra   óptica , ii) USRP 2920 bundle disponible para la práctica compleja con protocolos de radiocomunicaciones y transmisión de señales, iii) Tablets y smartphones utilizados por los estudiantes para la carga de sus aplicaciones en dispositivos reales. Además, el uso de matrices de conmutación mejora la flexibilidad de los experimentos (experimentación del estudiante) y facilita la gestión del laboratorio (preparación de experimentos).
Figura 4 - Ejemplo de montaje para la experimentación de sistemas de comunicación usando NI Elvis II+, Emona DATEx y una matriz de conmutación de Agilent Technologies

Figura 4 – Ejemplo de montaje para la experimentación de sistemas de comunicación usando NI Elvis II+, Emona DATEx y una matriz de conmutación de Agilent Technologies

  • Configuración de redes (switchs y routers). Una topología de red, exclusivamente formada por switches y routers Cisco está disponible para llevar a cabo experimentos de configuración de los dispositivos. Los estudiantes se conectan utilizando un navegador web y un software de protocolos Telnet/SSH para configurar los dispositivos reales.

Llegados a este punto, por último, se presenta la experimentación en el Laboratorio Remoto usando software en las siguientes áreas de conocimiento:

  • Servidores web. Los estudiantes disponen de acceso a servicios Cloud de Amazon, de forma que se los provee de máquinas virtuales (VMs) donde experimentar. Cada estudiante accede a una VM de Amazon y la tiene que configurar según unos parámetros definidos con el objetivo de alojar páginas web de e-commerce y una serie de servicios de red social.
  • Redes y seguridad de ordenadores. Los estudiantes pueden practicar métodos de ataque conectándose remotamente a diferentes VMs que forman un entorno de pruebas. Así, pueden entrar en ellas y hacer diferentes tipos de experimentos y comprobaciones de seguridad: i) vulnerabilidades de Apache, ii) vulnerabilidades de Windows , iii) vulnerabilidad en páginas web con XSS, SQLinjection, blind SQLinjection y Path Transversal, e iv) utilizar Honeypot para el estudio de técnicas implementadas dentro de algún malware.
  • Sistemas distribuidos: protocolos y aplicaciones. Los estudiantes y los investigadores de la UOC utilizan la red global de ordenadores PlanetLab para probar protocolos de red y técnicas experimentales sobre sistemas distribuidos (Figura 5), y así disponer de acceso por parte de las aplicaciones de estudiantes a un entorno real distribuido de forma tanto geográfica como heterogénea.
Figura 5 - Estructura del banco de pruebas de PlanetLab@UOC

Figura 5 – Estructura del banco de pruebas de PlanetLab@UOC

  • Matemáticas. Los estudiantes de matemáticas necesitan practicar con diferentes tipos de ejercicios para adquirir las habilidades requeridas. En una situación ideal, los ejercicios necesarios para adquirir todas las competencias tendrían que ser personalizados por un tutor según el trabajo llevado a cabo por el estudiante en clase. Nuestra iniciativa tiene como objetivo simular el papel de un tutor remoto mediante la creación de ejercicios personalizados, su corrección y el feedback a los estudiantes con aquello que está mal en su resolución.

Carlos Monzo es doctor por la Universidad Ramon Llull en Ingeniería de Telecomunicación. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el responsable del Laboratorio de Telecomunicación.

Publicado en Docencia, Recurso, Redes, UOC | Etiquetado , , , , , , | Deja un comentario

Reconocimiento internacional del laboratorio EIMT-UOC: Laboratorio en Casa

El pasado día 1 de setiembre de 2014 el laboratorio virtual de los Estudios de Informática, Multimedia y Telecomunicación recibió el galardón de iniciativa “Highly Commended” dentro de la categoría “Virtual Laboratory – Teaching and Learning”. Esta distinción, entregada por el organismo S-LAB (Safe, Successful and Sustainable Laboratories), reconoció las buenas prácticas y la innovación llevadas por la UOC para la creación y uso de laboratorios destinados a la experimentación práctica en educación en línea.

S-Lab es un organismo que tiene como objetivo el de crear laboratorios más sostenibles, aumentando la conciencia de sostenibilidad tanto entre el personal de usuarios de los laboratorios así como de los estudiantes. S-Lab, actualmente ligado al Institute of Science and Technology, nació como un proyecto del Higher Education Environmental Performance Improvement (HEEPI) en el Reino Unido. Inicialmente su principal financiación provino de las cuatro grandes organizaciones de educación superior en UK, aunque actualmente tiene capacidad de autofinanciación: HEFCE, HEFCW, SFC y DELNI.

La experimentación práctica permite a los estudiantes la adquisición de las competencias prácticas requeridas en las titulaciones tecnológicas. Dado esto, los Estudios de Informática, Multimedia y Telecomunicación (EIMT) de la Universitat Oberta de Catalunya (UOC), Universidad de educación a distancia basada en Internet, están trabajando en el desarrollo tanto de actividades prácticas de laboratorio como en la creación de toda la infraestructura necesaria para hacerlas posibles. Este laboratorio tiene una disponibilidad 24×7 los 365 días del año y está destinado a cubrir las necesidades de experimentación tanto con hardware como con software en el contexto de la educación en línea de la Ingeniería Informática, la Multimedia y la Ingeniería de Telecomunicación. Este laboratorio permite que los estudiantes puedan trabajar en varios ámbitos, como por ejemplo lenguajes de programación, administración de sistemas, administración de base de datos, la generación y medida de señales, electrónica analógica y digital, procesamiento de señal y sistemas de telecomunicación, entre otros.

Este laboratorio consta de una doble tipología en función de cómo se accede a los recursos, es decir localmente, en aquella donde los recursos están disponibles directamente en la casa de los estudiantes, o remotamente mediante el acceso a Internet, cuando los recursos se encuentran en las instalaciones de la propia Universidad y el estudiante no tiene acceso físico a ellos: “Laboratorio en Casa” y “Laboratorio Remoto“, respectivamente.

Las dos tipologías de laboratorio permiten que los recursos de laboratorio sean un recurso más del aula UOC, como son los apuntes en papel, digitales o en multiformatos varios, además de vídeos u otros recursos multimedia. En cuanto a su acceso, la tipología de Laboratorio en Casa permite que los estudiantes hagan uso de los recursos en el preciso momento que los necesitan. Por otro lado, el Laboratorio Remoto es accedido mediante un sistema de reservas o un sistema de colas ya que los recursos disponibles están compartidos entre estudiantes, asignaturas y titulaciones. Gracias al uso de esta variabilidad en el acceso, el laboratorio tiene una disponibilidad de 24×7 los 365 días al año.

A continuación detallaremos la primera tipología de laboratorios, los laboratorios en casa, y presentaremos diferentes áreas de conocimiento sobre las cuales, a modo de casos de uso ejemplificativos, se han llevado a cabo diferentes innovaciones docentes y metodológicas.

En los laboratorios en casa los estudiantes tienen todos los recursos necesarios a su alcance, puesto que estos son enviados a su domicilio al inicio del curso después de la formalización de la matrícula. Estos recursos pueden ser hardware real y software, así que los estudiantes pueden utilizar equipamiento electrónico y software cuando los necesitan durante el estudio, pudiendo combinar recursos experimentales junto con un libro de texto u otros recursos multimedia durante su proceso de aprendizaje.

A continuación se presentan diferentes áreas de conocimiento donde hardware y/o software son utilizados, presentando en cada momento el objetivo principal de uso de cada tipo de recurso.

Para empezar se presentarán aquellas áreas donde el hardware juega un papel importante, para pasar posteriormente a presentar aquellas áreas basadas en el uso de software.

  • Electrónica analógica. Experimentos relacionados con la electrónica analógica pueden realizarse gracias al uso del sistema electrónico Lab@Home junto con el resto de kit de prácticas (Figura 1) compuesto a su vez por un multímetro digital y componentes electrónicos (p. ej. condensadores, transistores, etc.), y elementos para la experimentación (p. ej. cables). Lab@Home se trata de un sistema electrónico desarrollado por la UOC, del que se ha derivado un modelo de utilidad, para el aprendizaje de conceptos de electrónica en las titulaciones de Ingeniería de Telecomunicación.
Figura1- Ejemplo completo del kit de electrónica analógica: Lab@Hombre, componentes y multímetro

Figura1- Ejemplo completo del kit de electrónica analógica: Lab@Hombre, componentes y multímetro

  • Diseño de interacción, interacción persona-ordenador y usabilidad. Los experimentos se llevan a cabo mediante el uso de placas de tipo Arduino y el desarrollo de aplicaciones en Processing. Se envía al estudiante un Starter Kit de Arduino destinado a que los estudiantes puedan realizar nuevos prototipos y formas de interacción entre el ordenador, la red y el mundo tangible.
  • Sistemas embedded. Los estudiantes pueden llevar a cabo experimentos sobre sistemas empotrados (embedded) utilizando Arp@Lab, un laboratorio práctico desarrollado en la UOC para que los estudiantes exploren sistemas embedded y redes de sensores inalámbricas (WSNs) desde un punto de vista experimental.

Llegados a este punto, una vez que se ha presentado el uso de hardware en los experimentos para el Laboratorio en Casa, pasaremos a mostrar el papel que tiene el software en la experimentación de diferentes áreas de conocimiento. Estos experimentos utilizan software tanto comercial como no comercial, orientados a dar servicio en áreas de conocimiento como las que encontramos a continuación:

  • Procesamiento de señal, electrónica y comunicaciones. En este campo de conocimiento se utiliza una variedad de software para la realización de diferentes experimentos. MATLAB es uno de los softwares más utilizados en el área de procesamiento de señal y experimentos de comunicaciones. Otro software importante, extendido dentro de la industria, es Agilent ADS, utilizado en aplicaciones de microondas. Además, otros softwares utilizados son el PSPICE para la simulación de electrónica analógica, Quartus II para desarrollos de electrónica digital u Opnet para la experimentación en redes de comunicaciones.
  • Producción de audio. Experimentos de producción de audio son realizados mediante una mesa de mezclas virtual. Esta mesa de mezclas virtual es un recurso digital que simula un entorno profesional de grabación y la mesa de mezclas de audio correspondiente, reproduciendo una vista 3D una mesa de mezclas real del mercado (Figura 2).
Figura 2 - Mesa de mezclas real (izquierda) y virtual (derecha)

Figura 2 – Mesa de mezclas real (izquierda) y virtual (derecha)

  • Diseño de circuitos digitales. Los estudiantes utilizan el software de la UOC denominado VerilUOC, una plataforma de auto-estudio para aprender, y desarrollar competencias de diseño de circuitos.

Seguiremos en otra entrada presentando los laboratorios remotos.

Carlos Monzo es doctor por la Universidad Ramon Llull en Ingeniería de Telecomunicación. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el responsable del Laboratorio de Telecomunicación.

Publicado en Docencia, Recurso, UOC | Etiquetado , , , , , , | 2 comentarios

El Museo del Videojuego de Berlín

No hace mucho pude visitar Berlín y encontrar un hueco para ver algunos museos. Uno de los que primero me llamó la atención por su nombre fue el DDR Museum. Aunque ya de entrada me parecía demasiado extraño, no pude evitar una cierta desilusión al ver que no era exactamente sobre lo primero que me había venido a la cabeza, sino que se refería a la antigua Deutsche Demokratische Republik, o República Democrática (por así decirlo) Alemana. Esto de las iniciales es lo que tiene, Según el contexto varía el significado, como cuando a mi profesora de redes el dentista le dijo que tenía problemas en la ATM.

Afortunadamente, la desilusión duró poco, pues más tarde pude descubrir que en la calle Karl Marx de Berlín está el Computerspielemuseum, o museo del videojuego. Está claro que me faltó tiempo para dirigirme directo hacia allí. En una esquina de un edificio gigantesco se encuentra su entrada, no demasiado visible a simple vista. Eso sí, a pesar del tamaño del edificio, el espacio dedicado al museo es más bien chiquitín, pero suficiente para satisfacer al visitante.

Lo primero que uno encuentra no es ni un videojuego ni hardware, pero ya deja clara la filosofía del museo: satisfacer a los amantes de lo antiguo y el vintage, y sobretodo, los amantes de los orígenes de los videojuegos. Se trata de una edición original de la White Box de Dragones & Mazmorras. ¿Aplica a un museo de videojuegos unos libros que nada tienen que ver con la informática? Que cada uno decida, pero a mi me pareció perfecto.

Inmediatamente después se puede observar la correspondiente colección de ordenadores y consolas, partiendo de los inicios antediluvianos de los videojuegos y siguiendo su evolución a lo largo de 60 años de historia. Un repaso detallado de ordenadores o consolas, uno por uno. La colección no está a la última, no hay una Playstation 4, pero allí están los míticos ordenadores de 8 bits, las distintas consolas de sobremesa o portátiles, un Amiga 500 e incluso un Apple firmado por Wozniak. Una zona que cumple todas las expectativas mínimas de lo que se espera de un museo de estas características y dónde la frase más escuchada viene a ser “¡Este lo tenía yo!” mientras se señala con el dedo.

Mis amigos los 8 bits. Imagen cedida por el autor de la entrada.

Mis amigos los 8 bits. Imagen cedida por el autor de la entrada.

Después, ya vienen distintos expositores y monitores donde se repasan distintos aspectos de los videojuegos: su desarrollo, compañías importantes, distintos tipos, la típica comparativa entre distintos modos de almacenamiento, etc. En la zona central es posible seleccionar entre distintos juegos de ordenador que podríamos llamar “clásicos” y ver su presentación, escuchar su música, y leer una breve explicación. Me sorprendió bastante que una muestra muy importante era de Amiga, como el Defender of the Crown o el Lemmings.

Más allá de los apartados vinculados a mostrar temas históricos, el museo también cuenta con algunos apartados especiales o curiosidades que son interesantes de comentar.

La más popular, y con cola constante, es la zona de arcade, que recrea en un pequeño espacio el ambiente de una antigua sala recreativa, con su musiquita de ambiente machacante, su iluminación de neón, etc. Todas las máquinas recreativas son de uso gratuito, lástima que solo había 5 o 6. La que tenía más éxito con diferencia era un Gauntlet con su correspondiente tablero de cuatro jugadores. Cola para poder pasarte una hora jugando sin parar con otros 3 visitantes, aliados improvisados, ya valía la pena la entrada.

Cerca de la zona arcade, también es posible jugar al Pac Man, versión consola Atari, con un joystick tamaño gigante. No es fácil y cansa lo suyo cuando llevas un rato.

Hay que estar en forma. Imagen cedida por el autor de la entrada.

Hay que estar en forma. Imagen cedida por el autor de la entrada.

Finalmente, quizá lo más curioso del museo es la Painstation que tienen expuesta, y que pueden poner en marcha a petición de los visitantes y bajo su propia responsabilidad. Por defecto, está desactivada. Básicamente, se trata de un pong en el que cada vez que consigues puntuar se castiga físicamente al adversario con quemaduras o electrocución. Pierde el primero que deja los mandos. La verdad es que los carteles de advertencia ya dejan claro de qué va el tema (quemaduras de tercer grado, hemiplegia, hematomas). Hay que decir que en realidad se trata de una obra de arte conceptual, no se diseñó con el propósito explícito de jugar. Yo decidí que, como obra de arte, mejor solo mirarla y ya está.

¿Eres un hardcore gamer? Imagen cedida por el autor.

¿Eres un hardcore gamer? Imagen cedida por el autor.

Antes de marcharme, puede hacer una breve partida al Zork. No me comió una Grue, pero me maté saltando por un barranco… en fin. ¡Ah!, y también cayeron un par de partidas al DDR!!!

¿Quien necesita gráficos? Imagen cedida por el autor.

Joan Arnedo Moreno es profesor de los estudios de Informática, Multimedia y Telecomunicaciones en la UOC. Coordinador de las asignaturas de la rama de seguridad y director académico del postgrado de Cisco Networking Technologies, también cuenta con más de 30 años de experiencia jugando a videojuegos.

Publicado en Historia, Videojuegos | Etiquetado , , | 2 comentarios

Adquisición de competencias en proyectos de Inteligencia de Negocio

En algunos posts de este blog hemos hablado del factor humano y la adquisición de competencias personales y organizativas en los proyectos de Business Intelligence. El tema es más actual ahora en la UOC y en muchas partes con la apertura del curso académico. Nuestro Máster y posgrados de BI y Big Data están en el plazo de matrícula.

Gráfica: Anónimo. Interior of a taylor shop. Dominio público.

Gráfica: Anónimo. Interior of a taylor shop. Dominio público.

Es licito preguntarse por dónde y cómo empezar. Hace unos meses, antes del verano, en uno de los eventos en los que hablé, uno de los asistentes me preguntaba eso mismo. De hecho, su preocupación estaba ligada a los perfiles profesionales necesarios para poder ayudar a negocio a comprender cómo usar de forma correcta la información generada a partir de los datos y modelos. Como os podéis imaginar, este segundo punto da para mucho. En definitiva, su pregunta hace referencia a las competencias analíticas y a la creación de puentes, como dice Davenport, entre quants y non-quants.

Centrémonos de nuevo en nuestra pregunta: cómo empezar. Aquí toca ponerse el traje de consultor y dar una respuesta honesta. El proceso de transformarse en una organización orientada al dato no es único, no va a ser lineal e incluso puede haber regresiones a estados anteriores.

Cada organización tendrá un punto de partida diferente. Y este punto de partida depende de múltiples aspectos: el tipo de estrategia TI (palanca de negocio vs. departamento de soporte), la situación de iniciativas anteriores de Business Intelligence (BI), Business Analytics (BA) o Big Data (en caso de haberlas y de haber sido de éxito o no), de la existencia y rol del centro de competencias (o de excelencia)…

La combinación de estos factores permite empezar a poner los puntos sobre las íes de lo que necesita una organización para empezar. De este tema habla también Thomas H. Davenport en su libro Competing on analytics (que suelo recomendar siempre). Nos dice, a grosso modo, que al final los tres aspectos a evaluar son:

  • El nivel de competencias analíticas y el dominio de soluciones y herramientas.
  • El dominio en la gestión de la información.
  • El alcance (otra vez) de la cultura del dato.

También añade que existen principalmente dos caminos: (1) el camino de la especialización en competencias analíticas primero aplicadas en silos y posteriormente coordinadas en toda la organización y (2) el camino de la excelencia en la gestión de la información primero en silos y a posteriori en forma de gobierno corporativo. Al final ambos caminos hacen referencia a la adquisición y consolidación de competencias en la organización.

Seguiremos.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business IntelligenceBusiness Analytics y Big Data.

Publicado en Business Intelligence, Dirección de las TIC, Gestión de proyectos, Profesión, Sistemas de información, UOC | Etiquetado , , , , | 1 comentario

Informática polirrítmica (II)

En la entrada anterior, presentábamos esta idea de una informática ambidextra, polirrítmica o de dos velocidades en el ámbito de la gestión de proyectos. Empezar un enfoque “ágil” con algo pequeño con un grupo reducido de desarrolladores y clientes y proveedores de confianza no parecía un gran reto.

Rudolf Nureyev y Margot Fonteyn en La Bayadera. Esta imagen no tiene copyright ni licencia explícita y se presenta con fines educativos para ilustrar el contenido de la entrada.

Rudolf Nureyev y Margot Fonteyn en La Bayadera. Esta imagen no tiene copyright ni licencia explícita y se presenta con fines educativos para ilustrar el contenido de la entrada.

En cambio, cuando se trata de extender esta cultura al conjunto del departamento de IT y al resto de la empresa, la cosa se complica. Para que todo esto funcione, hace falta ir desarrollando:

  • Otro tipo de gobierno de la IT que no mira sólo el ROI; un gobierno más próximo al cliente y quizá más ambiguo y que acepta el riesgo;
  • Una oficina de programa o de portfolio que tiene una visión global de las necesidades y de qué tipo de aproximación emplear, así como de las capacidades que tiene a mano;
  • Una nueva política de aprovisionamiento, que confía en nuevos proveedores más pequeños, especiales y especializados;
  • Un nuevo jefe de proyecto de mente amplia y visión de negocio;
  • Responsables de cliente (interno) que hayan construido confianza, reputación y diálogo directivo y que conozcan y se anticipen a la demanda;
  • Una forma de trabajar más colaborativa también dentro del departamento de informática entre desarrollo y operaciones, lo que algunos llaman DevOps;
  • Una sólida, saneada y respetada arquitectura de empresa, aunque esté basada en componentes acoplados de forma más ligera, replicables y redistribuibles;

Gobernanza y arquitectura son, por lo tanto, probablemente los dos pilares de esta nueva informática “polirrítimica”.

El primer ejecutivo de la informática tiene la oportunidad de liderar o, al menos, acompañar a la dirección general y los responsables de negocio en este proceso, que es inevitable. Si no lo hace él, las cosas pasarán, ya están ocurriendo, igualmente. Simplemente los líderes de negocio más agresivos buscarán alguien que se lo haga o lo harán ellos mismos, con sus recursos o con otros proveedores (lo que ya se llama “informática en la sombra” y que alcanza en muchas empresas hasta el 35% del gasto total en informática). El departamento de informática y el conjunto de la empresa padecerán los viejos problemas de falta de integración, seguridad o confiabilidad, de los que, encima, se culpará a los informáticos; y vuelta a empezar.

Y la danza, en vez de ser graciosa y coordinada, será una danza del infierno.

Publicado en Dirección de las TIC, Gestión de proyectos, Sistemas de información | Etiquetado , , | 1 comentario

Informática polirrítmica (I)

La idea de una informática de dos velocidades aparece por primera vez, salvo error, en un informe del Boston Consulting Group de hace un par de años, aunque se ha popularizado ahora con sendos estudios de McKinsey y Gartner.

La idea es que los departamentos de informática y las empresas en su conjunto necesitan manejar al mismo tiempo dos clases de capacidades: las que le proporcionan músculo, integración y rendimientos confiables; y las que le permiten adaptarse e innovar rápidamente en beneficio de las exigencias del consumidor final y de los departamentos internos más exigentes (sobre todo, desarrollo de producto, marketing y ventas).

A medida que la velocidad, la colaboración con los líderes de negocio y la innovación compartida en una empresa digital son más importantes, las aproximaciones adaptativas y ligeras para la gestión de proyectos (se llamen Lean, Kanban, Agile, Scrum, etc.) ganan terreno a las aproximaciones convencionales basadas en el desarrollo incremental e iterativo. En realidad, la práctica de la mayoría de las empresas muestra una evolución a lo largo de un continuo o, como dicen Mary Messaglio (amiga) y Simon Mingay, de Gartner, una especie de danza donde los bailarines se juntan y se separan, un juego de tiempos y contratiempos (nunca mejor dicho, jeje) que forman una informática polirrítmica, “coordinada y graciosa”.

Poliritmo 2:3 - Fuente: Wikipedia, Licencia:  CC BY-SA 3.0

Poliritmo 2:3 – Fuente: Wikipedia, Licencia: CC BY-SA 3.0

Nota: Haz click sobre la imagen para ver la animación y escuchar el sonido.

(Para una caracterización y análisis inteligente y práctico de todo esto de los métodos, os recomiendo el libro de Wysocki, que sugerimos a nuestros estudiantes de Gestión de Proyectos. Podéis ver también el primer libro de la colección de este blog. Para una comprensión de ritmos, tiempos y velocidades, podéis consultar algún libro de teoría musical, que es algo bastante parecido a las matemáticas, jeje).

Es verdad que en la mayoría de los casos, la gente que hace una clase de proyectos tiene capacidades y hasta maneras de ser distintas de los otros y en muchas organizaciones hasta figuran en una unidad diferente. Estos equipos son multidisciplinares (responsables de desarrollo de producto o servicio al cliente, diseñadores y comunicadores, ergónomos, programadores, expertos en geolocalización o en inteligencia de negocio, …) y frecuentemente asumen los “temas nuevos” (aplicaciones multimedia o desarrollo para móviles).

Cuando se comienza a trabajar así en el desarrollo de proyectos “de IT”, esto no afecta mucho al resto de las líneas de negocio y departamentos de la empresa. O es para bien: sienten más servicio, más cálido y cercano y suelen encontrarse a gusto participando en proyectos cortos y ligeros construidos con éstos métodos.

Además, para empezar, no es necesario tenerlo todo a punto: el reglamento, las líneas del campo de juego y la pelota de competición…; para comenzar basta un entrenador o un árbitro (el que decide qué cosas se hacen de cada manera) , algunos jugadores y una pelota de plástico (!).

La cosa se complica cuando queremos extender esta cultura al resto de la organización de IT y al conjunto de la empresa. Dedicaremos a ésto la segunda parte de la entrada.

Publicado en Dirección de las TIC, General, Gestión de proyectos, Sistemas de información | Etiquetado , , | 2 comentarios

Accesibilidad web

Al igual que en las ciudades existen barreras arquitectónicas para personas con algún tipo de discapacidad, en Internet existen barreras tecnológicas. Ofrecer una Web que cumpla con el estándar de accesibilidad, permitiría a personas con problemas sensoriales, motrices o cognitivos, tener una experiencia de navegación completa y satisfactoria.

Conscientes de esa importancia, en muchos países, como España, surgió la Ley de los Servicios de la Sociedad de la Información y del Comercio Electrónico (2002), para asegurar la accesibilidad de las páginas de la Administración pública (nivel AA), y servir como modelo a las instituciones privadas.

sello

Sello de CORREOS Protejamos a las Personas con Discapacidad. Imagen utilizada bajo criterios de Fair use.

Los niveles de conformidad para satisfacer los requisitos de accesibilidad se clasifican en:

  1. Nivel A: la página web satisface todos los criterios de conformidad de nivel A
  2. Nivel AA: la página web satisface todos los criterios de conformidad de los niveles A y AA
  3. Nivel AAA. la página web satisface todos los criterios de conformidad de los niveles A, AA y AAA

En general, los criterios de conformidad hacen referencia a:

  • Alternativas textuales (único criterio de nivel A)
  • Alternativas vídeo y audio (9 criterios de conformidad: tres nivel A, dos nivel AA y cuatro nivel AAA)
  • Información adaptable, manteniendo orden de lectura (3 criterios, los tres de nivel A)
  • Información distinguible, color, contraste, etc. (9 criterios: dos de nivel A, tres de nivel AA y cuatro de nivel AAA)
  • Accesibilidad por teclado. (3 criterios de accesibilidad, dos de nivel A y uno de nivel AAA)
  • Tiempo suficiente para acceder a los contenidos. (5 criterios: dos de nivel A y tres de nivel AAA)
  • Diseños que no provoquen convulsiones. (2 criterios: uno de nivel A y otro de nivel AAA)
  • Ayuda para la navegación. (10 criterios: cuatro de nivel A, tres de nivel AA y tres de nivel AAA)
  • Contenidos legibles. (6 criterios: uno de nivel A, uno de nivel AA y cuatro de nivel AAA)
  • Web perceptibles. (5 criterios: dos de nivel A, dos de nivel AA y uno de nivel AAA)
  • Evitar errores entrada de datos. (6 criterios, dos de nivel A, dos AA y dos AAA)
  • Compatibilidad. (2 criterios de conformidad de nivel A)

Existen herramientas gratuitas, diseñadas especialmente para evaluar el nivel de accesibilidad, como por ejemplo TAW o HERA. Normalmente, adaptar una Web no supone cambios relevantes en los diseños, contenidos o estructura de las páginas.

También es posible auditar y certificar una página Web, por ejemplo a través de Technosite, empresa especializada en tecnología y discapacidad de Fundación ONCE, e incorporar el sello de certificación en nuestras WEB.

Juan Jesús Ros Guzmán es Ingeniero Técnico Informático, Manager de Sistemas y Project Manager. Especialista en Estrategia y Gobierno de TI, Protección de Datos, reingeniería de procesos de Negocio y TI (diseño, implementación y mejora continua). Más de 15 años de experiencia progresiva en la dirección de TI en un entorno empresarial global y cambiante. Actualmente trabaja como Manager de Sistemas en un Hospital Privado.

(Nota de los editores: Esta entrada se publicó originalmente en el blog del autor)

Publicado en Desarrollo, Profesión | Etiquetado , , , | 4 comentarios

El itinerario de Tecnologías de la Información del Grado en Ingeniería Informática

En esta entrada presentamos en detalle el itinerario de Tecnologías de la Información dentro del Grado en Ingeniería Informática adaptado al EEES. En inglés, esta disciplina se denomina Information Tecnology, según las guías curriculares de la ACM (Association for Computer Machinery).

Podríamos decir que las Tecnologías de la Información son el núcleo central que permite gestionar eficientemente la gran mayoría de las organizaciones y negocios actuales. Pero el término “Tecnologías de la Información (TI)” a veces se utiliza de forma poco concreta en el ámbito de la informática. Antes de continuar vamos a especificar claramente a que nos referimos con TI en el contexto del grado.

Se puede definir las TI como la aplicación de ordenadores y equipos de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con frecuencia utilizados en el contexto de los negocios u otras empresas. Aquí el término “aplicación” es un poco ambiguo, teniendo en cuenta todo lo que abarcan las TI. De hecho un profesional de las TI no sólo se dedica a la aplicación de dichos sistemas, sino a su estudio, su diseño, su desarrollo, su implementación, su soporte o a la gestión de su información. Siendo los perfiles de administrador de bases de datos o administrador de sistemas operativos ejemplos de perfiles del área de TI.

En este grado se presentan los conocimientos básicos para que los estudiantes sean capaces de satisfacer las necesidades tecnológicas de las organizaciones.  En este proceso, los profesionales en TI deben poseer tanto el conocimiento como las competencias prácticas para tener en cuenta la infraestructura de TI de una organización, el software que se debe tener en cuenta, los datos que hay que almacenar y bajo que características (fragmentación/replicación), la política de seguridad que debe garantizarse, y cómo será accedida la información por las personas de la organización y externas.

Trabajando en una sala de servidores. Fuente: Flickr - Licencia: CC BY 2.0

Gestión de un data center.
Fuente: Flickr – Licencia: CC BY 2.0

Por tanto, estos profesionales deben asumir responsabilidades en la selección del hardware y software necesario para un problema concreto, integrar estos elementos de manera efectiva teniendo en cuenta las necesidades organizacionales y infraestructura disponible, y instalar, adaptar y mantener dichos sistemas. Es decir, proveer de un entorno seguro y eficiente que da soporte a las actividades de los usuarios de los sistemas informáticos de las organizaciones. Esta es una tarea compleja que no puede realizarse de forma eficiente sin un conocimiento profundo de los distintos factores que condicionan las TI.

El itinerario de Tecnologías de la Información intenta formar profesionales en este contexto y, para hacerlo, se profundiza en los siguientes ámbitos temáticos:

  • Administración de sistemas y redes de computadores: trata sobre la administración y configuración de un sistema informático: desde los sistemas operativos, hasta las redes de computadores, y la gestión de la seguridad del entorno.
  • Interacción persona ordenador: estudia como tener en cuenta los factores humanos a la hora de diseñar y construir los sistemas de información de las organizaciones, con el objetivo de construir sistemas interactivos que tengan en cuenta a sus usuarios.
  • Sistemas de información: define qué son los sistemas de información, profundiza en los distintos tipos de sistemas de información de empresa actuales (ERP, CRM, SCM, BI, KM, …), estudia cómo integrarlos, tanto estructural como informacionalmente, y cómo usar una correcta integración de sistemas de información de empresa para dar soporte a los objetivos estratégicos de una empresa.
  • Seguridad: trata básicamente sobre la problemática de la seguridad en las redes de computadores, y más en concreto en las redes TCP/IP. A parte de identificar las distintas casuísticas con las que nos podemos encontrar, presenta los mecanismos de prevención y técnicas de protección existentes, los sistemas de criptografía utilizados actualmente y estudia distintos mecanismos de detección de intrusos.
  • Comercio electrónico: estudia esta amplia disciplina desde un punto de vista tecnológico. En particular, se tratan los conceptos, terminología básica y estándares del comercio electrónico junto con los aspectos legales que lo regulan. Se tratan también aspectos de seguridad en el comercio electrónico (criptografía, seguridad de la información y sistemas de clave pública) y los sistemas de pago electrónico y copyright electrónico más utilizados hoy en día.
  • Bases de datos: profundiza en el conocimiento de bases de datos obtenido a lo largo del grado para enfocarse al uso de bases de datos en entornos distribuidos. En ese sentido se exploran los principales inconvenientes del modelo de datos relacional en dicho entorno y se presentan algunas de sus alternativas y bajo qué condiciones son más adecuadas. Se entra en más detalle en las alternativas de bases de datos NoSQL, XML y orientadas a objetos.

Dado que en esta especialidad se utilizan de forma intensiva los conceptos de redes de ordenadores, sistemas operativos y bases de datos, se recomienda tener conocimientos básicos de redes de ordenadores (impartidos en las asignaturas de “Estructura de redes de ordenadores” y “Redes”), de sistemas operativos (impartidos en la asignatura de “Sistemas Operativos”) y de bases de datos (impartidos en las asignaturas de “Uso de bases de datos” y “Diseño de bases de datos”). Aunque esta especialización no se enfoca a la programación tan a fondo como en otras, se requieren unos mínimos conocimientos de programación e ingeniería del software. Finalmente destacar que esta especialización requiere un buen conocimiento de inglés, como mínimo a nivel de lectura, ya que algunos de sus materiales están en inglés, como es el caso de los materiales de la asignatura de “Arquitectura de bases de datos”, por ejemplo.

El punto culminante de este itinerario es el Trabajo Final, donde se ponen en práctica todos estos conocimientos. A continuación os dejamos algunos ejemplos de trabajos finales que por temática corresponderían a esta especialización:

  • Visualización y control de un puente de lavado de vehículos mediante un terminal HMI: Este trabajo realiza un análisis para mejorar el control de una máquina de lavado de vehículos haciendo uso de un terminal HMI junto a un autómata. La realización del estudio de usabilidad se ha llevado a cabo siguiendo las etapas del diseño centrado en el usuario, así como la identificación de las ventajas o inconvenientes que pueda aportar este nuevo sistema.
  • Virtualización y Cloud Computing en la Pyme: Se introduce a las pequeñas y medianas empresas en el mundo de la virtualización y el cloud computing. Partiendo de la presentación de ambas tecnologías, se recorren las diferentes fases por las que atraviesa un proyecto tecnológico consistente en la instalación de una plataforma virtualizada que alberga los sistemas informáticos básicos en una PYME.
  • Arquitectura técnica, Innovaciones y beneficios de Exadata: Este trabajo describe las características técnicas de Exadata, identificando las mejoras obtenidas con dicho sistema en rendimiento y escalabilidad . Adicionalmente, se resumen las características de otros appliances para bases de datos y se comparan con Exadata.
  • Análisis de logs con soluciones Big Data e integración con BI corporativo: Este trabajo evalúa la solución de Big Data Hadoop como alternativa de almacenamiento y procesado de elevados volúmenes de datos. Se identifican sus ventajas e inconvenientes en comparación a modelos relacionales tradicionales en un Enterprise Data Warehouse (EDW) y se indica cómo integrar Hadoop con las herramientas de visualización típicas de las suites de Business Intelligence.

Resumiendo, profesionalmente el ámbito de las TI es rico, variado, dinámico y de alta importancia para las organizaciones. Un experto en TI debe dominar las tecnologías y herramientas de las diferentes disciplinas existentes que conforman los sistemas de información actuales: sistemas operativos, redes, bases de datos, seguridad, sistemas de información empresariales y comercio electrónico. Su objetivo es aplicar y mantener dichas tecnologías y herramientas de la mejor manera posible para satisfacer las necesidades de una organización. Bajo ese prisma hay multitud de roles profesionales que puede ejecutar un experto en TI, algunos de los cuales son: consultor de TI, arquitecto de redes, administrador de sistemas operativos, administrador de bases de datos, administrador de redes, informático forense, etc.

Publicado en Docencia, UOC | Etiquetado , , | 3 comentarios

¿Qué significa ser una empresa orientada al dato? (y II)

En la primera parte de esta entrada, me refería a las empresas que han convertido los datos en un aspecto central de su estrategia de negocio. Como decía allí, y como reza el título, quiero hablar de esta pregunta y no de Big Data. Los “grandes datos” son una de las múltiples estrategias, pero no la única, para la explotación del dato y su transformación en información inteligente para tomar decisiones.

Betsy Weber. Flickr

Fuente: Betsy Weber @ Flickr – Licencia: CC BY 2.0

Esta es, desde mi humilde punto de vista, la pregunta clave que debe hacerse toda organización: ¿cómo convertirse en una empresa orientada al dato?

Es lícito poner en duda si vale la pena transformarse, puesto que ya sabemos que todo lo que incluye una transformación organizacional supone un reto importante en una organización. Según Brynjolfsson, Hitt y Kim, de todas las tecnologías existentes, las empresas deben apostar por aquéllas vinculadas con el análisis de la información. También apuntan que aquellas compañías que usan análisis basado en datos en lugar de la intuición tienen una productividad y unos beneficios de un 5% a 6% más altos que sus competidores. No es la primera vez que nos referimos a su investigación académica (ver aquí, aquí y aquí) puesto que analizar el impacto de las TI en el negocio tiene largo recorrido.

Ser más productivos y crear mayores beneficios son buenos incentivos para iniciar esta transformación. De manera que, como es posible imaginar, este tipo de estrategia ha ido calando en las organizaciones. De hecho, en 2013 se ha observando un aumento del uso de la toma de decisiones fundamentada en los hechos como apunta otro interesante artículo de Brynjolfsson y otros. Estos resultados parecen confirmar que sí, que vale la pena hacer el esfuerzo.

Ahora que la idea está vendida, pasemos al siguiente punto: ¿En qué consiste? ¿Qué significa una empresa orientada al dato? La definición, a priori, puede parecer sencilla: es una empresa que fundamenta su toma de decisiones en datos y hechos. Como a veces pasa con algunas definiciones, ésta encapsula las capacidades necesarias para la transformación:

  1. En primer lugar, la organización debe ser capaz de identificar, combinar y gestionar múltiples fuentes de datos.
  2. En segundo lugar, la organización debe ser capaz de construir modelos de análisis avanzado para predecir y optimizar sus resultados.
  3. Tercero, y no por ello menos importante, debe poseer la capacidad de transformar la organización para que los datos y los modelos realmente deriven en mejores decisiones.

Los dos primeros puntos están relacionados con los conocimientos y capacidades tecnológicas y analíticas de la organización y de su madurez y habilidad en el despliegue de las mismas. El tercero entraña una mayor dificultad, puesto supone un cambio de actitud (en toda la organización), la creación de nuevos hábitos (vinculados con el uso de la analítica) y la generación de nuevos conocimientos (para transformar al trabajador de la información en un trabajador analítico).

Generar las capacidades anteriores no es un proceso sencillo ni rápido. Tampoco es un proceso lineal, de manera que incluso se puede llegar a retroceder, pensemos en escenarios como la compra de otra empresa y la necesidad de integrar todos los sistemas de información. Esto es en definitiva un shock para la organización tanto para la que compra como para la que es comprada.  Revisar algunos de los caminos existentes que llevan a convertirse en una organización orientada al dato y cómo generar una nueva cultura será el objetivo de siguientes artículos en este blog.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Publicado en Business Intelligence | Etiquetado , , | 1 comentario