Finalistas de los Premios UOC-RMF a los mejores trabajos finales

Este mes de febrero os hablamos con mucha ilusión del acto académico para premiar al mejor Trabajo Final realizado en los Estudios de Informática, Multimedia y Telecomunicación (EIMT). En breve, realizaremos un nuevo acto académico con el mismo objetivo, pero con importantes novedades en esta nueva etapa.

En esta ocasión, tenemos el privilegio de contar con un patrocinador de excepción: la Fundación Ramon Molinas (RMF). RMF nace como fundación para garantizar el legado del empresario Ramon Molinas Belza (1940-2012) y su interés por promover la formación en TIC entre los jóvenes. Así pues, la misión de RMF es ser referente “en los ámbitos de la integración social e innovación tecnológica y científica”. Como parte de esta misión, RMF colabora con la UOC ofreciendo becas a estudiantes del ámbito tecnológico y una importante dotación económica para los Premios UOC-RMF al mejor Trabajo Final.

Nube de tags de algunos de los trabajos destacados.

Nube de tags con las palabras clave de Trabajos Finales de nuestros Estudios.

La bases de los Premios UOC-RMF al mejor trabajo final son las siguientes:

  • Pueden participar todos los estudiantes con un trabajo final presentado en los EIMT durante el curso académico 2013-2014 (otoño 2013 y primavera 2014).
  • Hay un tribunal de 7 miembros que evalúa los trabajos Finales, formado por 2 profesores UOC, 1 representante de la Fundación y 4 representantes de empresa (2 propuestos por RMF y otros dos por UOC).
  • Hay tres premios, con una remuneración de 5.000€, 3.000€ y 2.000€ respectivamente. Los premios pueden quedar desiertos a criterio del tribunal.
  • El proceso de selección de las candidaturas se realiza en 3 fases:
    • Preselección: El profesorado de los EIMT ha filtrado los 25 mejores trabajos, después de valorar el producto desarrollado, la memoria y la presentación. Cada trabajo ha sido valorado por 2 profesores diferentes.
    • Finalistas: El tribunal ha valorado los 25 mejores trabajos para elegir entre ellos a 6 trabajos finalistas.
    • Premiados: Los 6 finalistas presentarán su trabajo ante el tribunal en un acto presencial el día 20 de noviembre en Barcelona (CosmoCaixa). Al final del acto, el tribunal anunciará los trabajos premiados.

Estas últimas semanas hemos estado ocupados haciendo la preselección y la elección de los finalistas. Hemos recibido 117 candidaturas con un gran nivel de calidad técnica. De entre ellos, hemos seleccionado los 25 mejores y posteriormente los 6 finalistas con ayuda del tribunal. Este tribunal evaluador de los trabajos está formado por:

  • Jordi Castells (Director de Informática en Bodegues Torres)
  • Josep Rof (Director de Tecnologia en Aqualogic)
  • Josep Dueso (Patrón vocal de la Fundación Ramón Molinas)
  • Josep Lluís Juanhuix (Socio Director de Nextret)
  • Domingo Olmos (Degano del Colegio Oficial de Ingeniería Informática de Cataluña – COEINF)
  • Antoni Pérez (Coordinador de Posgrado de los Estudios de Informática, Multimedia y Telecomunicación de la UOC)
  • David Masip (Director del Programa de Doctorado en Tecnologías de la Información y redes de la UOC)

Una vez concluida la selección, ya os podemos anunciar los nombres de los 6 finalistas que presentarán sus trabajos en la jornada del 20 de noviembre:

Aprovechamos la oportunidad para invitaros al acto de defensa de los trabajos y entrega de premios, que tendrá lugar el 20 de noviembre en Barcelona (CosmoCaixa, Sala Ágora). El acto está abierto a toda la comunidad UOC, pero debido a la capacidad limitada de la sala es necesario inscribirse previamente. Podéis encontrar el enlace de inscripción aquí.

Deseamos mucha suerte a todos los finalistas y esperamos que podáis acompañarnos en esta jornada. ¡Nos vemos allí!

Publicado en Docencia, UOC | Etiquetado , , | 1 comentario

Tecnologías disruptivas para la próxima década

Hacer una predicción sobre tecnología a largo plazo es un deporte de riesgo. Sólo hace falta fijarse en los éxitos y los fracasos de los pobres meteorólogos. O los nuestros, dado que en este blog también nos la hemos jugado haciendo predicciones.

Sin embargo, aún queda un puñado de valientes que se atreve a sacar la bola de cristal y lanzar sus predicciones. En este caso, ha sido el IEEE Computer Society, la rama informática del IEEE (Institute of Electrical and Electronics Engineers), quien ha preparado un informe que pronostica las 23 tecnologías que serán más relevantes de aquí a 2022.

Galileo enseñando al dux de Venecia el uso del telescopio. Fresco de Giuseppe Bertini (1825–1898). Dominio público.

Galileo enseñando al dux de Venecia el uso del telescopio. Fresco de Giuseppe Bertini (1825–1898). Dominio público.

El escenario que plantea este informe resulta en mi opinión muy verosímil: no se esperan superinteligencias cibernéticas que cambien el mundo o tecnologías que permitan manipular la realidad física con el simple pensamiento. Sólo se plantean mejoras incrementales respecto al estado del arte actual, planteamiento que da verosimilitud a las predicciones. A continuación resumimos los 23 campos donde se prevén avances destacados, agrupados por ámbito temático:

  • Conocimiento abierto: Software y cultura libre, MOOCs (Massively Online Open Courses)
  • Tecnologías de base: Fotónica, Nanotecnología, Circuitos integrados 3D, Memorias universales, Impresión 3D
  • Capacidad de cálculo: Multicore, HPC (High-Performance Computing), Cloud Computing, Computación cuántica
  • Conectividad: Redes, SDN (Software-Defined Networks), Internet of things
  • Sistemas inteligentesBig dataanalytics, Aprendizaje computacional, Visión por computador y reconocimiento de patrones
  • Perspectiva humana: Interfaces de usuario naturales, Seguridad
  • Calidad de vida: Ciencias de la vida, Bioinformática, Robótica médica, Sostenibilidad

Hay una tecnología que me hubiera gustado ver en esta lista… pero parece que no ha podido ser. Se trata de dispositivos que adapten su forma y su interfaz (física) según la aplicación a ejecutar, las condiciones disponibles y las necesidades del usuario. Estoy algo cansado de poseer múltiples dispositivos (smartphone, phablet, tablet, netbook, etc.) cuyas diferencias pueden resumirse en la interfaz de acceso (táctil, teclado, número y posición de los botones) y el tamaño de la pantalla (y de rebote, su peso). El resto (memoria, procesador, batería, altavoces, micrófono, cámara, ….) podría ser perfectamente intercambiable entre diferentes dispositivos. Y no estoy hablando de un dispositivo modular, al estilo del Project Ara de Google, sino de un dispositivo capaz de adaptar dinámicamente el tamaño de su pantalla al espacio disponible.

Vale, se me ha ido un poco la olla y estoy pidiendo algo que entra casi en el terreno de la ciencia ficción. Pero no soy el único que ha pensado en ello: mirad por ejemplo un vídeo de Samsung planteando las posibilidades de esta tecnología o una charla TEDx sobre el tema. Y ya existen algunas piezas de las tecnologías necesarias para conseguir esto: dispositivos que cambian de forma autónomamente y botones que aparecen o desaparecen según nuestras necesidades.

Sin embargo, una parte de mí (la más cínica) me dice que el principal problema no es la tecnología sino el negocio. Con un dispositivo de este tipo… ¿cómo podría convencerte un fabricante que necesitas comprarte otro dispositivo distinto? Porque ahora que cuesta más vender a golpe de megabyte o de megapixel, el tamaño de la pantalla es uno de los principales argumentos de venta.

Aunque echéis de menos vuestra manía particular (¿ninguna mejora destacable en el ámbito de la informática lúdica?), os recomendamos leer el informe completo para contemplar cómo es la foto de 2022 que nos plantean. A mí no desagrada en absoluto.

Publicado en Profesión, Recurso | Etiquetado , , | 2 comentarios

“Data driven”: la gran transformación

En un par de entradas del mes pasado (aquí y aquí) reflexionaba sobre qué significa ser una empresa orientada al dato, lo que en inglés se denomina data-driven organization. Y comentaba que el proceso de transformación no es precisamente sencillo: se trata de una transformación de profundo calado (¿una revolución cultural?) que afecta a la organización desde múltiples puntos de vista.

Gráfica: Braekeleer. Furia de los franceses en Antwerp (Dominio Público)

Gráfica: Braekeleer. Furia de los franceses en Antwerp (Dominio Público)

Para empezar, el dato está llamado a convertirse en un activo crítico. Ya no es suficiente con considerar políticas de digitalización y almacenamiento de procesos de negocio; sino que es necesario desplegar políticas de gestión del dato enfocadas a su explotación y también  a su protección, un punto que recientemente con las fugas de información en empresas como Target o eBay es un tema candente.

Hay que considerar también la tecnología. Es necesario conocer lo que existe, sus casos de uso, los límites, los proveedores y tener claro el proceso de implementación. Pero no nos engañemos: el punto de partida debe ser siempre el negocio — qué necesita y qué debemos conseguir.

Si centramos nuestra estrategia sólo en los dos puntos anteriores estamos condenados al fracaso. No sólo se trata de implementar proyectos de Business Intelligence (BI), Business Analytics (BA) o Big Data, sino de establecer una nueva forma de tomar decisiones en cualquier situación. Como ya comentaba Carly Fiorina, CEO (primera ejecutiva) de HP del 1999 al 2005:

“La tecnología no es la parte más complicada del problema. Probablemente la gestión del cambio es la parte más complicada del problema”.

Y probablemente nuestra organización tiene un bagaje emocional de anteriores proyectos TI que puede influenciar este proceso de transformación. Es decir, el resultado y lo que pasó en anteriores proyectos de TI (confusión, problemas de calidad y tiempo, falta de uso…) probablemente haya creado barreras importantes a vencer. A estas deben sumarse otras como califatos de poder, poca trasparencia,… y la propia resistencia de las personas al cambio (nos gusta estar en nuestra zona de confort.)

En definitiva, no se trata de imponer una nueva cultura del dato por la fuerza, lejos deberían quedar las revoluciones sangrientas. Es necesario establecer un entorno de colaboración, información, comunicación y educación que posibilite la germinación de la cultura que buscamos desarrollar. Llamamos a todo eso la gestión del cambio en los proyectos de BI, a la que dedicaremos una entrada pronto.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

Publicado en Business Intelligence, Dirección de las TIC, Profesión, Sistemas de información | Etiquetado , , , , | 1 comentario

Gobierno Corporativo de IT: un Manifiesto, una revista y una mesa redonda

Gobierno corporativo de la IT quiere decir más o menos que para obtener el máximo rendimiento de las TIC hace falta una gestión compartida entre los “tecnólogos”(particularmente, el primer directivo de sistemas o CIO), los líderes funcionales y de las unidades de negocio (particularmente, el primer ejecutivo o CEO) y los propios usuarios. Y al revés: que la falta de este gobierno es probablemente la mayor barrera para la adopción y aprovechamiento inteligente de la informática y para la transformación digital de la sociedad y los negocios.

En la actualidad, es también una parte de la responsabilidad social corporativa y del cumplimiento de las normas de transparencia que deben seguir las empresas, en especial las cotizadas, y también las organizaciones públicas. O sea, tiene que ver con performance conformance. Y, como veremos en seguida, aspira a ir aún más allá.

Esto quiere decir un conjunto de mecanismos de toma de decisiones, procesos de trabajo, estructuras y relaciones. Hay decisiones sobre la informática que no pueden adoptar los informáticos y hay que establecer un marco de trabajo que permita a los informáticos hacer su cometido de la mejor manera posible. Hemos hablado de ésto por aquí algunas veces, incluso escribimos hace un tiempo un medio decálogo.

Ahora, el iTTi (Information Technology Trends Institute), que lidera Miguel García-Menéndez (colega y, sin embargo, amigo) y su comunidad de investigadores y practicantes (la mayoría CIOs en ejercicio), acaban de publicar o provocar un Manifesto of Corporate Governance of Information Technologypara el que piden diseminación, discusión, sugerencias, mejoras y, naturalmente, adhesiones. Os invito a visitarlo, discutirlo y, si es el caso, firmarlo.

"Manifesto on Corporate Governance of Information Technology"

“Manifesto on Corporate Governance of Information Technology” (c) iTTi

La revista Novática, órgano de la mayor organización de ingenieros y practicantes de la informática, ATI, publicará en las próximas semanas un número monográfico dedicado precisamente a este “gobierno corporativo” de las TIC (van por el número 229, esto es una especie de milagro, ¡enhorabuena!).  Novática, ATI y el iTTi son buenos amigos de nuestros Estudios y esperamos pronto ampliar el ámbito de estas colaboraciones.

Con estos motivos o excusas, que nunca están de más, se han organizado dos mesas redondas, una en Madrid y otra en Barcelona, con participación de autores del manifiesto, escritores del monográfico de la revista y otros expertos. La de Barcelona es el próximo día 28 de octubre, martes, en la sede de la UOC en la Avenida del Tibidabo. La de Madrid es el próximo día 3 de noviembre, lunes, en la sede del Instituto de Empresa en la calle María de Molina. Si queréis estar presentes, os animo a inscribiros en esta dirección. Y si queréis la información del acto, la tenéis en este enlace.

Es bonito leer en el Manifiesto que ésto del gobierno corporativo va más allá de los consejos de administración y los comités de dirección de las empresas; y también más allá de la informática y de los informáticos;  y que reclama derechos y deberes de los profesionales, las empresas, los gobiernos y los ciudadanos. Todos los interesados, dice el punto 13 (doce más uno) del documento afirma que todos los interesados deberán:

  • tener acceso a información completa y confiable y ser conscientes de sus implicaciones;
  • desarrollar habilidades y conocimientos adecuados en materia de gobierno corporativo y gestión digital (esto del “empoderamiento” o potenciación digital, que reclama nuestra colega Montse Guitert en su Máster, que aprovecho para publicitar);
  • asumir las acciones, roles y actitudes que conduzcan a obtener un mundo digital sostenible, eficiente, seguro y amable.

Y todo eso es bueno, justo y necesario.

Publicado en Coloquio, Dirección de las TIC, Profesión, Sistemas de información | Etiquetado , , , , | 2 comentarios

Reconocimiento internacional del laboratorio EIMT-UOC (II): Laboratorio Remoto

Retomamos la presentación de los laboratorios de los Estudios de Informática, Multimedia y Telecomunicación. Después de presentar el “Laboratorio en Casa” en una entrada anterior, hablamos ahora sobre el “Laboratorio Remoto”.

Esta tipología de laboratorio tiene en cuenta algunas consideraciones especiales.

  • En primer lugar, todos los recursos utilizados por los estudiantes están físicamente ubicados en las instalaciones de la propia Universidad, por lo tanto todos los recursos son accedidos de una manera remota utilizando Internet, ya sea por protocolos TCP/IP directamente, o por medio de la interfaz de diferentes softwares específicos; en todo caso, siempre sin existir ningún tipo de acceso físico entre el estudiante y los recursos del laboratorio.
  • En segundo lugar, algunos equipamientos electrónicos especializados tienen una limitación temporal dado que sólo pueden ser accedidos por un estudiante a la vez y son compartidos entre ellos (p. ej. generadores de señal), por eso es necesario controlar su acceso utilizando un sistema de reservas o colas.
  • En tercer lugar, experimentos relacionados con HPC (High Performance Computing o Computación de Altas Prestaciones) tienen también una limitación de número de recursos, o exclusividad, que puede limitar la concurrencia, por eso, en este caso, se utiliza un sistema de colas de ejecución, cuando los servidores son accedidos para la realización de los diferentes trabajos de computación de los estudiantes.
  • Finalmente, se tienen que tener en cuenta dos consideraciones más, por un lado la usabilidad del laboratorio y, por la otra, como tiene que ser llevada a cabo la experimentación práctica para adquirir las competencias prácticas utilizando este tipo de laboratorio.

Una vez descrito el Laboratorio Remoto, se presentan algunos casos de uso de aquellos experimentos prácticos que pueden ser llevados a término usando hardware y software. Para empezar, se muestra como se utiliza el hardware en diferentes áreas de conocimiento.

  • Generación y medida de señal. Se pueden llevar a cabo experimentos relacionados con la generación y medida de señales utilizando equipamiento complejo de laboratorio que podría ser encontrado en cualquier laboratorio de electrónica y/o comunicaciones, con la característica principal de ser accesible remotamente. Algunos de estos dispositivos son, por ejemplo: generador arbitrario de señal, osciloscopio digital o analizador vectorial de señal (Figura 3).
Figura 3 - Equipamiento para la generación y medida de señal en el Laboratorio Remoto

Figura 3 – Equipamiento para la generación y medida de señal en el Laboratorio Remoto

  • Electrónica analógica. Estos experimentos están destinados a montar diferente tipo de circuitos electrónicos. Para hacerlo se dispone de matrices de conmutación que permiten que diferentes componentes electrónicos, dispositivos de generación y medida de señal se puedan combinar entre sí. Esta sería una manera original de permitir a los estudiantes montar sus propios circuitos electrónicos en educación en línea.
  • Electrónica digital. Experimentos de electrónica digital son llevados a cabo utilizando placas con FPGA reales en las que los estudiantes cargan su código VHDL para probarlo. Estos experimentos utilizan una placa FPGA de National Instruments junto con el software LabVIEW, que permite crear una interfaz para controlar el código VHDL cargado.
  • Sistemas de comunicación. Estos experimentos están destinados a que los estudiantes puedan practicar diferentes conceptos de Ingeniería de Telecomunicación. Se dispone de una variedad de dispositivos con diferentes objetivos: i) NI Elvis II+ utilizado junto con Emona DATEx y Emona FOTEx para llevar a cabo experimentos de sistemas de comunicaciones (Figura 4) y de fibra   óptica , ii) USRP 2920 bundle disponible para la práctica compleja con protocolos de radiocomunicaciones y transmisión de señales, iii) Tablets y smartphones utilizados por los estudiantes para la carga de sus aplicaciones en dispositivos reales. Además, el uso de matrices de conmutación mejora la flexibilidad de los experimentos (experimentación del estudiante) y facilita la gestión del laboratorio (preparación de experimentos).
Figura 4 - Ejemplo de montaje para la experimentación de sistemas de comunicación usando NI Elvis II+, Emona DATEx y una matriz de conmutación de Agilent Technologies

Figura 4 – Ejemplo de montaje para la experimentación de sistemas de comunicación usando NI Elvis II+, Emona DATEx y una matriz de conmutación de Agilent Technologies

  • Configuración de redes (switchs y routers). Una topología de red, exclusivamente formada por switches y routers Cisco está disponible para llevar a cabo experimentos de configuración de los dispositivos. Los estudiantes se conectan utilizando un navegador web y un software de protocolos Telnet/SSH para configurar los dispositivos reales.

Llegados a este punto, por último, se presenta la experimentación en el Laboratorio Remoto usando software en las siguientes áreas de conocimiento:

  • Servidores web. Los estudiantes disponen de acceso a servicios Cloud de Amazon, de forma que se los provee de máquinas virtuales (VMs) donde experimentar. Cada estudiante accede a una VM de Amazon y la tiene que configurar según unos parámetros definidos con el objetivo de alojar páginas web de e-commerce y una serie de servicios de red social.
  • Redes y seguridad de ordenadores. Los estudiantes pueden practicar métodos de ataque conectándose remotamente a diferentes VMs que forman un entorno de pruebas. Así, pueden entrar en ellas y hacer diferentes tipos de experimentos y comprobaciones de seguridad: i) vulnerabilidades de Apache, ii) vulnerabilidades de Windows , iii) vulnerabilidad en páginas web con XSS, SQLinjection, blind SQLinjection y Path Transversal, e iv) utilizar Honeypot para el estudio de técnicas implementadas dentro de algún malware.
  • Sistemas distribuidos: protocolos y aplicaciones. Los estudiantes y los investigadores de la UOC utilizan la red global de ordenadores PlanetLab para probar protocolos de red y técnicas experimentales sobre sistemas distribuidos (Figura 5), y así disponer de acceso por parte de las aplicaciones de estudiantes a un entorno real distribuido de forma tanto geográfica como heterogénea.
Figura 5 - Estructura del banco de pruebas de PlanetLab@UOC

Figura 5 – Estructura del banco de pruebas de PlanetLab@UOC

  • Matemáticas. Los estudiantes de matemáticas necesitan practicar con diferentes tipos de ejercicios para adquirir las habilidades requeridas. En una situación ideal, los ejercicios necesarios para adquirir todas las competencias tendrían que ser personalizados por un tutor según el trabajo llevado a cabo por el estudiante en clase. Nuestra iniciativa tiene como objetivo simular el papel de un tutor remoto mediante la creación de ejercicios personalizados, su corrección y el feedback a los estudiantes con aquello que está mal en su resolución.

Carlos Monzo es doctor por la Universidad Ramon Llull en Ingeniería de Telecomunicación. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el responsable del Laboratorio de Telecomunicación.

Publicado en Docencia, Recurso, Redes, UOC | Etiquetado , , , , , , | Deja un comentario

Reconocimiento internacional del laboratorio EIMT-UOC: Laboratorio en Casa

El pasado día 1 de setiembre de 2014 el laboratorio virtual de los Estudios de Informática, Multimedia y Telecomunicación recibió el galardón de iniciativa “Highly Commended” dentro de la categoría “Virtual Laboratory – Teaching and Learning”. Esta distinción, entregada por el organismo S-LAB (Safe, Successful and Sustainable Laboratories), reconoció las buenas prácticas y la innovación llevadas por la UOC para la creación y uso de laboratorios destinados a la experimentación práctica en educación en línea.

S-Lab es un organismo que tiene como objetivo el de crear laboratorios más sostenibles, aumentando la conciencia de sostenibilidad tanto entre el personal de usuarios de los laboratorios así como de los estudiantes. S-Lab, actualmente ligado al Institute of Science and Technology, nació como un proyecto del Higher Education Environmental Performance Improvement (HEEPI) en el Reino Unido. Inicialmente su principal financiación provino de las cuatro grandes organizaciones de educación superior en UK, aunque actualmente tiene capacidad de autofinanciación: HEFCE, HEFCW, SFC y DELNI.

La experimentación práctica permite a los estudiantes la adquisición de las competencias prácticas requeridas en las titulaciones tecnológicas. Dado esto, los Estudios de Informática, Multimedia y Telecomunicación (EIMT) de la Universitat Oberta de Catalunya (UOC), Universidad de educación a distancia basada en Internet, están trabajando en el desarrollo tanto de actividades prácticas de laboratorio como en la creación de toda la infraestructura necesaria para hacerlas posibles. Este laboratorio tiene una disponibilidad 24×7 los 365 días del año y está destinado a cubrir las necesidades de experimentación tanto con hardware como con software en el contexto de la educación en línea de la Ingeniería Informática, la Multimedia y la Ingeniería de Telecomunicación. Este laboratorio permite que los estudiantes puedan trabajar en varios ámbitos, como por ejemplo lenguajes de programación, administración de sistemas, administración de base de datos, la generación y medida de señales, electrónica analógica y digital, procesamiento de señal y sistemas de telecomunicación, entre otros.

Este laboratorio consta de una doble tipología en función de cómo se accede a los recursos, es decir localmente, en aquella donde los recursos están disponibles directamente en la casa de los estudiantes, o remotamente mediante el acceso a Internet, cuando los recursos se encuentran en las instalaciones de la propia Universidad y el estudiante no tiene acceso físico a ellos: “Laboratorio en Casa” y “Laboratorio Remoto“, respectivamente.

Las dos tipologías de laboratorio permiten que los recursos de laboratorio sean un recurso más del aula UOC, como son los apuntes en papel, digitales o en multiformatos varios, además de vídeos u otros recursos multimedia. En cuanto a su acceso, la tipología de Laboratorio en Casa permite que los estudiantes hagan uso de los recursos en el preciso momento que los necesitan. Por otro lado, el Laboratorio Remoto es accedido mediante un sistema de reservas o un sistema de colas ya que los recursos disponibles están compartidos entre estudiantes, asignaturas y titulaciones. Gracias al uso de esta variabilidad en el acceso, el laboratorio tiene una disponibilidad de 24×7 los 365 días al año.

A continuación detallaremos la primera tipología de laboratorios, los laboratorios en casa, y presentaremos diferentes áreas de conocimiento sobre las cuales, a modo de casos de uso ejemplificativos, se han llevado a cabo diferentes innovaciones docentes y metodológicas.

En los laboratorios en casa los estudiantes tienen todos los recursos necesarios a su alcance, puesto que estos son enviados a su domicilio al inicio del curso después de la formalización de la matrícula. Estos recursos pueden ser hardware real y software, así que los estudiantes pueden utilizar equipamiento electrónico y software cuando los necesitan durante el estudio, pudiendo combinar recursos experimentales junto con un libro de texto u otros recursos multimedia durante su proceso de aprendizaje.

A continuación se presentan diferentes áreas de conocimiento donde hardware y/o software son utilizados, presentando en cada momento el objetivo principal de uso de cada tipo de recurso.

Para empezar se presentarán aquellas áreas donde el hardware juega un papel importante, para pasar posteriormente a presentar aquellas áreas basadas en el uso de software.

  • Electrónica analógica. Experimentos relacionados con la electrónica analógica pueden realizarse gracias al uso del sistema electrónico Lab@Home junto con el resto de kit de prácticas (Figura 1) compuesto a su vez por un multímetro digital y componentes electrónicos (p. ej. condensadores, transistores, etc.), y elementos para la experimentación (p. ej. cables). Lab@Home se trata de un sistema electrónico desarrollado por la UOC, del que se ha derivado un modelo de utilidad, para el aprendizaje de conceptos de electrónica en las titulaciones de Ingeniería de Telecomunicación.
Figura1- Ejemplo completo del kit de electrónica analógica: Lab@Hombre, componentes y multímetro

Figura1- Ejemplo completo del kit de electrónica analógica: Lab@Hombre, componentes y multímetro

  • Diseño de interacción, interacción persona-ordenador y usabilidad. Los experimentos se llevan a cabo mediante el uso de placas de tipo Arduino y el desarrollo de aplicaciones en Processing. Se envía al estudiante un Starter Kit de Arduino destinado a que los estudiantes puedan realizar nuevos prototipos y formas de interacción entre el ordenador, la red y el mundo tangible.
  • Sistemas embedded. Los estudiantes pueden llevar a cabo experimentos sobre sistemas empotrados (embedded) utilizando Arp@Lab, un laboratorio práctico desarrollado en la UOC para que los estudiantes exploren sistemas embedded y redes de sensores inalámbricas (WSNs) desde un punto de vista experimental.

Llegados a este punto, una vez que se ha presentado el uso de hardware en los experimentos para el Laboratorio en Casa, pasaremos a mostrar el papel que tiene el software en la experimentación de diferentes áreas de conocimiento. Estos experimentos utilizan software tanto comercial como no comercial, orientados a dar servicio en áreas de conocimiento como las que encontramos a continuación:

  • Procesamiento de señal, electrónica y comunicaciones. En este campo de conocimiento se utiliza una variedad de software para la realización de diferentes experimentos. MATLAB es uno de los softwares más utilizados en el área de procesamiento de señal y experimentos de comunicaciones. Otro software importante, extendido dentro de la industria, es Agilent ADS, utilizado en aplicaciones de microondas. Además, otros softwares utilizados son el PSPICE para la simulación de electrónica analógica, Quartus II para desarrollos de electrónica digital u Opnet para la experimentación en redes de comunicaciones.
  • Producción de audio. Experimentos de producción de audio son realizados mediante una mesa de mezclas virtual. Esta mesa de mezclas virtual es un recurso digital que simula un entorno profesional de grabación y la mesa de mezclas de audio correspondiente, reproduciendo una vista 3D una mesa de mezclas real del mercado (Figura 2).
Figura 2 - Mesa de mezclas real (izquierda) y virtual (derecha)

Figura 2 – Mesa de mezclas real (izquierda) y virtual (derecha)

  • Diseño de circuitos digitales. Los estudiantes utilizan el software de la UOC denominado VerilUOC, una plataforma de auto-estudio para aprender, y desarrollar competencias de diseño de circuitos.

Seguiremos en otra entrada presentando los laboratorios remotos.

Carlos Monzo es doctor por la Universidad Ramon Llull en Ingeniería de Telecomunicación. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el responsable del Laboratorio de Telecomunicación.

Publicado en Docencia, Recurso, UOC | Etiquetado , , , , , , | 2 comentarios

El Museo del Videojuego de Berlín

No hace mucho pude visitar Berlín y encontrar un hueco para ver algunos museos. Uno de los que primero me llamó la atención por su nombre fue el DDR Museum. Aunque ya de entrada me parecía demasiado extraño, no pude evitar una cierta desilusión al ver que no era exactamente sobre lo primero que me había venido a la cabeza, sino que se refería a la antigua Deutsche Demokratische Republik, o República Democrática (por así decirlo) Alemana. Esto de las iniciales es lo que tiene, Según el contexto varía el significado, como cuando a mi profesora de redes el dentista le dijo que tenía problemas en la ATM.

Afortunadamente, la desilusión duró poco, pues más tarde pude descubrir que en la calle Karl Marx de Berlín está el Computerspielemuseum, o museo del videojuego. Está claro que me faltó tiempo para dirigirme directo hacia allí. En una esquina de un edificio gigantesco se encuentra su entrada, no demasiado visible a simple vista. Eso sí, a pesar del tamaño del edificio, el espacio dedicado al museo es más bien chiquitín, pero suficiente para satisfacer al visitante.

Lo primero que uno encuentra no es ni un videojuego ni hardware, pero ya deja clara la filosofía del museo: satisfacer a los amantes de lo antiguo y el vintage, y sobretodo, los amantes de los orígenes de los videojuegos. Se trata de una edición original de la White Box de Dragones & Mazmorras. ¿Aplica a un museo de videojuegos unos libros que nada tienen que ver con la informática? Que cada uno decida, pero a mi me pareció perfecto.

Inmediatamente después se puede observar la correspondiente colección de ordenadores y consolas, partiendo de los inicios antediluvianos de los videojuegos y siguiendo su evolución a lo largo de 60 años de historia. Un repaso detallado de ordenadores o consolas, uno por uno. La colección no está a la última, no hay una Playstation 4, pero allí están los míticos ordenadores de 8 bits, las distintas consolas de sobremesa o portátiles, un Amiga 500 e incluso un Apple firmado por Wozniak. Una zona que cumple todas las expectativas mínimas de lo que se espera de un museo de estas características y dónde la frase más escuchada viene a ser “¡Este lo tenía yo!” mientras se señala con el dedo.

Mis amigos los 8 bits. Imagen cedida por el autor de la entrada.

Mis amigos los 8 bits. Imagen cedida por el autor de la entrada.

Después, ya vienen distintos expositores y monitores donde se repasan distintos aspectos de los videojuegos: su desarrollo, compañías importantes, distintos tipos, la típica comparativa entre distintos modos de almacenamiento, etc. En la zona central es posible seleccionar entre distintos juegos de ordenador que podríamos llamar “clásicos” y ver su presentación, escuchar su música, y leer una breve explicación. Me sorprendió bastante que una muestra muy importante era de Amiga, como el Defender of the Crown o el Lemmings.

Más allá de los apartados vinculados a mostrar temas históricos, el museo también cuenta con algunos apartados especiales o curiosidades que son interesantes de comentar.

La más popular, y con cola constante, es la zona de arcade, que recrea en un pequeño espacio el ambiente de una antigua sala recreativa, con su musiquita de ambiente machacante, su iluminación de neón, etc. Todas las máquinas recreativas son de uso gratuito, lástima que solo había 5 o 6. La que tenía más éxito con diferencia era un Gauntlet con su correspondiente tablero de cuatro jugadores. Cola para poder pasarte una hora jugando sin parar con otros 3 visitantes, aliados improvisados, ya valía la pena la entrada.

Cerca de la zona arcade, también es posible jugar al Pac Man, versión consola Atari, con un joystick tamaño gigante. No es fácil y cansa lo suyo cuando llevas un rato.

Hay que estar en forma. Imagen cedida por el autor de la entrada.

Hay que estar en forma. Imagen cedida por el autor de la entrada.

Finalmente, quizá lo más curioso del museo es la Painstation que tienen expuesta, y que pueden poner en marcha a petición de los visitantes y bajo su propia responsabilidad. Por defecto, está desactivada. Básicamente, se trata de un pong en el que cada vez que consigues puntuar se castiga físicamente al adversario con quemaduras o electrocución. Pierde el primero que deja los mandos. La verdad es que los carteles de advertencia ya dejan claro de qué va el tema (quemaduras de tercer grado, hemiplegia, hematomas). Hay que decir que en realidad se trata de una obra de arte conceptual, no se diseñó con el propósito explícito de jugar. Yo decidí que, como obra de arte, mejor solo mirarla y ya está.

¿Eres un hardcore gamer? Imagen cedida por el autor.

¿Eres un hardcore gamer? Imagen cedida por el autor.

Antes de marcharme, puede hacer una breve partida al Zork. No me comió una Grue, pero me maté saltando por un barranco… en fin. ¡Ah!, y también cayeron un par de partidas al DDR!!!

¿Quien necesita gráficos? Imagen cedida por el autor.

Joan Arnedo Moreno es profesor de los estudios de Informática, Multimedia y Telecomunicaciones en la UOC. Coordinador de las asignaturas de la rama de seguridad y director académico del postgrado de Cisco Networking Technologies, también cuenta con más de 30 años de experiencia jugando a videojuegos.

Publicado en Historia, Videojuegos | Etiquetado , , | 2 comentarios

Adquisición de competencias en proyectos de Inteligencia de Negocio

En algunos posts de este blog hemos hablado del factor humano y la adquisición de competencias personales y organizativas en los proyectos de Business Intelligence. El tema es más actual ahora en la UOC y en muchas partes con la apertura del curso académico. Nuestro Máster y posgrados de BI y Big Data están en el plazo de matrícula.

Gráfica: Anónimo. Interior of a taylor shop. Dominio público.

Gráfica: Anónimo. Interior of a taylor shop. Dominio público.

Es licito preguntarse por dónde y cómo empezar. Hace unos meses, antes del verano, en uno de los eventos en los que hablé, uno de los asistentes me preguntaba eso mismo. De hecho, su preocupación estaba ligada a los perfiles profesionales necesarios para poder ayudar a negocio a comprender cómo usar de forma correcta la información generada a partir de los datos y modelos. Como os podéis imaginar, este segundo punto da para mucho. En definitiva, su pregunta hace referencia a las competencias analíticas y a la creación de puentes, como dice Davenport, entre quants y non-quants.

Centrémonos de nuevo en nuestra pregunta: cómo empezar. Aquí toca ponerse el traje de consultor y dar una respuesta honesta. El proceso de transformarse en una organización orientada al dato no es único, no va a ser lineal e incluso puede haber regresiones a estados anteriores.

Cada organización tendrá un punto de partida diferente. Y este punto de partida depende de múltiples aspectos: el tipo de estrategia TI (palanca de negocio vs. departamento de soporte), la situación de iniciativas anteriores de Business Intelligence (BI), Business Analytics (BA) o Big Data (en caso de haberlas y de haber sido de éxito o no), de la existencia y rol del centro de competencias (o de excelencia)…

La combinación de estos factores permite empezar a poner los puntos sobre las íes de lo que necesita una organización para empezar. De este tema habla también Thomas H. Davenport en su libro Competing on analytics (que suelo recomendar siempre). Nos dice, a grosso modo, que al final los tres aspectos a evaluar son:

  • El nivel de competencias analíticas y el dominio de soluciones y herramientas.
  • El dominio en la gestión de la información.
  • El alcance (otra vez) de la cultura del dato.

También añade que existen principalmente dos caminos: (1) el camino de la especialización en competencias analíticas primero aplicadas en silos y posteriormente coordinadas en toda la organización y (2) el camino de la excelencia en la gestión de la información primero en silos y a posteriori en forma de gobierno corporativo. Al final ambos caminos hacen referencia a la adquisición y consolidación de competencias en la organización.

Seguiremos.

Josep Curto es colaborador docente del Máster en Inteligencia de Negocio de la UOC. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business IntelligenceBusiness Analytics y Big Data.

Publicado en Business Intelligence, Dirección de las TIC, Gestión de proyectos, Profesión, Sistemas de información, UOC | Etiquetado , , , , | 2 comentarios

Informática polirrítmica (II)

En la entrada anterior, presentábamos esta idea de una informática ambidextra, polirrítmica o de dos velocidades en el ámbito de la gestión de proyectos. Empezar un enfoque “ágil” con algo pequeño con un grupo reducido de desarrolladores y clientes y proveedores de confianza no parecía un gran reto.

Rudolf Nureyev y Margot Fonteyn en La Bayadera. Esta imagen no tiene copyright ni licencia explícita y se presenta con fines educativos para ilustrar el contenido de la entrada.

Rudolf Nureyev y Margot Fonteyn en La Bayadera. Esta imagen no tiene copyright ni licencia explícita y se presenta con fines educativos para ilustrar el contenido de la entrada.

En cambio, cuando se trata de extender esta cultura al conjunto del departamento de IT y al resto de la empresa, la cosa se complica. Para que todo esto funcione, hace falta ir desarrollando:

  • Otro tipo de gobierno de la IT que no mira sólo el ROI; un gobierno más próximo al cliente y quizá más ambiguo y que acepta el riesgo;
  • Una oficina de programa o de portfolio que tiene una visión global de las necesidades y de qué tipo de aproximación emplear, así como de las capacidades que tiene a mano;
  • Una nueva política de aprovisionamiento, que confía en nuevos proveedores más pequeños, especiales y especializados;
  • Un nuevo jefe de proyecto de mente amplia y visión de negocio;
  • Responsables de cliente (interno) que hayan construido confianza, reputación y diálogo directivo y que conozcan y se anticipen a la demanda;
  • Una forma de trabajar más colaborativa también dentro del departamento de informática entre desarrollo y operaciones, lo que algunos llaman DevOps;
  • Una sólida, saneada y respetada arquitectura de empresa, aunque esté basada en componentes acoplados de forma más ligera, replicables y redistribuibles;

Gobernanza y arquitectura son, por lo tanto, probablemente los dos pilares de esta nueva informática “polirrítimica”.

El primer ejecutivo de la informática tiene la oportunidad de liderar o, al menos, acompañar a la dirección general y los responsables de negocio en este proceso, que es inevitable. Si no lo hace él, las cosas pasarán, ya están ocurriendo, igualmente. Simplemente los líderes de negocio más agresivos buscarán alguien que se lo haga o lo harán ellos mismos, con sus recursos o con otros proveedores (lo que ya se llama “informática en la sombra” y que alcanza en muchas empresas hasta el 35% del gasto total en informática). El departamento de informática y el conjunto de la empresa padecerán los viejos problemas de falta de integración, seguridad o confiabilidad, de los que, encima, se culpará a los informáticos; y vuelta a empezar.

Y la danza, en vez de ser graciosa y coordinada, será una danza del infierno.

Publicado en Dirección de las TIC, Gestión de proyectos, Sistemas de información | Etiquetado , , | 1 comentario

Informática polirrítmica (I)

La idea de una informática de dos velocidades aparece por primera vez, salvo error, en un informe del Boston Consulting Group de hace un par de años, aunque se ha popularizado ahora con sendos estudios de McKinsey y Gartner.

La idea es que los departamentos de informática y las empresas en su conjunto necesitan manejar al mismo tiempo dos clases de capacidades: las que le proporcionan músculo, integración y rendimientos confiables; y las que le permiten adaptarse e innovar rápidamente en beneficio de las exigencias del consumidor final y de los departamentos internos más exigentes (sobre todo, desarrollo de producto, marketing y ventas).

A medida que la velocidad, la colaboración con los líderes de negocio y la innovación compartida en una empresa digital son más importantes, las aproximaciones adaptativas y ligeras para la gestión de proyectos (se llamen Lean, Kanban, Agile, Scrum, etc.) ganan terreno a las aproximaciones convencionales basadas en el desarrollo incremental e iterativo. En realidad, la práctica de la mayoría de las empresas muestra una evolución a lo largo de un continuo o, como dicen Mary Messaglio (amiga) y Simon Mingay, de Gartner, una especie de danza donde los bailarines se juntan y se separan, un juego de tiempos y contratiempos (nunca mejor dicho, jeje) que forman una informática polirrítmica, “coordinada y graciosa”.

Poliritmo 2:3 - Fuente: Wikipedia, Licencia:  CC BY-SA 3.0

Poliritmo 2:3 – Fuente: Wikipedia, Licencia: CC BY-SA 3.0

Nota: Haz click sobre la imagen para ver la animación y escuchar el sonido.

(Para una caracterización y análisis inteligente y práctico de todo esto de los métodos, os recomiendo el libro de Wysocki, que sugerimos a nuestros estudiantes de Gestión de Proyectos. Podéis ver también el primer libro de la colección de este blog. Para una comprensión de ritmos, tiempos y velocidades, podéis consultar algún libro de teoría musical, que es algo bastante parecido a las matemáticas, jeje).

Es verdad que en la mayoría de los casos, la gente que hace una clase de proyectos tiene capacidades y hasta maneras de ser distintas de los otros y en muchas organizaciones hasta figuran en una unidad diferente. Estos equipos son multidisciplinares (responsables de desarrollo de producto o servicio al cliente, diseñadores y comunicadores, ergónomos, programadores, expertos en geolocalización o en inteligencia de negocio, …) y frecuentemente asumen los “temas nuevos” (aplicaciones multimedia o desarrollo para móviles).

Cuando se comienza a trabajar así en el desarrollo de proyectos “de IT”, esto no afecta mucho al resto de las líneas de negocio y departamentos de la empresa. O es para bien: sienten más servicio, más cálido y cercano y suelen encontrarse a gusto participando en proyectos cortos y ligeros construidos con éstos métodos.

Además, para empezar, no es necesario tenerlo todo a punto: el reglamento, las líneas del campo de juego y la pelota de competición…; para comenzar basta un entrenador o un árbitro (el que decide qué cosas se hacen de cada manera) , algunos jugadores y una pelota de plástico (!).

La cosa se complica cuando queremos extender esta cultura al resto de la organización de IT y al conjunto de la empresa. Dedicaremos a ésto la segunda parte de la entrada.

Publicado en Dirección de las TIC, General, Gestión de proyectos, Sistemas de información | Etiquetado , , | 2 comentarios