Los productos de TI en la era digital (I)

Mis posts veraniegos sobre el ocaso de la gestión de proyectos, deliberadamente provocadores, se leyeron bastante y se copiaron en las redes. Lectores y colegas no mostraron desacuerdo, pero me pidieron aclaraciones y avenidas de solución: then, what? Como Hamlet, vivo en las preguntas y tengo más dudas que respuestas. Pero voy a intentar en este y otros posts compartir lo poco que sé o que sabemos, a partir de la experiencia y la literatura profesional y científica.

  1. Los proyectos siguen teniendo sentido. Son la mejor, probablemente la única, manera de hacer cosas diferentes de las que hacemos cada día, de poner en tensión la organización para construir cosas nuevas, únicas y transformadoras, que tengan sentido estratégico y económico, rompiendo los silos organizativos. Necesitamos organizaciones orientadas, apasionadas por los proyectos.
  2. Necesitamos también modelos, herramientas y profesionales expertos en proyectos. Podemos pasar de cofradías, burocracias y certificaciones, pero no podemos prescindir de gente con la mano rota de reunir personas y capacidades diferentes y hacer que trabajen juntas para construir puentes, fábricas de coches o productos de software. Ni podemos prescindir de lo que hemos aprendido en casi un siglo de práctica profesional.
  3. Ágil lo cambió casi todo. Ágil, que pronto cumplirá treinta años, ni es ni se pensó como un modelo integrador y sistemático para construir programas y mucho menos para gestionar proyectos, sino como un repositorio de ideas, principios y prácticas inventados por los propios desarrolladores para hacer su trabajo (¡desarrollar software!) más efectivo, valioso y divertido.
  4. Los valores y principios de ágil han impregnado (para bien) la gestión de proyectos, en la informática y en la empresa. Recordemos los cuatro valores y os recomiendo aún más la re-lectura de los 12 principios:
    • La importancia de los individuos y sus interacciones por encima de los procesos y las herramientas;
    • La preminencia del producto (código que funciona y hace lo que tiene que hacer) sobre la documentación exhaustiva;
    • La colaboración y confianza entre clientes y desarrolladores por encima de los concursos, contratos y negociaciones;
    • La aceptación de la incertidumbre y la respuesta a los cambios por encima de la planificación detallada.
  5. Ágil funciona. Hoy tenemos suficiente evidencia, en la informática y en la empresa, para aceptar que “ágil” no sólo no es una moda, sino que proporciona mejores resultados y usuarios y equipos más satisfechos, sin poner en riesgo la estabilidad ni aumentar los costes. Y el efecto es ubicuo: hoy es o se reclama ágil hasta lo que no lo es y ya nada será como antes. Ágil o, al menos, muchas de sus ideas, herramientas y maneras, es el modo de producción de software elegido por defecto en muchas empresas.
  6. Y entonces llegó Lean. En realidad llegó casi al mismo tiempo, como una subcultura, una tribu, no siempre bienvenida, dentro del movimiento ágil. Lean es una trasposición a la construcción de software de los principios del modo de producción industrial de Toyota. Lean promueve un flujo continuo de producción o creación de valor (bastante planificado y monitorizado, no nos engañemos), analizando y eliminando ineficiencias (o “pérdidas”),  asegurando la colaboración entre proveedores “justo a tiempo”, la entrega rápida e iterativa de productos, versiones o partes de producto, el aprendizaje continuo y el empoderamiento de los equipos.

Lean ha sido bien acogido en los departamentos y empresas de tecnología y ha facilitado la extensión de los principios de ágil a la construcción de productos y proyectos más grandes y su escalabilidad en todos los ámbitos de TI y, más allá, en el conjunto de la empresa.

A ésto y otra cosas dedicaremos el siguiente post.

Cuatro años de “web moderna”

No todas las iniciativas que se lanzan, por pequeñas que sean, aguantan cuatro años de vida. Es por ello que, ahora que el Modern Web Event alcanza su cuarta edición, me parece adecuado volver la vista atrás…

Lo primero que hay que hacer al ponerse a ello es recordar que esta tarde que dedicamos cada año a repasar cómo anda el mundillo del diseño y del desarrollo web, y que organizamos desde los másters de Desarrollo de Aplicaciones Web y de Aplicaciones Multimedia de la UOC, es heredera de los Device Days, un evento que se había celebrado hasta cinco veces antes, dedicado al desarrollo multimedia para todo tipo de dispositivos y que prestaba especial atención al desarrollo con Flash (¿os acordáis?) y a las tecnologías relacionadas que había desarrollado en su momento la desaparecida Macromedia. A medida que las tecnologías web avanzaban y JavaScript y HTML5 y CSS3 iban ocupando el espacio de Flash y su ecosistema y los otrora ubicuos .swf se hacían cada vez más infrecuentes, el foco debía cambiar (si sois de los que apreciasteis lo bueno de Flash y añoráis un poco recordando lo mucho que hizo avanzar el multimedia en la web, aun sin olvidar lo que tenía de malo, estáis conmigo).

 

Así, desde la UOC tomamos el relevo de sus organizadores para montar un primer Modern Web en 2015 que contó entre sus ponentes con Marcos González y Raúl Jiménez, antiguos organizadores de Device Days y abanderados de Flash que ya en ese momento habían sabido llevar su know how de desarrollo multimedia de ActionScript a JavaScript y nos hablaron de desarrollo de videojuegos y de AngularJS (que en aquel momento iba por la versión 1.4: hoy hablamos de Angular y vamos por la 7, apenas tres años más tarde… Si algo tiene de bueno el desarrollo web es que no es aburrido!). En la web de Modern Web 2015 encontraréis tres excelentes charlas más: Joan León nos hablaba ya de Flexbox para maquetar (os he dejado el vídeo aquí arriba); Sergio Gimeno de desarrollo de aplicaciones para dispositivos móviles con Cordova (otra tecnología que, como Flash, ha sido un recurso provisional pero imprescindible mientras las tecnologías web acaban de evolucionar y la hacían [cada vez más] innecesaria, en este caso con las progressive web apps; cerraron la jornada Iván Serrano y Pep Selfa explicando las interioridades del proceso de creación y diseño de la entonces muy novedosa web responsive de TV3 y Catalunya Ràdio.

 

En 2016 nos llevamos nuestro pequeño “circo” a Bilbao, donde tuvimos una excelente acogida de la mano de Bilbao Ekintza. Raúl y Marcos repitieron, hablando de vídeo inmersivo y de “front-end to take away”, respectivamente. La charla de Marcos (sin hacer spoilers) se escapaba un poco (y solo un poco), por primera vez, de los aspectos más técnicos, de código y programación, de la web. Y en esa línea también pudimos contar con Diego Rodríguez hablando de experiencias de lectura en dispositivos digitales y con Juan Delgado y su charla Product vs Craft y las maneras de llevar proyectos en la web (que es la que os he destacado aquí arriba).

 

Y el año pasado nos fuimos a otra ciudad fantástica: Sevilla. Y allí seguimos en nuestra línea de intentar ir tratando todos los temas web. Habíamos hablado poco en las ediciones anteriores de back-end, y en el Modern Web hispalense esta vez tuvimos a David Rodríguez hablando de Drupal y a Luis Rull, de WordPress (y todo lo que se mueve alrededor de ambos CMS, que no es poco). Abel Sutilo trató uno de los temas eternos de nuestro mundillo: la difícil convivencia el trabajo conjunto entre diseñadores y desarrolladores. Considero que el nivel de las charlas que hemos tenido en estas tres ediciones de nuestra jornada es excelente, pero la de Abel sería mi favorita (no se lo digáis al resto de ponentes)… si no hubiese sido por la de Esperanza Moreno y su recorrido de arquitecta a programadora, una “reconversión” que, lo sé por experiencia, interesa muchísimo a nuestro público y que ella ha bordado. Es la charla que recupero aquí (aunque todas las tenéis en los enlaces de cada uno de nuestros Modern Web y, creedme, todas son muy pero que muy recomendables).

El martes que viene, día 13, volveremos al escenario de nuestra primera vez, el Movistar Centre de Barcelona. En nuestro esfuerzo (es parte de nuestro ADN) por divulgar conocimiento alrededor del mundo del diseño y el desarrollo web volveremos a contar con cuatro charlas de grandísimo nivel: Paqui Calabria nos hablará de maquetado con Grid, Cristina Chumillas de imágenes responsive, Carles Nuñez y David García de herramientas front-end y consenso (otro tema eterno en cualquier proyecto en el que trabaje más de una persona) y cerrará la jornada Adrià Fontcuberta hablando de algo muy relacionado: CSS mantenible y escalable (si es que eso es posible ;-)). Por lo que he podido ver, no vamos a bajar el listón que hemos marcado hasta ahora.

Si nos queréis acompañar el próximo martes (es gratis), estaremos encantados de recibiros. Os podéis inscribir desde nuestra página en Mosaic. Y siempre nos podréis encontrar con ganas de explicaros cosas sobre el mundo del desarrollo web, tanto en este blog como en Mosaic y en nuestras aulas, especialmente en las de los másters de Desarrollo de Aplicaciones Web y de Aplicaciones Multimedia.

La nuevas certificaciones de seguridad para WiFi

Wi-Fi Alliance es una organización internacional sin ánimo de lucro que agrupa fabricantes de tecnología WiFi (estándar IEEE 802.11) y que certifica los productos que cumplen con sus especificaciones de interoperabilidad WiFi, seguridad y protocolos específicos de aplicaciones.

Este año Wi-Fi Alliance ha presentado la mayor actualización de seguridad WiFi de los últimos 14 años, la certificación WPA3 (WiFi Protected Access 3) que pretende superar algunas de las vulnerabilidades que se han detectado en la certificación actual WPA2. Por ejemplo, el famoso ataque KRACK (Key Reinstallation Attack) que permitía que un atacante accediera al contenido de una comunicación cifrada pudiendo incluso inyectar tráfico malicioso.

Al igual que WPA2, WPA3 ofrece dos tipos de configuraciones, el modo WPA3-Personal para usuarios domésticos, y el WPA3-Enterprise para entornos empresariales.

Los cambios en WPA3-Personal son:

– Un nuevo método de autenticación de dispositivos llamado SAE (Simultaneous Authentication of Equals) que reemplaza el PSK (Pre-Shared Key) y que es robusto frente a los ataques KRACK. Además permite que si un día un atacante logra descubrir la clave WiFi de un dispositivo, no pueda descifrar datos de antiguas conexiones, sino que solo podrá robar los datos generados después del robo.

– Un proceso de autenticación que hace mucho más difíciles los ataques de romper contraseñas a través de ataques de fuerza bruta basados en diccionario. Para llevar a cabo estos ataques el atacante tiene que interactuar con la red para cada contraseña que quiera probar, y por lo tanto esto conlleva mucho tiempo.

En el caso del WPA3-Enterprise, el cambio más importante es que se permitirá el cifrado de datos con claves de 192 bits, más fuerte que el actual cifrado de 128.

Además, el Wi-Fi Alliance ha presentado dos programas más de certificación de WiFi que son interesantes: el Wi-Fi Easy Connect, que permite configurar la seguridad de nuevos dispositivos de la red a través del escaneo de un código QR, y el Wi-Fi Enhanced Open. Este último proporciona protección de privacidad en situaciones en los que el individuo se conecta a una red abierta.

Vamos a analizar el caso de Wi-Fi Enchanced Open con más detalle. En muchos establecimientos que ofrecen servicios de acceso a Internet al público (por ejemplo restaurantes, hoteles, aeropuertos) el acceso a la red es abierto, sin uso de contraseñas. Este tipo de redes son vulnerables a ataques pasivos, muy fáciles de llevar a cabo porque el atacante solo necesita sentarse y examinar los datos que entran y salen de la red para obtener una gran cantidad de información.

El modo Enhanced Open se base en el estándar OWE (Opportunistic Wireless Encryption) de IETF para proteger a los usuarios de este tipo de escuchas pasivas. OWE utiliza un handshake criptográfico basado en el subyacente sistema SAE desarrollado para WPA3 que permite establecer una clave de cifrado entre los dispositivos finales y el punto de acceso aunque la red no tenga configurada ninguna contraseña de autenticación. Así todas las comunicaciones van cifradas y se evitan las escuchas indeseadas y los ataques basados en una inyección fácil de paquetes en la red.

En WPA2, los establecimientos de servicio público que querían ofrecer redes con seguridad utilizaban una clave del sistema PSK que se compartía en una pizarra a la entrada del local. La creencia es que esto protegía el medio inalámbrico de los ataques pasivos y las inyecciones simples de tráfico. Sin embargo, esta creencia es errónea. Dado que el PSK es conocido por todos, es posible que un atacante pasivo pueda observar el handshake de 4 pasos y calcular las claves de encriptación de tráfico utilizado por un cliente y un punto de acceso (ataque KRACK). Si el atacante llega demasiado tarde para observar este intercambio, puede emitir un paquete falso de deautenticación que hará que el cliente y/o AP restablezcan el estado de 802.11  y vuelvan a pasar por el handshake de 4 pasos, permitiendo así que el atacante pasivo determine las claves de tráfico.

Así, OWE es muy interesante porque es muy fácil de administrar (no requiere ninguna configuración especial o interacción del usuario) y proporciona un mayor nivel de seguridad que un sistema común y público de seguridad basado en WPA2 y PSK. Cabe notar que OWE no proporciona el nivel de seguridad de una red WiFi totalmente protegida con autenticación. El cliente no puede estar seguro que el punto de acceso al que se conecta sea realmente el de la entidad que él cree (el cliente se puede estar conectando a un punto de acceso de un usuario malicioso) y la conexión tiene riesgos. Pero este problema también se da en los sistemas PSK de compartición de clave pública, y por lo tanto, OWE es mejor que las propuestas para redes abiertas que teníamos hasta ahora.

Helena Rifà-Pous es directora del Máster Universitario en Seguridad de las Tecnologías de la Información y de las Comunicaciones de la UOC, UAB y URV.

Massive MIMO: multiplexando en el espacio

Parece que la creciente demanda de conexión inalámbrica de alta velocidad que se ha experimentado en los últimos años -aunque quizás ya es más oportuno hablar de la última década- no disminuirá en el futuro. Todas las predicciones realizadas por organismos y empresas especializadas apuntan a un continuo crecimiento, principalmente debido a las nuevas necesidades tanto de los clientes particulares de conexión móvil como de la industria.

Crédito: Nicolas Ibañez Enriquez

Ante esta situación la pregunta es obvia: ¿está preparada la comunidad científica para garantizar las velocidades de transmisión y la capacidad que demanda la sociedad? La respuesta a dicha pregunta es sencilla: en estos momentos las redes instaladas a lo largo y ancho del mundo no son capaces de garantizarlo. A pesar de ello, no cabe desesperar, ya que las últimas releases de 3GPP[1] incorporan algunos de los últimos avances tecnológicos que, previsiblemente, serán capaces de conseguirlo.

La industria fundamenta el incremento de la capacidad de las futuras redes de comunicaciones móviles en tres pilares fundamentales:

  1. La densificación de la red. Es decir, el despliegue de muchos más nodos –muchos de ellos con bajas potencias de transmisión, conocidos como small cells– para disminuir la distancia entre terminal móvil y estación base.
  2. El incremento del espectro para sistemas de comunicaciones móviles. Actualmente la industria ve como una gran oportunidad las llamadas frecuencias milimétricas. Estas frecuencias –por encima de los 6GHz- permitirían anchos de banda mucho mayores que los actuales –previsiblemente alrededor de los 500 MHz.
  3. La multiplexación espacial. En otras palabras, la provisión de servicio a distintos terminales simultáneamente en el tiempo y con los mismos recursos radio –es decir, frecuencias- mediante la concentración de la potencia transmitida en localizaciones específicas.

Los tres pilares suponen, sin duda, un paso adelante en la mejora de la densidad espectral –es decir, los bits por segundo que se pueden transmitir por Hz y por km2. El primero de ellos –la densificación de la red- presenta el problema asociado del incremento de la interferencia. Cuanto más densa es la red, más cerca se encuentran las estaciones base interferentes. En otras palabras, la densificación de la red tiene un límite.

El segundo de los pilares –más espectro en las bandas de frecuencia altas- es un aspecto muy prometedor que, actualmente, ya se halla en manos del regulador. Mientras la academia y la industria desarrollan testbeds en las decenas de GHz, el regulador ya ha empezado a asignar a las tecnologías móviles nuevas frecuencias por debajo de los 6GHz. En un futuro próximo, tal y como está agendado, se estudiará la asignación de frecuencias por encima de los 6GHz –popularmente, y abusando a menudo del lenguaje, conocidas como frecuencias milimétricas.

Finalmente, el tercer pilar -la multiplexación espacial- supone un avance decisivo que describiremos brevemente a continuación. Existe una larga historia que se remonta a los años 90 sobre el concepto Multiple Input Multiple Output (MIMO). El concepto es muy simple, aunque la teoría asociada y su implementación no lo es tanto. Como bien dice su nombre, y tratando de aprovechar los distintos caminos que puede recorrer una señal desde el transmisor hasta el receptor, MIMO significa la instalación de más de una antena en el transmisor –por ejemplo, la estación base- y en el receptor –por ejemplo, el terminal móvil. Con ello se pretende combinar constructivamente las distintas copias de la señal que llegan al receptor para aprovechar la diversidad en espacio que propician los distintos caminos recorridos por dicha señal.

Obviamente, para que ello sea factible, las antenas en transmisión y recepción deben estar lo suficientemente alejadas para que la respuesta del canal sea rica y el camino seguido por las distintas copias recibidas en cada antena sean independientes. En teoría, si así fuera, se podrían transmitir simultáneamente tantos streams de datos como el mínimo número de antenas en transmisor y receptor –en general, el extremo limitante es el terminal móvil. Desgraciadamente, en la mayoría de los casos la realidad no es así, ya que las antenas en el terminal móvil no pueden estar lo suficientemente alejadas como para tener caminos independientes.

Posteriormente se desarrolló la teoría de la tecnología MU-MIMO (Multi-User MIMO), en la que los terminales móviles tienen pocas antenas –incluso sólo una- y los distintos streams se transmiten para/desde distintos terminales móviles. Cabe notar que el canal observado desde los distintos terminales es mucho más rico –caminos más independientes– ya que los terminales móviles se encuentran a mayor distancia.

Es precisamente a raíz de este último concepto que aparece el concepto de massive MIMO, una tecnología llamada a revolucionar las comunicaciones móviles. Esta tecnología permite, mediante la instalación de paneles con decenas –o incluso cientos- de antenas de dimensión reducida, la transmisión simultánea en tiempo y frecuencia a cientos de terminales móviles –el valor se determina a partir del número de antenas instaladas en el panel. Gracias al gran número de antenas en la estación base, es posible pre-codificar la señal transmitida para conseguir que cada uno de los streams llegue con alta potencia a la localización en la que se halla el terminal móvil deseado y con potencia mínima –reducción de posibles interferencias- al resto de terminales.

De manera intuitiva, massive MIMO se puede entender del siguiente modo: en entornos de visión directa entre transmisor y receptor –llamados Line of Sight, LoS- la estación base crea haces de radiación muy direccionales dirigidos hacia cada uno de los terminales –llamado normalmente beamforming. Por el contrario, en entornos sin visión directa –llamados No Line of Sight, NLoS- el transmisor codifica la señal de tal forma que es posible combinar constructivamente las distintas réplicas de la señal en el terminal móvil concreto y destructivamente en el resto del escenario.

Es precisamente este comportamiento el que permite definirlo como multiplexación en el espacio –en inglés, spatial multiplexing. Hasta el momento el transmisor tenía dos grados de libertad: el tiempo y la frecuencia. Las transmisiones para/desde los usuarios se distribuían en el tiempo y en la frecuencia. Ahora, además, se distribuirán en el espacio, pudiendo transmitir a –o recibir desde- decenas o algún centenar de terminales móviles usando las mismas frecuencias durante el mismo instante de tiempo. Este hecho será, sin duda, una de las grandes revoluciones de las futura comunicaciones móviles.

Para aquellos que tengan conocimientos de Information Theory y deseen profundizar en el tema, existe un libro gratuito escrito por algunos de los expertos más reconocidos a nivel mundial –los doctores Emil Björnson, Jakob Hoydis y Luca Sanguinetti- que puede ser descargado gratuitamente en el siguiente enlace.

[1] 3GPP es la organización internacional que agrupa a todos los actores implicados en la estandarización de las tecnologías de comunicaciones móviles a nivel mundial: http://www.3gpp.org/

Ferran Adelantado es profesor de los Estudios de Informática, Multimedia y Telecomunicaciones e investigador senior del grupo de investigación WiNe (Wireless Networks) de la UOC. Es ingeniero en Telecomunicaciones y doctor por la UPC y graduado en Ciencias Empresariales por la UOC. Actualmente, es el director del programa doctoral NIT (Network and Information Technologies).

El chantaje de las contraseñas

Desde hace unas semanas algunos usuarios de internet están recibiendo mensajes de correo electrónico donde se muestra una de sus contraseñas, de las que en algún momento han hecho servir o que aún tienen en alguna web.

Se trata de mensajes en los que extorsionan al usuario diciendo que tienen su contraseña, cosa que es cierta (después explicaremos cómo es así), y que han accedido al sistema informático mediante acceso remoto para obtener datos comprometedores de los que pueden hacer uso en contra de los usuarios. Con esa excusa, piden una cierta cantidad de dinero por no enviar a nuestros contactos toda la información, que supuestamente han conseguido a través de la intrusión en nuestros sistemas.

Este tipo de mensajes normalmente ya son clasificados como SPAM por nuestro gestor de correo, pero no siempre, por lo que hemos de ir con cuidado y no caer en ello.

Así que, primero de todo, veamos uno de esos mensajes.

En el mensaje podemos ver cómo nos avisa de que tiene nuestra contraseña y que, si no pagamos, en este caso 4.000 dólares, enviará todo el contenido que tiene a nuestros contactos. Incluso dice que nos ha capturado un vídeo con nuestra cámara, y que debemos hacer el pago mediante Bitcoins a la dirección que nos proporciona. Incluso nos dice que, si no sabemos cómo pagar en Bitcoins, lo miremos en Google con una búsqueda “how to buy bitcoin”… Nos lo pone sencillo…

Podemos llegar a recibir decenas de estos mensajes a lo largo de la semana. Parece un filón para los delincuentes.

Pero, ¿qué podemos hacer? ¿Qué es lo que hemos hecho para merecer esto?

Vamos con la primera pregunta, ¿qué hacer? Nada. No hay que hacer nada, borrar directamente el mensaje y esperar a recibir el siguiente para borrarlo directamente. Eso sí, hay que cambiar las contraseñas de todas aquellas páginas web en las que tengamos la misma. Recordad que hace años ya os dijimos en este mismo blog que hay que usar contraseñas diferentes para cada página web.

Y ¿por qué recibo yo esto? ¿Qué he hecho?

En principio nada malo, solo darse de alta en alguna página web en la que no tenían mucha idea de la implantación de la seguridad informática y las bases de datos con los usuarios. El e‑mail y las contraseñas estaban mal guardadas, no estaban cifradas para que si alguien accedía no pudieran encontrarlas. No hace falta que sea un delincuente que accede desde fuera: un empleado descontento puede extraer la base de datos, por eso la importancia de cifrar estos campos en las BBDD.

Ha habido infinidad de filtraciones de datos personales en internet, con millones de correos electrónicos y contraseñas expuestas. Ante esto nos decimos… yo no me he dado de alta en casi nada… no me afectará. Pero si tienes Dropbox, Adobe Acrobat, foros de consultas, juegos online… puedes estar en esas listas de usuarios y contraseñas.

¿Cómo sabemos si estamos afectados?

Por suerte hay personas que se han dedicado a recopilar muchos de estos usuarios y contraseñas y han creado una página web (https://haveibeenpwned.com/) para comprobar si estamos o no afectados. Si tenemos suerte veremos el color verde.

Si estamos afectados por alguno de los múltiples problemas que ha habido… veremos el color rojo y además nos dirá en cuántos sitios estamos afectados y cuáles son.

Una buena solución para estos casos es vigilar dónde nos damos de alta con nuestro correo electrónico, tener muy claro que no se puede hacer servir la misma contraseña para todo, sobre todo para correo, bancos, sistemas de seguridad, etc. Y, en todos aquellos casos en los que el sistema dónde estamos dados de alta lo permita, activar el segundo factor de autenticación. Éste hace que, en los casos en que el sistema considere adecuado (cuando se está accediendo desde una nueva ciudad, por ejemplo) todo y conocer la contraseña y entrar en el sistema correctamente, se envíe un mensaje a través del teléfono móvil para solicitar la introducción de un código válido exclusivamente para esa vez. Esto hará que, incluso si nos roban la contraseña, no puedan entrar al servicio ya que no dispondrán de este segundo código, que tendrá únicamente el usuario legítimo.

Jordi Serra Ruiz es experto en Ciberseguridad y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya.