La nuevas certificaciones de seguridad para WiFi

Wi-Fi Alliance es una organización internacional sin ánimo de lucro que agrupa fabricantes de tecnología WiFi (estándar IEEE 802.11) y que certifica los productos que cumplen con sus especificaciones de interoperabilidad WiFi, seguridad y protocolos específicos de aplicaciones. Este año Wi-Fi Alliance ha presentado la mayor actualización de seguridad WiFi de los últimos 14 años, la certificación WPA3 (WiFi Protected Access 3) que pretende superar algunas de las vulnerabilidades que se han detectado en la certificación actual WPA2. Por ejemplo, el famoso ataque KRACK (Key Reinstallation Attack) que permitía que un atacante accediera al contenido de una comunicación cifrada pudiendo incluso inyectar tráfico malicioso. Al igual que WPA2, WPA3 ofrece dos tipos de configuraciones, el modo WPA3-Personal para usuarios domésticos, y el WPA3-Enterprise para entornos empresariales. Los cambios en WPA3-Personal son: – Un nuevo método de autenticación de dispositivos llamado SAE (Simultaneous Authentication of Equals) que reemplaza el PSK (Pre-Shared Key) y que es robusto frente a los ataques KRACK. Además permite que si un día un atacante logra descubrir la clave WiFi de un dispositivo, no pueda descifrar datos de antiguas conexiones, sino que solo podrá robar los datos generados después del robo. – Un proceso de autenticación que hace mucho más difíciles los ataques de romper contraseñas a través de ataques de fuerza bruta basados en diccionario. Para llevar a cabo estos ataques el atacante tiene que interactuar con la red para cada contraseña que quiera probar, y por lo tanto esto conlleva mucho tiempo. En el caso del WPA3-Enterprise, el cambio más importante es que se permitirá el cifrado de datos con claves de 192 bits,...

Massive MIMO: multiplexando en el espacio

Parece que la creciente demanda de conexión inalámbrica de alta velocidad que se ha experimentado en los últimos años -aunque quizás ya es más oportuno hablar de la última década- no disminuirá en el futuro. Todas las predicciones realizadas por organismos y empresas especializadas apuntan a un continuo crecimiento, principalmente debido a las nuevas necesidades tanto de los clientes particulares de conexión móvil como de la industria. Ante esta situación la pregunta es obvia: ¿está preparada la comunidad científica para garantizar las velocidades de transmisión y la capacidad que demanda la sociedad? La respuesta a dicha pregunta es sencilla: en estos momentos las redes instaladas a lo largo y ancho del mundo no son capaces de garantizarlo. A pesar de ello, no cabe desesperar, ya que las últimas releases de 3GPP[1] incorporan algunos de los últimos avances tecnológicos que, previsiblemente, serán capaces de conseguirlo. La industria fundamenta el incremento de la capacidad de las futuras redes de comunicaciones móviles en tres pilares fundamentales: La densificación de la red. Es decir, el despliegue de muchos más nodos –muchos de ellos con bajas potencias de transmisión, conocidos como small cells– para disminuir la distancia entre terminal móvil y estación base. El incremento del espectro para sistemas de comunicaciones móviles. Actualmente la industria ve como una gran oportunidad las llamadas frecuencias milimétricas. Estas frecuencias –por encima de los 6GHz- permitirían anchos de banda mucho mayores que los actuales –previsiblemente alrededor de los 500 MHz. La multiplexación espacial. En otras palabras, la provisión de servicio a distintos terminales simultáneamente en el tiempo y con los mismos recursos radio –es decir, frecuencias- mediante la...

Crear una nube en tu casa

El concepto de Nube o Cloud Computing ha tenido un éxito tremendo: ha pasado de ser un término de marketing para vender servicios de computación remota a estar en boca de todos nuestros conocidos -incluso los más legos tecnológicamente- que no tienen ningún reparo en usar la Nube para hacer sus copias de seguridad, guardar sus datos personales o utilizar la multitud de servicios que nos puede proporcionar. Usada correctamente, la Nube permite a los usuarios utilizar aplicaciones (redes sociales, inteligencia artificial, aplicaciones en alta disponibilidad o almacenamiento masivo de datos) que no podríamos ejecutar nunca en nuestra infraestructura doméstica por falta de recursos, ya sea informáticos o humanos. Pero, aplicada sin criterio, la Nube limita nuestra libertad y pone en peligro nuestros datos: puede ocurrir que un servicio que fuese gratuito pase a ser de pago, que nuestros datos sean revelados o utilizados, o que un servicio sea eliminado por no ser ya rentable para el proveedor. Es especialmente sangrante la moda de ejecutar arbitrariamente servicios en la Nube que podrían ser ejecutados localmente sin problema. En este caso, la Nube no aporta ninguna ventaja, solo inconvenientes como: lentitud de respuesta, dependencia del proveedor, dependencia de la conexión a Internet y pérdida de privacidad. En algunos casos, incluso, se ligan unos dispositivos físicos a un servicio en la Nube, que se proporciona bien de forma gratuita, bien mediante el pago de una cuota mensual. De esta manera, estos dispositivos quedarán siempre bajo el control del proveedor y aunque los hayamos pagado, no podremos usarlos cuándo y cómo queramos. Por esa razón, al proponer mi Trabajo de Fin de...

Reto “Barcelona Dades Obertes” 2018: introduciendo los datos abiertos en el ámbito educativo

(Trobareu la versió en català més avall) Los datos abiertos (open data en inglés) son un elemento clave dentro de la estrategia de las ciudades que persiguen un modelo de “ciudad inteligente” (smart city en inglés). Estas ciudades (o regiones) apuestan por poner a disposición del ciudadano conjuntos de datos relativos a la ciudad que pueden ser aprovechados y reutilizados sin ninguna restricción, empoderando de esta manera al ciudadano en la estrategia digital de la ciudad. Estos conjuntos de datos tienen que cumplir una serie de requisitos para considerarse “abiertos”. Según el creador del “world wide web” Tim Berners-Lee existen hasta cinco niveles de “apertura de los datos”, en el que se conoce como el modelo de cinco estrellas. Estos niveles van desde la publicación en Internet de los datos, a la contextualización de los datos mediante enlaces, pasando por la estructuración o el formato de los mismos. Sin ir más lejos, el Ayuntamiento de Barcelona dispone de un amplio catálogo de datos abiertos, como ya vimos en este mismo blog. El Portal Open Data BCN recoge a día de hoy más de 466 conjuntos de datos y es pieza capital en la estrategia “Barcelona Ciutat Digital”. El Portal se ha integrado recientemente en la Oficina Municipal de Datos, los objetivos de la cual se organizan en tres líneas de trabajo: la captación y almacenamiento, la analítica, machine learning y las predicciones y, por último, la difusión y comunicación a partir de los datos abiertos. Entre las iniciativas de la Oficina Municipal de Datos para dar a conocer los datos abiertos de la ciudad, y fomentar su uso entre la ciudadanía, se...

Certificaciones de la industria en los EIMT: Cisco y Unity

Si bien la titulación de grado parte sobre la base de que debe ser generalista y, hasta cierto punto, agnóstica en lo que respecta a productos o fabricantes concretos, el debate sobre su nivel de alineación con las demandas de la industria diría que existe desde siempre. Me resulta fácil visualizar, ya en una cueva del paleolítico, a un miembro cazador-recolector murmurando sobre las historias del sabio de la tribu y la utilidad de algunas de ellas llegado el momento de cazar un Glyptodon. Entonces, en el otro extremo, encontramos las certificaciones de la industria, otorgadas por los propios fabricantes, y muy estrechamente vinculadas a sus productos, claro. A día de hoy, certificaciones de este tipo hay muchas y casi cada gran fabricante tiene su propio itinerario, que parte de certificaciones básicas hasta mayores niveles de especialización (Cisco, Microsoft, Oracle, etc.). Sin embargo, no siempre estas certificaciones llevan asociado un programa de formación, y se basan exclusivamente en llevar a cabo un examen de cierta dificultad a partir de un temario o de objetivos de formación, que se debe estudiar por libre (o a través de ciertas academias). O ya saber de qué va todo gracias a la propia experiencia profesional. Dado que al final algunas de ellas ya se han convertido en una puerta de acceso a ciertos campos profesionales -yo diría que casi se pueden considerar un “estándar de facto”-, quizá es interesante que la universidad las tenga en cuenta a la hora de diseñar algunas de sus asignaturas, sin que ello implique una pérdida de esa visión generalista o, en el peor de los casos, una cierta “mercantilización” de la enseñanza pública (un aspecto parte del debate). Como todo...

Cómo aumentar la capacidad en 5G

Se ha convertido en algo habitual encontrar noticias –a menudo demasiado entusiastas o, simplemente, desinformadas- acerca de 5G, una tecnología que, según esas mismas fuentes, cambiará el modo en el cual accedemos a la información y los servicios. Ciudades inteligentes (conocidas como smart cities), coches autónomos, realidad virtual o conexiones móviles con velocidades de transmisión del orden de los Gigabits/seg son algunas de las aplicaciones que se intuyen como claves para esta tecnología. A pesar de ello, y más allá de las campañas de marketing, ¿conocemos realmente lo que será la tecnología 5G? La tecnología 5G es una evolución/revolución respecto a las tecnologías de comunicaciones móviles anteriores, conocidas como 4G o LTE-A, con algunos objetivos claros: hacer frente a un incremento exponencial del número de dispositivos móviles; aumentar la capacidad de la red por unidad de área; reducir el retardo; o conseguir velocidades de transmisión altas. Centrándonos en la capacidad de la red, la industria y la academia han propuesto 3 posibles vías simultáneas para incrementar la capacidad de la red. La primera vía es la densificación de la red de acceso mediante el despliegue de nodos de acceso (estaciones base) distribuidos en dos capas. La primera de las capas, formada por estaciones base con zonas de cobertura grande, es la denominada capa de cobertura. El objetivo de esta capa es ofrecer cobertura total –evitando zonas de sombra- y garantizar un servicio adecuado de forma ubicua. La segunda de las capas, en cambio, se denomina capa de hotspot o de capacidad, formada por las denominadas small cells, estaciones con menores niveles de potencia transmitida y desplegadas a una altura...