3PGCIC & BWCCA-2017: Avances en tecnologías distribuidas y redes

El pasado noviembre tuve la oportunidad de asistir a la 11a edición de la doble conferencia internacional sobre computación en paralelo, Cloud, P2P y Grid (3PGCIC-2016) y computación y aplicaciones en redes de comunicaciones de banda ancha y sin hilos (BWCCA-2016), celebradas conjuntamente en la ciudad de Asan de Corea del Sur. Fue un evento muy interesante para conocer de primera mano como las tecnologías distribuidas Cloud, P2P y Grid se han convertido en los paradigmas de facto para resolver problemas complejos en muchos campos de la ciencia y la ingeniería, mediante la agregación y compartición de datos y recursos distribuidos geográficamente, así como para el desarrollo de aplicaciones a gran escala. Sin embargo, los rápidos avances de estos paradigmas plantean nuevos retos que hay que entender y resolver tanto desde la vertiente teórica como práctica. En esta misma línea, las redes de comunicaciones de hoy en día, tanto las de banda ancha como las móviles e inalámbricas, evolucionan rápidamente integrando redes heterogéneas entre ellas, con muchas dificultades de interconexión. Este tipo de redes requieren una demanda de uso cada vez mayor para soportar un gran número de servicios y a la vez proporcionando calidad de servicio y optimizando los recursos de la red. Esto hace que las arquitecturas y algoritmos en estas redes sean muy complejos y requieran nuevos enfoques adaptativos al medio. En definitiva, este evento permitió conocer los últimos avances en investigación que aportan soluciones a estos problemas, tanto en el ámbito de las tecnologías distribuidas como de las redes. Debido al fuerte impacto que tienen estos avances en la sociedad, se decidió que la próxima...

La realidad “free as in beer” de los MOOCs

Es difícil definir la fecha exacta de la aparición del primer MOOC (Massive Open Online Course), pero podemos acotar entre 2000 y 2010. Básicamente, las diferentes iniciativas que surgieron en paralelo presentaron los MOOCs como la solución a un aprendizaje global y gratuito. Aparecieron algunas plataformas online, bastante rudimentarias en ese momento, para soportar estos cursos masivos. Básicamente eran cursos, en muchos casos con materiales docentes en formato de vídeo y reutilizados de grabaciones de clases magistrales presenciales, para que un conjunto masivo de estudiantes hiciese el curso online. Algunos cursos iniciales ofrecidos por universidades prestigiosas tuvieron mucho éxito y cuando hablamos de éxito nos referimos a 160.000 estudiantes. Pero evaluemos realmente este “éxito” en la visión del estudiante. Un estudiante tenía acceso a un curso gratuito por una prestigiosa universidad y a unos materiales gratuitos. Hasta aquí perfecto, pero hablemos del soporte docente.  Hemos de tener en cuenta que un curso con 160.000 estudiantes para dar un soporte adecuado se necesitarían un número importante de profesores que en muchos casos es imposible de proporcionar por la universidad en cuestión. Por lo tanto, en estos casos, el soporte es mínimo y son los mismos alumnos que se responden entre ellos en el foro. Y no hablemos de la evaluación de las actividades ya que estamos en el mismo problema. Se necesitan sistemas automáticos de evaluación como cuestionarios o herramientas automáticas y en caso de la evaluación de trabajos escritos se utilizan la evaluación por pares, es decir, los alumnos se evalúan entre sí. Hubo un boom de cursos y en la creación de nuevas plataformas para publicar estos cursos...

Learning Analytics: tecnología + know-how

En la actualidad, la mayoría de instituciones educativas, especialmente las universidades, utilizan entornos virtuales de aprendizaje en mayor o menor grado para dar soporte a diversas actividades relacionadas con el proceso de enseñanza-aprendizaje, así como para otras tareas administrativas (la matrícula, por ejemplo). En este escenario, los estudiantes y docentes se comunican y comparten recursos digitales mediante los espacios adecuados: foros, wikis, aulas virtuales, etc. Cada vez que un usuario accede a un servicio o recurso deja un rastro que resume dicho uso, siendo posible saber de quién se trata, a qué servicio o recurso accedió y en qué momento lo hizo. Toda esta interacción puede ser capturada y analizada posteriormente, con el objetivo de entender mejor el propio proceso de enseñanza-aprendizaje y, especialmente, el comportamiento de los estudiantes dentro del entorno virtual de aprendizaje. Es lo que se conoce como Learning Analytics, nombre propuesto por Long y Siemens en 2011, aún cuando anteriormente ya habían existido iniciativas similares bajo otros nombres. El sistema educativo se trata de un escenario muy controlado, donde existe una planificación de antemano (calendario de actividades, recursos utilizados, mecanismos de evaluación, etc.) conocida y altamente organizada, pero con unos actores (principalmente los estudiantes) que no se ciñen exactamente al guión, por diferentes razones: la primera, la diversidad de perfiles y objetivos de cada estudiante; la segunda, la variabilidad en el tiempo, teniendo en cuenta que la educación es una combinación de acciones a corto, medio y largo plazo; la tercera, la existencia de factores externos no controlables por la institución educativa (p.e. una crisis económica); y cuarta, la dificultad de medir cuándo, dónde y...

Los Retos de la 5G

La reciente comercialización de la tecnología 4G, junto con la aparición de una amplia gama de proveedores de servicios over-the-top, han dado el pistoletazo de salida en la cursa hacia la llamada 5G. Pero realmente, ¿qué es la tecnología 5G?  ¿Qué es la 5G? Probablemente la denominación 5G (o quinta generación) sugiere cosas distintas a consumidores, operadores de telecomunicaciones, fabricantes, reguladores u organismos de estandarización. Esta ambigüedad provoca que en ciertos ambientes la denominación 5G se considere excesivamente publicitaria. De hecho, muy probablemente aquello que los operadores de telecomunicaciones comercializarán inicialmente como 5G distará mucho de lo que hoy en día entienden como tal los organismos de estandarización. Los motivos de dicha indefinición van, a menudo, más allá de los aspectos meramente tecnológicos y abarcan ámbitos de negocio. En cualquier caso, y centrándonos en los aspectos técnicos, la definición de la tecnología 5G es una enumeración de escenarios y requisitos más que una definición formal. Ese conjunto de escenarios, así como los retos tecnológicos asociados a cada uno de ellos –en términos de velocidad de transmisión, latencia, capacidad, etc.-, suponen el punto de partida sobre el cual la industria, la academia, el regulador y los organismos de estandarización construyen la futura generación tecnológica. ¿Cuáles son los retos?      Actualmente se establecen tres escenarios básicos de trabajo en el seno de 3GPP [1], organismo de estandarización de las comunicaciones celulares que aúna los trabajos de organizaciones de estandarización regionales tales como ETSI, ARIB, ATIS, etc. Los tres escenarios son los siguientes: Comunicaciones de banda ancha que alcancen velocidades de transmisión del orden de los Gbps (enhanced Mobile Boroadband, eMBB)....

Procesos de adquisición de TI en el sector público: ¿reglas diferentes?

Estos son días en que la política en los países democráticos da giros (¿ciertamente?) inesperados. En ocasiones así es fácil imaginar la incertidumbre y tensión que los procesos y los trabajadores del sistema público deben pasar: ¿cómo quedará todo?, ¿las nuevas políticas incorporarán cambios radicales en nuestro funcionamiento y en nuestros objetivos?, ¿cómo será nuestro nuevo responsable político? A simple vista parece razonable pensar que situaciones de este tipo no se dan en el sector privado y que si se dan son mucho menos cíclicas. Sin embargo esta afirmación, desde la investigación científica, ha sido puesta tradicionalmente en duda en el caso de los procesos de adquisición de TI. Ya en 2004, en la International Conference on Information Systems (una conferencia, por cierto, que este diciembre tendremos en Europa, en Dublín concretamente), se presentó una mesa redonda titulada “Information Systems in Nonprofits and Governments: Do we need different theories?” [1] En ella, mientras Zmud defendía que las grandes reglas de la gestión de TI eran aplicables a cualquier organización con independencia de su sector, Carte proponía evitar la dicotomía entre público y privado usando el concepto de degree of publicness. Carte considera que empresas privadas que dependen de los grandes contratos con el sector público, o las que pertenecen a sectores estratégicos (como el financiero, el energético o el industrial) tienen procedimientos tanto o más formalizados y burocratizados (entre ellos los de adquisición de TI) que los del sector público; y que además se mueven en un contexto igualmente complejo y con una gran diversidad de protagonistas con intereses confrontados. Y que, al contrario, hay instituciones de naturaleza pública (organismos...