La realidad “free as in beer” de los MOOCs

Es difícil definir la fecha exacta de la aparición del primer MOOC (Massive Open Online Course), pero podemos acotar entre 2000 y 2010. Básicamente, las diferentes iniciativas que surgieron en paralelo presentaron los MOOCs como la solución a un aprendizaje global y gratuito. Aparecieron algunas plataformas online, bastante rudimentarias en ese momento, para soportar estos cursos masivos. Básicamente eran cursos, en muchos casos con materiales docentes en formato de vídeo y reutilizados de grabaciones de clases magistrales presenciales, para que un conjunto masivo de estudiantes hiciese el curso online. Algunos cursos iniciales ofrecidos por universidades prestigiosas tuvieron mucho éxito y cuando hablamos de éxito nos referimos a 160.000 estudiantes.

free-model-mooc

Fuente: http://geek-and-poke.com/geekandpoke/2010/12/21/the-free-model.html

Pero evaluemos realmente este “éxito” en la visión del estudiante. Un estudiante tenía acceso a un curso gratuito por una prestigiosa universidad y a unos materiales gratuitos. Hasta aquí perfecto, pero hablemos del soporte docente.  Hemos de tener en cuenta que un curso con 160.000 estudiantes para dar un soporte adecuado se necesitarían un número importante de profesores que en muchos casos es imposible de proporcionar por la universidad en cuestión. Por lo tanto, en estos casos, el soporte es mínimo y son los mismos alumnos que se responden entre ellos en el foro. Y no hablemos de la evaluación de las actividades ya que estamos en el mismo problema. Se necesitan sistemas automáticos de evaluación como cuestionarios o herramientas automáticas y en caso de la evaluación de trabajos escritos se utilizan la evaluación por pares, es decir, los alumnos se evalúan entre sí.

Hubo un boom de cursos y en la creación de nuevas plataformas para publicar estos cursos en el 2012. Aunque el número de plataformas MOOCs se ha mantenido, la creación y mantenimiento de cursos en las plataformas no ha sido del todo constante.  Respecto los cursos, se han especializado y mejorado por la alta competitividad entre las universidades que los ofrecen. Nuevas maneras de aprender, nuevas herramientas pedagógicas, y simuladores han mejorado mucho la experiencia de los estudiantes. Respecto a las plataformas, como en todos los lobbies, hay algunas que se han quedado como referentes por la gran oferta de cursos, por ejemplo, edX o Coursera. Son plataformas que mejoran cada día, tienen un plan de inversión importante, partners tecnológicos y educativos reconocidos y una planificación a largo plazo bien definida. Tienen en mente que el estudiante debe acceder al aprendizaje des de cualquier sitio y por esa razón el acceso a su plataforma es multidispositivo.

¿Dónde llegaremos? No se sabe. Pero está claro que los MOOCs evolucionan. Las plataformas que los ofrecen han encontrado un negocio lucrativo. Las universidades, en muchos casos, pagan por entrar como partners de la plataforma; aunque los cursos son abiertos, los certificados firmados por las universidades son de pago; y actualmente ya están apareciendo las especializaciones. Las especializaciones son un conjunto de cursos MOOCs en una especialidad y, como tema relevante, en algunos casos sólo accesible pagando por el curso.

En el año 2015, teníamos más de 4000 cursos disponibles de unas 500 universidades y 35 millones de estudiantes han probado alguno.  ¿Os apuntáis?

David Bañeres es doctor en Informática por la Universidad Politécnica de Cataluña (UPC) e Ingeniero Superior en Informática por la misma universidad. Es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y director del máster oficial en Software Libre de la UOC. Pertenece al grupo de investigación SOM y al grupo Inventa  de la UOC. Su trabajo de investigación se relación con métodos formales y herramientas de e-learning.

Learning Analytics: tecnología + know-how

En la actualidad, la mayoría de instituciones educativas, especialmente las universidades, utilizan entornos virtuales de aprendizaje en mayor o menor grado para dar soporte a diversas actividades relacionadas con el proceso de enseñanza-aprendizaje, así como para otras tareas administrativas (la matrícula, por ejemplo). En este escenario, los estudiantes y docentes se comunican y comparten recursos digitales mediante los espacios adecuados: foros, wikis, aulas virtuales, etc. Cada vez que un usuario accede a un servicio o recurso deja un rastro que resume dicho uso, siendo posible saber de quién se trata, a qué servicio o recurso accedió y en qué momento lo hizo.

sand-1009755_1920

Toda esta interacción puede ser capturada y analizada posteriormente, con el objetivo de entender mejor el propio proceso de enseñanza-aprendizaje y, especialmente, el comportamiento de los estudiantes dentro del entorno virtual de aprendizaje. Es lo que se conoce como Learning Analytics, nombre propuesto por Long y Siemens en 2011, aún cuando anteriormente ya habían existido iniciativas similares bajo otros nombres.

El sistema educativo se trata de un escenario muy controlado, donde existe una planificación de antemano (calendario de actividades, recursos utilizados, mecanismos de evaluación, etc.) conocida y altamente organizada, pero con unos actores (principalmente los estudiantes) que no se ciñen exactamente al guión, por diferentes razones: la primera, la diversidad de perfiles y objetivos de cada estudiante; la segunda, la variabilidad en el tiempo, teniendo en cuenta que la educación es una combinación de acciones a corto, medio y largo plazo; la tercera, la existencia de factores externos no controlables por la institución educativa (p.e. una crisis económica); y cuarta, la dificultad de medir cuándo, dónde y qué aprende un estudiante, más allá de exámenes o trabajos. Incluso recogiendo los datos adecuados, el uso de Learning Analytics no puede predecir exactamente los resultados de un estudiante individual, pero sí identificar tendencias basadas en la experiencia.

Por lo tanto, es perfectamente posible plantearse preguntas a partir de los datos recogidos, con el objetivo de obtener respuestas que permitan afrontar mejor los diferentes retos presentes en la educación superior. Entre otros, reducir una elevada tasa de abandono, especialmente en los primeros cursos o semestres, o la personalización del proceso de aprendizaje, proporcionando un itinerario formativo y feedback adecuados a cada estudiante de acuerdo a su perfil y expectativas, mejorando su adquisición y desarrollo competencial. Los datos recogidos pueden aportar una nueva visión sobre problemas ya conocidos, siendo de alto valor estratégico para la institución.

Para ello, las instituciones educativas deben afrontar diferentes retos. El primero, de carácter más tecnológico, es acceder y organizar todos los datos disponibles, que pueden provenir de diferentes fuentes, en diferentes formatos y con una semántica compleja, sin interferir con los sistemas de información existentes. Esto puede ser conseguido mediante el uso de lo que se conoce como Learning Record Store (LRS), un sistema que recoge evidencias en un formato preestablecido, basado en la xAPI, una especificación (no estándar) para describir las acciones realizadas por los usuarios en un entorno virtual de aprendizaje. El objetivo es disponer de todos los datos en un formato conocido en un único punto de acceso, asegurando su completitud y calidad, mientras se asegura la privacidad mediante la anonimización de los mismos.

El segundo reto, de carácter más organizativo y ligado al escenario, es ser capaces de realizar las preguntas adecuadas, obtener los datos necesarios, construir los modelos de minería de datos y, finalmente, interpretar los resultados obtenidos, con el objetivo de realizar intervenciones que tengan efecto sobre algún aspecto del proceso de enseñanza-aprendizaje. Para ello es necesario disponer de un equipo multidisciplinar que conozca bien el dominio (en este caso, las particularidades de la educación superior), los procesos internos de la institución (incluyendo los sistemas de información y los datos que se recogen), las preguntas clave (tanto desde una perspectiva top-down, o institucional, como bottom-up, recogiendo necesidades de estudiantes y docentes) y, finalmente, expertos en minería de datos y visualización de información.

Este segundo punto es clave, dado que dicho equipo actúa como un think-tank operativo, convirtiendo evidencias en intervenciones educativas, generando durante el proceso un know-how que alimenta el propio proceso de mejora continua dentro de la institución. Según el modelo core/context de Geoffrey A. Moore, en el caso de una institución de educación superior online como la UOC, este equipo es uno de los valores clave del “core” de la institución, y puede ser una pieza crítica para la consecución de los objetivos relacionados con la actividad principal, es decir, proporcionar un servicio de calidad a los estudiantes y mantener una ventaja competitiva con respecto a otras instituciones educativas.

Julià Minguillón es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. Sus ámbitos de conocimiento son el aprendizaje virtual (e-learning) y los recursos educativos abiertos. Es investigador del grupo LAIKA (Learning Analytics for Innovation and Knowledge Application in Higher Education) y fue responsable del área de Investigación Aplicada del eLearn Center.

Referencias

Long, P.; Siemens, G. (2011). “Penetrating the fog: analytics in learning and education”. Educause Review Online 46 (5): 31-40. http://er.educause.edu/articles/2011/9/penetrating-the-fog-analytics-in-learning-and-education

Minguillón, J.; Santanach, F.; Appel, M. C. (2016). “Using learning analytics to support applied research and innovation in higher education”. En: EUA 2016 Annual Conference, Galway, April 7th. http://hdl.handle.net/10609/47501

Los Retos de la 5G

La reciente comercialización de la tecnología 4G, junto con la aparición de una amplia gama de proveedores de servicios over-the-top, han dado el pistoletazo de salida en la cursa hacia la llamada 5G. Pero realmente, ¿qué es la tecnología 5G?

 ¿Qué es la 5G?

Probablemente la denominación 5G (o quinta generación) sugiere cosas distintas a consumidores, operadores de telecomunicaciones, fabricantes, reguladores u organismos de estandarización. Esta ambigüedad provoca que en ciertos ambientes la denominación 5G se considere excesivamente publicitaria. De hecho, muy probablemente aquello que los operadores de telecomunicaciones comercializarán inicialmente como 5G distará mucho de lo que hoy en día entienden como tal los organismos de estandarización. Los motivos de dicha indefinición van, a menudo, más allá de los aspectos meramente tecnológicos y abarcan ámbitos de negocio.

En cualquier caso, y centrándonos en los aspectos técnicos, la definición de la tecnología 5G es una enumeración de escenarios y requisitos más que una definición formal. Ese conjunto de escenarios, así como los retos tecnológicos asociados a cada uno de ellos –en términos de velocidad de transmisión, latencia, capacidad, etc.-, suponen el punto de partida sobre el cual la industria, la academia, el regulador y los organismos de estandarización construyen la futura generación tecnológica.

¿Cuáles son los retos?     

Actualmente se establecen tres escenarios básicos de trabajo en el seno de 3GPP [1], organismo de estandarización de las comunicaciones celulares que aúna los trabajos de organizaciones de estandarización regionales tales como ETSI, ARIB, ATIS, etc. Los tres escenarios son los siguientes:

  • Comunicaciones de banda ancha que alcancen velocidades de transmisión del orden de los Gbps (enhanced Mobile Boroadband, eMBB).
  • Comunicaciones ultra-fiables con latencias bajas que permitan la automatización industrial, etc (Ultra-Reliable Low Latency Communications, URLLC).
  • Conexión masiva de terminales Machine-to-Machine que permita el desarrollo de la llamada IoT y las aplicaciones para, por ejemplo, smart cities (massive Machine Type Communications, mMTC).

Dichos escenarios -así como las intersecciones entre ellos- han acabado definiendo el conjunto de casos de interés (Figura 1) que, a su vez, se traduce en un conjunto de requisitos orientativos (Figura 2).

A menudo existe la confusión de que la red celular de quinta generación deberá alcanzar todos los objetivos simultáneamente. Por ejemplo, y según la Figura 2, un número de conexiones alrededor de 1 millón de dispositivos por km2 con una velocidad de pico de 20 Gbps. La realidad es completamente distinta. El objetivo tecnológico para la 5G es el diseño y construcción de una red de comunicaciones celulares lo suficientemente flexible como para cumplir en cada caso los requisitos impuestos por el servicio. Así, la 5G deberá permitir una alta densidad de usuarios -cerca de 1 millón de dispositivos por km2– con un consumo energético bajo y una latencia máxima, o un reducido número de dispositivos con velocidades de transmisión del orden de los Gbps. En definitiva, la característica fundamental de las redes 5G será la flexibilidad y la capacidad de adaptación, en parte gracias a conceptos tales como la Network Function Virtualization (NFV) [3].

Ferran Adelantado es profesor de los Estudios de Informática, Multimedia y Telecomunicaciones e investigador senior del grupo de investigación WiNe (Wireless Networks) de la UOC. Es ingeniero en telecomunicaciones y doctor por la UPC y graduado en ciencias empresariales por la UOC. Actualmente, es el director del programa doctoral NIT (Network and Information Technologies).

Enlace de interés: The European 5G Annual Journal 2016

Fuentes:

[1] http://www.3gpp.org/about-3gpp/about-3gpp

[2] International Telecommunications Union ITU-R, Recommendation M.2083-0 “IMT Vision – Framework and overall objectives of the future development of IMT for 2020 and beyond”, Sept. 2015.

[3] S. Abdelwahab et al., “ Network Function Virtualization in 5G”, IEEE Communications Magazine, vol. 54, no. 4, 2016.

Procesos de adquisición de TI en el sector público: ¿reglas diferentes?

Estos son días en que la política en los países democráticos da giros (¿ciertamente?) inesperados. En ocasiones así es fácil imaginar la incertidumbre y tensión que los procesos y los trabajadores del sistema público deben pasar: ¿cómo quedará todo?, ¿las nuevas políticas incorporarán cambios radicales en nuestro funcionamiento y en nuestros objetivos?, ¿cómo será nuestro nuevo responsable político?

¿Las reglas son distintas? Fuente: https://www.forensicmag.com/article/2014/07/switch-private-sector-digital-forensics

¿Las reglas son distintas? Fuente: https://www.forensicmag.com/article/2014/07/switch-private-sector-digital-forensics

A simple vista parece razonable pensar que situaciones de este tipo no se dan en el sector privado y que si se dan son mucho menos cíclicas. Sin embargo esta afirmación, desde la investigación científica, ha sido puesta tradicionalmente en duda en el caso de los procesos de adquisición de TI. Ya en 2004, en la International Conference on Information Systems (una conferencia, por cierto, que este diciembre tendremos en Europa, en Dublín concretamente), se presentó una mesa redonda titulada “Information Systems in Nonprofits and Governments: Do we need different theories?” [1] En ella, mientras Zmud defendía que las grandes reglas de la gestión de TI eran aplicables a cualquier organización con independencia de su sector, Carte proponía evitar la dicotomía entre público y privado usando el concepto de degree of publicness.

Carte considera que empresas privadas que dependen de los grandes contratos con el sector público, o las que pertenecen a sectores estratégicos (como el financiero, el energético o el industrial) tienen procedimientos tanto o más formalizados y burocratizados (entre ellos los de adquisición de TI) que los del sector público; y que además se mueven en un contexto igualmente complejo y con una gran diversidad de protagonistas con intereses confrontados. Y que, al contrario, hay instituciones de naturaleza pública (organismos autónomos, empresas públicas, por ejemplo) que tienen un degree of publicness bajo, porque muestran rasgos de comportamiento que son muy cercanos a los del sector privado.

Hemos tenido la oportunidad de dedicar un tiempo a analizar y sintetizar lo que las publicaciones científicas han dicho al respecto de la adquisición (externalización o outsourcing en sentido amplio) de TI entre 1990 y 2015 (lo que han dicho y dicen las publicaciones profesionales, habrá que dejarlo para otra ocasión). De esta síntesis emerge la idea que, efectivamente, ambos sectores, en lo que se refiere a estos procesos de adquisición de TI, no son en general radicalmente tan disjuntos como intuimos, y que el concepto de degree of publicness es de gran utilidad para explicar las similitudes y para proponer estrategias para la gestión de estos procesos.

Con todo, estas publicaciones también recogen que existen elementos que son indisociables del sector público y que, consecuentemente, sí deberían ser tenidos en cuenta siempre para cualquier profesional de TI que se vea involucrado en procesos de adquisición de TI en el sector público. Los resumimos brevemente:

Sobre las características condicionantes del sector público

  • La priorización de valores no economicistas es un elemento evidente: transparencia, imparcialidad y beneficio colectivo no son exigibles en el sector privado y si, en principio en el sector público.
  • Los procedimientos burocráticos, a diferencia del sector privado donde también existen en numerosas ocasiones, no pueden ser, en principio esquivados.
  • La volatilidad de los criterios y de los responsables políticos es, en general, superior y cada ciclo electoral acostumbra a significar un cambio incluso aunque no cambie el partido gobernante. Por la misma razón la permanencia o continuidad del equipo profesional interno es crítica para facilitar el mantenimiento y la continuidad de la relación con los proveedores y evitar riesgos de disrupción del servicio.
  • La contratación de profesionales por la exigencia de procesos complejos de selección (oposiciones) no es trivial. La, en principio, estabilidad laboral de los funcionarios, estimula a los profesionales a acercarse a este mercado de trabajo, sobre todo en momentos de crisis. Pero por otro lado, los relativamente bajos niveles de retribución, en comparación con los habituales del sector privado -al menos hasta antes de la última crisis- los ha venido desincentivando en momentos de bonanza económica.

Sobre los motivos para la adquisición externa de TI en el sector público están:

  • La posibilidad de superar los rígidos procesos de selección de profesionales.
  • La implantación de una cierta política industrial, es decir, de promocionar o facilitar la incorporación como proveedores públicos a empresas del ámbito de influencia de la administración pública en concreto (local, regional, estatal)

Sobre la gestión de la relación con los proveedores:

  • La importancia de aspectos no técnicos en la elección del proveedor (solvencia financiera, expectativas de continuidad y solidez) a veces es superior a la propia idoneidad tecnológica, dado que algunas contrataciones públicas no pueden llevarse a cabo si el proveedor no demuestra su fortaleza financiera y de permanencia.
  • La diferencia cultural, de valores y de comportamientos entre el sector público y privado generan dificultades cuando se intenta establecer una relación basada más en un sistema de partnership entre las dos partes. El sector público, en general, está más cómodo con una relación puramente contractual.

En definitiva, pues, aunque las similitudes existen y se pueden explicar por el degree of publicness, los elementos diferenciales son suficientemente importantes como para justificar una vigilancia de los impactos que ciertos cambios políticos puedan significar en estos procesos. Posiblemente, en un futuro no muy lejano será interesante preguntar, por ejemplo, a los trabajadores públicos del ámbito de TI de España o de Estados Unidos por su experiencia al respecto en este final de 2016.

[1] Zmud, R., T. Carte, & D. Teeni 2004. Information Systems in Nonprofts and Governments: Do We Need Different Theories? In ICIS’04: Proceedings of the 25th International Conference on Information Systems.

Dr. Josep Maria Marco es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y docente del ámbito de Management of Information Systems. Su investigación se focaliza, aunque no exclusivamente, en el estudio de los procesos de provisión de Servicios, Sistemas y Tecnologías de la Información (SSTI), así como en las prácticas de selección de proveedores de SSTI y de la gestión de la relación con ellos (con especial interés por el caso del sector público). Actualmente dirige el Postgrado en IT Project Management.

Smart City Expo World Congress: de la tecnología al ciudadano

smart-city-expo-world-congress-2016

Barcelona acogió del 15 al 17 de noviembre una nueva edición del congreso Smart City Expo World Congress (SCEWC), organizado por la Fira de  Barcelona en el recinto de Gran Via. El evento, que ha alcanzado su sexta edición, se ha convertido en el certamen de referencia a nivel mundial sobre ciudades inteligentes. El congreso contó con la representación de más de 600 ciudades de todo el mundo que aprovecharon el evento para compartir sus experiencias en la transición tecnológica y de gestión que supone la ciudad inteligente, además de dar a conocer las empresas que han acompañado a las ciudades en dicha transición, en una combinación de pequeñas y medianas empresas con los grandes actores del sector tecnológico. En esta ocasión el SCEWC ha repetido la fórmula de combinar las oportunidades de negocio, mediante la presencia de 576 expositores, con la difusión de conocimiento en una sección de ponencias que contó con 412 expertos que hablaron sobre gobernabilidad, economía, sociedad, sostenibilidad, movilidad, datos y tecnología, y seguridad.

La transición hacia la integración de servicios

En la edición de este año, el SCEWC ha reflejado una maduración en el sector de la tecnología para la ciudad inteligente. Si en ediciones anteriores los expositores mostraron productos independientes que podían conectarse a redes de comunicación, en la presente edición hemos podido ver soluciones integradas cubriendo diferentes verticales de negocio relacionadas con la ciudad inteligente. Una de las protagonistas de esta edición han sido las plataformas de gestión integral para la ciudad inteligente. Las principales empresas tecnológicas han presentado sus soluciones para la gestión y monitorización en tiempo real de los datos recogidos a partir de sensores y actuadores, así como la integración de diferentes fuentes de datos en abierto, para la mejora de la gestión de las ciudades. Entre las novedades en este ámbito sobresalen la apuesta por el uso del cloud, y el empleo de técnicas de análisis de datos para poder predecir futuras necesidades.

Movilidad, eficiencia energética y seguridad

Otro de los aspectos interesantes de esta edición del SCEWC ha sido la apuesta por el coche conectado y en general la mejora de la movilidad en las ciudades. Varias empresas han mostrado sus soluciones de monitorización de tráfico y comunicación vehicular. En especial, los operadores de telefonía móvil han entrado en este negocio, en el que pueden aprovechar un activo principal como es la ubicación de sus usuarios (gracias a la señal que emiten los teléfonos móviles) tanto en la ciudad como en la carretera.

También la eficiencia energética sigue siendo uno de los pilares principales en cuanto a soluciones para la ciudad inteligente. En el SCEWC se vieron diferentes soluciones desde  alumbrado público inteligente,  que tiene en cuenta la presencia de personas o información meteorológica para regular su funcionamiento, a sensores para monitorizar el consumo energético.

Otra de las tendencias que se han confirmado en esta SCEWC son los productos y servicios de seguridad y vigilancia mediante el uso de cámaras y la mejora de técnicas de visión por computador. Aunque la regulación y el posible uso de estos productos puede variar mucho en función de cada país, la amplia presencia en el congreso refleja una necesidad creciente de este tipo de soluciones.

El papel del ciudadano en la ciudad inteligente

Si bien la mayoría de las ponencias del SCEWC se centraron en la idea que el día a día del ciudadano sea más sostenible, eficiente y cómodo, la presencia del ciudadano, y su papel en la Smart City, en la exposición era claramente menor. Más allá de los evidentes beneficios que suponen para el ciudadano las soluciones presentadas en el SCEWC, las herramientas de comunicación, transparencia y participación ciudadana siguieron teniendo una presencia residual en el principal congreso de las ciudades inteligentes.

Las comunicaciones que vienen

Finalmente, el auge del denominado Internet de las Cosas, en el que se dota a multitud de objetos de capacidad de comunicación, hace prever la inminente necesidad de nuevas tecnologías de comunicación sin hilos. Este problema es aún más importante en la ciudad, en la que la densidad de estos dispositivos puede afectar no solo el funcionamiento de los mismos, sino muchos otros tipos de comunicación como por ejemplo el propio WiFi que tengamos en casa. Las grandes empresas tecnológicas no son ajenas a esta problemática y han presentado en el SCEWC novedades ligadas al desarrollo de soluciones mediante WiFi, LTE (nueva generación móvil) y LP-WAN (redes de largo alcance y bajo consumo).

 

Como conclusión, la presencia de grandes empresas tecnológicas, startups y centros de investigación, confirma el papel fundamental de la tecnología en la Smart City. También desde la UOC seguimos de cerca este fenómeno y participamos de forma activa en la formación de los futuros profesionales del ámbito de las ciudades inteligentes mediante el Posgrado en Smart Cities: ciudad y tecnología. Las ciudades inteligentes han dejado de ser un mero concepto o moda, para convertirse en una realidad en todo el mundo. El hecho que más de 600 ciudades hayan acudido al SCEWC para compartir su experiencia en la transformación hacia la ciudad inteligente demuestra una madurez que se ha visto reflejada en los diferentes ámbitos del congreso.

 

Joan Melià es Ingeniero de Telecomunicación por la Universitat Politècnica de Catalunya, y Doctor por la Universidad Oberta de Catalunya. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde participa en el Posgrado en “Smart Cities: Ciudad y Tecnología”.

Carlos Monzo es Ingeniero de Telecomunicación y Doctor por la Universidad Ramon Llull. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el Director académico del Posgrado en “Smart Cities: Ciudad y Tecnología”.