La aplicación del Internet de las Cosas en el ámbito de la Industria: el mantenimiento predictivo

(Trobareu la versió en català més avall)

Desde su aparición a finales de la década de los 50, la evolución tecnológica en el campo de la informática y las telecomunicaciones han evolucionado seguido dos grandes leyes[1]: la Ley de Moore (Gordon Moore, 1965) y la Ley de Bell (Gordon Bell, 1972).

Por un lado, la Ley de Moore enuncia que el número de transistores en un circuito integrado se duplica cada dos años aproximadamente gracias a la evolución tecnológica de los procesos de fabricación de los semiconductores. Los primeros microprocesadores (Intel 4004) se fabricaron a principios de los años 70 con tecnología de 10 micrómetros, mientras que los microprocesadores actuales (ARM Cortex A-53) se fabrican con tecnología de 10 nanómetros (¡como referencia, el diámetro de un cabello es de entre 60 y 80 micrómetros!). Esto supone una reducción de tres órdenes de magnitud en cinco décadas, lo que ha propiciado el aumento de la capacidad de cómputo, la reducción del consumo energético o la optimización de los costes de producción de estos dispositivos.

Por otra parte, la Ley de Bell enuncia que, gracias a la evolución tecnológica que propicia la Ley de Moore, cada década aparece una nueva clase de sistemas de computación (incluyendo el sistema operativo, la red de comunicaciones y la interfaz de usuario) que establece un nuevo paradigma de aplicación y una nueva industria. De esta forma, hemos visto como la década de los 90 supuso la explosión de la informática personal y la popularización de Internet, la década de 2000 supuso la explosión de la informática móvil y las comunicaciones celulares, y la década de 2010 está suponiendo la explosión de la informática y las comunicaciones ubicuas.

Así pues, hoy en día estamos plenamente inmersos en esta tercera ola basada en la computación y las comunicaciones ubicuas fundamentadas con tecnologías como los sistemas empotrados (en inglés, embedded systems), las redes inalámbricas de gran alcance y bajo consumo (en inglés, low-power wide-area network), la computación en la nube (en inglés, cloud computing), y el aprendizaje automático (en inglés, machine learning). Estas tecnologías permiten crear sistemas distribuidos interconectados a través de Internet que recogen, agregan y procesan datos de parámetros físicos (temperatura, vibraciones, consumo eléctrico, etc.), permitiendo monitorizando y controlando su funcionamiento. Este concepto es lo que se conoce como Internet de las Cosas (en inglés, Internet of Things) y tiene aplicación en diferentes ámbitos de la sociedad, desde las ciudades hasta la industria, ya que permite conocer el estado de los sistemas y optimizar su funcionamiento en tiempo real.

Precisamente en el ámbito de la industria la aplicación de las tecnologías que conforman la Internet de las Cosas supone una revolución similar a lo que supuso la aplicación del concepto fabricación integrada por ordenador (en inglés, Computer Integrated Manufacturing o CIM) a finales de los años 80 gracias al aumento de la capacidad y la reducción de los precios de los ordenadores. Así pues, la aparición de este conjunto de tecnologías permitirá que, por primera vez, se pueda llevar a la práctica conceptos que hasta ahora sólo se habían teorizado o bien se habían aplicado de manera residual debido al elevado coste de implantación.

Un ejemplo paradigmático es el del mantenimiento predictivo. Hasta ahora el mantenimiento de la maquinaria industrial se había realizado o bien de manera correctiva (es decir, reparando la máquina una vez se producía una avería) o bien de forma preventiva (es decir, haciendo mantenimientos periódicos a partir de modelos estadísticos para evitar que la máquina llegara a romperse). Si bien estas aproximaciones han dado resultados satisfactorios, distan de ser los óptimos debido que no se puede controlar todos los parámetros de funcionamiento de una máquina de manera manual y, por tanto, no es posible prever cuándo se producirá un fallo. Esto implica unos costes de mantenimiento elevados y un impacto temporal en los procesos productivos, lo que resulta inaceptable en un momento en que la presión de los costes se está trasladando a los procesos de fabricación.

En cambio, la aplicación de las tecnologías que conforman el Internet de las Cosas habilita la monitorización continua del funcionamiento de las máquinas que conforman un proceso productivo y permiten la creación de modelos matemáticos que determinan el funcionamiento en condiciones de trabajo normal. A partir de ahí, cualquier desviación de los parámetros de funcionamiento respecto al modelo de trabajo establecido será un indicador que permitirá estimar la probabilidad de que suceda un fallo f en un tiempo ti con un impacto x, y que permitirá a los responsables del proceso decidir la actuación a realizar según la relación coste / beneficio. Así pues, en el caso de fallos inminentes con un impacto elevado habrá parar el proceso productivo y realizar la reparación pertinente, pero se podrá minimizar el tiempo de intervención y el gasto que puede suponer la ruptura de un sistema. En cambio, por fallos no críticas o con incidencia a medio plazo, se podrá planificar la intervención del mantenimiento para minimizar el impacto sobre el proceso productivo.

Pero a pesar de las ventajas que supone a priori, la aplicación del mantenimiento predictivo en la industria todavía está lejos de su aplicación ubicua debido a tres factores principales que limitan la adopción. En primer lugar, el sector industrial es un entorno donde conviven tecnologías del pasado (imagináis una prensa hidráulica para la estampación de chapa en el sector del automóvil) y donde se trabaja con condiciones adversas (temperatura, vibraciones, polvo, interferencias electromagnéticas, etc.), de forma que hay que pensar cómo integrar estas tecnologías y hacerlas robustas. En segundo lugar, la creación de los modelos matemáticos que permitan determinar el funcionamiento de una máquina no es evidente, pues hay que asociar el cambio en cada una de las magnitudes físicas con la avería que se puede producir, así como determinar el tiempo en que se producirá la avería y el impacto que puede tener en el proceso productivo.

Si bien estos dos primeros factores son críticos, pienso que serán superados por los propios fabricantes de los dispositivos y de las máquinas, respectivamente, para que la inversión en estas tecnologías tenga un retorno de la inversión positivo. En cambio, el último factor es de tipo humano y pienso que supone un reto organizativo y formativo para las empresas industriales que quieran integrar estas tecnologías en sus procesos productivos de manera satisfactoria.

En cuanto el nivel organizativo, hasta ahora el mantenimiento ha jugado un papel secundario, convirtiéndose en el actor principal sólo en los casos en que se produce un fallo que impacte el proceso productivo. En cambio, con la aplicación de estas tecnologías el mantenimiento pasa a ser un protagonista principal, encargándose de planificar el funcionamiento del proceso productivo para garantizar que no se produzcan fallos inesperados que impacten en su capacidad.

En cuanto el nivel formativo, la aplicación de estas tecnologías supone un cambio sustancial en las operaciones que debe realizar mantenimiento en su día a día. Con este cambio de rol el personal de mantenimiento deberá elegir y desarrollar las tecnologías que permiten la adquisición de datos de las máquinas, determinar la mejor estrategia para procesar los datos y saber interpretar los resultados con el fin de tomar decisiones informadas.

Así pues, habrá que llevar a cabo un proceso formativo del personal de mantenimiento, típicamente formado en el ámbito industrial, para que incorporen los conocimientos propios del ámbito de las tecnologías que conforman la Internet de las Cosas (sistemas empotrados, redes inalámbrica de gran alcance y bajo consumo, computación en la nube y el aprendizaje automático) y puedan contribuir al diseño, el desarrollo, la explotación y el mantenimiento de estos sistemas con el objetivo de garantizar su funcionamiento y el retorno de la inversión.

[1] Bell’s Law for the Birth and Death of Computer Classes, Gordon Bell. Disponible en línea en: http://gordonbell.azurewebsites.net/cacm%20bell’s%20law%20vol%2051.%202008-january.pdf

Este artículo fue originalmente publicado en la revista Telecos.cat del colectivo de Enginyers de Telecomunicació de Catalunya que podéis encontrar aquí.

 

Pere Tuset-Peiró es doctor en Tecnologías de la Información y las Comunicaciones por la Universitat Oberta de Catalunya. Es profesor lector de los Estudios de Informática, Multimedia y Telecomunicación, e investigador del Grupo Wine (Wireless Networks) en el Internet Inter-disciplinary Institute, ambos de la Universitat Oberta de Catalunya. Su actividad docente e investigadora se centra en el ámbito de los sistemas ciberfísicos aplicados a la industria, incluyendo los sistemas empotrados, las redes de comunicaciones y el procesamiento de la señal.

 

L’aplicació de l’Internet de les Coses en l’àmbit de la Indústria: el manteniment predictiu

Des de la seva aparició a finals de la dècada dels 50, l’evolució tecnològica en el camp de la informàtica i les telecomunicacions han evolucionat seguit dos grans lleis[1]: la Llei de Moore (Gordon Moore, 1965) i la Llei de Bell (Gordon Bell, 1972).

D’una banda, la Llei de Moore enuncia que el nombre de transistors en un circuit integrat es dobla cada dos anys aproximadament gràcies a l’evolució tecnològica dels processos de fabricació dels semiconductors. Els primers microprocessadors (Intel 4004) es van fabricar a principis dels anys 70 amb tecnologia de 10 micròmetres, mentre que els microprocessadors actuals (ARM Cortex A-53)  es fabriquen amb tecnologia de 10 nanòmetres (com a referència, el diàmetre d’un cabell és d’entre 60 i 80 micròmetres!). Això suposa una reducció de tres ordres de magnitud en cinc dècades, fet que ha propiciat l’augment de la capacitat de còmput, la reducció del consum energètic o la optimització dels costos de producció d’aquests dispositius.

D’altra banda, la Llei de Bell enuncia que, gràcies a l’evolució tecnològica que propicia la Llei de Moore, cada dècada apareix una nova classe de sistemes de computació (incloent-hi el sistema operatiu, la xarxa de comunicacions i la interfície d’usuari) que estableix un nou paradigma d’aplicació i una nova industria. D’aquesta forma, hem vist com la dècada dels 90 va suposar l’explosió de la informàtica personal i la popularització d’Internet, la dècada del 2000 va suposar l’explosió de la informàtica mòbil i les comunicacions cel·lulars, i la dècada de 2010 està suposant l’explosió de la informàtica i les comunicacions ubiques.

Així doncs, avui en dia estem plenament immersos en aquesta tercera onada basada en la computació i les comunicacions ubiques fonamentades amb tecnologies com els sistemes encastats (en anglès, embedded systems), les xarxes sense fils de gran abast i baix consum (en anglès, low-power wide-area network), la computació al núvol (en anglès, cloud computing), i l’aprenentatge automàtic (en anglès, machine learning). Aquestes tecnologies permeten crear sistemes distribuïts interconnectats a través d’Internet que recullen, agreguen i processen dades de paràmetres físics (temperatura, vibracions, consum elèctric, etc.), permetent monitoritzant-ne i controlant-ne el funcionament. Aquest concepte és el que es coneix com Internet de les Coses (en anglès, Internet of Things) i té aplicació en diferents àmbits de la societat, des de les ciutats fins a la indústria, ja que permet conèixer l’estat dels sistemes i optimitzar-ne el seu funcionament en temps real.

Precisament en l’àmbit de la indústria l’aplicació de les tecnologies que conformen l’Internet de les Coses suposa una revolució similar al que va suposar l’aplicació del concepte fabricació integrada per ordinador (en anglès, Computer Integrated Manufacturing o CIM) a finals dels anys 80 gràcies a l’augment de la capacitat i la reducció dels preus dels ordinadors. Així doncs, l’aparició d’aquest conjunt de tecnologies permetrà que, per primera vegada, es pugui portar a la pràctica conceptes que fins ara només s’havien teoritzat o bé s’havien aplicat de manera residual degut a l’elevat cost d’implantació.

Un exemple paradigmàtic és el del manteniment predictiu. Fins ara el manteniment de la maquinaria industrial s’havia realitzat o bé de manera correctiva (és a dir, reparant la màquina un cop es produïa una averia) o bé de manera preventiva (és a dir, fent manteniments periòdics a partir de models estadístics per tal d’evitar que la màquina arribés a trencar-se). Si bé aquestes aproximacions han donat resultats satisfactoris, disten de ser els òptims degut que no es pot controlar tots els paràmetres de funcionament d’una màquina de manera manual i, per tant, no és possible preveure quan es produirà una fallada. Això implica uns costos de manteniment elevats i un impacte temporal en els processos productius, fet que resulta inacceptable en un moment on la pressió dels costos s’està traslladant als processos de fabricació.

En canvi, l’aplicació de les tecnologies d’Internet de les Coses habiliten la monitorització continua del funcionament de les màquines que conformen un procés productiu i permeten la creació de models matemàtics que en determinen el funcionament en condicions de treball normal. A partir d’aquí, qualsevol desviació dels paràmetres de funcionament respecte el model de treball establert serà un indicador que permetrà estimar la probabilitat que succeeixi una fallada f en un temps t i amb un impacte x, i que permetrà als responsables del procés decidir l’actuació a realitzar segons la relació cost/benefici. Així doncs, en el cas de fallades imminents amb un impacte elevat caldrà parar el procés productiu i realitzar la reparació pertinent, però es podrà minimitzar el temps d’intervenció i la despesa que pot suposar el trencament d’un sistema. En canvi, per fallades no crítiques o amb incidència a mig termini, es podrà planificar la intervenció del manteniment per tal de minimitzar l’impacte sobre el procés productiu.

Però a pesar dels avantatges que suposa a priori, l’aplicació del manteniment predictiu en la indústria encara està lluny de la seva aplicació ubiqua degut a tres factors principals que en limiten l’adopció. En primer lloc, el sector industrial és un entorn on conviuen tecnologies del passat (imagineu una premsa hidràulica per l’estampació de xapa en el sector de l’automòbil) i on es treballa amb condicions adverses (temperatura, vibracions, pols, interferències electromagnètiques, etc.), de forma que cal pensar com integrar aquestes tecnologies i fer-les robustes. En segon lloc, la creació dels models matemàtics que permetin determinar el funcionament d’una màquina no és evident, doncs cal associar el canvi en cadascuna de les magnituds físiques amb l’avaria que es pot produir, així com determinar el temps en que es produirà l’avaria i l’impacte que pot tenir en el procés productiu.

Si bé aquests dos primers factors son crítics, penso que seran superats pels propis fabricants dels dispositius i de les màquines, respectivament, per tal que la inversió en aquestes tecnologies tingui un retorn de la inversió positiu. En canvi, el darrer factor és de caire humà i penso que suposa un repte organitzatiu i formatiu per les empreses industrials que vulguin integrar aquestes tecnologies en els seus processos productius de manera satisfactòria.

Pel que fa el nivell organitzatiu, fins ara el manteniment ha jugat un paper secundari, esdevenint l’actor principal només en els casos en que es produeix una fallada que impacti el procés productiu. En canvi, amb l’aplicació d’aquestes tecnologies el manteniment passa a ser un protagonista principal, encarregant-se de planificar el funcionament del procés productiu per garantir que no es produeixin fallades inesperades que impactin en la seva capacitat.

Pel que fa el nivell formatiu, l’aplicació d’aquestes tecnologies suposa un canvi substancial en les operacions que ha de realitzar manteniment en el seu dia a dia. Amb aquest canvi de rol el personal de manteniment haurà de triar i desplegar les tecnologies que permeten l’adquisició de dades de les màquines, determinar la millor estratègia per processar les dades i saber interpretar-ne els resultats per tal de prendre decisions informades.

Així doncs, caldrà dur a terme un procés formatiu del personal de manteniment, típicament format en l’àmbit industrial, per tal que incorporin els coneixements propis de l’àmbit de les tecnologies que conformen l’Internet de les Coses (sistemes encastats, xarxes sense fils de gran abast i baix consum, computació al núvol i l’aprenentatge automàtic) i puguin contribuir al disseny, el desplegament, l’explotació i el manteniment d’aquests sistemes amb l’objectiu de garantir-ne el funcionament i el retorn de la inversió.

[1] Bell’s Law for the Birth and Death of Computer Classes, Gordon Bell. Disponible en línia a: http://gordonbell.azurewebsites.net/cacm%20bell’s%20law%20vol%2051.%202008-january.pdf

Aquest article va ser originalment publicat a la revista Telecos.cat del col·lectiu d’Enginyers de Telecomunicació de Catalunya que podeu trobar aquí.

 

Pere Tuset-Peiró és doctor en Tecnologies de la Informació i les Comunicacions per la Universitat Oberta de Catalunya. És professor lector dels Estudis d’Informàtica, Multimèdia i Telecomunicació, i investigador del Grup Wine (Wireless Networks) a l’Internet Inter-disciplinary Institute, ambdós de la Universitat Oberta de Catalunya. La seva activitat docent i investigadora es centra en l’àmbit dels sistemes ciberfísics aplicats a la indústria, incloent els sistemes encastats, les xarxes de comunicacions i el processament del senyal.

Uso de RFID en la industria

Ahora que estamos en plena época de rebajas será muy habitual que, antes de decidirnos por comprar (por ejemplo) una prenda de vestir u otra, comprobemos el precio online en el móvil y su disponibilidad en una tienda, antes de pasarnos a comprobar cuál es nuestra talla exacta. Conocer en tiempo real la disponibilidad de un producto en una tienda es posible gracias a la tecnología RFID. Pero ¿qué es exactamente la tecnología RFID?

La tecnología RFID (del acrónimo en inglés Radio Frequency IDentification) es un sistema de comunicación compuesto por un equipo lector, una o varias etiquetas, y opcionalmente un sistema de información para la gestión del sistema. El equipo lector inicia la comunicación enviando una señal a la que responden las etiquetas en el rango de comunicación, “identificándose” mediante un código único almacenado en la etiqueta.

Existen diferentes tecnologías RFID (EPC, NFC, etc.). Éstas se pueden clasificar por el tipo de energía (activas o pasivas), o por la banda frecuencial de funcionamiento. En este artículo nos centraremos en la tecnología UHF pasiva, también conocida como EPC Gen2. Es decir,  funcionando en la banda UHF (entre 860 y 960 MHz en función del país de funcionamiento) y sin baterías (el lector proporciona energía que las etiquetas reflejan en parte en forma de respuesta).

La particularidad de esta tecnología reside en la simplicidad de las etiquetas, compuestas por una antena y un chip muy simple, lo que reduce su coste a unos pocos céntimos, convirtiéndola en un estándar de facto en la industria. La simplicidad de las etiquetas permite su funcionamiento con muy poca potencia, lo que es muy importante considerando que la distancia de lectura disminuye exponencialmente tanto en emisión como en recepción en los sistemas pasivos. En este caso su rango de lectura se amplía hasta los 10 metros, en comparación a los pocos centímetros de otras tecnologías RFID pasivas.

A continuación se describen algunas de las industrias en las que RFID tiene una presencia importante:

Retail/Moda:

Empresas de retail (venta al por menor) y moda fueron unos de los primeros en adoptar la tecnología RFID. Partiendo de la fabricación de los productos, pasando por toda la cadena de suministro, hastas la monitorización en las tiendas, la tecnología RFID ofrece ventajas tales como inventariado automático, la localización de los productos, o la monitorización de actividad en las tiendas en tiempo real. Un estudio reciente de la Universidad de Parma concluye que la tecnología RFID ya es una realidad en estas industrias que consumen el 75% del total de etiquetas RFID en la industria.

Fabricación:

Aumentar la eficiencia es clave en todos los procesos de fabricación. La tecnología RFID ofrece la posibilidad de mejorar la eficiencia en aspectos como la trazabilidad de herramientas y activos, o la monitorización de dispositivos.

Salud/Farmacéuticas:

Los hospitales están empezando a utilizar RFID para mejorar la seguridad y seguimiento de los pacientes, incremento de eficiencia en los recursos, seguimiento en tiempo real, y la reducción de errores gracias al control automático.

Defensa/Aeroespacio:

En una industria tan sensible a la seguridad como la aeroespacial, la tecnología RFID se utiliza en empresas como Boeing y Airbus para identificar los diferentes componentes de un avión durante el proceso de fabricación.

Cadena de suministro/Logística:

La industria logística también está realizando una gran apuesta por la tecnología RFID. Por ejemplo, el control de calidad automático en el reparto de mercancías, o comprobación en tiempo real del estado de los envíos, ofrecen nuevas posibilidades en esta industria.

 

Hasta este punto nos hemos centrado en la aplicación convencional de la tecnología RFID, es decir, obtener un código único de identificación de forma automática a partir de la etiqueta RFID de un objeto. Pero las posibilidades de la tecnología RFID no acaban aquí. En los últimos años han aparecido nuevas aplicaciones y productos que, a partir de las posibilidades de la transmisión de información de forma pasiva, han ampliado las funcionalidades de la tecnología RFID.

Es el caso por ejemplo de la combinación de sensores y RFID. Como se ha comentado antes, una etiqueta RFID refleja parte de la energía que recibe por parte del lector para generar una respuesta. Esta energía puede servir también para alimentar un sensor integrado en la etiqueta RFID, y aprovechar la respuesta de la etiqueta RFID para transmitir el valor generado por el sensor.

La integración de sensores en etiquetas RFID permite sensorizar de forma pasiva. Esto permite aplicaciones de sensorización sin la dependencia de baterías, lo que evita por ejemplo la necesidad de paradas en el sistema para la reposición de baterías. Por contra, se reduce la distancia de funcionamiento ya que el sensor necesita más potencia para su funcionamiento.

Finalmente, además del código de identificación las etiquetas generan información de contexto como la frecuencia de lectura, o potencia y fase de la señal. Por ejemplo, una mayor frecuencia o potencia de lectura indica una recepción óptima, y una reducción de estos parámetros indica una pérdida de calidad en la recepción. La tecnología conocida como antenna-based sensing permite aprovechar esta información y relacionarla con parámetros físicos como la distancia de lectura o la degradación de la etiqueta. La generalización de las técnicas de inteligencia artificial permitirá aprovechar esta información contextual para convertir las etiquetas RFID en sensores, generando nuevas aplicaciones y posibilidades en el ámbito industrial.

 

Joan Melià es Ingeniero de Telecomunicación por la Universitat Politècnica de Catalunya, y Doctor por la Universidad Oberta de Catalunya. Actualmente trabaja como profesor en la  Universitat Oberta de Catalunya, donde participa en el Posgrado en “Smart Cities: Ciudad y Tecnología”.

Xavier Vilajosana es doctor e investigador principal del grupo de investigación Wireless Networks de la UOC, así como profesor de los Estudios de Informática, Multimedia y Telecomunicaciones. Además, Xavier es co-fundador de Worldsensing y OpenMote Technologies, dos start-ups pioneras en desarrollo de tecnología relacionada con la Internet Industrial.  Xavier es autor de diversas patentes, estándares y publicaciones científicas en el ámbito de la Industria 4.0.

Usos avanzados de la Inteligencia Analítica en Sanidad

En su introducción al compendio Analytics in Healthcare and the Life SciencesDwight McNeill, llama la atención sobre la ironía que representa que, en un sector fundado en la investigación masiva sobre el origen y el tratamiento de las enfermedades y donde los profesionales son gente bien formada y entrenada, la cultura de los datos no está bastante extendida ni entre los clínicos ni entre los gestores. Hace unos años, el famoso estudio de McKinsey sobre Big Data en Sanidad también mostraba la disparidad entre el potencial y la realidad. En la adaptación del modelo Delta de madurez analítica que ha hecho Tom Davenport con el HIMSS, la mayoría de los hospitales se sitúa en el estadio 2 de 5, o sea el de la inteligencia de negocio localizada en los informes financieros y de actividad.

Descargar (PDF, 69KB)

Fuente: Cortesía de Althaia Xarxa Assistencial de Manresa, a partir de Jason Burke (2013)

He trabajado en los últimos años con varios grupos sanitarios y nos ha costado casi siempre encontrar ideas, proyectos y liderazgos que vayan más allá del reporting tradicional, de la epidemiología clásica o de problemas operativos que se resuelven mejor con los sistemas de gestión transaccionales (los ERP, ciertamente, no son muy inteligentes y entonces es lo que pasa). Nos referimos a todo ésto en un post anterior.

Es verdad que las cosas van mejorando y encuentro también algunas iniciativas ambiciosas e interesantes y quizá el modelo teórico basado en “estadios” deba superarse. Por ejemplo, a partir del marco de trabajo formulado por Jason Burke, que fue el líder de SAS para el sector sanitario y uno de los mayores expertos en esta materia, podríamos caracterizar los usos de la Inteligencia Analítica más bien en un continuo a lo largo de dos ejes: en un eje vamos de los usos de gestión o de negocio a los usos asistenciales o clínicos; en el otro, avanzamos de los usos descriptivos a los usos preventivos, predictivos y, en última instancia, al aprendizaje automático y la inteligencia artificial.

De este modo, como muestra la gráfica de hoy:

  • en el cuadrante inferior izquierdo situamos el espacio que se ha llamado tradicionalmente la gestión del rendimiento empresarial (corporate performance mangement): el reporting financiero y de actividad, el análisis de costes y la dirección por objetivos (DPO).
  • en el cuadrante inferior derecho, situamos el análisis de actividad y consumos, el análisis de la complejidad (case-mix), el seguimiento de los estándares de calidad y seguridad del paciente y el análisis de la variabilidad de la práctica clínica entre profesionales, pacientes, casos y enfermedades.
  • en el cuadrante superior izquierdo, la dirección intenta disponer de un sistema de reporting estratégico (o sea entender ahora y en el futuro a qué clientes servimos, con qué productos y cuál es nuestro modelo de negocio), para diseñar nuevos servicios, nuevas fuentes de ingresos y prepararse para nuevas formas de pago (por ejemplo, por capitación).
  • finalmente, en el cuadrante superior derecho, los líderes y profesionales de la asistencia investigan e incorporan a la práctica nuevos tratamientos y procedimientos cada vez más individualizados basados en la evidencia, mezclando sus datos locales con millones de datos de cualquier lugar y naturaleza (por ejemplo, datos genéticos). Los patrones se pueden incorporar a la programación y gestión operativa y a la propia estación clínica de trabajo.

Como promete la iniciativa de la “medicina de precisión” fundada por Obama en 2015 o el programa de Right Care del Servicio de Salud británico, el uso de datos como ayuda para la planificación y la asistencia, permite eliminar variaciones en el diagnóstico, estandarizar las prácticas, individualizar los tratamientos cuando hace falta, aumentar la calidad y la satisfacción, involucrar a los pacientes en el cuidado de su salud y, finalmente, reducir los costes.

Hablaremos de ésto en la siguiente entrada.

Previsiones y realidad de la Realidad Virtual: Evolución 2015-2017

Photo by Samuel Zeller on Unsplash

Se ha publicado en el Repositorio Institucional O2 el informe “Previsiones y realidades de la Realidad Virtual. Evolución 2015-2017(en catalán) realizado conjuntamente por miembros del Observatorio Tecnológico de los Estudios de Informática, Multimedia y Tecnología y el equipo de Investigación y Análisis de Tendencias del eLearn Center de la Universitat Oberta de Catalunya.

El ánimo ha sido hacer una compilación de las previsiones en contraste con las realidades en materia de Realidad Virtual (RV) que se han ido manifestando desde el año 2015 hasta el 2017, tal como se hizo dentro del ámbito de la Inteligencia Artificial con el informe “Previsiones y Realidades de la Inteligencia Artificial. Evolución 2015-2017“. El objetivo es ver por un lado cual ha sido la evolución de la RV y cómo ha impactado en nuestras vidas y del otro, hasta qué punto se han hecho realidad, o no, los pronósticos que se habían hecho.

Para hacer este informe, se ha recogido la información de dos fuentes principales: las previsiones de tendencias de medios especializados y las noticias e informes de fuentes más o menos divulgativas del ámbito.

El documento se estructura por años, mostrándose las previsiones y realidades, en cuanto a la aplicación de la RV en diferentes ámbitos. Al final del documento se incluye la siguiente infografía de resumen y un apartado de conclusiones, haciendo un recorrido de la trayectoria de la RV en este periodo de tres años.

EIMT y eLearn Center (2018). Previsiones y realidades de la Realidad Virtual. Evolución 2015-2017. Barcelona, UOC. Enlace handle (en catalán) http://hdl.handle.net/10609/86065. 

10 años de Bitcoin

(Trobareu la versió en català més avall)

El 3 de enero de 2009, hará ahora ya 10 años, que se minó el bloque génesis de la blockchain de Bitcoin. Entre los datos de este primer bloque, el creador o creadores de la primera criptomoneda incluían la frase: “The Times 03/Jan/2009 Chancellor on brink of second bailout for banks”, titular de portada de ese mismo día en el periódico The Times, y que posiblemente reflejaba alguno de los motivos detrás de la creación de la primera criptomoneda. En este post repasaremos algunos de los hitos más importantes relacionados con Bitcoin acaecidos estos últimos 10 años.  

Figura: Portada de The Times del 3 de enero de 2009. Fuente [https://www.phneep.com/wp-content/uploads/2017/09/The-Times_Bitcoin_Genesis_Block-sm.jpg]

Para empezar, vamos a recordar que Bitcoin fue propuesto el 31 de octubre de 2008 en el white paper “Bitcoin: a Peer-to-Peer Electronic Cash System”. En estos momentos todavía se desconoce quién es o quienes son su autor o autores, que se esconden bajo el pseudónimo Satoshi Nakamoto. Sin embargo, se cree que la creación de Bitcoin aparece como respuesta a la crisis económica y al rescate de la banca, surgiendo como una alternativa a las monedas tradicionales controladas por gobiernos y bancos.

Al cabo de unos meses desde la publicación del white paper, fue cuando podemos considerar que Bitcoin empezó a andar más allá de una explicación puramente teórica de su funcionamiento. Satoshi Nakamoto implementó una primera versión del protocolo con la que el 3 de enero de 2009 se minó el primer bloque. Unos días más tarde, el día 12 de enero se ejecutó la primera transacción. Ésta fue una transacción de 10 bitcoins que Satoshi Nakamoto hizo en favor del desarrollador de software Hal Finney.

Una de las primeras notas negativas se produjo al cabo de poco tiempo. En agosto de 2010, se llevó a cabo el primer ataque importante a Bitcoin. Aprovechando un ataque de overflow, un atacante logró realizar un envío de más de 184 mil millones de bitcoins, hecho que infringe el protocolo en varios aspectos. La vulnerabilidad fue arreglada a las pocas horas, lo que provocó un fork en la cadena para revertir el ataque.

Por otro lado, ese mismo año, el 22 de mayo de 2010, se produce uno de los hitos más conocidos en la historia de Bitcoin, la compra del primer bien usando esta criptomoneda. La transacción económica fue algo peculiar, ya que fue Jeremy Sturdivant (alias jercos) quien a través de un foro buscó a alguien que le comprara un par de pizzas a cambio de 10.000 bitcoins. Cualquiera que haya seguido la evolución del precio del bitcoin puede suponer lo que significa esta cifra. El precio actual de estas pizzas sería de más de 30 millones de dólares. ¡Buen provecho!  

Unos años más tarde, en septiembre de 2012, cuando Bitcoin ya empezaba a ser mundialmente conocido, nació la Bitcoin Foundation con el fin de coordinar los esfuerzos de los miembros de la comunidad relacionada con la criptomoneda, para hacer difusión de los beneficios de Bitcoin y fomentar su uso. También con el fin de reducir la barrera de entrada a Bitcoin, aproximadamente un año más tarde, en 2013, apareció el primer cajero automático de bitcoins en Vancouver, Canadá.

Uno de los hitos más catastróficos en la historia de Bitcoin sucedió en febrero de 2014 cuando la casa de cambio Mt.Gox decidió suspender su servicio y cerrar la web. Ésta era la casa de cambio más importante del momento que gestionaba más del 70% de las transacciones en bitcoin. La caída de esta casa de cambio supuso la ruina para muchos de los inversores y todavía se arrastran problemas y demandas judiciales.

Avanzamos ahora hasta verano de 2017, cuando tenemos uno de los acontecimientos más conocidos en el mundo de las criptomonedas, la creación de una nueva criptomoneda nacida a partir de un hard fork de Bitcoin: el Bitcoin Cash. Durante ese año fueron muchas las propuestas para modificar el código de Bitcoin y para dotarlo de más capacidad. Entre los seguidores del mundo Bitcoin se crearon básicamente dos facciones, por un lado los defensores de desplegar una mejora conocida como SegWit, que corregía una vulnerabilidad y proponía la organización de los bloques de la blockchain de una manera que permitía incluir más transacciones, y por otro lado los defensores de directamente aumentar el tamaño máximo de los bloques de 1 a 8 MB. Finalmente, lo que ocurrió es que la moneda se dividió en dos, Bitcoin adoptó SegWit, y nació Bitcoin Cash que aumentaba el tamaño del bloque.

Como hito económico, me gustaría destacar el precio máximo que ha llegado a tener el bitcoin. A finales del año 2017, el Bitcoin ganó una popularidad enorme entre profanos en la materia, llegando a aparecer habitualmente en los medios de comunicación. Además, en esos momentos también se creó un mercado de futuros sobre esta criptomoneda. Todo esto hizo que el precio del bitcoin subiera de forma exponencial alcanzando una cota cercana a los $20.000.

Figura: Evolución del precio del bitcoin desde enero de 2017 hasta enero de 2019. [Fuente: https://coinmarketcap.com/currencies/bitcoin/#charts]

Para concluir, me gustaría destacar que la adopción de SegWit en Bitcoin fue también una decisión muy importante para permitir el despliegue de tecnologías por encima de la blockchain llamadas canales de pago. Estos canales de pago prometen traer transacciones inmediatas con comisiones muy cercanas a cero. Una de las propuestas más conocidas de esta tecnología se conoce como Lightning Network. Esta tecnología merece una entrada a parte en este blog explicando su funcionamiento y su historia, pero aquí como hito representativo pondremos la que parece ser la primera compra a través de este tipo de canales de pago. Aunque no es seguro cuál ha sido esta primera compra, algunos medios apuntan que podría tratarse de la compra de un router VPN en enero del 2018 a través de un canal ofrecido por TorGuard.

Finalmente, esperemos que dentro de diez años podamos ampliar esta lista con nuevos hitos y que Bitcoin se haya convertido en una alternativa real de pago para la mayoría de usuarios, y que las criptomonedas sean tanto el dinero de Internet, como el Internet del dinero, como muchos pronostican.

 

Victor Garcia-Font es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya.

 

10 anys de Bitcoin

El 3 de gener de 2009, farà ara ja 10 anys, que es va minar el bloc gènesi de la blockchain de Bitcoin. Entre les dades d’aquest primer bloc, el creador o creadors de la primera criptomoneda incloïen la frase: “The Times 03/Jan/2009 Chancellor on brink of second bailout for banks”, titular de portada d’aquell mateix dia al diari The Times, i que possiblement reflectia algun dels motius darrere de la creació de la primera moneda digital. En aquest post repassarem algunes de les fites més importants relacionades amb Bitcoin esdevingudes aquests darrers 10 anys.

Figura: Portada de The Times del 3 de gener de 2009. Font [https://www.phneep.com/wp-content/uploads/2017/09/The-Times_Bitcoin_Genesis_Block-sm.jpg]

Per començar, recordarem que Bitcoin va ser proposat el 31 d’octubre de 2008 al white paper  “Bitcoin: a Peer-to-Peer Electronic Cash System”. A hores d’ara encara es desconeix qui és o qui són el seu autor o autors, que s’amaguen sota el pseudònim Satoshi Nakamoto. No obstant això, es creu que la creació de Bitcoin apareix com a resposta a la crisi econòmica i al rescat de la banca, sorgint com una alternativa a les monedes tradicionals controlades per governs i bancs.

No va ser fins uns mesos després de la publicació del white paper que podem considerar que Bitcoin va començar a caminar, més enllà d’una explicació purament teòrica del seu funcionament. Satoshi Nakamoto va implementar una primera versió del protocol amb la qual el 3 de gener de 2009 es va minar el primer bloc. Uns dies més tard, el dia 12 de gener es va executar la primera transacció. Aquesta va ser una transacció de 10 bitcoins que Satoshi Nakamoto va fer a favor del desenvolupador de programari Hal Finney.

Una de les primeres notes negatives es va produir al cap de poc temps. A l’agost de 2010, es va dur a terme el primer atac important a Bitcoin. Aprofitant un atac d’overflow, un atacant va aconseguir realitzar un enviament de més de 184 mil milions de Bitcoin, fet que infringeix el protocol en diversos aspectes. La vulnerabilitat va ser arreglada a les poques hores, el que va provocar un fork a la cadena per revertir l’atac.

D’altra banda, aquell mateix any, el 22 de maig de 2010, es produeix una de les fites més coneguts en la història de Bitcoin, la compra del primer bé usant aquesta criptomoneda. La transacció econòmica va ser una mica peculiar, ja que Jeremy Sturdivant (àlies jercos), a través d’un fòrum, va buscar algú que li comprés un parell de pizzes a canvi de 10.000 bitcoins. Qualsevol que hagi seguit l’evolució del preu del bitcoin pot suposar el que significa aquesta xifra. El preu actual d’aquestes pizzes seria de més de 30 milions de dòlars. Bon profit!

Uns anys més tard, al setembre de 2012, quan Bitcoin ja començava a ser mundialment conegut, va néixer la Bitcoin Foundation per tal de coordinar els esforços dels membres de la comunitat relacionada amb la criptomoneda, per fer difusió dels beneficis de Bitcoin i fomentar-ne l’ús. També amb la finalitat de reduir la barrera d’entrada a Bitcoin, aproximadament un any més tard, el 2013, va aparèixer el primer caixer automàtic de bitcoins a Vancouver, Canadà.

Una de les fites més catastròfiques en la història de Bitcoin va succeir al febrer de 2014 quan la casa de canvi Mt.Gox va decidir suspendre el seu servei i tancar la web. Aquesta era la casa de canvi més important del moment que gestionava més del 70% de les transaccions en bitcoin. La caiguda d’aquesta casa de canvi va suposar la ruïna per a molts dels inversors i encara s’arrosseguen problemes i demandes judicials.

Avancem ara fins a l’estiu de 2017, quan tenim un dels esdeveniments més coneguts en el món de les criptomonedes, la creació d’una nova criptomoneda nascuda a partir d’un hard fork de Bitcoin: el Bitcoin Cash. Durant aquell any van ser moltes les propostes per modificar el codi de Bitcoin per dotar-lo de més capacitat. Entre els seguidors del món Bitcoin es van crear bàsicament dues faccions, d’una banda els defensors de desplegar una millora coneguda com SegWit, que corregia una vulnerabilitat i proposava l’organització dels blocs de la blockchain d’una manera que permetia incloure més transaccions, i per altra banda els defensors de directament augmentar la mida màxima dels blocs d’1 a 8 MB. Finalment, el que va passar és que la moneda es va dividir en dos, Bitcoin va adoptar SegWit, i va néixer Bitcoin Cash que augmentava la mida del bloc.

Com a fita econòmica, m’agradaria destacar el preu màxim que ha arribat a tenir el bitcoin. A finals de l’any 2017, el Bitcoin va guanyar una popularitat enorme entre profans en la matèria, arribant a aparèixer habitualment en els mitjans de comunicació. A més, en aquells moments es va crear un mercat de futurs sobre aquesta criptomoneda. Tot això va fer que el preu del bitcoin pugés de forma exponencial aconseguint una cota propera als $20.000.

Figura: Evolució del preu del bitcoin des de gener de 2017 fins a gener de 2019. [Font: https://coinmarketcap.com/currencies/bitcoin/#charts]

Per concloure, m’agradaria destacar que l’adopció de SegWit en Bitcoin va ser també una decisió molt important per a permetre el desplegament de tecnologies per sobre de la blockchain anomenades canals de pagament. Aquests canals de pagament prometen portar transaccions immediates amb comissions molt properes a zero. Una de les propostes més conegudes d’aquesta tecnologia es coneix com Lightning Network. Aquesta tecnologia mereix una entrada a part en aquest bloc explicant el seu funcionament i la seva història, però aquí com a fita representativa incloem la que sembla ser la primera compra a través d’aquest tipus de canals de pagament. Tot i que no és segur quina ha estat aquesta primera compra, alguns mitjans apunten que podria tractar-se de la compra d’un router VPN al gener del 2018 a través d’un canal ofert per TorGuard.

Finalment, esperem que d’aquí a deu anys puguem ampliar aquesta llista amb noves fites i que bitcoin s’hagi convertit en una alternativa real de pagament per a la majoria d’usuaris, i que les criptomonedes siguin tant els diners d’Internet, com l’Internet dels diners, com molts pronostiquen.

 

Victor Garcia-Font és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la Universitat Oberta de Catalunya.