Informática, IT, IS y Digital: ¿cuál es la diferencia?

“Son los mismos perros con diferentes collares”, me decía un colega, justificadamente harto de lo que Peppard y Ward llaman el “irritante hábito del sector de IT de re-etiquetarse continuamente” y de la infección del lenguaje comercial. No digo que no, al menos de momento, pero lo cierto es que con cada oleada tecnológica (y ahora es “lo digital”) aparecen avances que desafían no sólo los paradigmas de las TIC tal como las hemos conocido, sino sobre todo los del uso que hacen de ellas las personas y las empresas y de cómo se organizan la sociedad y los negocios.

cx-picture-100608993-primary-idge

GRAFICA: Digital Transformation.

 http://core0.staticworld.net/images/article/2015/08/cx-picture-100608993-primary.idge.jpg

La informática (o computer science, en inglés) se refiere, a partir del artículo de Fine para las Communications de la ACM de 1959, al campo científico y técnico: el estudio de las bases teóricas y las prácticas de diseño e ingeniería de los artefactos que se utilizan para conseguir, representar, procesar, almacenar, comunicar y acceder a datos. Estos artefactos son procedimientos algorítmicos (que se escalan en programas de diferentes tipos), máquinas y redes de comunicación. Aunque en esto no todo el mundo está de acuerdo, según los autores y practicantes tiran más hacia las matemáticas, la física o las diferentes ingenierías. Por lo demás, hoy en día la lista de aparatos incluye sensores, cables, teléfonos…; la lista de programas incluye grandes sistemas de empresa o aplicaciones especializadas para dispositivos inteligentes (las “apps”); y la lista de comunicaciones incluye servicios complejos en internet, como “la nube”. Desde los años 1960, la informática se estudia en las facultades y escuelas de informática.

La tecnología de la información (o information technology, IT o TI) es curiosamente un invento de gente de negocios. Un artículo de Harold Leavitt y Thomas Whisler de 1958 en la Harvard Business Review, se refiere con esta expresión a “las técnicas para procesar rápidamente grandes cantidades de información (…); la aplicación de métodos estadísticos y matemáticos para resolver problemas de toma de decisiones (…); y la simulación de procesos complejos de pensamiento (higher order thinking)”. En su pronóstico temprano, la TI estaba llamada a cambiar las empresas y los directivos mediante el pensamiento científico y las decisiones basadas en evidencias. En todo caso, la tecnología de la información se parece mucho a la informática, para entendernos, si le quitamos la informática teórica.

Los sistemas de información (information systems, IS o SI) tienen que ver con el uso que hacen las personas y las organizaciones de la TI, no con la tecnología por sí misma. Se refieren también a la gestión, el management de la tecnología. En la definición canónica que hizo Keen en 1980, “la misión de la investigación en Sistemas de Información es el estudio del diseño, entrega, uso e impacto efectivos de las tecnologías de la información en las organizaciones y la sociedad. El término “efectivo” es probablemente clave. Seguramente, la comunidad de Sistemas de Información se preocupa explícitamente por la mejora en el arte del diseño y en la práctica de la gestión en el más amplio sentido de los dos términos. De manera similar, observa las tecnologías de la información en el contexto de la gente real, en organizaciones reales y en la sociedad real.” Ahora muchos hablan de tecnología empresarial (o business technology) como sinónimo de sistemas de información, para seguirlo complicando. Los sistemas de información y, en particular, sus aplicaciones empresariales, se estudian principalmente en las escuelas de negocios, aunque también en algunas escuelas de informática, como la nuestra.

Lo digital abraza, en primer lugar, un conjunto de tecnologías del acrónimo SMACIT (redes sociales, movilidad, analítica de datos, computación en la nube y la internet de las cosas); y, en segundo lugar, su utilización intensiva para transformar la relación con los clientes (y aumentar las ventas), para automatizar completamente las operaciones dentro de la empresa y en su relación con otras o para crear nuevos productos, servicios y modelos de negocio basados en información. Lo hemos descrito aquí. Lo digital se refiere así tanto a la tecnología como a los sistemas de información, serían dos caras de la misma moneda. Y actualmente, como decíamos, se habla y se escribe IT, IS, IT/IS y digital indistintamente, sin entrar en muchas precisiones y en cualquier clase de medio, incluidos los académicos.

Lo digital forma parte de la utilización estratégica de la tecnología de la información para obtener ventajas competitivas (IT-enabled business transformations), pero va un paso más allá. Ya no se pretende que los sistemas y tecnologías de información estén “alineados” con el negocio, según la definición clásica, sino que sean una parte de su core business “elevando así las implicaciones de la estrategia de TI más allá de la eficiencia y la productividad, hacia las métricas que conducen a la ventaja y la diferenciación competitiva” (Bharadaj y colegas). La transformación digital del negocio sería, en palabras de Al Sawy, una “fusión” entre la estrategia de negocio y la estrategia de IT.

O, como dice Mattias Ulbrich, CIO de Audi, elegido CIO europeo del año en 2016: “Yo creo que la opinión prevalente de que ‘TI sigue al negocio’ ya no es aplicable en muchos casos. (…) Nosotros estamos cada vez menos orientados a la demanda y más orientados a la colaboración (con el negocio)”. Se aspira, como decimos en un artículo reciente, a que el CIO lidere, facilite o proponga, según cada caso, innovaciones basadas en la tecnología que permitan aumentar el valor, la calidad y la satisfacción.

Una versión anterior de esta entrada se publicó en Linkedin Pulse el 26 de Diciembre.

Un sistema de comunicación distribuido de 37 billones de elementos

El siglo XXI es el siglo de la multidisciplinariedad. El conocimiento avanza y se extiende solapando disciplinas de tal forma que hoy día resulta prácticamente imposible atribuir el éxito al conocimiento de una sola persona. Hoy en día son los equipos los que consiguen el éxito por encima de la individualidad  de otros tiempos.

En la época del big data, cuando se habla de cifras de billones de elementos interconectados tendemos a  pensar  en grandes y potentes ordenadores distribuidos a escala mundial, trabajando en sinergia para conseguir resolver problemas, extraer patrones de comportamiento o desarrollar avances en el campo  de la inteligencia artificial. Al pensar en magnitudes tan elevadas nos alejamos de la unidad para irnos al todo. Cuando a alguien le hablan de un sistema de comunicación de 37 billones de elementos cuesta imaginarse que este sistema se encuentre en nuestro propio organismo. Si, 37 billones de elementos celulares interconectados consiguen que nuestro organismo funcione con el grado de precisión de un reloj suizo, comunicándose cual red fotónica para  mantener la homeostasis de nuestro organismo y regular de forma casi instantànea cientos de parámetros vitales.

La investigación en el campo de la medicina durante los últimos años ha ido enfocada hacia la mejora de los procesos biológicos que permiten el buen funcionamiento de nuestro organismo. Atacar al patógeno ya no es suficiente para acabar con la enfermedad, y la aparición de un número cada vez creciente de enfermedades de etiología compleja como las autoinmunes, degenerativas y otras ha llevado a cambiar el enfoque de la investigación hacia el correcto funcionamiento celular. El objetivo diana deja de ser el patógeno para pasar a una investigación en la mejora del funcionamiento celular del cuerpo humano.

El año 1999 el Dr Günter Blobel ganó el premio Nobel de medicina al demostrar que “las proteínas tienen señales intrínsecas que determinan su transporte y localización”. Existen numerosas enfermedades que parecen estar causadas por errores en los mecanismos de comunicación,  señalización y transporte de estas proteínas dificultando o impidiendo el correcto funcionamiento del organismo y acabando en muchos casos en enfermedades crónicas y/o incurables.

Es tal la importancia de este descubrimiento que varios de los  últimos premios Nobel de medicina se han relacionado con el estudio de los mecanismos naturales del cuerpo para llevar a cabo una correcta comunicación celular, siendo este un campo de gran interés en la investigación biomédica. El proceso biológico de nuestro cuerpo humano genera señales de naturaleza electromagnética de sobras conocidas y medibles tanto en  sencillas pruebas como un electrocardiograma como con complejos sistemas de neurotecnología que monitorizan la actividad cerebral.

Sistema de transmisión y recepción.

Sistema de transmisión y recepción.

Si partimos de la base de que un organismo vivo es un gran sistema de comunicación celular en el que intervienen señales electromagnéticas, resulta razonable pensar que el entorno puede ejercer un efecto sobre estos procesos de comunicación. El avance tecnológico actual nos lleva a vivir en un espacio artificial afectado por campos electromagnéticos que crecen de forma indiscriminada y con escasa regulación, creándose  la duda razonable de un posible efecto nocivo de estas interferencias sobre nuestro sistema de comunicación biológico.

El campo de la medicina se enfrenta a lo que puede ser el reto de salud más importante del siglo XXI y esto se está convirtiendo en motivo de preocupación de los gobiernos. La Asamblea Parlamentaria del Consejo de Europa aprobó una resolución sobre “Peligros potenciales de los campos electromagnéticos y su efecto en el medio ambiente” en su sesión del 27 de Mayo del 2011. En esta resolución se insta a los gobiernos a aplicar el principio de precaución mientras la evaluación científica no sea concluyente respecto a los posibles riesgos sobre la salud. Se pide el aumento de financiación para investigaciones independientes para replantear las bases científicas y los estándares actuales para campos electromagnéticos no ionizantes. Para ello insta a los estados a aplicar el principio ALARA (“As Low As Reasonably Achievable”) como principio básico para garantizar la seguridad frente a radiaciones electromagnéticas. Esto debe ser especialmente tomado en cuenta para los niños y adolescentes, por ser ellos más sensibles a la radiación e insta a utilizar principalmente conexiones por cable y regular o prohibir los teléfonos móviles por los escolares en la escuelas. Además de esta prohibición se recomienda que se establezcan nuevos límites en los niveles de exposición así como un etiquetado en los dispositivos que avise de la existencia de radiación electromagnética. Se recomienda igualmente que se realicen “campañas de información específicas dirigidas a profesores, padres y niños para alertar del riesgo de uso temprano, imprudente y prolongado de los teléfonos móviles y otros dispositivos que emiten microondas”, así como planes de información para la sociedad.

Los resultados de este estudio según la propia AEMA (Agencia Europea del Medio Ambiente) indican que hay indicios suficientes o niveles de evidencia científica de efectos biológicos nocivos. Estas evidencias, según el Consejo de Europa, son suficientes para aplicar el principio de precaución y tomar medidas preventivas de carácter urgente.

Ante este escenario, resulta cuando menos sorprendente ver que mientras países como Francia están tomando medidas legislativas con la prohibición de la wifi en las escuelas o en viviendas donde habitan menores de tres años, en nuestro país no se hable del tema o sencillamente se mire hacia otro lado.

Es bien conocido que existen radiaciones electromagnéticas con efectos positivos sobre la salud y que vienen utilizándose tradicionalmente con usos medicinales en dispositivos médicos. ¿Quiere esto decir que toda exposición electromagnética será positiva o inocua? ¿Debemos seguir actuando convirtiendo nuestras ciudades en campos de radiación cuando existen alternativas potencialmente más seguras? La ignorancia es muy atrevida y lleva a la sociedad a tomar decisiones que a largo plazo pueden ser muy costosas. La espera de pruebas científicas que muchos no tienen interés en realizar puede llevar a repetir casos de gran impacto para la salud y con altos costes para la sociedad como el caso del amianto, el tabaco o la gasolina con plomo.

La comunidad científica, y en especial los profesionales de las TIC deben reforzar su posición y dar un paso adelante en su importancia en la sociedad y el desarrollo de la misma. Existen lobbies con gran reconocimiento social como el de los profesionales de la salud, pero conviene recordar, sin desmerecer su labor, que la mayoría de los procesos de diagnóstico y muchos de los tratamientos médicos actuales no se podrían realizar de no ser por los ingenieros que desarrollan los equipos médicos de alta precisión que se utilizan actualmente y que permiten salvar muchas vidas humanas.

Los ingenieros de telecomunicación son los profesionales de este país con atribuciones profesionales para el diseño, medición y certificación de equipos de radiación y se presenta ante ellos un reto de dimensiones mayúsculas. Hay voces que alertan que de demostrarse los efectos nocivos de las radiaciones con pruebas concluyentes la sociedad se enfrentaría al que sería el mayor reto de salud del siglo XXI para los países industrializados. Son estos profesionales y no otros, quienes  deben dar un paso al frente y liderar el progreso tecnológico participando activamente en la normativa, la certificación de los proyectos así como en la determinación de la hoja de ruta a seguir en este contexto. Los gobiernos  no deberían permitirse el lujo de prescindir de los profesionales expertos en radiación en una toma de decisiones de tal calibre e impacto social, especialmente si estas decisiones pueden afectar o poner en riesgo el buen funcionamiento del sistema de comunicación más avanzado del mundo, nuestros 37 billones de células. Es hora ya de que los gobiernos den un paso al frente en el impulso de investigaciones serias independientes y multidisciplinares que permitan determinar la realidad de esta problemática. Cuesta creer que se disponga de un sistema financiero altamente regulado y que se tomen tan a la ligera aspectos con unos riesgos potenciales tan elevados.

 

Jose Antonio Morán Moreno es doctor en Ingeniería de Electrónica por la Universidad Ramon Llull. Actualmente trabaja como profesor en la Universitat Oberta de Catalunya, donde es el director académico del Máster Universitario en Ingeniería de Telecomunicación.

El boom de la Inteligencia Artificial

(Trobareu la versió en català més avall)

Este 2016 ha sido el año de la Inteligencia Artificial (IA)… y no ha sido el primero ni será el último. Como muestra, consideramos las previsiones de la empresa de investigación de mercados Forrester. En su informe por 2017, un gran número de las tecnologías que se prevé que tendrán más impacto están vinculadas directamente con la Inteligencia Artificial.

Ámbitos de aplicación de la IA

La inteligencia artificial busca conseguir que los ordenadores puedan resolver problemas de forma “inteligente”, es decir, aprovechando la información disponible para tomar las mejores decisiones. Dentro del campo de la IA no hay un único problema a resolver, sino que hay toda una variedad de problemas relevantes:

  • La percepción, la capacidad de comprender información no estructurada en forma de imágenes o vídeo (visión por computador), la voz (reconocimiento del habla) o bien textos (procesamiento del lenguaje natural).
  • La planificación y busca, la capacidad de encontrar la mejor solución entre un gran conjunto de alternativas posibles.
  • La representación del conocimiento, la capacidad de almacenar, expresar y manipular el conocimiento adquirido sobre un dominio.
  • La inferencia y razonamiento, la capacidad de aprovechar el conocimiento existente para extraer conclusiones.
  • El aprendizaje, la capacidad de generar nuevo conocimiento a partir de nuevas observaciones.

Estos problemas son de interés por muchos ámbitos de aplicación actuales: los vehículos autónomos, los chatbots y los asistentes inteligentes, los drons, las aplicaciones de realidad aumentada, el reconocimiento facial, … Un gran ámbito de aplicación en si mismo es el de la robótica, donde aparecen otros problemas como el de la manipulación de objetos o el desplazamiento (p. ej. aprender como andar).

En el campo más experimental y artístico diferentes artistas están usando la IA en sus proyectos, como es el caso de Kyle McDonald, el artista norteamericano que explora el potencial de las herramientas de  machine learning, usando redes neuronales como Neuraltalk para documentar un paseo por Amsterdam o recrear imágenes con el estilo de pintores famosos, haciendo una comparativa de artistas artificiales. O bien otros cómo Memo Atken, artista turco establecido en Londres, que investigaprueba y  experimenta con la red neuronal artificial DeepDream.

Tecnologías de la IA

Hay dos paradigmas principales dentro de la IA: la  IA simbólica y la  IA subsimbólica. La diferencia entre las dos es la forma como se formaliza el conocimiento: las técnicas simbólicas representan el conocimiento mediante símbolos, mientras que la IA subsimbólica busca conseguir un comportamiento inteligente sin necesidad de explicitar el conocimiento adquirido. Así, por ejemplo, ante el problema de “saber encontrar en Wally en una imagen” los métodos simbólicos empezarían para describir cómo es en Wally, mientras que los métodos subsimbólicos partirían de imágenes de ejemplo.

Cada paradigma tiene sus ventajas e inconvenientes. Por ejemplo, con las técnicas de IA simbólica (reglas, ontologías, algoritmos de busca e inferencia) es más sencillo controlar el proceso de toma de decisión, explicar el resultado y depurar el proceso en caso de errores. En cambio, con técnicas subsimbólicas (como por ejemplo las redes neuronales) no se necesita disponer de tanto conocimiento a priori, el rendimiento que se puede conseguir es más alto y se pueden escalar fácilmente añadiendo más recursos.

Precisamente, estas ventajas y su efectividad en problemas reales han hecho que las técnicas subsimbólicas sean el paradigma dominante en la actualidad. En este sentido, uno de los términos de los cuales se siente hablar más en la actualidad es el deep learning, una rama del aprendizaje computacional que se utiliza en proyectos cómo Google BrainAlphaGo o  Watson.

La IA dentro de la sociedad

Por los humanos, la inteligencia es algo muy importante, puesto que nos distingue de otros seres vivos, una calidad casi mágica y misteriosa. Esto afecta la manera como nos relacionamos con las tecnologías basadas en IA.

En primer lugar, se produce una curiosa paradoja en nuestra percepción sobre la IA: una vez se ha encontrado una solución en un problema de IA, automáticamente dejamos de considerarlo “inteligencia” y pasa a ser un algoritmo o un cálculo. Los investigadores en IA anuncian este fenómeno como “Si funciona, no es IA” o “La IA es todo aquello que aún no se ha hecho”. Esto hace que muchos de los éxitos y las tecnologías generadas por la investigación en IA pasen desapercibidos, puesto que han dejado de percibirse como IA: los filtros antispam, los recomendadores de productos en las tiendas online, la inteligencia artificial en los videojuegos, …

Por otro lado, la IA es un campo que genera grandes expectativas que pueden ser difíciles de hacer realidad. Al fin y al cabo, si una máquina es inteligente, y teniendo en cuenta la creciente capacidad de cálculo y de memoria de los sistemas informáticos, por qué tendría que tener límites? Estas grandes expectativas han generado “burbujas” sobre determinadas tecnologías, como por ejemplo los primeros sistemas expertos a finales de los años 70 y principios de los 80, que no lograron los resultados esperados en su aplicación en el ámbito industrial. Como consecuencia, estos fracasos causaron quiebras de empresas del sector, dificultad para conseguir financiación por la investigación, pesimismo en la comunidad científica y una percepción negativa en la opinión pública. Incluso se inventó un término para describir este periodo: “AI Winter” (invierno de la IA), como analogía con el invierno nuclear producido por una explosión atómica.

Finalmente, en nuestra relación con la IA también hay un cierto componente de  miedo sobre su futuro y su impacto en la vida de las personas.

  • “Un sistema inteligente quizás podría sustituirnos en nuestro puesto de trabajo”. Este riesgo es muy plausible: se calcula que los adelantos en robótica e IA permitirán automatizar un 6-7% de todos puestos de trabajo en los cercanos 5-10 años (Computer World,Forrester). De hecho, investigadores como Moshe Vardi (presidente del Association for Computer Machinery) y  tecnólogos de prestigio como Elon Musk (CEO de Tesla) están planteando como resolver el problema del paro en una sociedad futura, incluso argumentando que puede ser necesario instaurar una renta básica universal.
  • “Un sistema inteligente podría tomar decisiones basadas en datos pero sin seguir los valores morales humanos”. Muchas asociaciones han denunciado que el software que se utiliza para tomar decisiones como por ejemplo la libertad condicional muestra sesgos racistas. Como respuesta a este problema, el junio del 2016 la Unión Europea definió el derecho de los ciudadanos a conocer los criterios utilizados por un algoritmo que tomara decisiones relevantes por ellos.

Por otro lado, sistemas como los vehículos autónomos se enfrentan a decisiones muy complejas en casos de colisiones, como por ejemplo qué tipos de maniobra realizar para minimizar la gravedad del accidente. Por ejemplo, es deseable que un coche autónomo se estrelle, matando al conductor, para evitar aplastar un grupo de peatones?

  • “Un sistema inteligente podría entrar en competencia con los humanos e incluso llegar a superarlos”. La IA ya ha conseguido superar los humanos en juegos como el ajedrez (Deep Blue, 1997), Jeopardy (Watson, 2011) y el Go (AlphaGo, 2016). Pero, podría la IA superar a los humanos más allá de estos ámbitos y poner en riesgo su continuidad como especie? Por ejemplo, hay técnicas que permiten a una IA mejorar su rendimiento en un problema específico y hacerse más inteligente a cada nueva iteración, por ejemplo el aprendizaje por refuerzo. Si una técnica similar pudiera aplicarse con éxito al cual se conoce como IA fuerte o IA general (una máquina con la capacidad de resolver cualquier problema intelectual), entonces tendríamos una IA que podría mejorarse a sí misma, haciéndose cada vez más inteligente hasta sobrepasar la inteligencia humana.

Personalidades de primer nivel como por ejemplo Stephen Hawking o Bill Gates han alertado sobre estos riesgos potenciales de una IA sin control. Hay todo un campo de ética de la inteligencia artificial que estudia todas estas cuestiones y  analiza si es posible construir una IA sin perder el control.

Fuente: Statista

Inteligencia Artificial, bendición o maldición? Fuente: Statista

Negocio y empresas detrás de la IA

El año 2015, se calculaba que el volumen de negocio de la IA era de 126.000 millones de dólares. Según datos de Statista , la previsión es multiplicar por 7 este valor en 2020 y por 25 de cara en 2025.

Estas previsiones se hacen patentes en la estructura e inversiones de las grandes empresas del sector tecnológico. Desde el 2015, empresas como Google, Intel, Microsoft, Amazon, Apple, Twitter, Oracle, Samsung, eBay o Salesforce  han adquirido start-ups vinculadas al ámbito de la IA (140 adquisiciones desde el 2011, 40 si contamos sólo este 2016).

Por otro lado, otras compañías están creando divisiones dentro de la misma empresa totalmente focalizadas en IA, como por ejemplo Watson en IBM o  FAIR (Facebook AI Research) en Facebook . Para dar una idea de este volumen, en el caso de IBM, Watson ya da trabajo a 10.000 personas en ámbitos como la genómica y el diagnóstico del cáncer.

Las empresas también han creado alianzas de alto nivel para potenciar la investigación en inteligencia artificial y traer sus beneficios a la sociedad. Facebook, Amazon, Microsoft, Deepmind e IBM han creado lo Partnership on Artificial Intelligence to Benefit People and Society. A nivel académico, además del Association for the Advancement of Artificial Intelligence, existen proyectos a largo plazo para hacer avanzar la IA como por ejemplo el One Hundred Year Study on Artificial Intelligence (AI100) de Stanford.

Fuente: Statista

El futuro de la IA. Fuente: Statista

El Observatorio Tecnológico de los Estudios de Informática, Multimedia y Telecomunicación de la UOC reflexiona sobre diferentes temas de actualidad que giran alrededor del mundo de las tecnologías de la información y la comunicación.

 

El boom de la Intel·ligència Artificial

Aquest 2016 ha estat l’any de la Intel·ligència Artificial (IA)… i no ha estat el primer ni serà l’últim. Com a mostra, considerem les previsions de l’empresa d’investigació de mercats Forrester. En el seu informe per 2017, un gran nombre de les tecnologies que es preveu que tindran més impacte estan vinculades directament amb la Intel·ligència Artificial.

Àmbits d’aplicació de la IA

La intel·ligència artificial busca aconseguir que els ordinadors puguin resoldre problemes de forma “intel·ligent”, és a dir, aprofitant la informació disponible per a prendre les millors decisions. Dins del camp de la IA no hi ha un únic problema a resoldre, sinó que hi ha tota una varietat de problemes rellevants:

  • La percepció, la capacitat de comprendre informació no estructurada en forma d’imatges o vídeo (visió per computador), la veu (reconeixement de la parla) o bé textos (processament del llenguatge natural).

  • La planificació i cerca, la capacitat de trobar la millor solució entre un gran conjunt d’alternatives possibles.

  • La representació del coneixement, la capacitat d’emmagatzemar, expressar i manipular el coneixement adquirit sobre un domini.

  • La inferència i raonament, la capacitat d’aprofitar el coneixement existent per extreure conclusions.

  • L’aprenentatge, la capacitat de generar nou coneixement a partir de noves observacions.

Aquests problemes són d’interès per molts àmbits d’aplicació actuals: els vehicles autònoms, els chatbots i els assistents intel·ligents, els drons, les aplicacions de realitat augmentada, el reconeixement facial, … Un gran àmbit d’aplicació en si mateix és el de la robòtica, on apareixen altres problemes com el de la manipulació d’objectes o el desplaçament (p. ex. aprendre com caminar).

En el camp més experimental i artístic diferents artistes estan fent servir la IA en els seus projectes, com és el cas de Kyle McDonald, l’artista nord-americà que explora el potencial de les eines de machine learning, fent servir xarxes neuronals com Neuraltalk per documentar un passeig per Amsterdam o recrear imatges amb l’estil de pintors famosos, fent una comparativa d’artistes artificials. O bé d’altres com Memo Atken, artista turc establit a Londres, que investiga, prova i experimenta amb la xarxa neuronal artificial DeepDream.

Tecnologies de la IA

Hi ha dos paradigmes principals dins de la IA: la IA simbólica i la IA subsimbòlica. La diferència entre les dues és la forma com es formalitza el coneixement: les tècniques simbòliques representen el coneixement mitjançant símbols, mentre que la IA subsimbòlica busca aconseguir un comportament intel·ligent sense necessitat d’explicitar el coneixement adquirit. Així, per exemple, davant el problema de “saber trobar en Wally en una imatge” els mètodes simbòlics començarien per descriure com és en Wally, mentre que els mètodes subsimbòlics partirien d’imatges d’exemple.

Cada paradigma té els seus avantatges i inconvenients. Per exemple, amb les tècniques d’IA simbòlica (regles, ontologies, algorismes de cerca i inferència) és més senzill controlar el procés de presa de decisió, explicar el resultat i depurar el procés en cas d’errades. En canvi, amb tècniques subsimbòliques (com ara les xarxes neuronals) no es necessita disposar de tant coneixement a priori, el rendiment que es pot aconseguir és més alt i es poden escalar fàcilment afegint més recursos.

Precisament, aquests avantatges i la seva efectivitat en problemes reals han fet que les tècniques subsimbòliques siguin el paradigma dominant en l’actualitat. En aquest sentit, un dels termes dels quals se sent parlar més en l’actualitat és el deep learning, una branca de l’aprenentatge computacional que s’utiliza en projectes com Google Brain, AlphaGo o Watson.

La IA dins la societat

Pels humans, la intel·ligència és quelcom molt important, ja que ens distingeix d’altres éssers vius, una qualitat gairebé màgica i misteriosa. Això afecta la manera com ens relacionem amb les tecnologies basades en IA.

En primer lloc, es produeix una curiosa paradoxa en la nostra percepció sobre la IA: un cop s’ha trobat una solució a un problema d’IA, automàticament deixem de considerar-ho “intel·ligència” i passa a ser un algorisme o un càlcul. Els investigadors en IA enuncien aquest fenòmen com “Si funciona, no és IA” o “La IA és tot allò que encara no s’ha fet”. Això fa que molts dels èxits i les tecnologies generades per la recerca en IA passin desapercebuts, ja que han deixat de percebre’s com IA: els filtres antispam, els recomanadors de productes en les botigues online, la intel·ligència artificial en els videojocs, …

Per altra banda, la IA és un camp que genera grans expectatives que poden ser difícils de fer realitat. Al cap i a la fi, si una màquina és intel·ligent, i tenint en compte la creixent capacitat de càlcul i de memòria dels sistemes informàtics, per què hauria de tenir límits? Aquestes grans expectatives han generat “bombolles” sobre determinades tecnologies, com ara els primers sistemes experts a finals dels anys 70 i principis dels 80, que no van assolir els resultats esperats en la seva aplicació en l’àmbit industrial. Com a conseqüència, aquests fracassos van causar fallides d’empreses del sector, dificultat per aconseguir finançament per la recerca, pessimisme en la comunitat científica i una percepció negativa en l’opinió pública. Fins i tot es va inventar un terme per descriure aquest període: “AI Winter” (hivern de la IA), com a analogia amb l’hivern nuclear produït per una explosió atòmica.

Finalment, en la nostra relació amb la IA també hi ha un cert component de por sobre el seu futur i el seu impacte en la vida de les persones.

  • “Un sistema intel·ligent potser podria substituir-nos en el nostre lloc de treball”. Aquest risc és molt plausible: es calcula que els avenços en robòtica i IA permetran automatitzar un 6-7% de tots llocs de treball en els propers 5-10 anys (Computer World, Forrester). De fet, investigadors com Moshe Vardi (president de l’Association for Computer Machinery) i tecnòlegs de prestigi com Elon Musk (CEO de Tesla) estan plantejant com resoldre el problema de l’atur en una societat futura, fins i tot argumentant que pot ser necessari instaurar una renda bàsica universal.

  • “Un sistema intel·ligent podria prendre decisions basades en dades però sense seguir els valors morals humans”. Moltes associacions han denunciat que el software que s’utilitza per prendre decisions com ara la llibertat condicional mostra biaixos racistes. Com a resposta a aquest problema, el juny del 2016 la Unió Europea va definir el dret dels ciutadans a conèixer els criteris utilitzats per un algorisme que prengués decisions rellevants per ells.

Per altra banda, sistemes com els vehicles autònoms s’enfronten a decisions molt complexes en casos de col·lisions, com ara quin tipus de maniobra realitzar per minimitzar la gravetat de l’accident. Per exemple, és desitjable que un cotxe autònom s’estavelli, matant al conductor, per evitar aixafar un grup de vianants?

  • “Un sistema intel·ligent podria entrar en competència amb els humans i fins i tot arribar a superar-los”. La IA ja ha aconseguit superar els humans en jocs com els escacs (Deep Blue, 1997), Jeopardy (Watson, 2011) i el Go (AlphaGo, 2016). Però, podria la IA superar als humans més enllà d’aquests àmbits i posar en risc la seva continuïtat com a especie? Per exemple, hi ha tècniques que permeten a una IA millorar el seu rendiment en un problema específic i fer-se més intel·ligent a cada nova iteració, per exemple l’aprenentatge per reforç. Si una tècnica similar pogués aplicar-se amb èxit al qual es coneix com a IA forta o IA general (una màquina amb la capacitat de resoldre qualsevol problema intel·lectual), aleshores tindríem una IA que podria millorar-se a sí mateixa, fent-se cada cop més intel·ligent fins a sobrepassar la intel·ligència humana.

Personalitats de primer nivell com ara Stephen Hawking o Bill Gates han alertat sobre aquests riscos potencials d’una IA sense control. Hi ha tot un camp d’ètica de la intel·ligència artificial que estudia totes aquestes qüestions i analitza si és possible construir una IA sense perdre’n el control.

Font: Statista

Intel·ligència Artificial, benedicció o maledicció? Font: Statista

Negoci i empreses darrere de la IA

L’any 2015, es calculava que el volum de negoci de la IA era de 126.000 milions de dòlars. Segons dades de Statista, la previsió és multiplicar per 7 aquest valor l’any 2020 i per 25 de cara a l’any 2025.

Aquestes previsions es fan paleses en l’estructura i inversions de les grans empreses del sector tecnològic. Des del 2015, empreses com Google, Intel, Microsoft, Amazon, Apple, Twitter, Oracle, Samsung, eBay o Salesforce han adquirit start-ups vinculades a l’àmbit de la IA (140 adquisicions des del 2011, 40 si comptem només aquest 2016).

Per altra banda, altres companyies estan creant divisions dins la mateixa empresa totalment focalitzades en IA, com ara Watson a IBM o FAIR (Facebook AI Research) a Facebook. Per donar una idea d’aquest volum, en el cas d’IBM, Watson ja dóna feina a 10.000 persones en àmbits com la genòmica i el diagnòstic del càncer.

Les empreses també han creat aliances d’alt nivell per potenciar la recerca en intel·ligència artificial i portar els seus beneficis a la societat. Facebook, Amazon, Microsoft, Deepmind y IBM han creat el Partnership on Artificial Intelligence to Benefit People and Society. A nivell acadèmic, a banda de l’Association for the Advancement of Artificial Intelligence, existeixen projectes a llarg termini per fer avançar la IA com ara el One Hundred Year Study on Artificial Intelligence (AI100) de Stanford.

Font: Statista

El futur de la IA. Font: Statista

 

L’Observatori Tecnològic dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC reflexiona sobre diferents temes d’actualitat que giren al voltant del món de les tecnologies de la informació i la comunicació.

mHealth, salud en movimiento

(Trobareu la versió en català més avall)

Después de la entrada sobre eHealth, vamos ahora a centrarnos en una de las partes de la eHealth: la mHealth.  Pero, ¿cuál es la definición de mHealth? Según un documento de la OMS, no hay una definición clara, pero hay una que nos ha parecido útil; es la del Global Observatory for eHealth (GOe) y define el término cómo: prácticas médicas y de salud pública basadas en dispositivos móviles.

Las aplicaciones de mHealth son incontables. Según el Banco Mundial, se pueden clasificar en siete categorías: 1) mejora de la gestión y la toma de decisiones por parte de profesionales de la salud; 2) recolección de datos basados en la localización en tiempo real; 3) prestación de asistencia sanitaria a lugares remotos; 4) fomento del aprendizaje y el intercambio de conocimientos entre los profesionales de la salud; 5) promoción de la salud pública; 6) mejora de la rendición de cuentas; y 7) autogestión de la salud del paciente.

Ámbito de aplicación de la mHealth

Por otro lado, según una lección del Dr. Bassam Kadry de la Facultad de Medicina de Stanford , si separamos la investigación en medicina en descubrimiento de salud y distribución de salud, en el primer grupo  habría las vacunas, los fármacos, la ciencia de materiales, etc. Aquí, hay poco espacio para la mHealth. Pero es a la hora de hacer llegar los resultados de la investigación al público, en la parte de distribución de salud, donde la mHealth puede jugar un papel importante. Aquí encontramos una nueva clasificación de las aplicaciones de salud móvil, más específica: a) gestión de la información, b) educación, c) comunicación, d) cambios de comportamiento; y e) adherencia a los tratamientos. Es decir, la salud móvil no curará el Alzheimer, pero puede ayudar a hacer que los tratamientos que haya lleguen a todo el mundo y que se sigan de forma adecuada o a apoyar a los cuidadores de estos enfermos.

La importancia de la distribución de salud se puede ver en el triángulo de hierro de la salud que se muestra en la figura: el objetivo es mantener un equilibrio entre calidad, coste i acceso. La tecnología puede ayudar a equilibrar el triángulo.

mhealth

Triángulo de hierro de la salud: calidad, coste y acceso.

Características de la mHealth

¿Y por qué es tan importante la mHealth? La respuesta es doble: por un lado, desde el punto de vista del usuario, ahora la penetración de los smartphone es muy alta y, además las expectativas de los usuarios han crecido a raíz de la mejora en la calidad de las aplicaciones; y por otro lado, desde el punto de vista económico, el mercado se espera que sea de 26 billones de dólares (billones americanos) el 2017; y esto permita ahorrar 400 billones de dólares americanos en costes de salud por aquel año.

Ya hemos visto, por lo tanto, la importancia que puede tener la salud móvil. Pero, ¿cómo tiene que ser una aplicación de salud? Según el Dr. Bassam Kadry, a la hora de diseñar una aplicación de salud nos tenemos que hacer las siguientes preguntas:

  • ¿Es efectiva?
  • ¿Se hace un uso eficiente de los sensores?
  • ¿Se aprovecha el geoposicionamiento?
  • ¿Se beneficia de la capacidad de subir y bajar datos en tiempo real?
  • ¿Está integrada con otras tecnologías fácilmente?
  • ¿Aprovecha la comunidad?
  • ¿Recolecta datos de forma pasiva o depende de si los usuarios introducen los datos?
  • ¿Capta la atención de los usuarios cuando hace falta, mediante mensajes inteligentes?

Es importante hacerse estas preguntes porque, según cuáles sean las respuestas, quizás lo que hace falta, no es una aplicación móvil.

Hay que tener presente que la mHealth es una herramienta, no una solución. Pero una herramienta que pretende cambiar la manera en que los pacientes se comportan e interaccionan con su enfermedad, con otros enfermos y con los médicos. Una herramienta que, además, puede ayudar a cambiar los hábitos y evitar o sustituir ciertos medicamentos. Según Erica Kochi, co-directora del Tech Innovation de UNICEF  (http://unicefstories.org/tech/mhealth/), la tecnología es sólo el 5% de la solución.

Dado que algunas aplicaciones pretenden precisamente esto, cambiar de hábitos, se ha creado el término captologia, del inglés, CAPtology (Computers As Persuasive Technology). Para conseguir estos cambios de hábitos hacen falta tres elementos: un disparador (un trigger), la habilidad de cambiar; y la motivación para cambiar (de hecho, sólo tiene sentido diseñar aplicaciones para usuarios motivados). Hay que tener presente, además, que en salud el premio a veces no es visible para el usuario (sería el caso, por ejemplo, de la hipertensión o el colesterol), y como el usuario se siente sano, se complica el objetivo.

Ya hemos visto la importancia de las aplicaciones de mHealth y como tienen que ser. La pregunta es ahora: ¿en qué se está trabajando y qué se espera?

Futuro de la mHealth

En el futuro se espera un énfasis en el contexto; sensores más potentes; autodiagnóstico y automonitoraje ; sistemas de alertas y mensajería inteligentes; recomendaciones personalizadas; análisis de datos que transformen los datos en información para tomar acciones; convergencia del software de empresa/centros de salud/instituciones y el software de los usuarios que facilite la circulación de datos con los usuarios; comunidades que pongan en contacto pacientes y expertos, en las cuales todo el mundo aprende de todo (incluídos los expertos de los pacientes).

Entre los retos con que se enfrenta la mHealth están: la adopción por parte de usuarios (pacientes y expertos); la seguridad y la privacidad, donde jugarán un papel clave las administraciones; la validación y regulación (del mismo modo que ahora se regulan los medicamentos o las máquinas médicas); y el retorno de la inversión (actualmente se paga por los medicamentós, ¿se pagaría por una aplicación?).

Por otro lado, hay un reto que también es muy importante: según el informe de la OMS, a pesar del crecimiento de las aplicaciones de salud para dispositivos móviles, la mayoría de proyectos no se evalúan (según el informe, sólo un 12% de los proyectos estudiados se evaluaron) y, por lo tanto, se conoce poco el impacto real de estas políticas. De hecho, entre los principales obstáculos con que se encuentra la mHealth está la evaluación de la eficacia y la rentabilidad de las aplicaciones. Otras barreras importantes incluyen los conflictos en las prioridades del sistema de salud, la carencia de políticas de apoyo, y las cuestiones legales, así como la privacidad de los ciudadanos.

Conclusiones

Así pues, estamos en un momento en que la tecnología ofrece la posibilidad de hacer el paciente responsable y parte activa de su propia salud, tanto a nivel de prevención como de tratamiento y colaborar activamente con los servicios médicos. Pero es un momento en que todavía carece encajar estos adelantos en el día a día de la medicina, y tener unos protocolos claros tanto de evaluación como de implantación. Hace falta un cambio de cultura organizativa en el mundo sanitario y a la vez hay que hacer un giro que lleve hacia un empoderamiento real de las personas y una toma de decisiones compartida, basada en la mejor evidencia disponible y en las percepciones y experencias de los profesionales sanitarios y de los pacientes.

En todo este contexto, hay un proyecto que está tomando forma actualmente en la UOC: el eHealth Center, que aglutina varios estudios y que procurará incorporar varias tecnologías y aproximaciones al mundo de la Salud.

 

El Observatorio Tecnológico de los Estudios de Informática, Multimedia y Telecomunicación de la UOC reflexiona sobre diferentes temas de actualidad que giran alrededor del mundo de las tecnologías de la información y la comunicación.

 

mHealth, salut en moviment

Després de l’entrada sobre eHealth, anem ara a centrar-nos en una de les parts de l’eHealth: l’mHealth.  Però, quina és la definició d’mHealth? Segons un document de l’OMS, no hi ha una definició clara, però en dóna una que ens ha semblat útil; és la del Global Observatory for eHealth (GOe) i defineix el terme com: pràctiques mèdiques i de salut pública basades en dispositius mòbils.

Les aplicacions d’mHealth són incomptables. Segons el Banc Mundial, es poden classificar en set categories: 1) millora de la gestió i la presa de decisions per part de professionals de la salut; 2) recol·lecció de dades basades en la localització en temps real; 3) prestació d’assistència sanitària a llocs remots i difícils per servir ; 4) foment de l’aprenentatge i l’intercanvi de coneixements entre els professionals de la salut; 5) promoció de la salut pública; 6) millora de la rendició de comptes; i 7) autogestió de la salut del pacient.

Àmbit d’aplicació de l’mHealth

D’altra banda, segons una lliçó del Dr. Bassam Kadry de la Facultat de Medicina de Stanford, si separem la recerca en medicina en descobriment de salut i distribució de salut, en el primer grup hi hauria les vacunes, els fàrmacs, la ciència de materials, etc. Aquí, hi ha poc espai per a l’mHealth. Però és a l’hora de fer arribar els resultats de la recerca al públic, quan pot jugar un paper important. Aquí trobem una nova classificació de les aplicacions de salut mòbil, més específica: a) gestió de la informació, b) educació, c) comunicació, d) canvis de comportament o e) adherència als tractaments. És a dir, la salut mòbil no guarirà l’Alzheimer, però pot ajudar a fer que els tractaments arribin a tothom i que es segueixin de forma adequada o a donar suport als cuidadors d’aquests malalts.

La importància de la distribució de salut es pot veure en el triangle de ferro de la salut que es mostra a la figura: l’objectiu és mantenir un equilibri entre qualitat, cost i accés. La tecnologia pot ajudar a equilibrar el triangle.

mhealth

Triangle de ferro de la salut: qualitat, cost i accés.

Característiques de l’mHealth

I per què és tan important l’mHealth? La resposta és doble: des del punt de vista de l’usuari, ara tothom té un smartphone i, a més, les expectatives dels usuaris han crescut arran de la millora en la qualitat de les aplicacions; i des del punt de vista econòmic, el mercat s’espera que sigui de 26 bilions de dòlars (bilions americans) el 2017; i això permeti estalviar 400 bilions de dòlars americans en costos de salut per aquell any.

Ja hem vist, per tant, la importància que pot tenir la salut mòbil. Però, com ha de ser una aplicació de Salut? Segons el Dr. Bassam Kadry, a l’hora de dissenyar una aplicació de salut ens hem de fer les següents preguntes:

  • És efectiva?
  • Es fa un ús eficient dels sensors?
  • S’aprofita el geoposicionament?
  • Es beneficia de la capacitat de pujar i baixar dades en temps real?
  • S’integra fàcilment amb altres tecnologies?
  • Aprofita la comunitat?
  • Recol·lecta dades de forma passiva o depèn de si els usuaris introdueixen les dades?
  • Capta l’atenció dels usuaris quan cal, mitjançant missatges intel·ligents?

És important tenir presents aquests elements perquè potser el que cal, no és una aplicació mòbil.

Cal tenir present que l’mHealth és una eina, no una solució. Però una eina que pretén canviar la manera en què els pacients es comporten i interaccionen amb la seva malaltia, amb altres malalts i amb els metges. Una eina que, a més, pot ajudar a canviar els hàbits i evitar o substituir certs medicaments. Segons Erica Kochi, co-directora del Tech Innovation d’UNICEF; (http://unicefstories.org/tech/mhealth/), la tecnologia és només el 5% de la solució.

Atès que algunes aplicacions pretenen precisament això, canviar d’hàbits, s’ha creat el terme captologia, de l’anglès, CAPtology (Computers As Persuasive Technology). Per aconseguir aquests canvis d’hàbits calen tres elements: un disparador (un trigger), l’habilitat de canviar; i la motivació per canviar (de fet, només té sentit dissenyar aplicacions per a usuaris motivats). Cal tenir present, a més, que en salut el premi de vegades no és visible per a l’usuari (seria el cas, per exemple, de la hipertensió o el colesterol), la qual cosa complica l’objectiu.

Ja hem vist la importància de les aplicacions d’mHealth i com han de ser. La pregunta és ara: en què s’està treballant i què s’espera?

Futur de l’mHealth

En el futur s’espera un èmfasi en el context; sensors més potents; autodiagnòstic i automonitoratge; sistemes d’alertes i missatgeria intel·ligents; recomanacions personalitzades; anàlisi de dades que transformin les dades en informació per prendre accions; convergència del programari d’empresa/centres de salut/institucions i el programari dels usuaris que faciliti la circulació de dades amb els usuaris; comunitats que posin en contacte pacients i experts, en les quals tothom aprèn de tothom (inclosos els experts dels pacients).

Entre els reptes amb què s’enfronta l’mHealth estan: l’adopció per part d’usuaris (pacients i experts); la seguretat i la privadesa, on jugaran un paper clau les administracions; la validació i regulació (de la mateixa manera que ara es regulen els medicaments o les màquines mèdiques); el retorn de la inversió: hom actualment paga pels medicaments però, pagarien per una aplicació?

D’altra banda, hi ha un repte que també és molt important: segons l’informe de l’OMS, tot i el creixement de les aplicacions de salut per a dispositius mòbils, la majoria de projectes no s’avaluen (segons l’informe, només un 12% dels projectes estudiats es van avaluar) i, per tant, es coneix poc l’impacte real d’aquestes polítiques. De fet, entre els principals obstacles amb què es troba l’mHealth està l’avaluació de l’eficàcia i la rendibilitat de les aplicacions. Altres barreres importants inclouen els conflictes en les prioritats del sistema de salut, la manca de polítiques de suport, i les qüestions legals, així com la privadesa dels ciutadans.

Conclusions

Així doncs, estem en un moment en què la tecnologia ofereix la possibilitat de fer el pacient responsable i part activa de la seva pròpia salut, tant a nivell de prevenció com de tractament i col·laborar activament amb els serveis mèdics. Però és un moment en què encara manca encaixar aquests avenços en el dia a dia de la medicina, i tenir uns protocols clars tant d’avaluació com d’implantació. Cal un canvi de cultura organitzativa en el món sanitari i alhora cal fer un gir que porti cap a un apoderament real de les persones i una presa de decisions compartida, basada en la millor evidència disponible i en les percepcions i experiències dels professionals sanitaris i dels pacients.

Un projecte que està prenent forma actualment a la UOC és l’eHealth Center, que aglutina diversos estudis i que procurar incorporar diverses tecnologies i aproximacions al món de la Salut.

 

L’Observatori Tecnològic dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC reflexiona sobre diferents temes d’actualitat que giren al voltant del món de les tecnologies de la informació i la comunicació.

Las competencias de TI que buscan los CIO

De todas las maneras que hay para buscar o adivinar qué competencias en tecnología buscan las empresas y cuáles son las profesiones al alza, la que me gusta más es preguntar directamente a los CIO (o sea, no a los de recursos humanos o las empresas de selección o los anuncios en los periódicos) qué piden realmente. Esto es lo que hacen las grandes encuestas anuales, como la de la Society for Information Management o la de Gartner.

Descargar (PDF, 213KB)

GRAFICA: Las cosas que les quitan el sueño a los CIO

Por tercer año consecutivo, la escasez de talento es una de las mayores preocupaciones del CIO, según la SIM, y la mayor barrera para implantar la transfomación digital según la de Gartner, por encima de la falta de recursos o de esponsorización directiva. Falta talento técnico de muchas clases, pero falta también talento personal y directivo (los famosos soft skills), en un momento en que la inversión, la contratación y los salarios del personal de TI parece que vuelven a crecer. La necesidad de talento es mayor entre las empresas que se considera que lo hacen mejor (los top performers), según Gartner.

Las competencias técnicas más difíciles de encontrar y más importantes para la empresa son:

  • las del grupo de Inteligencia Analítica (Inteligencia de Negocio, Big Data y Ciencia de los Datos)
  • y Ciberseguridad, votadas por casi la mitad de los CIO de la encuesta de la SIM.
  • Pero faltan también arquitectos de datos y de soluciones, analistas de negocio o programadores (sobre todo, los equipados para desarrollos “ágiles”), según la SIM.

Falta de todo, según la encuesta de Gartner.

Las competencias gerenciales (soft skills) son tan importantes o más que las competencias técnicas. Las más difíciles de encontrar entre el personal de TI y más importantes para la empresa son, según la SIM:

  • liderazgo,
  • pensamiento estratégico,
  • análisis de negocio,
  • pensamiento holístico (ver todas las perspectivas de un problema, no sólo la perspectiva técnica),
  • gestión del cambio (actuar sobre la organización, los procesos de trabajo y la cultura para que la implantación de las tecnologías de la información sea efectiva) y
  • capacidad para innovar.

Dicen los analistas, después de tantos años con este dolor en el cuerpo, que los jóvenes no se inclinan hacia las carreras técnicas y que las Universidades no somos capaces de formar el tipo de profesional que las empresas necesitan; pero también que las empresas no son muy creativas a la hora de buscarlos ni muy dedicadas a la hora de desarrollarlos. Yo escribía hace poco que la búsqueda de talento, dentro y fuera de la empresa y también en la relación con los partners, debía ser una de las obligaciones de la lista más corta de buenos propósitos del CIO: “El CIO necesita cuidar de su gente y proveedores y alinearlos con un mensaje de cambio, pero al mismo tiempo debe reclutar, desarrollar y retener, dentro y fuera de la empresa, nuevas capacidades, técnicas y no técnicas, que son necesarias para la transformación digital y escasean en el mercado.”

Una versión anterior de esta entrada se publicó en Linkedin Pulse el 9 de Febrero.