Machine Learning: la maldición de las cajas negras

Las tecnologías para analizar datos y mejorar la toma de decisiones han evolucionado considerablemente en los últimos años. Hace unos meses preparé una breve visión retrospectiva de cómo ha cambiado el panorama. En definitiva, hemos evolucionado desde la inteligencia de negocio hasta el big data en apenas unas décadas.

En la actualidad estamos iniciando una nueva etapa fundamentada en desarrollar capacidades cognitivas en nuestra organización, y como comenta McKinsey, vivimos en la era de la analitica. Esto no es nuevo para nuestros lectores. Es decir, cualquier proceso de negocio de nuestra organización y nuestras decisiones se apoyarán en algoritmos de machine learning (ML), para potenciar, mejorar y acelerar nuestras capacidades de comprender a nuestros clientes, empleados, proveedores y productos.

Esta visión es un reto para las organizaciones que se encuentran en diferentes estados de madurez como organizaciones orientadas al dato desde las que están empezando el viaje hasta las que ya se encuentran avanzadas tras implementar de forma con éxito sistemas de inteligencia de negocio, analítica de datos o, incluso, big data.

Cualquier tipo de responsable, sea cual sea su departamento o su nivel jerárquico, necesita conocer y entender el concepto. Aquí tenemos una interesante explicación por parte de Pedro Domingos, autor de The Master Algorithm, y otra buena introducción por parte de Andreseen Horowitz.

Pongamos en que nos convertimos a este nuevo dogma y creemos que nuestra organización debe en una máquina automática fundamentada en algoritmos. A medida que vayamos introduciendo algoritmos más y más sofisticados en nuestra organización, se generan nuevos retos que es necesario abordar más pronto que tarde que recuerdan a una caja negra (no confundir con las cajas negras de un avión):

  • Los resultados de ML son una caja negra: ML no se comprende. No sólo porque no se entiende cómo se genera el valor sino en la interpretación de los resultados. Este tema no es nuevo, pero cada vez más se discute como un problema de User eXperience (UX) y no sólo desde la perspectiva de la visualización de datos.
  • Los algoritmos ML desplegados en la organización son una caja negra: El problema no sólo puede encontrarse en la interpretación sino también en en el proceso de selección, en la documentación vinculada en el desarrollo, a la selección de features,…. En línea con esta discusión empiezan a emerger propuestas como The Machine Learning Canvas.
blackbox3d-obs

Visión de un algoritmo de Machine Learning como una caja negra (Blackbox). Fuente: https://en.wikipedia.org/wiki/Black_box

Estos dos escenarios no son nuevos, los hemos vivido ya en el contexto de la inteligencia de negocio, aunque en menor magnitud y forman parte del conocimiento popular (o deberían). Entre sus soluciones encontramos definir una estrategia a largo plazo, documentación, evitar modelos y programación de baja calidad, definir estrategias de comunicación y formación,…

Parece que estamos condenados a repetir los errores del pasado y que en el futuro se hablará de fracasos en la implementación de data science como ya se está hablando de fracasos en el contexto de Big Data.

¿Seremos capaces de evitar las cajas negras en nuestras organizaciones?

Josep Curto es  profesor en los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya, donde es responsable de asignaturas relacionadas con estrategias de datos. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de Business Intelligence, Business Analytics y Big Data.

¿Cómo pueden las metaheurísticas ayudarnos a conseguir un mundo más inteligente?

Las metaheurísticas, de las que ya se ha hablado en anteriores entradas en este blog, son algoritmos de optimización que se encuentran en la frontera entre la computación, la inteligencia artificial, y la investigación operativa. Algunos de estos algoritmos tienen nombres y orígenes bien curiosos (e.g. colonias de hormigas, algoritmos genéticos, búsqueda tabú, recocido simulado, etc.), y la mayoría de ellos usan estrategias de búsqueda que permiten hallar soluciones óptimas (o, como mínimo, de gran calidad) a complejos problemas de optimización. Hasta aquí, se podría pensar que estos algoritmos pertenecen sólo al ámbito teórico. Pero nada más lejos de la realidad: en casi todos los ámbitos de la vida nos encontramos con este tipo de problemas de optimización, que surgen normalmente para dar apoyo a la toma de decisiones en áreas tan diversas como los sistemas informáticos distribuidos (e.g., sobre qué nodos conviene desplegar servicios a fin de lograr una determinada disponibilidad al mínimo coste posible), los sistemas de transporte (e.g., qué plan de rutas proporciona una distribución más eficiente), los sistemas de producción (e.g., cómo programar la producción para lograr finalizarla en el menor tiempo posible), los sistemas financieros (e.g., qué productos debo incluir en un portafolio –y en qué cantidad– a fin de minimizar el riesgo a la vez que garantizo un retorno mínimo), los sistemas de telecomunicaciones (e.g., dónde debo ubicar las antenas a fin de lograr la calidad de servicio deseada al menor coste posible), y en casi cualquier otra área imaginable. De hecho, es fácil sostener la hipótesis de que nos encontramos en un mundo cada vez más complejo (por ser más global y más interconectado) y que, en consecuencia, la toma eficiente de decisiones  se convierte en una actividad diaria de creciente dificultad. Es precisamente en este contexto donde las metaheurísticas nos pueden ayudar a conseguir un mundo más “inteligente”.

En efecto, nuestra calidad de vida depende, en gran medida, de estos procesos de toma de decisiones, ya que éstas afectan a aspectos cotidianos como son, por ejemplo: el tráfico en las grandes ciudades, los niveles de contaminación, la calidad de los servicios de telecomunicaciones que usamos, la resolución de disrupciones causadas por retrasos en los vuelos, el tiempo necesario para recibir los productos que compramos online, el precio que pagamos por algunos servicios, la sostenibilidad económica de nuestra empresa, etc.

im1_complexWorld

Vídeo: An increasingly complex world

Hasta aquí todo claro, pero… ¿no nos dejamos algo importante por el camino? El mundo que nos rodea no sólo es cada vez más complejo, sino que también se caracteriza por mostrar elevadas dosis de incertidumbre y dinamismo. Pensemos por ejemplo lo que ocurre con el tráfico en las grandes ciudades, el movimiento de pasajeros en los aeropuertos, la volatilidad de los mercados bursátiles, o el acceso a sistemas de cómputo en la nube desde dispositivos móviles. En el grupo ICSO del IN3-UOC trabajamos conjuntamente con expertos de diferentes universidades y países en el desarrollo de nuevos y mejores algoritmos híbridos que sean capaces de afrontar de forma eficiente los retos causados por la incertidumbre y el dinamismo. Así, nuestros algoritmos simheuristics combinan metaheurísticas con simulación para resolver problemas de optimización en escenarios de incertidumbre, mientras que nuestros algoritmos learnheuristics integran metaheuísticas con métodos de machine learning para solucionar problemas de optimización con elementos dinámicos. Las posibilidades de diseño, desarrollo, y aplicación de estos algoritmos híbridos son prácticamente ilimitadas, por lo que siempre estamos interesados en incorporar nuevos retos y talento que nos ayuden en la aproximación a un mundo más inteligente y sostenible.

 

im2_simheuristics

Vídeo: Simheuristics

En julio de 2017, la UOC co-organiza, junto con la Universidad Pompeu Fabra y la Universidad Rey Juan Carlos, el décimo-segundo congreso internacional sobre metaheurísticas (http://mic2017.upf.edu). Este evento internacional representa una excelente oportunidad para conocer más sobre el tema y también poder conversar con los grandes expertos internacionales que asistirán al evento. Si eres estudiante/titulado UOC (o no UOC) y te interesa explorar este tema en tu tesis fin de grado, máster, o incluso doctorado, anímate a contactarnos.

Ángel A. Juan y Daniel Riera son profesores de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, e investigadores del grupo ICSO del IN3.

 

Almacenes de columnas y almacenes de grandes datos

Con una relativa frecuencia hemos detectado una cierta confusión, posiblemente porque reciben una denominación similar, con ciertas soluciones de bases de datos disponibles en mercado, y que están adquiriendo una importancia cada vez mayor. ¿Sabemos la diferencia entre un almacén de columnas (o column store) y un almacén de grandes datos (big data store), también denominado en ocasiones base de datos NoSQL de columnas? Dependiendo de la respuesta (y por supuesto, de vuestro interés), podéis o no seguir leyendo esta entrada.

Distinción entre almacenes de columnas y almacenes de grandes datos.

Distinción entre almacenes de columnas y almacenes de grandes datos.

Los almacenes de columnas se basan en el modelo relacional. Por ello, el lenguaje de creación y manipulación utilizado para trabajar con este tipo de bases de datos es SQL estándar.

Posiblemente, la principal característica de los almacenes de columnas es que los datos se organizan en el dispositivo de almacenamiento externo (por ejemplo, en disco) por columnas. La idea básica de este tipo de almacenamiento, es que los valores que toma cada columna para las diferentes filas de una tabla, se almacenan seguidos en páginas de un fichero, sin mezclarse con los valores que puedan tomar otras columnas. En otras palabras, cada página guarda datos única y exclusivamente de una columna.

Esta forma de almacenamiento viene acompañada con la implementación de toda una serie de mecanismos especializados que permiten resolver de forma eficiente operaciones complejas de consulta sobre la base de datos. Uno de los más obvios es la posibilidad de comprimir los datos (colapsar valores repetidos en uno solo).

Por todo ello, los almacenes de columnas son especialmente idóneos para entornos de naturaleza analítica, es decir, para entornos que son intensivos en lecturas, como sería el caso de entornos OLAP. Dichos entornos se caracterizan por leer y procesar grandes cantidades de datos, con el objetivo de obtener nuevo conocimiento y utilizarlo para impulsar la toma de decisiones. Los almacenes de columnas también son útiles en otros entornos de aplicación intensivos en lecturas, como sería el caso de sistemas CRM y en sistemas de búsqueda en catálogos de e-commerce.

En el mercado existen diferentes implementaciones, algunos ejemplos serían: Vertica (comercializado por Hewlett Packard y basado en un prototipo de investigación denominado C-Store), Actian Vector (previamente comercializado bajo el nombre VectorWise, y basado también en un prototipo de investigación), MonetDB (uno de los productos pioneros y de código abierto), Infobright, SAP Sybase IQ o Amazon Redshift.

Por lo tanto, bajo ningún concepto las podemos considerar bases de datos NoSQL (para una introducción a este tipo de bases de datos podéis ver este vídeo), aunque en ocasiones podamos leer información que las asocien a dicho movimiento. La denominación de NoSQL engloba un conjunto de bases de datos que han sido construidas para soportar entornos de aplicación en donde las bases de datos relacionales no constituyen la mejor la solución. Estos entornos, al menos, tienen una de las dos siguientes características:

  • Se trata de entornos que necesitan disponer de esquemas de datos más flexibles, es decir, se trata de entornos que no se ajustan a la estructuración rígida en forma de tabla que ofrecen las bases de datos relacionales. Por ello, las bases de datos NoSQL proponen diferentes modelos de datos (en este vídeo se introducen dichos modelos de datos).
  • Se trata de entornos de aplicación altamente distribuidos que necesitan estar siempre operativos (es decir, en línea) y que necesitan gestionar un volumen importante de datos, posiblemente heterogéneos. Sobre estos datos se van a ejecutar tanto operaciones de consulta como de actualización, y frecuentemente se renuncia a la consistencia de los datos. En origen, su uso más habitual era como bases de datos operacionales, es decir, como bases de datos orientadas a gestionar el día a día de una organización. A pesar de ello, a día de hoy, también existen bases de datos NoSQL que presentan capacidades analíticas.

Uno de los modelos de datos que subyace en NoSQL es el modelo de agregación, el cual se basa en el concepto de agregado. Este modelo es especialmente útil para tratar datos no estructurados y semiestructurados. En este modelo, cada agregado es una colección de objetos del mundo real que están relacionados entre sí, y que deseamos tratar como una unidad indivisible. Adicionalmente, cada agregado está identificado por una clave. En el caso concreto de las bases de datos NoSQL de columnas, se ofrece una visión matricial de los datos (y en consecuencia de los agregados): primero por filas y luego por columnas o familias de columnas.

Algunos ejemplos de bases de datos NoSQL de columnas son BigTable (de Google, y usada, por ejemplo, para guardar los datos asociados a Google Maps y Google Earth), Cassandra (construida para mejorar la función de búsqueda en la bandeja de entrada de Facebook, y actualmente proyecto Apache), HBase o Amazon Simple DB.

Una vez llegados a este punto nos podemos plantear nuevas preguntas, como por ejemplo, ¿en qué se diferencian los almacenes de columnas de las bases de datos relacionales tradicionales (en ocasiones, y en contraposición a los almacenes de columnas, reciben el nombre de almacenes de filas o row stores en inglés)? ¿Los almacenes de columnas tienen alguna relación con las bases de datos en memoria (in-memory databases)? ¿Y los almacenes de grandes datos? En este vídeo (perteneciente a nuestro máster de Inteligencia de negocio y Big Data), podéis encontrar las respuestas a estas preguntas, así como explicaciones más detalladas sobre las diferencias entre los almacenes de columnas y los almacenes de grandes datos.

 

M. Elena Rodríguez y Jordi Conesa son profesores de los Estudios de Informática, Multimedia y Telecomunicación. Su actividad docente se centra en modelado conceptual, bases de datos y Business Intelligence.

El estado de ánimo de los CIO

El trabajo del primer ejecutivo de la información y de la informática, el CIO, tiene mil caras y no es fácil. Se le pide que las cosas no dejen de funcionar, que atienda las demandas del resto de las unidades de negocio, que aporte visión sobre la tecnología y que contribuya a la estrategia y la innovación. En diferente orden o todo junto. Yo diría que los CIO son como los seguidores del Barça: décadas de sequía y fracasos les hacen propensos a la incertidumbre y el desconsuelo. En épocas de triunfos tienden a la euforia, pero nunca pierden esa desconfianza alargada. Hemos hablado aquí de la ambigüedad de su rol y las múltiples razones para su efectividad que no dependen de ellos y les debilitan. Ahora la suerte se llama transformación digital y los CIO son más optimistas, piensan que su rol e influencia están aumentando y aspiran a asumir el liderazgo del cambio.

GRÁFICA:

Descargar (PPTX, 144KB)

Mayores preocupaciones de los CIO (CIOs SIM Survey, 2016).

Cada año, desde hace décadas, esperamos las encuestas y las reuniones de CIO para conocer su estado de ánimo. Las más importantes son las que publica el MISQE, por encargo de las Society for Information Management, la que hace la revista CIO y la de la empresa de prospectiva Gartner. La primera es más descriptiva que analítica, supuestamente más científica y sistemática, más selecta, y permite seguir anualmente más o menos las mismas cuestiones; es también más americana, por los entrevistados, y más estable y pacífica. Las otras necesitan cierta tensión y drama para vender más.

El 2016 ha sido o debía ser un buen año, dicen Kapelman y colegas, los autores de la encuesta de la SIM: el gasto en informática ha crecido y también la contratación y los salarios. Los CIO opinan que su influencia en la estrategia y en la empresa ha aumentado y están dedicando más tiempo a sus interacciones con la dirección general y los colegas, y a la planificación y la arquitectura.

  • Sus preocupaciones mayores son bastante compartidas con las del negocio: el alineamiento, el valor de IT, la seguridad y el tiempo de respuesta a las necesidades de la empresa.
  • Otras son lógicamente propias y es más difícil obtener visibilidad hacia fuera: la escasez de talento, la continuidad del negocio y la recuperación de desastres (que, extrañamente, sólo parece preocupar al CIO).
  • Otras forman parte de las curiosidades del carácter, la biografía y los estereotipos: la credibilidad de IT o el rol del CIO.

Nada muy anormal ni diferente de las encuestas de los últimos años.

  • Las mayores inversiones son en Inteligencia de Negocio (por enésimo año), en ERPs (ésto es una condena sin solución) y en Seguridad. Pero la “innovación” recibe una mayor inversión que la seguridad (!), si se mide por las medias en porcentaje del gasto. Crece el gasto en software y en servicios en la nube, y baja en todos los demás conceptos. Por naturaleza, el mayor porcentaje de gasto es el de personal (un 37,8%); y el gasto en contratistas externos y consultores es relativamente bajo (10,9%).
  • Pasada la crisis, aumenta la rotación, pero tampoco es alarmante (8,59%). Con relación al personal, los CIO encuentran más difícil de encontrar y formar habilidades no técnicas (perspicacia de negocio y soft skills): pensamiento estratégico, liderazgo, pensamiento sistémico y análisis de negocio. Entre las habilidades técnicas, las más reclamadas son las de Business Intelligence y relacionadas y las de ciberseguridad.
  • La mayor parte de las organizaciones de IT son bastante centralizadas y han cambiado menos de lo que creemos. El CIO reporta mayoritariamente al CEO (el director general o consejero delegado, en un 42,9%), seguido del director financiero (29,0%) y el director de operaciones (un 16,8%). Su edad media es de 51 años y la duración media en el puesto de trabajo es de casi cinco años (la mayor rotación entre los ejecutivos de nivel C), aunque la mayoría se mueven de una empresa a otra (un 64,6%). Casi todos (un 91,2%) siguen teniendo perfiles y antecedentes en puestos técnicos más que de negocio.
  • Los CIO de la encuesta son medidos por resultados de alineamiento con el negocio, disponibilidad de los servicios, satisfacción de los usuarios internos y externos y control y reducción de costes, principalmente. Para hacerlo bien, tienen que hacer muchas cosas muy diferentes.
  • La mayoría de los CIO creen que ayudan a dar forma o que facilitan la estrategia de empresa y que proveen con innovación valiosa al negocio.

El dibujo no es malo y las líneas de tendencia no parecen inquietantes. El CIO cree que hace básicamente lo que tiene que hacer: está cerca del negocio y de su gente, intenta pensar estratégicamente y contribuir a la innovación; al mismo tiempo que se ocupa de que las tuberías funcionen y se gestionen los riesgos. Se preocupa por el equipo y por su desarrollo. Como cualquier directivo. What else?

El problema de estos informes es que pocas veces conocemos o conocemos con este nivel de profundidad y objetividad “subjetiva”, si vale decirlo así, cuál es la opinión de los demás, más allá de las encuestas de satisfacción, que tienden a la indulgencia. En algunas de las preguntas de la encuesta de la SIM, el CIO opina sobre lo que cree que son las percepciones de sus colegas del negocio. Otras investigaciones, como la encuesta de CEOs y miembros del comité de dirección que hace Gartner con Forbes intentan explorar estos puntos de vista. En primavera tendremos una nueva entrega de las encuestas de Kapelman para la SIM, de la que ya se ha publicado un avance en el MISQE, y de la encuesta de CEOs.

En el mundo más académico, cuandos se trata de analizar el papel de TI para la transformación empresarial, empiezan a ser frecuentes trabajos en que se estudian a la vez parejas o tríos de directivos: el CIO, el CEO (el director general o consejero delegado) y, eventualmente, otro directivo del comité de dirección (el de marketing, finanzas u operaciones). Creo que es buena idea. Cuando voy a empresas, y antes o justo después de que el CIO me cuente su cuento, me gusta hablar con sus jefes y algunos de sus iguales e inferiores.

La encuesta de CIOs de Gartner se acaba de publicar ya y va de ecosistemas digitales, interoperabilidad y la informática bimodal. Le dedicaremos pronto una reseña.

Decálogo de acceso al VOD

El pasado lunes 16 de diciembre, el programa “No ho sé” de RAC1 habló de las plataformas de Video On Demand, más conocido por las siglas inglesas “VoD”. En ese programa se contó con dos expertos en el tema como son Víctor Sala y Elena Neira de los Estudios de Comunicación de la UOC, además de Antoni Pérez, de los Estudios de Informática, Multimedia y Telecomunicación de la UOC , para atender los aspectos más técnicos.

video-on-demand

Con esta excusa, y compartiendo algunos de los elementos del programa, proponemos aquí un decálogo a la hora de disfrutar del vídeo a la carta:

  1. Valorar la oferta de cada plataforma: todas disponen de algunos días de prueba y os puede permitir valorar si la oferta se ajusta a vuestras necesidades. En algunos casos, ya se dispone de acceso, como ocurre con Movistar + (antiguo Yomvi) si se tiene internet contratada con el proveedor Movistar; o, desde el miércoles 14 de diciembre, se tiene acceso a Amazon Prime Video si se dispone del servicio Premium de Amazon. En otros proveedores, como Vodafone, se han hecho ofertas de NetFlix y/o HBO online. Aparte de estas, tenemos otras plataformas interesantes como WuakiTV por ejemplo. También hay que tener presente que están empezando a aparecer agregadores de contenidos desde diversas plataformas.
  2. Aparte del contenido de la plataforma, hay que valorar también el sistema de recomendación de contenidos. Si no, se corre el riesgo de caer en la trampa de dedicar todo el tiempo de ocio a ver cuál es la oferta del servicio. Eso sí, a menudo se puede consultar el catálogo a través de otros servicios, como páginas web ofrecidas por el mismo u otros proveedores.
  3. Comprobar si la plataforma se adapta a nuestra forma de consumir el contenido: ¿permite acceder desde varios dispositivos? ¿Se puede dejar de mirar un programa en una tableta y seguir después en el móvil desde el mismo punto? ¿Se puede descargar lo que se desee para poderlo visionar sin conexión a Internet (por ejemplo en el tren)?
  4. Valorar si la plataforma permite el visionado en varios aparatos a la vez: puede ser muy útil en familias con varios consumidores, pero también para compartir la cuota mensual. En algunos proveedores el precio varía en función de las pantallas simultáneas en las que se pueda consumir el servicio.
  5. Elegir una conexión a internet adecuada: a estas plataformas se accede por internet, por lo que conviene tener una buena conexión. Con una de 10 Mb por fibra óptica (o ADSL, siempre y cuando los 10 Mb sean reales) se podrá ver lo que se desee sin muchos problemas en 720p (HD Ready) o alta definición (HD 1080p). Pero eso sí, la conexión a Internet se verá disminuida por otros usos, y quizás no se pueda navegar con tanta facilidad mientras se está consumiendo el servicio. Y por supuesto, si se tiene una televisión de 4K, se necesitará una conexión más rápida para acceder a los contenidos en 4K, que varias plataformas ya empiezan a ofrecer y esta oferta sin duda irá creciendo.
  6. Aprovechar al máximo la conexión a Internet: si se tienen contratadas 50 (o más) Mb/s por fibra óptica, pero el router emite la WiFi a 10 Mb/s, si se consume el VoD por WiFi, sólo podrá acceder a 10 Mb/s. Por tanto, este WiFi no soportaría los contenidos con una resolución 4K e incluso puede tener problemas con contenidos HD. Así, mejor utiliar cable (de red ethernet) si el dispositivo lo permite. O actualizar la red WiFi a estándares más modernos que permitan disponer de un WiFi más rápido (eso sí, nunca se podrá superar la velocidad que dé el proveedor de internet). Si no se tiene la conexión a internet cerca de la televisión, se puede utilizar un extensor de red por línea eléctrica (PLCs), pero una vez más, hay que mirar la velocidad de transmisión.
  7. La VoD en general se puede consumir desde cualquier dispositivo, pero donde más la podemos disfrutar quizás es en la TV. En este caso, si se tiene un Smart TV, hay que asegurarse de que se puede acceder a los proveedores de VoD que se desee elegir. En general todas tienen acceso a los más comunes, pero no está de más validarlo.
  8. Si la televisión no es un SmartTV, hay muchas maneras de convertirla en una utilizando dispositivos adicionales:
    • Conectar un ordenador: se puede utilizar cualquier ordenador que sea capaz de reproducir el contenido VoD, y es una buena manera de reciclar un ordenador un poco antiguo. Eso sí, hay que verificar que garantizan la calidad deseada.
    • Conectar un AndroidTV: es un pequeño ordenador (ya sea en formato pen, o caja rectangular) que se conecta por HDMI a la televisión y, por tanto, permite hacer todo lo que haría un móvil/tableta con Android. En este caso hay que verificar que: 1) la plataforma deseada se puede ver en aquella versión de Android; y 2) el sistema no se calienta excesivamente al reproducir contenidos de alta definición. Normalmente es adecuado disponer de un teclado o mando a distancia (si el sistema no lo lleva) de tipo bluetooth, que facilitará la interacción con el aparato.
    • Conectar un ChromeCast: puede ser la versión estándar, que va por WiFi; o la superior, que permite conexión por cable y vídeo 4K. Algunas televisiones llevan apoyo de Chromecast, y algunas aplicaciones Android optimizadas para televisión (AndroidTV).
    • Utilizar DLNA: es un sistema relativamente estándar de streaming que permite conectar el móvil, tableta u ordenador a una televisión (que tenga WiFi o cable de red) u otros dispositivos de audio y vídeo. DLNA permite reproducir en la TV los contenidos que tenemos en el dispositivo origen. Eso sí, sólo podemos reproducir lo que la televisión pueda reproducir: si no permite ver AVI, por mucho que el móvil lo permita, la televisión no nos lo mostrará.
    • Utilizar dispositivos como las Raspberry Pi (RPI): son placas económicas (30-50€) que son un miniordenador (ya bastante potente en las últimas versiones) que le permiten tener DLNA conectado a la TV. También hay software específico para dicha utilización.
  9. Comprobar los conectores que utiliza. Actualmente el HDMI es el más común, pero hay que vigilar porque hay varios estándares, los HDMI 1.1 hasta 1.4 deberían garantizar sin problemas calidad HD. Para contenidos 4K es aconsejable conectores HDMI 2.0.
  10. ¡Seguir yendo al trabajo! Posiblemente tener acceso a las siete temporadas de Star Trek, the next generation o a las cinco de Babylon 5, sea un incentivo para pasarse días enteros en casa … pero conviene seguir yendo al trabajo, aunque sólo sea para pagar la cuota del VoD. En cualquier caso, a fecha de hoy, al parecer, ninguna de las plataformas mencionadas ofrece estos contenidos, así que no hay peligro de engancharse.

Finalmente, y si ya tiene muchos vídeos y audios y lo que desea es verlos desde todas partes (cuando está de viaje, por ejemplo), puede montar su propio “servidor de vídeo” mediante herramientas como Plex. Eso sí, entonces quiere decir que debe tener un buen ancho de banda de subida, pero también, que uno mismo tiene que encargarse del mantenimiento del servidor.

 

El Observatorio Tecnológico de los Estudios de Informática, Multimedia y Telecomunicación de la UOC reflexiona sobre diferentes temas de actualidad que giran alrededor del mundo de las tecnologías de la información y la comunicación.