Car Hacking (I)

Desde hace ya muchos años que los mecánicos de coches han aparcado el martillo y la escarpa para arreglar los coches que les llevan al taller. Años atrás con solo escuchar el ruido del motor ya sabían que tenía ese coche. Los tiempos cambian y la tecnología llegó a los motores.

Sobre el año 1995 ya todos los coches tienen un pequeño ordenador dentro del capó del motor, algunos modelos incluso antes de esa fecha. A partir de entonces se dieron cuenta que podrían sustituir los kilómetros de cables que había dentro de un coche por un bus de datos industrial, vamos, un único cable para todo, que por cierto ya existían en la industria desde hacía ya una década.

Buses que son resistentes a las alteraciones del entorno, al ruido electromagnético que afecta tanto a las comunicaciones Ethernet actuales. Este tipo de bus se diseñó para que ese ruido que generan los grande motores eléctricos, al arrancar, al funcionar, no cambiasen los bits que por ellos circulan de los sensores de esos mismo motores hacia los ordenadores que supervisan todo el proceso industrial.

Bus industrial que controla un motor
(http://www.wieland-electric.com)

Los mecánicos enchufan un cable con un conector especial, que se llama OBD-II, y al otro lado un terminal USB normal que conectan a un portátil con el software de diagnóstico, ese portátil es el que les dice que es lo que falla en el coche, que aparato está mal y cambiarlo.

Ahora empezamos a ver coches conectados permanentemente a internet, a las redes. Los coches de ahora, aunque sean de gama baja, ya disponen de clientes WiFi que al llegar al taller se conectan a la WiFi para volcar los datos del ordenador del coche hacia los mecánicos. No es que sea una cosa muy nueva, en la Fórmula 1 ya hace muchos años que oímos hablar de la telemetría, que desde “el muro” ven todos los datos del coche, no es nada más allá de tener conectado los buses de los dos coches que tienen en pista con los servidores que dispone cada una de las escuderías en todos los grandes premios o en los talleres. A partir de esos datos realizan el estudio de cada uno de los coches y de los componentes, el desgaste, los fallos, etc.

Pero hoy en día hay coches que van más allá y están conectados permanentemente con dispositivos de telefonía 4G. Estos dispositivos envían y reciben datos hacia el ordenador del coche, lo que permite por ejemplo lo que veremos en poco tiempo, poder pagar los alquileres por tiempo y kilometro hecho en tiempo real, o “comprar” más potencia para el coche durante un período que lo requiera, por ejemplo un viaje con toda la familia o arrastrando una caravana, el resto de tiempo no nos hace falta tener tanta potencia para hacer colas en las entradas a las grandes ciudades o al circular por ellas. Con conectarnos a la web del fabricante y comprar el servicio, este se conectará a nuestro coche para dar más potencia durante el tiempo contratado.

Esto está muy bien, pero… habrá que mirar que pasa con la privacidad de las personas, y sobre todo con el hacking que ya hay detrás de todas estas comunicaciones. En el año 2015 dos investigadores consiguieron controlar un coche conectado permanentemente de manera remota. Lo veremos en un próximo post del blog.

 

Jordi Serra es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y el director del posgrado CISCO Networking Technologies: CCNA.

Dirección de Informática para Informáticos y no Informáticos

Dije aquí que no era tiempo ya de manuales. La pereza o la precipitación nos lleva a estudiantes y profesores a las redes sociales o, como mucho, a la wikipedia. Se aspira a aprender jugando o mirando videos mientras desayunas. La gente que sabe dice que comprendes o adquieres competencias cuando haces. Los libros parece que son caros, aunque la luz y el metro lo son más. Todo esto deja en un lugar difícil al manual universitario a 100 euros la pieza. A mí, sin embargo, me gustan y creo que son siempre un buen lugar donde empezar o adonde volver (y ahora con el abaratamiento de la impresión, otro resultado de la tecnología y la globalización, han bajado de precio).

joe peppardstrategic management

GRÁFICA: Joe Peppard y su último libro

Por eso me sorprendió y me alegró que hace unos meses Peppard y Ward, Ward y Peppard publicasen en Wiley, después de catorce años, la cuarta edición de su manual de Planificación Estratégica de Sistemas de Información, ahora re-titulado más justamente The Strategic Management of Information Systems y subtitulado, como no podía ser de otra manera, “Building A Digital Strategy”. Creo que así se recogen las dos ideas más trendy en materia de planificación y gestión estratégica de sistemas de información:

  • Que la estrategia no se elabora en un despacho, sino en la práctica de la gestión: lo que se llama strategizing strategy as practice (SAP).
  • Que la estrategia de empresa y la estrategia de sistemas son ahora dos caras de una misma moneda que llamamos estrategia digital.

John Ward tiene el mismo nombre que el famoso asesino fugado de la cárcel de Columbus, pero es un profesor medio retirado de su plaza en la Cranfield School of Management. Es autor de otra joya, también actualizada ahora, sobre realización de los beneficios de la inversión en IT. Joe Peppard es irlandés, que es una manera de ser, y más joven, y ha asumido la coordinación de esta edición. Peppard, del que también hemos hablado por aquí varias veces, trabaja ahora en la Escuela Europea de Management y Tecnología en Berlín: pronto no habrá Business Schools y todas serán escuelas de Business and Technology.

La nueva versión es más ligera y menos académica y tiene más figuras y colorines. Está más dirigida a directivos de cualquier cosa (también de la informática) y estudiantes de dirección de empresas o de todo tipo de organizaciones. Aún así, la literatura está bastante actualizada y se puede seguir en las notas al final de cada capítulo. El motivo permanente del libro es que “para obtener todo el rango de beneficios disponibles en los sistemas y tecnologías de la información y evitar sus peligros potenciales, todas las organizaciones deben manejarlos como una parte integral de su estrategia de negocio, para dar soporte a esta estrategia y permitir la creación de nuevas oportunidades estratégicas.”

  • La estrategia tiene que ver con la demanda (las oportunidades y amenazas de “ahí fuera”) y con el famoso alineamiento entre negocio y tecnología –que no es lo mismo que ir con la libreta a preguntar a los usuarios qué necesitan. La estrategia determina qué hay que hacer y suele ser el objeto del plan estratégico de sistemas de información, que ocupa casi los primeros dos tercios del libro.
  • La gestión tiene que ver con la oferta, cómo manejamos las inversiones en informática (el portafolio de activos, aplicaciones e infraestructura), la organización y el aprovisionamiento, lo que forma el resto del volumen. La gestión es estratégica también: tiene que ver con dónde, cómo y cuándo gastamos el dinero.

El manual no proporciona una formación de fundamentos de sistemas de información ni de tecnología para no informáticos, de manera que sigo recomendando en estos casos hacer pareja con el libro de O’Brien y Marakas, Management Information Systems, que ya va por la décima edición de 2010, aunque no se ha actualizado desde entonces.

Una versión anterior de esta entrada se publicó en LinkedIn Pulse el 23 de Enero.

GDC 2017 – Diseño de niveles

Recientemente, se ha celebrado la Game Developers Conference (GDC) de este año en la ciudad de San Francisco, a la que he tenido la suerte de poder asistir. En esta conferencia se realizan ciclos de charlas sobre los aspectos más variopintos del desarrollo de los videojuegos: diseño, programación, monetización, audio, RV/RA, post-mortems, narrativa, etc. Lo que tú quieras, seguro que hay su ciclo de charlas. Si bien tiene una importante componente a nivel presentación de productos de la industria, con su correspondiente zona de expositores y stands de turno, lo más importante aquí son las charlas por parte de los profesionales, algunos de gran nivel (Sid Meyer, Warren Spector). De hecho, la cantidad es tal que resulta imposible asistir a todas. En cada turno se pueden solapar tranquilamente más de diez o doce (por ejemplo, ¡el primer día ya empezaba con 18 en paralelo!), todas ellas interesantísimas. No había más remedio que elegir…

Welcome to the GDC

Welcome to the GDC 2017

Durante los dos primeros días, normalmente se celebran distintos “summits”, o reuniones temáticas sobre aspectos muy concretos, dónde normalmente se reúne gente del mismo ámbito dentro del desarrollo de videojuegos. En mi caso, asistí a una parte del taller sobre diseño de niveles. De las distintas charlas, un par me parecieron especialmente interesantes. Por una parte, la realizada por Steve Lee (Arkane Studios), que trataba de una visión holística del diseño de niveles a través de los Dishonored (AN APPROACH TO HOLISTIC LEVEL DESIGN). Por otra parte, la de Clemence Maurer (Eidos-Motréal), que compartía su experiencia en el diseño de las recompensas por exploración en el juego Deus Ex: Mankind Divided (REWARDING EXPLORATION IN ‘DEUS EX: MANKIND DIVIDED’). Ambas se complementaban muy bien, pues la primera ofrecía la aproximación general a un buen diseño de niveles desde el punto de vista de un senior, mientras que la segunda entraba a más bajo nivel sobre como generar los pequeños detalles que dan color a un juego durante la exploración de niveles, desde la perspectiva de una júnior.

Bajo la perspectiva de Steve Lee, el diseño de niveles se basa en tres pilares: Jugabilidad (gameplay), Presentación e Historia (de story, no history). Estos se encuentras interconectados entre si por distintas características que hay que cuidar muy bien durante el proceso de diseño.

Los tres pilares del Level Design

Los tres pilares del Level Design según Steve Lee.

De los tres conectores, quizá el más importante y al que dedicó más tiempo es el que une Jugabilidad e Historia. Partimos de la intuitividad, palabra con la que intento traducir el término original affordance (pero no me gustan los resultados tal cual del diccionario). O sea, la capacidad de comunicar como funcionan las cosas de manera intuitiva. Así pues, un jugador ha de tener muy claro en todo momento sus opciones de navegación y qué elementos son realmente interactivos y cuales no. El ejemplo clásico son las puertas. A menudo, en un juego solo es posible abrir ciertas puertas, que realmente llevan a lugares interesantes, y el resto son solo “atrezzo”, inaccesibles. Cual es cual ha de quedar claro a simple vista. igual con cualquier otro elemento interactivo: interruptores, paredes escalables, plataformas sobre las que puedes saltar, etc. Todos ellos vitales en juegos de sigilo y exploración como los Dishonored. Esta affordance es lo que permite a un jugador intencionalidad, la capacidad de llevar a cabo decisiones conscientes, de acuerdo a sus conjunto de objetivos, y con ciertas expectativas en mente.

Ligado a este punto, mencionó una frase típica en el diseño de niveles: “Vigila al diseñar un nivel en un entorno 3D, pues los jugadores nunca miran hacia arriba“. Pues bien, eso dependerá de si el juego lo diseñas para que valga la pena o no. Si las posiciones elevadas proporcionan una clara ventaja (por ejemplo, si se permite ser francotirador), los jugadores ya se esforzarán en mirar hacia arriba y explorar las opciones que ofrece un nivel en ese sentido.

¿Qué pasa si no se consigue la intencionalidad? El jugador se siente perdido y no sabe qué puedo hacer y qué no. Las acciones se realizan al azar, sin poder establecer claramente relaciones causa/efecto. Se acaba primando las reacciones instintivas que la estrategia. Por ello, hay que dar siempre al jugador: capacidad de elección, una motivación para actuar (a través de objetivos a más alto nivel, y no solo tareas inmediatas), información (a través de las affordances, precisamente), y tiempo suficiente para procesar dicha información.

Para ilustrar estos aspectos, mostró dos ejemplo. Por una parte, en la motivación, una escena inicial del Half-Life 2 donde un agente del Combine hace caer una lata al suelo y te obliga a recogerla del suelo y tirarla a una papelera. Tienes la opción de hacerlo o rebelarte (y entonces te dan para el pelo). Si bien esta escena se concibe como un mero tutorial sobre como interactuar con objectos, te ofrece una motivación para luchar contra el Combine. Ya no es porque el juego los etiqueta arbitrariamente como “los malos”, ahora es personal. Por otra parte, sobre dar información y dejar que el jugador la procese, mostrar que esto es posible incluso en un FPS a toda velocidad como Doom II. El nivel “Barrels of fun” está plagado de barriles explosivos y enemigos que te dan la espalda, para que puedas crear tu propia diversión (o suicidarte sin querer si no atinas…).

Básicamente, un escenario clásico de humillación policial.

Si pasamos a la conexión entre Presentación e Historia, tenemos la construcción del mundo (world building). Las propiedades que debe tener un buen mundo en un videojuego es que ha de ser único, cohesivo y significativo. Sobre lo de ser “único”, el quid de la cuestión no es que debe ser 100% original, algo harto complicado hoy en día, sino que debe ser específico. O sea, debe tener elementos concretos que lo diferencian de los otros, aún cuando a alto nivel pueda ser lo mismo de siempre (marines espaciales luchan contra monstruos…). A partir de estas tres propiedades, se debe aprovechar cualquier oportunidad dentro del juego para desarrollar el mundo: conversaciones con personajes, los lugares que visitas, los objectos que el jugador puede recoges, etc. También, todo ello debe estar ligado siempre a aspectos personales. Al final, la historia ha de ser sobre los ideales humanos y tener algo que decir tanto sobre el personaje como sobre el propio jugador (no por casualidad, este aspecto lo reiteraría unos días más tarde Warren Spector, en su charla post-mortem sobre el primer Deus Ex).

Finalmente, llegamos a la narrativa interactiva, que une jugabilidad y presentación. Entendemos por narrativa la capacidad de aprovechar las propiedades específicas de un medio al máximo para explicar la historia. En una película, esto son la imágenes. En un libro, la capacidad de inspirar ideas o evocar drama, más allá de las palabras en si. La frase típica a la hora de presentar una historia será la de “show, don’t tell” (“muestra, no expliques”), en un videojuego se queda corta. Un videojuego es interactivo, y aprovechar al máximo sus propiedades implica interactividad, no murallas de texto o escenas animadas predefinidas. Si pasa algo dramático, el jugador lo ha de sentir en sus carnes, no decir “Ah, ya no controlo al personaje,  ahora me puedo relajar y acomodarme en el sofá”.

Está claro que hay situaciones que han de suceder porque lo dicta la historia, pero siempre se ha de dar algún margen de acción al jugador. Y este margen se ha de plantear de modo que las elecciones se lleven a cabo en base a la historia, no a la mecánica de juego. Derroto al enemigo porque quiero liberar al reino, no porque me da 100 puntos de experiencia y una espada +3. El ejemplo que mostró fue la lucha, jugando padre-hijo, en el Heavy Rain. Puedes “ganarla” sin problemas, pero quedas como un abusón. Hagas lo que hagas, no obtienes ninguna ventaja, es solo historia y definición del personaje. Pero en vez de ser una escena predefinida, el jugador puede elegir. Y, de nuevo, la escena de la lata del Half-Life 2. Con ello cerramos el círculo y volvemos al tema de las affordances y la intencionalidad del jugador.

Entrando en charla de Clemence Maurer sobre los aspectos de exploración en Deus Ex: Mankind Divided, reaparecían en cierto modo algunos de los vinculados a la charla de Steve, de modo que se complementaban bien (si bien esta presentación se llevó a cabo cronológicamente antes). Sobretodo, resultó interesante vislumbrar algunos fallos típicos cometidos por ella como júnior en los aspectos de world building y narrativa, y que pulió con la ayuda de sus compañeros más experimentados.

A nivel no tan conceptual, y más de estructura en el diseño de niveles, Clamence dividía la tareas según la siguiente escala: core o de diseño del mundo (que crea el hilo argumental principal), el diseño de las misiones secundarias (que complementan el hilo principal y ofrecen rejugabilidad) y las configuraciones de exploración (los pequeños detalles aquí y allí que dan vida y realismo al mundo).

Dentro de las configuraciones de exploración, que fue su tarea principal, el objetivo es mantener al jugador siempre ocupado, con pequeñas recompensas. Estas pueden tener diferente forma. Si bien las más evidentes son objectos útiles para el personaje, otras opciones son la introducción de narrativa (justo lo que comentaba Steve sobre el world building) o la introducción de nuevas opciones de navegación a través del nivel (que estaría vinculado a la intencionalidad y el otorgar nuevas opciones al jugador). Hay que intentar minimizar las zonas vacías y mantenerlo interesado.

Sin embargo, hay que ir con cuidado y aplicar cierta moderación según el grado que tratas dentro de la escala del diseño de niveles. Así pues, si bien cualquier ubicación o personaje es una buena oportunidad para el world building, su complejidad ha de ser equivalente a su importancia.  Clemence comentaba que tenía cierta tendencia a crear tramas complejas o generar personajes con trasfondos llenos de cosas interesantes, hasta el punto de hacer sombra a los lugares y  personajes principales del juego (a nivel core), cosa que molestaba bastante a los diseñadores de la trama principal. Esto también era un problema al causar confusión en el jugador (que ya no sabe qué personaje es realmente importante para la trama y cual no) o incluso romper la verosimilitud del mundo, ya que en el mismo vecindario resulta que vive apiñada gente súper-compleja y llena de subtramas, la mayoría de las cuales nunca se resolverán en el contexto del juego. Lo normal a nivel de personajes “extras” es que como mucho tengan un rasgo distintivo y ya está. El resto, ha de ser totalmente olvidable o estereotípico.

Así pues, el diseño de niveles, tanto a nivel conceptual como más estructural, se deben complementar para poder realimentar tanto la jugabilidad, a través de opciones para el jugador, como para el desarrollo del mundo, a través de la interacción con este, y a veces incluso como pequeña recompensa por explorar. Pero siempre con un grado de mesura, sin querer rizar el rizo a cada oportunidad.

Bueno, y aquí va la transparencia de resumen final…

El diseño de la exploración de niveles.

El diseño de la exploración de niveles.

Joan Arnedo es profesor de los estudios de Informática, Multimedia y Telecomunicación en la UOC. Director académico del Máster en Diseño y Desarrollo de Videojuegos e investigador en el campo de la ludificación y los juegos serios. Su experiencia se remonta a cuando los ordenadores MSX poblaban la Tierra…

La tecnología cotiza máximos en bolsa… otra vez

(Trobareu la versió en català més avall)

Actualmente, las empresas tecnológicas (Apple, Google, …) son las que tienen una mayor valoración a la bolsa y no parece que hayan tocado techo. Ante situaciones similares como por ejemplo la “burbuja de las punto como”, hay quién plantea si esta valoración es realista o nos encontramos ante una nueva burbuja. Un aspecto clave será su capacidad de crecimiento, ofreciendo nuevos productos o abriendo nuevos mercados. En el artículo hablaremos de las nuevas tecnologías y nuevas líneas de negocio de empresas tecnológicas (realidad virtual y aumentada, IA y big data, vehículos autónomos, computación cuántica, …) y sus posibilidades de crecimiento futuro.

Pasado y futuro de la IA

Si miramos la situación actual, cada empresa tecnológica apuesta por  un nicho de mercado. Apple obtiene un gran volumen de beneficios de la venta de smartphones  y tablets  de gama alta y servicios asociados como el App Store o iTunes. Empresas como Google y Facebook  generan sus ingresos principalmente a través de la publicidad. Microsoft tiene muchos ámbitos de negocio: el sistema operativo Windows, software de ofimática y productividad como Office, las tabletas Surface, la plataforma de cloud computing Azure y la plataforma  de entretenimiento Xbox. Por su parte, además de su negocio de distribución online, Amazon también tiene una fuente de ingresos importante a partir de su plataforma de cloud  computing Amazon Web Services. Y en los puntos de intersección entre estas empresas se están producido pequeñas “guerras” como por ejemplo en la búsqueda en Internet (Bing vs Google), los dispositivos móviles (Android vs iOS), los navegadores web (Edge vs Chrome) o la computación en la nube (AWS vs Azure).

De todas formas, todas estas empresas están lanzando investigación y proyectos a medio y largo plazo, intentando ser la empresa detrás del “next big thing”. Repasamos a continuación alguna de estas apuestas de futuro.

Un ámbito de la tecnología que está generando inversión en todas las empresas grandes del sector tecnológico sin excepción: la inteligencia artificial. La IA se está utilizando para potenciar y hacer crecer muchos de los negocios o mercados donde actualmente se posicionan los gigantes tecnológicos actuales:

  • Mejora de los sistemas de posicionamiento de anuncios: Para empresas como Google o Facebook, la IA es en estos momentos ya fundamental para saber sacar provecho de la enorme cantidad de datos (Big Data en mayúsculas) que tienen de sus usuarios, personalizando así de forma todavía más precisa los anuncios que se muestran. No olvidamos que, por estas empresas, su fuente principal de ingresos se basa precisamente en la venta de anuncios.
  • Mejora de los asistentes personales: uno de los mercados en los que empresas como Google (Google Assistant), Apple (Siri), Microsoft (Cortana) o Amazon (Alexa) están intentando posicionarse para atraer el mayor número de usuarios posibles hacia sus plataformas es lo de los asistentes personales. La inversión en IA busca mejorar sobre todo los sistemas de reconocimiento del habla, y hacer estos asistentes los más parecidos posible a un humano. También se busca desvincular estos asistentes de los dispositivos y acercarlos al día a día dentro del hogar con productos como Amazon Echo o Google Hombre, que permiten dar órdenes a los asistentes personales a través de la voz.
  • Mejora del tratamiento de Big Data: no sólo Google o Facebook generan grandes cantidades de datos a diario. La cadena de grandes almacenes Walmart, por ejemplo, tiene más de 8500 establecimientos y atiende 100 millones de consumidores por semana. El crecimiento del Big Data, de la mano de las redes sociales, del Internet of Things, etc. se espera que sea exponencial. Por eso, empreses como IBM también han invertido mucho dinero en su sistema Watson, que ayuda al procesamiento de cantidades inmensas de datos a través de herramientas de IA.

Otro mercado donde se están invirtiendo muchos esfuerzos es el de la realidad virtual y la realidad aumentada. A pesar de que hace ya muchos años que aparecieron estos conceptos, parece que ahora ha empezado la expansión definitiva de estas tecnologías, y todos los gigantes tecnológicos quieren estar muy posicionados. Según el último informe de IDC al respeto, el mercado de la RV/RA pasará de los 5 mil millones de dólares el 2016 a los 162 mil millones al 2020. Juegos como Pokémon Go han demostrado el potencial de la RA en el mundo de los videojuegos, pero hay otros muchos ámbitos donde se prevé un crecimiento de estese tecnologías: la educación, la medicina, la arquitectura, el mundo inmobiliario, el militar, etc.

Por eso, empresas como Google, después de su primera experiencia con Cardboard, han desarrollado ahora unas nuevas gafas de RV (Daydream View) y una plataforma de desarrollo abierta para conseguir atraer desarrolladores y fabricantes de dispositivos móviles hacia su tecnología de realidad virtual. Facebook, por su parte, ya compró al 2014 Oculus, y recientemente ha anunciado sus planes de invertir más de 3 mil millones de dólares en RV a lo largo de los cercanos 10 años. Microsoft, por su parte, hace tiempo que trabaja en las suyas HoloLens (sólo disponibles por ahora para desarrolladores), y recientemente ha firmado un acuerdo con Acer, HP, Lenovo y Dell para sacar al mercado dispositivos compatibles con su plataforma Windows Holographic. Estos son sólo tres ejemplos de grandes empresas que tienen expectativas de crecimiento en el mercado de la realidad virtual, pero lo cierto es que la lista no se acabaría aquí: HTC, Sony, LG, Samsung, entre otros, son empresas que también están invirtiendo en esta tecnología, al parecer que la RA/RV no tardará a estar al alcance de todo el mundo.

Otro campo donde las grandes empresas tienen potencial de crecimiento es el de los dispositivos móviles. A pesar de que ya hace mucho que los fabricantes de dispositivos móviles lo tienen cada vez más complicado para diferenciar sus productos de la competencia, empresas como Apple siguen generando muchas expectativas en sus nuevos lanzamientos. Los nuevos dispositivos móviles que salen cada año al mercado incorporan pequeñas mejoras respecto a los anteriores, pero no se ven grandes innovaciones desde hace mucho tiempos. La llegada del nuevo iPhone 8, no obstante, podría representar la salida de este estancamiento. Los rumores hablan de la posibilidad que el futuro iPhone utilice un cuerpo de vidrio, dejando de banda el aluminio utilizado hasta ahora. La tecnología de cristal, que ya se utilizó en el iPhone 4, tiene la ventaja que mejora la carga inalámbricas y la recepción de la antena. No obstante, tiene una clara desventaja: su fragilidad. Otros rumores hablan de que utilizará una cámara con capacidad de hacer fotografías con efectos 3D, que maximizará el espacio del frontal dedicado a pantalla y que esto hará que desaparezca el botón ‘Home’. Sean o no grandes innovaciones las que aporte el nuevo iPhone, lo cierto es que las expectativas generadas apuntan a un claro aumento de las ventas.

En relación a los drones, ya hace tiempo que Amazon apuesta por los drones como canal de distribución de sus mercancías en el futuro. Dispone de patentes sobre el tema y el diciembre de 2016 hizo la primera entrega con éxito en el Reino Unido. Por otro lado, Google está explorando la entrega de productos mediante drones con su Project Wing. Por último, a pesar de que no está implicada en el desarrollo de drones , Microsoft está invirtiendo en empresas relacionadas con drones.

Los vehículos autónomos son un ámbito donde se prevé un  gran nivel de crecimiento a corto y mediano plazo, y ya hace tiempo que las empresas tecnológicas están trabajando. El 2009 Google inició un proyecto de vehículos de conducción autónoma, que el 2015 se convirtió en la compañía independiente Waymo. Microsoft ha manifestado públicamente que no quiere participar en la fabricación de estos vehículos, pero  quiere aportar tecnología y software. Por su parte, las patentes publicadas por Amazon indican que está trabajando en este tipo de vehículos.

Más a largo plazo, otra línea de crecimiento muy prometedora es la computación cuántica. La computación cuántica explota propiedades de la mecánica cuántica para realizar de forma eficiente cálculos que serían muy costosos en ordenadores convencionales. Desgraciadamente, esta tecnología está en una etapa incipiente: hay ha diferentes tecnologías prometedoras de cara a construir ordenadores cuánticos, pero de momento no son escalables. Esto quiere decir que los prototipos desarrollados hasta el momento sólo pueden almacenar y manipular unos pocos qubits, la unidad de información en los ordenadores cuánticos, y por lo tanto no pueden resolver problemas de tamaño real.

Hay una auténtica carrera armamentística entre las empresas tecnològiques para ser la primera en tener una tecnología que permita desarrollar ordenadores cuánticos cada vez más potentes. Así, el 2016 IBM presentó un computador cuántico universal de 5 qubits. Por su parte, Google ha desarrollado un computador cuántico de 9 qubits y actualmente está trabajando en uno de 50 qubits con el objetivo de presentarlo a finales de 2017. Otras compañías, como el fabricante de chips Intel,  también están ensayando tecnologías alternativas para la fabricación de qubits. Cualquier progreso o resultado negativo en estos experimentos puede ser relevando de cara a futuro.

 

Robert Clarisó es profesor de los Estudios de Informática, Multimedia y Telecomunicación y director del Máster Universitario en Ingeniería Informática. Su actividad docente se centra principalmente en los ámbitos de computación y desarrollo para móviles.

Carles Garrigues es profesor de los Estudios de Informática, Multimedia y Telecomunicación y director del Máster Universitario en Desarrollo de Aplicaciones para Dispositivos Móviles. Su actividad docente se centra principalmente en el área de la seguridad informática y el desarrollo para móviles.

 

La tecnologia cotitza màxims en borsa… una altra vegada

Actualment, les empreses tecnològiques (Apple, Google, …) són les que tenen una major valoració a la borsa i no sembla que hagin tocat sostre. Davant de situacions similars com ara la “bombolla de les punt com”, hi ha qui planteja si aquesta valoració és realista o ens trobem davant d’una nova bombolla. Un aspecte clau serà la seva capacitat de creixement, oferint nous productes o obrint nous mercats. En l’article parlarem de les noves tecnologies i noves línies de negoci d’empreses tecnològiques (realitat virtual i augmentada, IA i big data, vehicles autònoms, computació quàntica, …) i les seves possibilitats de creixement futur.

Passat i futur de la IA

Si mirem la situació actual, cada empresa tecnològica aposta per un nínxol de mercat. Apple obté un gran volum de beneficis de la venda de smartphones i tablets de gama alta i serveis associats com l’App Store o iTunes. Empreses com Google i Facebook generen els seus ingressos principalment a través de la publicitat. Microsoft té molts àmbits de negoci: el sistema operatiu Windows, software d’ofimàtica i productivitat com Office, les tauletes Surface, la plataforma de cloud computing Azure i la plataforma d’entreteniment Xbox. Per la seva banda, a banda del seu negoci de distribució online, Amazon també té una font d’ingressos important a partir de la seva plataforma de cloud computing Amazon Web Services. I en els punts d’intersecció entre aquestes empreses s’estan produït petites “guerres” com ara en la cerca a Internet (Bing vs Google), els dispositius mòbils (Android vs iOS), els navegadors web (Edge vs Chrome) o la computació en el núvol (AWS vs Azure).

De tota manera, totes aquestes empreses estan llançant recerca i projectes a mig i llarg termini, intentant ser l’empresa darrera del “next big thing”. Repassem a continuació alguna d’aquestes apostes de futur.

Hi ha un àmbit de la tecnologia que està generant inversió en totes les empreses grans del sector tecnològic sense excepció: la intel·ligència artificial.  La IA s’està utilitzant per potenciar i fer créixer molts dels negocis o mercats on actualment es posicionen els gegants tecnològics actuals:

  • Millora dels sistemes de posicionament d’anuncis: Per a empreses com Google o Facebook, la IA és en aquests moments ja fonamental per saber treure profit de l’enorme quantitat de dades (Big Data en majúscules) que tenen dels seus usuaris, personalitzant així de forma encara més precisa els anuncis que es mostren. No oblidem que, per aquestes empreses, la seva font principal d’ingressos es basa precisament en la venda d’anuncis.
  • Millora dels assistents personals: un dels mercats en els que empreses com Google (Google Assistant), Apple (Siri), Microsoft (Cortana) o Amazon (Alexa) estan intentant posicionar-se per atraure el major nombre d’usuaris possibles cap a les seves plataformes és el dels assistents personals. La inversió en IA busca millorar sobretot els sistemes de reconeixement de la parla, i fer aquests assistents el més semblants possible a un humà. També es busca desvincular aquests assistents dels dispositius i acostar-los al dia a dia dins la llar amb productes com Amazon Echo o Google Home, que permeten donar ordres als assistents personals a través de la veu.
  • Millora del tractament de Big data: no només Google o Facebook generen grans quantitats de dades a diari. La cadena de grans magatzems Walmart, per exemple, té més de 8500 establiments i atén 100 milions de consumidors per setmana. El creixement del Big Data, de la mà de les xarxes socials, de la Internet of Things, etc. s’espera que sigui exponencial. Per això, empreses com IBM també han invertit molts diners en el seu sistema Watson, que ajuda al processament de quantitats immenses de dades a través d’eines de IA.

Una altre mercat on s’estan invertint molts esforços és el de la realitat virtual i la realitat augmentada. Tot i que fa ja molts anys que van aparèixer aquests conceptes, sembla que ara ha començat l’expansió definitiva d’aquestes tecnologies, i tots els gegants tecnològics volen estar ben posicionats. Segons l’últim informe d’IDC al respecte, el mercat de la RV/RA passarà dels 5 mil milions de dòlars el 2016 als 162 mil milions al 2020. Jocs com Pokémon Go han demostrat el potencial de la RA en el món dels videojocs, però hi ha molts altres àmbits on es preveu un creixement d’aquestes tecnologies: l’educació, la medicina, l’arquitectura, el món immobiliari, el militar, etc.

Per això, empreses com Google, després de la seva primera experiència amb Cardboard, han desenvolupat ara unes noves ulleres de RV (Daydream View) i una plataforma de desenvolupament oberta per aconseguir atraure desenvolupadors i fabricants de dispositius mòbils cap a la seva tecnologia de realitat virtual. Facebook, per la seva banda, ja va comprar al 2014 Oculus, i recentment ha anunciat els seus plans d’invertir més de 3 mil milions de dòlars en RV al llarg dels propers 10 anys. Microsoft, per la seva banda, fa temps que treballa en les seves HoloLens (només disponibles ara per a desenvolupadors), i recentment ha signat un acord amb Acer, HP, Lenovo y Dell per treure al mercat dispositius compatibles amb la seva plataforma Windows Holographic. Aquests són només tres exemples de grans empreses que tenen expectatives de creixement en el mercat de la realitat virtual, però el cert és que la llista no s’acabaria aquí: HTC, Sony, LG, Samsung, entre altres, són empreses que també estan invertint en aquesta tecnologia, pel que sembla que la RA/RV no trigarà a estar a l’abast de tothom.

Un altre camp on les grans empreses tenen potencial de creixement és el dels dispositius mòbils. Tot i que ja fa molt que els fabricants de dispositius mòbils ho tenen cada cop més complicat per diferenciar els seus productes de la competència, empreses com Apple segueixen generant moltes expectatives en els seus nous llançaments. Els nous dispositius mòbils que surten cada any al mercat incorporen petites millores respecte als anteriors, però no es veuen grans innovacions des de fa molt temps. L’arribada del nou iPhone 8, no obstant, podria representar la sortida d’aquest estancament. Els rumors parlen de la possibilitat que el futur iPhone utilitzi un cos de vidre, deixant de banda l’alumini utilitzat fins ara. La tecnologia de cristall, que ja es va utilitzar en l’iPhone 4, té l’avantatge que millora la càrrega sense fils i la recepció de l’antena. No obstant, té un clar desavantatge: la seva fragilitat. Altres rumors parlen de que utilitzarà una càmera amb capacitat de fer fotografies amb efectes 3D, que maximitzarà l’espai del frontal dedicat a pantalla i que això farà que desaparegui el botó ‘Home’. Siguin o no grans innovacions les que aporti el nou iPhone, el cert és que les expectatives generades apunten a un clar augment de les vendes.

En relació als drones, ja fa temps que Amazon aposta pels drones com a canal de distribució de les seves mercaderies en el futur. Disposa de patents sobre el tema i el desembre de 2016 va fer el primer lliurament amb èxit al Regne Unit. Google està explorant el lliurament de productes mitjançant drones amb el seu Project Wing. Per últim, tot i que no està implicada en el desenvolupament de drones, Microsoft està invertint en empreses relacionades amb drones.

Els vehicles autònoms són un àmbit on es preveu un  gran nivell de creixement a curt i mitjà termini, i ja fa temps que les empreses tecnològiques hi estan treballant. El 2009 Google va iniciar un projecte de vehicles de conducció autònoma, que el 2015 es va convertir en la companyia independent Waymo. Microsoft ha manifestat públicament que no vol participar en la fabricació d’aquests vehicles, però hi vol aportar tecnologia i programari. Per la seva banda, les patents publicades per Amazon indiquen que està treballant en aquest tipus de vehicles.

Més a llarg termini, una altra línia de creixement molt prometedora és la computació quàntica. La computació quàntica explota propietats de la mecànica quàntica per realitzar de forma eficient càlculs que serien molt costosos en ordinadors convencionals. Malauradament, aquesta tecnologia està en una etapa incipient: hi ha diferents tecnologies prometedores de cara a construir ordinadors quàntics, però de moment no són escalables. Això vol dir que els prototipus desenvolupats fins al moment només poden emmagatzemar i manipular uns pocs qubits, la unitat d’informació en els ordinadors quàntics, i per tant no poden resoldre problemes de mida real.

Hi ha una autèntica carrera armamentística entre les empreses tecnològiques per ser la primera en tenir una tecnologia que permeti desenvolupar ordinadors quàntics cada cop més potents. Així , el 2016 IBM va presentar un computador quàntic universal de 5 qubits. Per la seva banda, Google ha desenvolupat un computador quàntic de 9 qubits i actualment està treballant en un de 50 qubits amb l’objectiu de presentar-lo a finals de 2017. Altres companyies, com el fabricant de xips Intel,  també estan assajant tecnologies alternatives per a la fabricació de qubits. Qualsevol progrés o resultat negatiu en aquests experiments pot ser rellevant de cara a futur.

 

Robert Clarisó és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació i director del Màster Universitari en Enginyeria Informàtica. La seva activitat docent es centra principalment en els àmbits de computació i desenvolupament per a mòbils.

Carles Garrigues és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació i director del Màster Universitari en Desenvolupament d’Aplicacions per a Dispositius Mòbils. La seva activitat docent se centra principalment en l’àrea de la seguretat informàtica i el desenvolupament per a mòbils.

Inteligencia artificial: algoritmos genéticos

Mi investigación gira alrededor del modelado, simulación y optimización. Y en principio, en la universidad, la docencia suele ir alineada con la investigación. Así, pertenezco al equipo docente de Computación e Inteligencia Artificial (IA). Pero curiosamente, una de las asignaturas de las que soy responsable* es Biología Molecular (BM). Realmente es una coincidencia interesante porque si bien es cierto que como informático nunca tendré los conocimientos en Biología Molecular que tiene un biólogo, difícilmente no habré oído hablar de Algoritmos Genéticos (AG). Pero ¿qué son y de dónde vienen?

Uno de los campos más interesantes y estudiados de la BM es la genética. A todos nos suenan científicos como Darwin, Mendel, McClintock y conceptos como genoma, mutación, adaptación, etc. Todos ellos, de manera más o menos directa están relacionados con la genética. Pero ¿por qué nos puede interesar a l@s informátic@s? Pues, por la misma razón que observamos a las hormigas, el cerebro humano, o las abejas: todos ellos son sistemas/procesos/… capaces de solucionar problemas complejos. En el caso concreto de la genética nos fijamos en qué mecanismos utiliza la naturaleza para seleccionar individuos y asegurar la persistencia (o no de las especies que conforman). Dándole la vuelta y simplificando, l@s informátic@s recogemos de ésta una serie de mecanismos que evolucionan un conjunto de soluciones, mejorando iteración tras iteración, hasta encontrar las mejores posibles.

Tortuga de las Galápagos (imagen de A. Davey con licencia CC BY 2.0)

La implementación de la idea de John H. Holland (en los años 70) no es excesivamente compleja: Partimos de una población de individuos, en que cada uno representa una solución factible del problema que se quiere resolver. Cada solución tiene una calidad asociada (fitness) y evidentemente, debe ser factible. En este punto, aplicamos un conjunto de mecanismos evolutivos que producen una nueva generación de individuos. Si todo va bien, tras un cierto número de generaciones, iremos obteniendo individuos (soluciones) que mejoran la solución inicial. Pero ¿cuáles son esos mecanismos? Pues básicamente tres: cruce (simulamos reproducción sexual, por lo que escogeremos parejas de soluciones, las partimos y cruzamos para generar su descendencia), mutación (incluimos mutaciones al azar en los individuos para evitar la convergencia de la población hacia un máximo/mínimo local) y “selección” (eliminamos individuos que representen soluciones no factibles -inviables- y además, en cada generación, nos quedamos con un subconjunto de padres e hijos, normalmente siguiendo el criterio de mejor fitness).  Si como en la realidad este proceso se itera millones de veces (por suerte, los ordenadores nos permiten que los algoritmos genéticos simulen a una velocidad más cercana a la evolución de las bacterias que a la de los primates) nos iremos acercando a una población de soluciones de calidad normalmente muy aceptable.

No debemos olvidar que los Algoritmos Genéticos son metaheurísticas y por lo tanto no hacen una búsqueda completa (exhaustiva) sobre el espacio de soluciones, por lo que no aseguran encontrar la solución óptima. Pero dado que el tipo de problemas a los que se aplican suelen ser de complejidad NP, ya es lo esperado. Estos algoritmos suelen tener pocos parámetros (tamaño de las poblaciones, número de generaciones máximo, probabilidad de mutación, …) pero son extremadamente dependientes del modelado de los individuos (soluciones), ya que es clave facilitar que la producción automática (mediante cruce) de nuevos individuos genere mayoritariamente individuos viables.  También tiene bastante impacto la elección de la población inicial (debido a lo que en BM se llamaría deriva genética, principalmente).

Desde los años 70, los Algoritmos Genéticos han sido una de las “ideas” de la IA más investigadas y utilizadas, dando solución a multitud de problemas combinatorios y siendo utilizadas en aplicaciones reales desde el diseño de los horarios de los JJOO hasta la planificación de rutas logísticas. Y por supuesto, no se han escapado de “sufrir” en sus propios huesos la misma evolución que implementan dando lugar a cientos de aproximaciones y mejoras.

* NOTA: Por suerte, en la UOC, el equipo de las asignaturas no es unipersonal, ya que tenemos colaboradores docentes, que son expert@s en cada asignatura concreta, ya sea por su perfil académico, investigador, o bien su experiencia profesional. En el caso de Biología Molecular, la experta es la Dra. Dorcas Orengo, doctora en Biología y experta en Genética de Poblaciones, Regulación Génica y Genética Molecular Evolutiva.

Daniel Riera es Doctor Ingeniero en Informática por la UAB. Actualmente es el director del Grado de Ingeniería Informática de la UOC y hace investigación dentro del grupo ICSO en temas relacionados con el modelado, simulación y optimización de sistemas combinatorios.