¿De qué se habló en el MWC? Breve resumen de temas destacados

(Trobareu la versió en català més avall)

Ahora hace justo un mes que en Barcelona finalizaba la edición 2017 del Mobile World Congress. Los grandes protagonistas de esta feria fueron, como es habitual, los nuevos dispositivos móviles presentados por los grandes fabricantes de tecnología móvil: el LG G6, el Sony Xperia XZ, el Huawei P10 o el Nokia 3310, entre otros. Además de dispositivos móviles, en esta feria se habló de muchos temas de tecnología en general. El MWC es un congreso tan grande que avarca casi cualquier sector de las TIC, y las discusiones y debates donde participan las empresas más relevantes del sector dan una idea de hacia donde se mueve la tecnología. En esta entrada, queremos hacer un breve resumen de algunos de los temas más importantes que estuvieron sobre la mesa: la tecnología 5G, los dispositivos móviles, la realidad virtual y aumentada y los asistentes personales.

MWC 2017 en Fira de Barcelona

En el campo de la tecnología 5G, el MWC fue el escenario donde las operadoras de telecomunicaciones, como cada año, aprovecharon para recordar que el despliegue del 5G requiere mucha inversión. Concretamente, el CEO de Deutsche Telekom estimó que el coste de cubrir Europa con 5G podría llegar a los 300.000-500.000 millones de euros. Por este motivo, los directivos de estas empresas pidieron cambios en la regulación actual que les den más libertad y facilidades para atraer inversión en esta tecnología. Esto, traducido a un lenguaje más claro, quiere decir que volvieron a presionar para eliminar la regulación actual favorable a la neutralidad de la red, existente tanto en Europa como EEUU. En este sentido, fue muy notoria la intervención del nuevo presidente de la FCC, el republicano Ajit Pai, quién fue bastante explícito a la hora de criticar la política en verso la neutralidad de la red del anterior presidente de la FCC. Por su parte, el vicepresidente de la Comisión Europea, Andrus Ansip, aseguró que la UE haría todo el posible para promover la inversión y una regulación favorable para el 5G en Europa. No parece que el escenario actual, por lo tanto, sea demasiado prometedor para la neutralidad de red. En cualquier caso, también hay que destacar que algunos directivos hicieron notar que la tecnología 4G todavía tiene mucho recorrido, y en este sentido se destacó el potencial del Gigabit LTE. La sensación fue también que se están haciendo muchos progresos y que es muy positivo el hecho de tener ya casi un estándar 5G aprobado por la 3GPP.

En el campo de los dispositivos móviles, el más destacado fue el regreso del Nokia 3310 o la reaparición de la marca Blackberry con un nuevo dispositivo. Esto, sin duda, pone de manifiesto que la innovación en el campo de los smartphones sigue sin dar grandes saltos adelante. No obstante, en el MWC se vio reforzada la tendencia hacia el desarrollo de un nuevo ecosistema de dispositivos conectados (mesitas, wearables, TV, cámaras 360º…). No hemos de olvidar, además, que la tecnología avanza año tras año, y ahora tenemos dispositivos capaces de ver y jugar con contenido de realidad virtual, cámaras que han hecho casi desaparecer el mercado de cámaras compactas, lectores de huellas y de iris, etc . Por lo tanto, es cierto que no ha habido ninguna gran revolución desde la aparición del primer iPhone, pero la tecnología ha avanzado muy considerablemente.

Otro tema casi omnipresente en el congreso fue la realidad virtual (RV) y aumentada (RA). Las grandes marcas no presentaron nuevos modelos de gafas, pero sí se vio mucho más contenido de RV/RA para el sector del comercio y la industria. La RV/RA estuvo muy presente en todos los pabellones de la feria. Cómo hasta ahora, el mundo de los videojuegos se mostró como la principal fuente de nuevo contenido de RV, pero en el futuro parece que habrá mucho recorrido en otros campos como el de la educación (en ámbitos como la cirugía, la aeronáutica, la ingeniería, etc.). Actualmente, después de pasar por una cierta etapa de hype, parece que la posibilidad de tener dispositivos a precios razonables y una buena oferta de contenidos ya no queda tan lejos.

Dentro del ámbito de la inteligencia artificial, recibieron mucha atención los asistentes personales. En estos momentos, hay una clara tendencia hacia la integración de chatbots en los servicios de relación con los clientes, como lo demuestra el hecho que SK Telecom anunció su propio asistente personal, y Telefonica y Deutsche Telekom presentaron nuevas herramientas de interacción con los clientes basadas en chatbots. No obstante, la comprensión de una conversación humana, sobre todo a través de voz, sigue siendo un problema que no está completamente resuelto y que requiere todavía mucha inversión. Por este motivo, en las discusiones quedó claro que invertir en esta tecnología es una apuesta necesaria actualmente, pero muchas empresas no tienen claro donde esto los traerá.

En los debates sobre esta temática se discutió, además, sobre el hecho que todos los asistentes personales del futuro serán realmente potentes si son capaces de trabajar con muchos datos, sobre todo aquellas relacionadas con el usuario, su comportamiento en el pasado y su histórico de intereses y necesidades. Por lo tanto, si se quiere que estos robots sean capaces de dar respuestas útiles y relevantes, hará falta que estén integrados con plataformas más grandes por el acceso a datos de diferentes servicios y aplicaciones. Habrá que ver si en un futuro esto es posible, y si alguna de las plataformas actuales consigue posicionarse como dominante.

Los chatbots también fueron muy presentes en las discusiones sobre el futuro del comercio electrónico a través de aplicaciones de mensajería (Whatsapp, Google Allo…). Siguiendo el modelo de aplicaciones como WeChat en la China, las empresas ven que el futuro de la rentabilidad de las plataformas de mensajería pasa por la integración de servicios de pago electrónico dentro de de estas plataformas. Tanto Google como Facebook están haciendo movimientos muy claros en este sentido para transformar sus aplicaciones en ecosistemas que integren todo tipo de servicios con posibilidad de pago electrónico. Los chatbots, integrados como interfaces entre usuario y empresa, serán imprescindibles para conseguir desarrollar esta posibilidad y que los usuarios la puedan usar de forma natural. No obstante, la seguridad en estos sistemas se tendrá que tener mucho en cuenta, y habrá que considerarla desde las primeras etapas de su diseño.

Estos serían los temas que nosotros hemos querido destacar de la última edición del MWC. Para aquellos que queráis una información más extensa de todo el que dio de sí este congreso, podéis consultar el wrap-up que ha hecho público la GSMA.

 

Carles Garrigues es profesor de los Estudios de Informática, Multimedia y Telecomunicación y director del Máster Universitario en Desarrollo de Aplicaciones para Dispositivos Móviles. Su actividad docente se centra principalmente en el área de la seguridad informática y el desarrollo para móviles.

 

De què es va parlar en el MWC? Breu resum de temes destacats

Ara fa just un mes que a Barcelona finalitzava la edició 2017 del Mobile World Congress. Els grans protagonistes d’aquesta fira van ser, com és habitual, els nous dispositius mòbils presentats pels grans fabricants de tecnologia mòbil: el LG G6, el  Sony Xperia XZ, el  Huawei P10 o el Nokia 3310, entre altres. A banda de dispositius mòbils, en aquesta fira es va parlar de molts temes de tecnologia en general. El MWC és un congrés tan gran que avarca quasi qualsevol  sector de les TIC, i les discussions i debats on participen les empreses més rellevants del sector donen una idea de cap a on es mou la tecnologia.  En aquesta entrada, volem fer un breu resum d’alguns dels temes més importants que van estar sobre la taula: la tecnologia 5G, els dispositius mòbils, la realitat virtual o augmentada i els assistents personals.

MWC 2017 a la Fira de Barcelona

En el camp de la tecnologia 5G, el MWC va ser l’escenari on les operadores de telecomunicacions, com cada any, van aprofitar per recordar que el desplegament del 5G requereix molta inversió. Concretament, el CEO de Deutsche Telekom va estimar que el cost de cobrir Europa amb 5G podria arribar als 300.000–500.000 milions d’euros. Per aquest motiu, els directius d’aquestes empreses van demanar canvis en la regulació actual que els donin més llibertat i facilitats per atraure inversió en aquesta tecnologia. Això, traduït a un llenguatge més clar, vol dir que van tornar a pressionar per eliminar la regulació actual favorable a la neutralitat de la xarxa, existent tant a Europa com a EEUU. En aquest sentit, va ser molt notòria la intervenció del nou president de la FCC, el republicà Ajit Pai, qui va ser força explícit a l’hora de criticar la política en vers la neutralitat de la xarxa de l’anterior president de la FCC. Per la seva banda, el vicepresident de la Comissió Europea, Andrus Ansip, va assegurar que la UE faria tot el possible per promoure la inversió i una regulació favorable per al 5G a Europa. No sembla que l’escenari actual, per tant, sigui massa prometedor per a la neutralitat de xarxa. En qualsevol cas, també cal destacar que alguns directius van fer notar que la tecnologia 4G encara té molt recorregut, i en aquest sentit es va destacar el potencial del Gigabit LTE. La sensació va ser també que s’estan fent molts progressos i que és molt positiu el fet de tenir ja quasi un estàndard 5G aprovat per la 3GPP.

En el camp dels dispositius mòbils, el més destacat va ser el retorn del Nokia 3310 o la reaparició de la marca Blackberry amb un nou dispositiu.  Això, sens dubte, posa de manifest que la innovació en el camp dels smartphones segueix sense donar grans salts endavant. No obstant, en el MWC es va veure reforçada la tendència cap al desenvolupament d’un nou ecosistema de dispositius connectats (tauletes, wearables, TV, càmeres 360º…). No hem d’oblidar, a més, que la tecnologia avança any rere any, i ara tenim dispositius capaços de veure i jugar amb contingut de realitat virtual, càmeres que han fet quasi desaparèixer el mercat de càmeres compactes, lectors d’empremtes i de iris, etc . Per tant, és cert que no hi ha hagut cap gran revolució des de l’aparició del primer iPhone, però la tecnologia ha avançat molt considerablement.

Un altre tema quasi omnipresent en el congrés va ser la realitat virtual (RV) o augmentada (RA). Les grans marques no van presentar nous models d’ulleres, però sí es va veure molt més contingut de RV/RA per al sector del comerç i la indústria. La RV/RA va estar molt present en tots els pavellons de la fira. Com fins ara, el món dels videojocs es va mostrar com la principal font de nou contingut de RV, però en el futur sembla que hi haurà molt de recorregut en altres camps com el de l’educació (en àmbits com la cirurgia, l’aeronàutica, l’enginyeria, etc.). Actualment, després de passar per una certa etapa de hype, sembla que la possibilitat de tenir dispositius a preus raonables i una bona oferta de continguts ja no queda tan lluny.

Dins de l’àmbit de la intel·ligència artificial, van rebre molta atenció els assistents personals. En aquests moments, hi ha una clara tendència cap a la integració de chatbots en els serveis de relació amb els clients, com ho demostra el fet que SK Telecom va anunciar el seu propi assistent personal, i Telefonica i Deutsche Telekom van presentar noves eines d’interacció amb els clients basades en chatbots. No obstant, la comprensió d’una conversa humana, sobretot a través de veu, segueix sent un problema que no està completament resolt i que requereix encara molta inversió. Per aquest motiu, en les discussions va quedar clar que invertir en aquesta tecnologia és una aposta necessària actualment, però moltes empreses no tenen clar on això els portarà.

En els debats sobre aquesta temàtica es va discutir, a més, sobre el fet que tots els assistents personals del futur seran realment potents si són capaços de treballar amb moltes dades, sobretot aquelles relacionades amb l’usuari, el seu comportament en el passat i el seu històric d’interessos i necessitats. Per tant, si es vol que aquests robots siguin capaços de donar respostes útils i rellevants, caldrà que estiguin integrats amb plataformes més grans per l’accés a dades de diferents serveis i aplicacions. Caldrà veure si en un futur això és possible, i si alguna de les plataformes actuals aconsegueix posicionar-se com a dominant.

Els chatbots també van ser molt presents en les discussions sobre el futur del comerç electrònic a través d’aplicacions de missatgeria (Whatsapp, Google Allo…). Seguint el model d’aplicacions com WeChat a la Xina, les empreses veuen que el futur de la rendibilitat de les plataformes de missatgeria passa per la integració de serveis de pagament electrònic dins d’aquestes plataformes. Tant Google com Facebook estan fent moviments molt clars en aquest sentit per tal de transformar les seves aplicacions en ecosistemes que integrin tota mena de serveis amb possibilitat de pagament electrònic. Els chatbots, integrats com a interfícies entre usuari i empresa, seran imprescindibles per aconseguir desenvolupar aquesta possibilitat i que els usuaris la puguin fer servir de forma natural. No obstant, la seguretat en aquests sistemes s’haurà de tenir molt en compte, i caldrà considerar-la des de les primeres etapes del seu disseny.

Aquests serien els temes que nosaltres hem volgut destacar de la última edició del MWC. Per aquells que vulgueu una informació més extensa de tot el que va donar de sí aquest congrés, podeu consultar el wrap-up que ha fet públic la GSMA.

 

Carles Garrigues és professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació i director del Màster Universitari en Desenvolupament d’Aplicacions per a Dispositius Mòbils. La seva activitat docent se centra principalment en l’àrea de la seguretat informàtica i el desenvolupament per a mòbils.

GDC 2017 – Trabajando con RNGs en videojuegos

Otro de los ejes temáticos del pasado GDC 2017 (ver entrada anterior) fue el tutorial dedicado a revisar fundamentos matemáticos para programadores. Éste estaba soportado por un grupo de interés sobre este tema (Math for Game Programmers) y, evidentemente,  se alejaba ya bastante de la visión conceptual del game design y se adentraba en las entrañas de la programación de los videojuegos. Concretamente, me parecieron interesantes a título personal las dos charlas que llevaron acabo por Squirrel Eiserloh (SMU Gildhall) y Shay Pierce (Dire Wolf Digital). Ambas trataban sobre distintos aspectos de los generadores de números aleatorios (o RNG, Random Number Generator) que se deben tener en consideración cuando se usan en un videojuego. Un tema que me apasiona y del que ya escribí hace bastante tiempo en una breve entrada anterior. Sobretodo por el hecho que los RNGs suelen ser clave en el campo de la seguridad, pero las reglas para usarlos, y lo que queremos de ellos, en el contexto de los videojuegos puede ser un poco distinto.

Por una parte, la presentación de Shay, titulada “Dark Secrets of the RNG“, se enfocaba hacia el uso de un RNG como herramienta para el cálculo de probabilidades y dar algunas lecciones sobre aspectos en su aplicación en videojuegos.  Por ejemplo, en un juego de estrategia o rol, una unidad o personaje ataca a otra y por las reglas se decide que tiene un 90% de probabilidades de acertar al adversario y causar daño. Con un RNG se genera un valor al azar entre 0-99, y si el valor es inferior a 90, se considera que el ataque tiene éxito. Transformar a digital lo que sería una “tirada de dados” en un juego de sobremesa.

Gary Gygax hace su tirada de reacción…

Uno de los dark secrets (secretos oscuros) que trataba Shay es el hecho de que un RNG no basta con que lo sea, también lo debe parecer (como lo del dicho de la mujer del César…). Esta frase que parece no tener sentido significa que, al final quién juega al videojuego es un humano, y resulta que los humanos somos especialmente malos en nuestra percepción de las probabilidades y el azar. Al final, existen un conjunto de casos extremos de “mala suerte” que, con una base de miles de jugadores jugando durante muchas horas, tarde o temprano van a suceder. Si se suceden muchos valores similares consecutivos, ya no nos parece un suceso aleatorio. Pero el caso es que sacar diez veces consecutivas “cara” en diez tiradas de una moneda es muy improbable, pero PUEDE suceder. También, hay ciertos valores que las personas ya damos un evento casi como seguro, cuando no tiene porqué. ¿Quien no se ha enfadado cuando su personaje falla con un 90% de posibilidades? Si nos pasa tres veces seguidas, es que el ordenador claramente está haciendo trampas. Debemos tener en cuenta que, si bien los enemigos van y vienen deprisa, el jugador va a hacer MUCHAS “tiradas” a lo largo de la partida. Por lo tanto, lección 1, a veces no basta con usar un RNG puro y duro y dejar que el destino impersonal se encargue del resto, hay que compensar un poco. Por ejemplo, detectando malas rachas y evitando que se prolonguen demasiado. Hacer trampas para distribuir artificialmente los valores generados. Vamos, lo que en el rol de sobremesa vendría a ser “una ayudita del máster“.

Otro caso similar y muy típico en los videojuegos es el cálculo de la probabilidad de obtener una recompensa. Así pues, por ejemplo, a partir de un RNG decidimos si al derrotar a un jefe del Diablo II obtienes un objeto normal y corriente, un objeto mágico, o quizá uno raro. Pero otra vez estamos que, independientemente de los valores promedio esperados estadísticamente, si tenemos mala suerte, quizá pasan las horas de juego y no obtenemos el ansiado objeto raro. En entornos competitivos esto es peor, pues el mero azar hace que unos jugadores sean más poderosos que otros. En casos como este o parecidos, lección 2, entonces nos recomienda usar un pity timer (o contador “de la pena”). Algún mecanismo para modificar los pesos que rigen la elección de los tipos de recompensa, de modo que a medida que pasan los sucesos, la probabilidad de que finalmente obtengamos una recompensa buena se va incrementando. Cuando por fin se consigue, se reinicializa todo y volvemos a empezar.

Esquema de tablas de recompensas con pesos.

Por otra parte, la presentación de Squirrel,  “Noise-based RNGs”, se centraba en otro uso habitual de estas herramientas en los videojuegos, si bien quizá tan aparente para el jugador: la generación procedural de contenidos. O sea, la capacidad de generar objetos al azar, desde instancias aisladas o sistemas de partículas hasta todo el mapa del juego, a partir del valor semilla elegido. Esta capacidad es extremadamente útil también de cara a disponer de una importante compresión de disco o red, pues basta con guardar la semilla para poder generar todos los objetos, sin tener que guardarlos al completo individualmente. ¿Como sino podías disponer de un universo al completo en un ordenador de 8 bits? Sin embargo, para ello es crucial garantizar su determinismo. Dada una semilla, los valores generados han de ser los mismos, siempre en el mismo orden.

En este caso, las lecciones se centraban sobretodo en saber valorar si un RNG es bueno. Bien, en realidad, esto depende de quién lo pregunte. Se debe tener en cuenta que en este contexto no estamos tratando de proteger información confidencial cifrada, sino generar contenidos. Por lo tanto, propiedades especialmente deseables son que sea rápido y que soporte un tamaño de semilla aceptable (normalmente 32 bits es más que suficiente). Evidentemente,  debe mantener las propiedades típicas de un RNG en cuanto a distribución de los valores y longitud de la secuencia generada hasta encontrar ciclos, así como la independencia entre bits de los distintos valores. Pero generar contenidos procedurales en un videojuego, su velocidad de ejecución es clave.

Entonces, veamos como se comporta un RNG típico en ese sentido, ya a nivel de código puro y duro, no conceptual. La opción más simple sería la que nos proporciona la biblioteca estándar de C: la función rand(), que proporciona valores aleatorios de 15 bits. El problema de esta función es que es un poco lenta y proporciona solo 15 bits, que son muy pocos. Para llegar a al menos 32, se suele usar una combinación de tres llamadas (triple rand), que claro está, hace todo el triple de lento. Sin embargo, lo peor de esta llamada desde la perspectiva de la programación de videojuegos es que posee un estado interno, cosa que complica todo en caso de usar múltiples hilos de ejecución (multithreading). De hecho, esta característica es una de las que hay que vigilar más atentamente cuando el uso de RNGs es en el contexto de los videjouegos, en contraste con su aplicación en el campo de la seguridad.

Finalmente, otro aspecto que complica las cosas es el hecho de que dicho estado no suele ser reversible, de modo que solo es posible ir accediendo secuencialmente a los valores, que se dan uno a uno, y no libremente como podría ser un array. Esta propiedad es importante ya que como se genera el mundo puede variar según la dirección por la que avance el personaje (pensemos en 3D), pero el terreno generado ha de ser coherente independientemente de ello. No puede ser que el mundo se genere distinto según si vengo por el norte o por el sur. Por lo tanto, a veces hay que avanzar y retroceder por la secuencia de valores.

Mirando ya algo considerado un buen generador de RNGs a nivel general, nos presentó el Mersenne Twister. Sin embargo, desde el punto de vista de implementación, resulta ser bastante pesado en cuanto al uso de memoria, y es incluso todavía más lento. Por ello, lo que Squirrel proponía a continuación es aprovechar las propiedades de los funciones de generación de ruido  para convertirlas en RNGs con propiedades satisfactorias en cuanto a velocidad, facilidad para el multithreading y capacidad de acceso libre a la secuencia generada.

Un ejemplo de función de ruido.

Así pues, si partimos que, a grosso modo, un generador de ruido es una función que aplica un conjunto de transformaciones sobre un valor de entrada, sin necesidad de un estado (en contraste con los RNGs), esto, de hecho, es muy parecido conceptualmente a una función de hash (como él mismo ya comentó). Pero usarlas no ayuda, pues vuelven a ser muy lentas computacionalmente, desde la perspectiva de lo que desea un programador de videojuegos (¡curiosamente, en seguridad se consideran “rápidas”!). Entonces su propuesta era que el estado del nuevo RNG fuera un simple índice que se va incrementando, y el valor generado el resultado de aplicar una función de ruido sobre dicho índice. La verdad es que el sistema es tan simple que seguramente hay alguna cosa desde el punto de vista de las propiedades matemáticas de los RNGs que se me debe escapar  (él también sospechaba que debía haber algún truco no evidente). Pero en las pruebas de rendimiento que proporcionó en la presentación pareció tener sentido (y con unos resultados que dejaban a otros algoritmos a la altura del betún). Y obteniendo todas las propiedades deseadas desde el punto de vista de programación.

Al final, el caso es que no estamos generando claves criptográficas, sino contenidos de un videojuego, por lo que si no todo es perfecto quizá tampoco pasa nada. Volviendo a la curiosa lección de la primera charla,  en un videojuego es más importante que las cosas parezcan aleatorias para el jugador, que realmente lo sean con el libro de matemáticas en la mano.

Joan Arnedo es profesor de los estudios de Informática, Multimedia y Telecomunicación en la UOC. Director académico del Máster en Diseño y Desarrollo de Videojuegos e investigador en el campo de la ludificación y los juegos serios. Su experiencia se remonta a cuando los ordenadores MSX poblaban la Tierra…

Car Hacking (I)

Desde hace ya muchos años que los mecánicos de coches han aparcado el martillo y la escarpa para arreglar los coches que les llevan al taller. Años atrás con solo escuchar el ruido del motor ya sabían que tenía ese coche. Los tiempos cambian y la tecnología llegó a los motores.

Sobre el año 1995 ya todos los coches tienen un pequeño ordenador dentro del capó del motor, algunos modelos incluso antes de esa fecha. A partir de entonces se dieron cuenta que podrían sustituir los kilómetros de cables que había dentro de un coche por un bus de datos industrial, vamos, un único cable para todo, que por cierto ya existían en la industria desde hacía ya una década.

Buses que son resistentes a las alteraciones del entorno, al ruido electromagnético que afecta tanto a las comunicaciones Ethernet actuales. Este tipo de bus se diseñó para que ese ruido que generan los grande motores eléctricos, al arrancar, al funcionar, no cambiasen los bits que por ellos circulan de los sensores de esos mismo motores hacia los ordenadores que supervisan todo el proceso industrial.

Bus industrial que controla un motor
(http://www.wieland-electric.com)

Los mecánicos enchufan un cable con un conector especial, que se llama OBD-II, y al otro lado un terminal USB normal que conectan a un portátil con el software de diagnóstico, ese portátil es el que les dice que es lo que falla en el coche, que aparato está mal y cambiarlo.

Ahora empezamos a ver coches conectados permanentemente a internet, a las redes. Los coches de ahora, aunque sean de gama baja, ya disponen de clientes WiFi que al llegar al taller se conectan a la WiFi para volcar los datos del ordenador del coche hacia los mecánicos. No es que sea una cosa muy nueva, en la Fórmula 1 ya hace muchos años que oímos hablar de la telemetría, que desde “el muro” ven todos los datos del coche, no es nada más allá de tener conectado los buses de los dos coches que tienen en pista con los servidores que dispone cada una de las escuderías en todos los grandes premios o en los talleres. A partir de esos datos realizan el estudio de cada uno de los coches y de los componentes, el desgaste, los fallos, etc.

Pero hoy en día hay coches que van más allá y están conectados permanentemente con dispositivos de telefonía 4G. Estos dispositivos envían y reciben datos hacia el ordenador del coche, lo que permite por ejemplo lo que veremos en poco tiempo, poder pagar los alquileres por tiempo y kilometro hecho en tiempo real, o “comprar” más potencia para el coche durante un período que lo requiera, por ejemplo un viaje con toda la familia o arrastrando una caravana, el resto de tiempo no nos hace falta tener tanta potencia para hacer colas en las entradas a las grandes ciudades o al circular por ellas. Con conectarnos a la web del fabricante y comprar el servicio, este se conectará a nuestro coche para dar más potencia durante el tiempo contratado.

Esto está muy bien, pero… habrá que mirar que pasa con la privacidad de las personas, y sobre todo con el hacking que ya hay detrás de todas estas comunicaciones. En el año 2015 dos investigadores consiguieron controlar un coche conectado permanentemente de manera remota. Lo veremos en un próximo post del blog.

 

Jordi Serra es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC y el director del posgrado CISCO Networking Technologies: CCNA.

Dirección de Informática para Informáticos y no Informáticos

Dije aquí que no era tiempo ya de manuales. La pereza o la precipitación nos lleva a estudiantes y profesores a las redes sociales o, como mucho, a la wikipedia. Se aspira a aprender jugando o mirando videos mientras desayunas. La gente que sabe dice que comprendes o adquieres competencias cuando haces. Los libros parece que son caros, aunque la luz y el metro lo son más. Todo esto deja en un lugar difícil al manual universitario a 100 euros la pieza. A mí, sin embargo, me gustan y creo que son siempre un buen lugar donde empezar o adonde volver (y ahora con el abaratamiento de la impresión, otro resultado de la tecnología y la globalización, han bajado de precio).

joe peppardstrategic management

GRÁFICA: Joe Peppard y su último libro

Por eso me sorprendió y me alegró que hace unos meses Peppard y Ward, Ward y Peppard publicasen en Wiley, después de catorce años, la cuarta edición de su manual de Planificación Estratégica de Sistemas de Información, ahora re-titulado más justamente The Strategic Management of Information Systems y subtitulado, como no podía ser de otra manera, “Building A Digital Strategy”. Creo que así se recogen las dos ideas más trendy en materia de planificación y gestión estratégica de sistemas de información:

  • Que la estrategia no se elabora en un despacho, sino en la práctica de la gestión: lo que se llama strategizing strategy as practice (SAP).
  • Que la estrategia de empresa y la estrategia de sistemas son ahora dos caras de una misma moneda que llamamos estrategia digital.

John Ward tiene el mismo nombre que el famoso asesino fugado de la cárcel de Columbus, pero es un profesor medio retirado de su plaza en la Cranfield School of Management. Es autor de otra joya, también actualizada ahora, sobre realización de los beneficios de la inversión en IT. Joe Peppard es irlandés, que es una manera de ser, y más joven, y ha asumido la coordinación de esta edición. Peppard, del que también hemos hablado por aquí varias veces, trabaja ahora en la Escuela Europea de Management y Tecnología en Berlín: pronto no habrá Business Schools y todas serán escuelas de Business and Technology.

La nueva versión es más ligera y menos académica y tiene más figuras y colorines. Está más dirigida a directivos de cualquier cosa (también de la informática) y estudiantes de dirección de empresas o de todo tipo de organizaciones. Aún así, la literatura está bastante actualizada y se puede seguir en las notas al final de cada capítulo. El motivo permanente del libro es que “para obtener todo el rango de beneficios disponibles en los sistemas y tecnologías de la información y evitar sus peligros potenciales, todas las organizaciones deben manejarlos como una parte integral de su estrategia de negocio, para dar soporte a esta estrategia y permitir la creación de nuevas oportunidades estratégicas.”

  • La estrategia tiene que ver con la demanda (las oportunidades y amenazas de “ahí fuera”) y con el famoso alineamiento entre negocio y tecnología –que no es lo mismo que ir con la libreta a preguntar a los usuarios qué necesitan. La estrategia determina qué hay que hacer y suele ser el objeto del plan estratégico de sistemas de información, que ocupa casi los primeros dos tercios del libro.
  • La gestión tiene que ver con la oferta, cómo manejamos las inversiones en informática (el portafolio de activos, aplicaciones e infraestructura), la organización y el aprovisionamiento, lo que forma el resto del volumen. La gestión es estratégica también: tiene que ver con dónde, cómo y cuándo gastamos el dinero.

El manual no proporciona una formación de fundamentos de sistemas de información ni de tecnología para no informáticos, de manera que sigo recomendando en estos casos hacer pareja con el libro de O’Brien y Marakas, Management Information Systems, que ya va por la décima edición de 2010, aunque no se ha actualizado desde entonces.

Una versión anterior de esta entrada se publicó en LinkedIn Pulse el 23 de Enero.

GDC 2017 – Diseño de niveles

Recientemente, se ha celebrado la Game Developers Conference (GDC) de este año en la ciudad de San Francisco, a la que he tenido la suerte de poder asistir. En esta conferencia se realizan ciclos de charlas sobre los aspectos más variopintos del desarrollo de los videojuegos: diseño, programación, monetización, audio, RV/RA, post-mortems, narrativa, etc. Lo que tú quieras, seguro que hay su ciclo de charlas. Si bien tiene una importante componente a nivel presentación de productos de la industria, con su correspondiente zona de expositores y stands de turno, lo más importante aquí son las charlas por parte de los profesionales, algunos de gran nivel (Sid Meyer, Warren Spector). De hecho, la cantidad es tal que resulta imposible asistir a todas. En cada turno se pueden solapar tranquilamente más de diez o doce (por ejemplo, ¡el primer día ya empezaba con 18 en paralelo!), todas ellas interesantísimas. No había más remedio que elegir…

Welcome to the GDC

Welcome to the GDC 2017

Durante los dos primeros días, normalmente se celebran distintos “summits”, o reuniones temáticas sobre aspectos muy concretos, dónde normalmente se reúne gente del mismo ámbito dentro del desarrollo de videojuegos. En mi caso, asistí a una parte del taller sobre diseño de niveles. De las distintas charlas, un par me parecieron especialmente interesantes. Por una parte, la realizada por Steve Lee (Arkane Studios), que trataba de una visión holística del diseño de niveles a través de los Dishonored (AN APPROACH TO HOLISTIC LEVEL DESIGN). Por otra parte, la de Clemence Maurer (Eidos-Motréal), que compartía su experiencia en el diseño de las recompensas por exploración en el juego Deus Ex: Mankind Divided (REWARDING EXPLORATION IN ‘DEUS EX: MANKIND DIVIDED’). Ambas se complementaban muy bien, pues la primera ofrecía la aproximación general a un buen diseño de niveles desde el punto de vista de un senior, mientras que la segunda entraba a más bajo nivel sobre como generar los pequeños detalles que dan color a un juego durante la exploración de niveles, desde la perspectiva de una júnior.

Bajo la perspectiva de Steve Lee, el diseño de niveles se basa en tres pilares: Jugabilidad (gameplay), Presentación e Historia (de story, no history). Estos se encuentras interconectados entre si por distintas características que hay que cuidar muy bien durante el proceso de diseño.

Los tres pilares del Level Design

Los tres pilares del Level Design según Steve Lee.

De los tres conectores, quizá el más importante y al que dedicó más tiempo es el que une Jugabilidad e Historia. Partimos de la intuitividad, palabra con la que intento traducir el término original affordance (pero no me gustan los resultados tal cual del diccionario). O sea, la capacidad de comunicar como funcionan las cosas de manera intuitiva. Así pues, un jugador ha de tener muy claro en todo momento sus opciones de navegación y qué elementos son realmente interactivos y cuales no. El ejemplo clásico son las puertas. A menudo, en un juego solo es posible abrir ciertas puertas, que realmente llevan a lugares interesantes, y el resto son solo “atrezzo”, inaccesibles. Cual es cual ha de quedar claro a simple vista. igual con cualquier otro elemento interactivo: interruptores, paredes escalables, plataformas sobre las que puedes saltar, etc. Todos ellos vitales en juegos de sigilo y exploración como los Dishonored. Esta affordance es lo que permite a un jugador intencionalidad, la capacidad de llevar a cabo decisiones conscientes, de acuerdo a sus conjunto de objetivos, y con ciertas expectativas en mente.

Ligado a este punto, mencionó una frase típica en el diseño de niveles: “Vigila al diseñar un nivel en un entorno 3D, pues los jugadores nunca miran hacia arriba“. Pues bien, eso dependerá de si el juego lo diseñas para que valga la pena o no. Si las posiciones elevadas proporcionan una clara ventaja (por ejemplo, si se permite ser francotirador), los jugadores ya se esforzarán en mirar hacia arriba y explorar las opciones que ofrece un nivel en ese sentido.

¿Qué pasa si no se consigue la intencionalidad? El jugador se siente perdido y no sabe qué puedo hacer y qué no. Las acciones se realizan al azar, sin poder establecer claramente relaciones causa/efecto. Se acaba primando las reacciones instintivas que la estrategia. Por ello, hay que dar siempre al jugador: capacidad de elección, una motivación para actuar (a través de objetivos a más alto nivel, y no solo tareas inmediatas), información (a través de las affordances, precisamente), y tiempo suficiente para procesar dicha información.

Para ilustrar estos aspectos, mostró dos ejemplo. Por una parte, en la motivación, una escena inicial del Half-Life 2 donde un agente del Combine hace caer una lata al suelo y te obliga a recogerla del suelo y tirarla a una papelera. Tienes la opción de hacerlo o rebelarte (y entonces te dan para el pelo). Si bien esta escena se concibe como un mero tutorial sobre como interactuar con objectos, te ofrece una motivación para luchar contra el Combine. Ya no es porque el juego los etiqueta arbitrariamente como “los malos”, ahora es personal. Por otra parte, sobre dar información y dejar que el jugador la procese, mostrar que esto es posible incluso en un FPS a toda velocidad como Doom II. El nivel “Barrels of fun” está plagado de barriles explosivos y enemigos que te dan la espalda, para que puedas crear tu propia diversión (o suicidarte sin querer si no atinas…).

Básicamente, un escenario clásico de humillación policial.

Si pasamos a la conexión entre Presentación e Historia, tenemos la construcción del mundo (world building). Las propiedades que debe tener un buen mundo en un videojuego es que ha de ser único, cohesivo y significativo. Sobre lo de ser “único”, el quid de la cuestión no es que debe ser 100% original, algo harto complicado hoy en día, sino que debe ser específico. O sea, debe tener elementos concretos que lo diferencian de los otros, aún cuando a alto nivel pueda ser lo mismo de siempre (marines espaciales luchan contra monstruos…). A partir de estas tres propiedades, se debe aprovechar cualquier oportunidad dentro del juego para desarrollar el mundo: conversaciones con personajes, los lugares que visitas, los objectos que el jugador puede recoges, etc. También, todo ello debe estar ligado siempre a aspectos personales. Al final, la historia ha de ser sobre los ideales humanos y tener algo que decir tanto sobre el personaje como sobre el propio jugador (no por casualidad, este aspecto lo reiteraría unos días más tarde Warren Spector, en su charla post-mortem sobre el primer Deus Ex).

Finalmente, llegamos a la narrativa interactiva, que une jugabilidad y presentación. Entendemos por narrativa la capacidad de aprovechar las propiedades específicas de un medio al máximo para explicar la historia. En una película, esto son la imágenes. En un libro, la capacidad de inspirar ideas o evocar drama, más allá de las palabras en si. La frase típica a la hora de presentar una historia será la de “show, don’t tell” (“muestra, no expliques”), en un videojuego se queda corta. Un videojuego es interactivo, y aprovechar al máximo sus propiedades implica interactividad, no murallas de texto o escenas animadas predefinidas. Si pasa algo dramático, el jugador lo ha de sentir en sus carnes, no decir “Ah, ya no controlo al personaje,  ahora me puedo relajar y acomodarme en el sofá”.

Está claro que hay situaciones que han de suceder porque lo dicta la historia, pero siempre se ha de dar algún margen de acción al jugador. Y este margen se ha de plantear de modo que las elecciones se lleven a cabo en base a la historia, no a la mecánica de juego. Derroto al enemigo porque quiero liberar al reino, no porque me da 100 puntos de experiencia y una espada +3. El ejemplo que mostró fue la lucha, jugando padre-hijo, en el Heavy Rain. Puedes “ganarla” sin problemas, pero quedas como un abusón. Hagas lo que hagas, no obtienes ninguna ventaja, es solo historia y definición del personaje. Pero en vez de ser una escena predefinida, el jugador puede elegir. Y, de nuevo, la escena de la lata del Half-Life 2. Con ello cerramos el círculo y volvemos al tema de las affordances y la intencionalidad del jugador.

Entrando en charla de Clemence Maurer sobre los aspectos de exploración en Deus Ex: Mankind Divided, reaparecían en cierto modo algunos de los vinculados a la charla de Steve, de modo que se complementaban bien (si bien esta presentación se llevó a cabo cronológicamente antes). Sobretodo, resultó interesante vislumbrar algunos fallos típicos cometidos por ella como júnior en los aspectos de world building y narrativa, y que pulió con la ayuda de sus compañeros más experimentados.

A nivel no tan conceptual, y más de estructura en el diseño de niveles, Clamence dividía la tareas según la siguiente escala: core o de diseño del mundo (que crea el hilo argumental principal), el diseño de las misiones secundarias (que complementan el hilo principal y ofrecen rejugabilidad) y las configuraciones de exploración (los pequeños detalles aquí y allí que dan vida y realismo al mundo).

Dentro de las configuraciones de exploración, que fue su tarea principal, el objetivo es mantener al jugador siempre ocupado, con pequeñas recompensas. Estas pueden tener diferente forma. Si bien las más evidentes son objectos útiles para el personaje, otras opciones son la introducción de narrativa (justo lo que comentaba Steve sobre el world building) o la introducción de nuevas opciones de navegación a través del nivel (que estaría vinculado a la intencionalidad y el otorgar nuevas opciones al jugador). Hay que intentar minimizar las zonas vacías y mantenerlo interesado.

Sin embargo, hay que ir con cuidado y aplicar cierta moderación según el grado que tratas dentro de la escala del diseño de niveles. Así pues, si bien cualquier ubicación o personaje es una buena oportunidad para el world building, su complejidad ha de ser equivalente a su importancia.  Clemence comentaba que tenía cierta tendencia a crear tramas complejas o generar personajes con trasfondos llenos de cosas interesantes, hasta el punto de hacer sombra a los lugares y  personajes principales del juego (a nivel core), cosa que molestaba bastante a los diseñadores de la trama principal. Esto también era un problema al causar confusión en el jugador (que ya no sabe qué personaje es realmente importante para la trama y cual no) o incluso romper la verosimilitud del mundo, ya que en el mismo vecindario resulta que vive apiñada gente súper-compleja y llena de subtramas, la mayoría de las cuales nunca se resolverán en el contexto del juego. Lo normal a nivel de personajes “extras” es que como mucho tengan un rasgo distintivo y ya está. El resto, ha de ser totalmente olvidable o estereotípico.

Así pues, el diseño de niveles, tanto a nivel conceptual como más estructural, se deben complementar para poder realimentar tanto la jugabilidad, a través de opciones para el jugador, como para el desarrollo del mundo, a través de la interacción con este, y a veces incluso como pequeña recompensa por explorar. Pero siempre con un grado de mesura, sin querer rizar el rizo a cada oportunidad.

Bueno, y aquí va la transparencia de resumen final…

El diseño de la exploración de niveles.

El diseño de la exploración de niveles.

Joan Arnedo es profesor de los estudios de Informática, Multimedia y Telecomunicación en la UOC. Director académico del Máster en Diseño y Desarrollo de Videojuegos e investigador en el campo de la ludificación y los juegos serios. Su experiencia se remonta a cuando los ordenadores MSX poblaban la Tierra…