Estrategia de Inteligencia Artificial de Cataluña

Estrategia de Inteligencia Artificial de Cataluña

En una entrada anterior, os contábamos que organizamos un simposio de Deep Learning en Barcelona, que se celebró los días 19 y 20 de diciembre. Deep Learning El objetivo de este simposio era visibilizar el talento tanto formativo como académico e investigador que existe en Barcelona. Con el foco tanto a los estudiantes que se han formado en universidades catalanas y están aportando su conocimiento en otros lugares del planeta, como a los investigadores que trabajan actualmente en Barcelona independientemente del lugar de formación sea local o global. Desde la Universitat Oberta de Catalunya, no únicamente participamos en la organización del evento, sino también que dimos un par de charlas técnicas sobre trabajos publicados en congresos de prestigio internacional. Por una parte, contamos con la charla dada por el profesor Carles Ventura sobre la segmentación de objetos en vídeos. Por otra parte, contamos con una keynote realizada por la profesora Ágata Lapedriza sobre computación afectiva. Si deseáis más información sobre todas las charlas realizadas durante el simposio así como queréis tener más información relacionada con el Deep Learning en el área de Barcelona, os aconsejamos que sigáis la cuenta de Twitter Deep Learning Barcelona Symposium @dlbcnai. En ella también ya podréis encontrar vídeos de presentaciones de la primera edición que organizamos en 2018. Presentación de Carles Ventura en el DLBCN 2019Presentación de Ágata Lapedriza en el DLBCN 2019 Una vez finalizado el simposio, tuvimos la oportunidad de acudir al Palau de la Generalitat de Catalunya, donde se nos presentó el trabajo que se está haciendo desde el Govern de la Generalitat de Catalunya en el ámbito de la Inteligencia...
31 años de World Wide Web

31 años de World Wide Web

Imagen de Chris RubberDragon Hoy, 12 de marzo, se conmemora el trigésimo primer aniversario de la world wide web. La fecha no es tan sonada, claro, como la del año pasado, en la que se hizo una gran celebración en el CERN, su lugar de nacimiento, pero aun así sigue siendo un buen moment.para reflexionar sobre los años que separan a la web de su cuarenta aniversario. Los inicios de la WWW Y es que el muy utópico inicio de la web comienza a quedar muy, muy lejos. Ha llovido mucho desde que Tim Berners-Lee —un físico que por aquel entonces era fellow en el centro de investigación europeo alojado en la frontera franco-suiza— se subiera a hombros de muchos gigantes para hacer la propuesta de lo que hoy es la web. Con la genial idea de combinar el protocolo TCP creado en los años 70 por Vint Cerf y Bob Kahn con el incipiente DNS (o sistema de nombres de dominio). Esto permitía asociar automáticamente nombres de dominio a las direcciones numéricas de los servidores de internet (un trabajo que hasta la aparición del DNS hacía a mano Elizabeth Feinler) y el concepto de hipertexto, una idea que ya encontramos en la biblioteca infinita de Borges, de 1941, y que como mínimo se remonta a 1895 y el Mundaneum de los belgas Paul Otlet y Henri La Fontaine. Los lectores curiosos pueden leer la propuesta original de Berners-Lee, que está archivada aquí. También se conserva la primera página web. No nos podemos resistir a comentar un aspecto bastante doloroso visto desde la perspectiva del profesorado universitario de 2020,...

El lado humano de las iniciativas de datos

Hace ahora unos diez años que las empresas comenzaron a realizar grandes inversiones en inteligencia de negocio, luego analítica, luego big data, ahora inteligencia artificial. Los proyectos de datos continúan siendo el principal destino de la inversión en tecnología. Muchas empresas han aumentado sus plantillas de analistas e ingenieros y han creado estructuras o posiciones específicas, como la de Chief Data Officer o la de Chief Analytics Officer. Se va confirmando el pronóstico de que la gestión de datos es una nueva función empresarial, como lo fueron en su momento la gestión de personas, el marketing o la dirección de sistemas de información. Fuente: Shutterstock Sin embargo, los resultados alcanzados, según todas las encuestas, están muy lejos de los objetivos que se pusieron, de las expectativas creadas y de los retos que se enfrentan. Las mayores dificultades no son tecnológicas ya, sino que tienen que ver con los liderazgos, las personas y la famosa cultura. La versión digital de la Harvard Business Review ha editado un monográfico en febrero sobre “el lado humano” de la gestión de datos. Hace unos años escribimos sobre cómo son las empresas orientadas a los datos. Veamos qué sabemos ahora. 1.      Todos coincidimos en la necesidad de impulso y patrocinio de la alta dirección. Está bien. Pero yo no creo que haya que patrocinar “otra iniciativa de datos”, sino que se trata de poner los datos en las conversaciones del comité de dirección y entre sus miembros y sus equipos. Tomar decisiones basadas en los datos, cada día. 2.      Esto quiere decir reconocer problemas, hacer preguntas, buscar los datos, hacer otras preguntas y seguir buscando, en una especie de círculo (loop) que está siempre abierto. Cultura de datos es voluntad y deseo de aprender inocentemente...
¿Está el 5G realmente en el mercado?

¿Está el 5G realmente en el mercado?

Los medios de comunicación y las operadoras de telefonía móvil hablan mucho acerca de la implantación de 5G. De hecho, ya existen terminales comerciales a la venta y despliegues operativos en grandes ciudades. A pesar de ello, nos debería surgir una pregunta: ¿Es realmente 5G lo que nos están ofreciendo? ¿Es 5G todo aquello que nos han prometido? La respuesta a ambas preguntas es bastante sencilla: sí. Efectivamente los productos que nos ofrecen las operadoras de telefonía y los fabricantes de terminales es tecnología 5G. En cuanto a las ventajas que, según nos anuncian, va a traer 5G, también es cierto. Aunque pueda parecer que las respuestas son categóricas, cabe una breve reflexión al respecto. Cualquier tecnología de comunicaciones móviles, como es el caso de 5G, nace de un proceso de estandarización llevado a cabo por la organización 3GPP en el cual participa, principalmente, la industria del sector (operadores, fabricantes, etc). A pesar de que la nomenclatura más comercial (3G, 4G, 5G, etc) puede llevar a equívocos, el proceso de estandarización es continuo. Ahora bien, es cierto que se divide en un conjunto de versiones/actualizaciones, conocidas con el término inglés release. Estas releases se solapan parcialmente, de modo que la finalización de cada release es posterior al inicio de los trabajos de la siguiente release. La figura muestra un ejemplo de la temporización de las releases 15 y 16.   Figura. Temporización de la Release 15 y Release 16 de 3GPP Fuente: http://www.3gpp.org/specifications/67-releases Pues bien, 5G es la tecnología incluida en la Release 15 y en las releases posteriores. Llegados a este punto cabe preguntarse ¿por qué dividirlo en releases...
Lo que no veremos en el Mobile World Congress

Lo que no veremos en el Mobile World Congress

A estas alturas hasta viviendo debajo de una piedra todos los lectores de este blog, ya sabéis que este año no se celebra el Mobile World Congress… Pero el mercado del móvil no se para y la no celebración del congreso de ninguna forma para la maquinaria de una industria perfectamente engrasada para intentar llevar al consumidor a adquirir un móvil nuevo. Así pues, aún sin Mobile, siempre es interesante estar al tanto de lo que nos va a traer este año… Pantallas flexibles Sin duda los móviles con pantallas flexibles habrían sido la estrella de la cobertura mediática del congreso… Aunque sus elevadísimos precios y las dudas razonables sobre si son lo suficientemente resistentes seguramente habrían hecho que vendiesen pocas unidades. Es curioso observar cómo la industria del móvil imita la de los coches, con grandes marcas que lanzan cada año prototipos carísimos que combinan funcionalidades revolucionarias con una funcionalidad a veces muy discutible pero, a diferencia de los prototipos de cuatro ruedas, además de enseñarlos los pone a la venta. Si el año pasado algunos fabricantes (Huawei y Samsung) lanzaron unos primeros móviles que usaban la flexibilidad de las pantallas para transformarse en pequeñas tablets, este año lo que vemos es un regreso al pasado, con los alargados móviles «de concha» que solíamos usar antes de la era del smartphone. Será muy interesante, además, observar cómo aplicaciones y sistemas operativos se adaptarán a estos móviles «transformer», que hacen que quien diseña las interfaces ya no pueda asumir que el formato de pantalla está en torno al 16:9 al que nos habíamos acostumbrado hasta ahora, y deberán funcionar...
Diferencias de género en la Wikipedia española (II)

Diferencias de género en la Wikipedia española (II)

Vamos a empezar a resolver el ejercicio que dejamos pendiente en una entrada anterior sobre las diferencias de género existentes en la Wikipedia en español. El objetivo es mostrar cómo manipular los dumps de Wikipedia usando diferentes instrucciones y herramientas desde la línea de comandos del sistema operativo para analizar aspectos como las desigualdades de género presentes. En nuestro caso hemos utilizado como entorno de trabajo un ordenador MacBook Pro con el sistema operativo macOS, con diferentes extensiones (herramientas) que ya iremos introduciendo cuando sean requeridas, pero debería ser posible realizar las mismas operaciones en diferentes entornos. El primer paso, sencillo de ejecutar pero costoso en tiempo, es descargar el último dump de la Wikipedia en español, y lo hacemos mediante el uso de la herramienta wget desde la línea de comandos: wget https://dumps.wikimedia.org/eswiki/latest/eswiki-latest-stub-meta-history.xml.gz En nuestro caso, en el momento de ejecutar este comando la última versión del dump hacía referencia al día 02/02/2020 y se trata de un fichero comprimido .gz de unos 7,5 GB, el cual puede tardar varios minutos en descargarse, dependiendo de la velocidad de descarga. A unos 5 MB/s esto significa casi 26 minutos, así que no se trata de un fichero que se tenga que ir moviendo de sitio continuamente. Una vez descargado el fichero, procedemos a descomprimirlo con gunzip y mucha paciencia: gunzip -d https://dumps.wikimedia.org/eswiki/latest/eswiki-latest-stub-meta-history.xml.gz Después de un buen rato, esto genera un fichero con extensión .xml que ocupa unos 50 GB, por lo que habrá que tener suficiente espacio en disco para realizar estas dos operaciones. Al descomprimir el fichero .gz completamente, éste es eliminado automáticamente. El siguiente paso es recorrer...