Computación cuántica (II): un nuevo paradigma

El modelo actual de ordenador no es el único posible. Existen otros paradigmas para diseñar un ordenador que son radicalmente diferentes al modelo “convencional”.

Un potencial cambio de paradigma se refiere a la electrónica digital: los ordenadores representan la información de forma discreta, usualmente con los valores 0 o 1. Para hacerlo, se consideran dos niveles de voltaje: el nivel “tierra” (0) y el voltaje proporcionado por la fuente de alimentación (1), con un cierto margen de tolerancia para cada nivel. A partir de estos valores pueden realizarse operaciones lógicas (las definidas en el álgebra de Boole, como AND, OR o NOT), que en la práctica se implementan como puertas lógicas mediante transistores que transmiten o bloquean el voltaje para reflejar el resultado de la operación.

Pero también hay dispositivos que utilizan un modelo de computación analógica, donde la información se almacena como una magnitud continua: no hay rangos de valores discretos (entre A y B, el valor es X), sino que se utiliza el valor completo de una magnitud. El uso de valores continuos introduce el problema del ruido: fluctuaciones imprevistas que pueden distorsionar este valor y que limitan el rango de valores observables y la precisión. Este problema también aparece en la electrónica digital, pero se resuelve con los márgenes de tolerancia definidos para cada nivel de voltaje. Cabe destacar que esta magnitud puede ser el voltaje en un cable, pero también podrían ser magnitudes mecánicas (p.ej. la contracción de un muelle elástico) o hidráulicas.

MONIAC, una computadora analógica de flujos monetarios que funciona mediante... agua. Fuente: Wikpedia. Licencia: Dominio público

MONIAC, una computadora analógica de flujos monetarios creada en 1949 y que calcula mediante… agua. Fuente: Wikipedia. Licencia: Dominio público

Así pues, no es necesario limitarse a propiedades electrónicas para implementar un ordenador: es posible cambiar a un paradigma basado en otras propiedades físicas. Y aquí es donde entra en juego la física cuántica.

La física cuántica es una rama de la Física que estudia las propiedades de la materia y la energía a escala subatómica. Un tema importante que hay que destacar es que no podemos tomar como referencia la mecánica clásica: a una escala subatómica, las leyes de la física se comportan de forma poco intuitiva. Por ejemplo, resulta difícil de entender que algo pueda describirse simultáneamente como una partícula o como una onda, o que sea imposible “copiar” el estado cuántico de una partícula a otra sin modificar el estado de la primera.

La física cuántica en relación con otros campos de la física. Fuente: Wikipedia. Licencia: CC BY-SA 3.0

La física cuántica en relación con otros campos de la física. Fuente: Wikipedia. Licencia: CC BY-SA 3.0

Entonces, ¿por qué motivo interesa tanto aplicar la cuántica al ámbito de la computación? El motivo es que teóricamente se ha demostrado que la computación cuántica permite resolver de forma eficiente algunos problemas complejos  cuya mejor solución conocida tiene un coste exponencial respecto al tamaño de la entrada. Por ejemplo:

  • El algoritmo de Shor permite descomponer un número entero N en sus factores primos en tiempo polinómico respecto al número de bits de N. Este resultado permitiría romper el criptosistema de clave pública RSA, cuya seguridad se basa en la dificultad de factorizar números enteros grandes.
  • Dada una función (que para nosotros es una caja negra) y una salida para dicha función, el algoritmo de Grover permite calcular cuál es la entrada que produce esa salida determinada. Si hay N entradas posibles, este cálculo se realiza en un tiempo proporcional a raíz cuadrada de N. Es decir, ¡no es necesario probarlas todas!

A parte de resolver este tipo de cálculos, los ordenadores cuánticos permiten simular ciertos procesos físicos de forma muy eficiente. Esta simulación cuántica puede llevar a avances en química, el diseño de nuevos materiales o de nuevos fármacos. Por otro lado, los principios de la física cuántica permiten diseñar nuevos sistemas criptográficos, permitiendo por ejemplo un intercambio de claves seguro. Estos criptosistemas cuánticos tiene la ventaja de no estar basados en la complejidad computacional de un problema (como pasa en criptosistemas como RSA) sino en propiedades físicas, por lo que no son susceptibles de ser “rotos” aunque se utilice para ello un computador cuántico.

Robert Clarisó es profesor de los Estudios de Informática, Multimedia y Telecomunicación y director del Máster Universitario en Ingeniería Informática. Su actividad docente se centra principalmente en los ámbitos de computación y desarrollo para móviles.

Antoni Pérez Navarro es profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, donde es el responsable de las asignaturas de Física y de las de Sistemas de Información Geográfica.

Computación cuántica (I): el fin de los ordenadores clásicos

Los ordenadores actuales son descendientes de la Máquina de Turing. Este modelo matemático fue creado por Alan Turing para dar respuesta al Entscheidungsproblem (en alemán, “problema de decisión”), una de las cuestiones centrales de la informática teórica.

Las Máquinas de Turing utilizan como memoria una cinta con un número infinito de posiciones y un cursor que puede leer una posición de la cinta, modificar su contenido o desplazarse una posición a la izquierda o a la derecha. El “código” de la máquina de Turing es el conjunto de reglas predefinidas que indican qué acciones debe realizar el cursor según el contenido de la cinta, mientras que los “datos de entrada” sería el contenido inicial de la cinta.

También es posible definir una Máquina de Turing Universal que recibe como entrada el código de una máquina de Turing y unos datos de entrada y simula la ejecución de dicha máquina de Turing. Esta Máquina de Turing Universal es uno de los antecesores del concepto de “programa almacenado”: pensar en el programa como un dato más que puede leerse (para ejecutarse) o incluso modificarse. Puede parecer un concepto evidente, pero hasta ese momento la mayoría de máquinas tenían un propósito específico (un problema, una herramienta). Esta idea de máquina “programable y de propósito general” se había utilizado en el campo de las máquinas de tejer (para coser patrones complejos definidos mediante una tarjeta perforada), pero aquí se aplicaba a la realización de cálculos.

Aunque excelente como modelo teórico, la Máquina de Turing tiene una arquitectura poco útil desde un punto de vista práctico y existen formas de diseñar una máquina más efectiva. En esta línea, la arquitectura von Neumann plantea tres componentes: una memoria que puede contener datos e instrucciones; una Unidad Central de Proceso (CPU) que puede ejecutar las instrucciones del programa; y dispositivos de entrada y salida para interactuar con el entorno recibiendo o enviando datos. A diferencia de la Máquina de Turing, la memoria tiene acceso aleatorio: el tiempo de acceso a una posición de memoria no depende de en qué posición se encuentra dentro de la memoria (con el cursor, leer la posición era una sola acción pero leer posiciones alejadas requería múltiples desplazamientos del cursor).

Esta arquitectura ha permitido desarrollar ordenadores cada vez más potentes. ¿Por qué este progreso? La clave han sido los avances tecnológicos que permiten crear hardware de coste razonable para implementar estos componentes de forma muy eficiente. Por ejemplo:

  • El desarrollo de los transistores en substitución de las válvulas de vacío permitió incrementar la velocidad, reducir el tamaño, coste  y consumo de energía de cada componente.
  • La progresiva reducción del tamaño de los transistores permite incorporar cada vez más componentes en un circuito integrado (doblando su número cada dos años según predice la Ley de Moore).
  • La imparable reducción del coste de la memoria con el desarrollo de tecnologías de memoria con mayor densidad (la cantidad de información que puede ser almacenada por unidad de volumen) y mayor rapidez.

 

Supercomputador Mare Nostrum del Barcelona Supercomputing Center. Fuente: Flickr (Isabelle Puaut). Licencia: CC BY-NC-ND 2.0

Supercomputador Mare Nostrum del Barcelona Supercomputing Center. Fuente: Flickr (Isabelle Puaut). Licencia: CC BY-NC-ND 2.0

Sin embargo, hay dudas sobre si se podrá mantener indefinidamente este crecimiento exponencial en la capacidad de cálculo. Por ejemplo:

  • La ley de Moore está alcanzando su límite y no son pocos quienes la declaran muerta. En primer lugar, un mayor número de transistores por unidad de superficie incrementa la cantidad de calor disipado (y no queremos que se funda el chip, ¿verdad?). En segundo lugar, en algún punto el menor tamaño de los transistores podría llegar a reducir su fiabilidad. Y en tercer lugar, el proceso de fabricación resulta cada vez más complejo y costoso: la contrapartida de la Ley de Moore es la Ley de Rock, que dice que el coste de una planta de fabricación de chips se dobla cada 4 años. Esto significa que, aunque sea factible técnicamente, llegará un punto en el que no será rentable incrementar el número de transistores en un chip.
  • Otro enfoque es la paralelización: dividir un cómputo en subtareas que pueden ser resueltas de forma independiente en distintos ordenadores (o procesadores, o GPUs, ….) y combinadas para obtener el resultado global. Lamentablemente, esta aproximación funciona mejor para algunos problemas que para otros y tiene la limitación del coste: multiplicar el rendimiento por N requiere multiplicar la inversión por ese factor (como mínimo).

Así pues, por un lado tenemos la creciente necesidad de cálculo para procesar grandes volúmenes de datos (Big Data), entrenar sistemas inteligentes, generar imágenes o entornos cada vez más realistas, resolver problemas de optimización y logística más complejos, … Y todo ello, si puede ser en tiempo real, mejor. Y por otro lado tenemos un techo (todavía no alcanzado, pero que empieza a entreverse en el horizonte) en la capacidad de cálculo de los ordenadores actuales.

Ante este panorama, ¿quién puede resolver nuestros problemas? Esperad, la computación cuántica llama a nuestra puerta.

Action Design Research

Hubo un tiempo en que la investigación en informática (computer sciences) consistía en inventar un nuevo artefacto o mejorar uno que ya existía. Un artefacto, en este contexto, es un producto informático: un algoritmo, un programa, una instalación, un modelo, un método, una ilustración (una instancia, en spanglish) o todo junto. “Computer Science is the art of constructive thinking” (decía Wirth, el inventor de Pascal). La informática es una ciencia (?) práctica. Su método de investigación por excelencia es el de diseño (Design Research), cuyos criterios de evaluación son experimentos: ¡algo es verdad si funciona!

Comida impresa

Figuras de azúcar creadas con una impresora 3D. Fuente: www.directoalpaladar.com

Ocurre que muchos inventos en informática se producen en interacción con las personas y las empresas, de manera que la evaluación se relaciona entonces con el uso: algo funciona o no en un contexto y la prueba del éxito es que el artefacto se utilice efectivamente. Este es el espacio teórico de los sistemas de información, en el cual la prueba por el experimento es un poco más complicada. Los sistemas de información tampoco son, por lo demás, una disciplina muy científica, o sea, pertenecen a las ciencias sociales: estudian el uso y la gestión de la tecnología.

En la última década, los diseñadores teóricos han buscado nuevos paradigmas para integrar en la investigación la prolija realidad del contexto y ser más útiles para los practicantes; y los científicos sociales han intentado crear productos (modelos y métodos) cuya verdad se pueda probar con la limpieza apolínea que proveen las ciencias experimentales. Este es el origen de algunas combinaciones de métodos, como la Design Science Research Methodology (DSRM) de Peffers o la Action Design Research (ADR) de Sein.

Estos métodos reconocen explícitamente que los artefactos de IT son “conjuntos” (ensembles) que emergen del “diseño, uso y refinamiento continuado (…), moldeado por los intereses, valores y asunciones de los desarrolladores, los inversores y los usuarios” (Orlikowski y Iacono). (Este artículo se llama “Buscando desesperadamente la IT en la investigación de IT”; Wanda Orlikowski revolucionó la investigación en sistemas de información hace unos años y cualquier cosa que escriba se lee con mucho respeto).

La investigación en la acción (Action Research) es un método principalmente cualitativo común en las ciencias sociales, desde la antropología hasta el management. El investigador participa en el contexto de investigación para mejorarlo y, a la vez, para generar conocimiento científico. En nuestro medio, se ha usado para la creación de metodologías de desarrollo, para construir prototipos y para estudiar el uso de sistemas en un contexto organizativo determinado. Para sus fans, como Baskerville, es la única aproximación posible en estos casos. Para sus detractores, peca de voluntarismo y falta de rigor y sus conclusiones no pueden generalizarse más allá del contexto.

La Action Design Research aspira a solventar estas limitaciones incorporando principios, técnicas y formalidades propios del diseño:

  1. El problema o gap de investigación y el diseño de la intervención deben formularse previamente a través de un acuerdo explícito entre el investigador y el “cliente”. No es consultoría: es investigación fundada en la teoría pero inspirada en la práctica.
  2. La construcción (del artefacto), la intervención en la práctica y la evaluación no son fases separadas, sino que se consideran concurrentes y se despliegan a través de varias iteraciones (ciclos) que conducen a prototipos de refinamiento progresivo.
  3. El trabajo se realiza en común entre el investigador y el equipo del cliente. No es diseño, o sólo diseño: el trabajo del investigador no se realiza en el laboratorio y la evaluación no es posterior. La reflexión y el aprendizaje son continuos.
  4. Para que se pueda considerar investigación, los resultados deben compartirse y discutirse con el cliente, pero deben articularse y formalizarse en forma de conceptos y modelos (teoría) que puedan generalizarse.

En los últimos años se han publicado ya unos cuantos casos de aplicación de la ADR en el ámbito de los sistemas y tecnologías de la información: la implantación de ERPs, un sistema de gestión de competencias, un modelo para generación de ideas de nuevas aplicaciones o la creación de un data warehouse para servicios de salud; pero también un método de reutilización de software o el diseño de un protocolo de inicio de sesión  (SIP) para videoconferencias sobre Internet.

Decía Lenin que “es más útil y placentero vivir la experiencia de la revolución que escribir sobre ella”. Así que hacer la revolución y escribir sobre ella debe de ser el paraíso de los revolucionarios.

 

Una versión anterior de este artículo se publicó en Linkedin Pulse el 6 de Marzo, con el título “Investigación en acción para ayudar a la práctica”. Agradezco los comentarios de Robert Clarisó, que me pide más seriedad y corrección académica.

 

Seguridad cognitiva, ¿una nueva era para la ciberseguridad?

(Trobareu la versió en català més avall)

En un mundo altamente interconectado como el actual, los virus y los hackers disponen de auténticas autopistas digitales por las que transitar. Las organizaciones están invirtiendo cada día más dinero para defenderse de las amenazas cibernéticas y la falta de profesionales del sector es notable. El año pasado el gasto en ciberseguridad a nivel mundial se situó entre los 75.000 y los 100.000 millones de dólares y se estima una falta de entre uno y dos millones de expertos en este área para 2019. En este contexto, con el objetivo de fomentar la docencia, la investigación, la difusión, la innovación y la transferencia tecnológica en el ámbito de la ciberseguridad ha surgido la cátedra UOC-IBM de ciberseguridad. Dentro del marco de esta cátedra se estudian nuevas formas de mejorar y hacer más efectiva la gestión de la seguridad en las organizaciones. En este sentido, una nueva área que está ganando popularidad es el uso de la computación cognitiva para la seguridad informática.

Pero cuando hablamos de computación cognitiva, ¿a qué nos referimos? Básicamente este nuevo paradigma computacional pretende dejar atrás los sistemas informáticos estáticos programados fundamentalmente usando reglas del estilo if-then-else y resolver problemas imitando la forma en que lo haría un cerebro humano, teniendo en cuenta el contexto en que se encuentra y básicamente entendiendo, razonando y aprendiendo.

En el mercado existen productos que ya ofrecen herramientas basadas en la computación cognitiva. Dos productos populares son HPE Haven On Demand y IBM Watson. Básicamente, estos productos ofrecen sistemas de computación en el cloud y APIs para que los analistas puedan procesar grandes cantidades de datos y ejecutar de forma sencilla tareas que necesiten procesado de lenguaje natural, análisis de textos, extracción de conceptos clave, reconocimiento del habla, análisis de sentimiento, reconocimiento de imágenes y de caras, predicción y clasificación, análisis de tendencias, detección de anomalías, etc.

El uso de las técnicas mencionadas anteriormente de forma conjunta está resultando en la creación de productos que usan la computación cognitiva para asistir a empresas y profesionales en diferentes ámbitos. Por ejemplo, en el sector minorista, ya se usa la computación cognitiva para identificar las preferencias de los consumidores analizando variables demográficas, de precio, reseñas de productos, etc.   En el sector bancario, se usan sistemas cognitivos para analizar documentos con reglamentos, políticas comerciales y de conformidad, para luego realizar cálculos de riesgos y ofrecer recomendaciones . En el sector de la salud, la computación cognitiva asiste a investigadores procesando grandes volúmenes de literatura científica y extrayendo la información más relevante para la investigación.

Enfocado al ámbito de la ciberseguridad, es evidente que la computación cognitiva puede asistir de manera efectiva a sus profesionales. En estos momentos, las organizaciones se enfrentan a los problemas de ciberseguridad con falta de efectivos en personal, y en un contexto donde el volumen de los eventos de seguridad que se disparan en los sistemas empresariales es tan grande que desborda la capacidad de gestión de cualquier equipo (algunos estudios estiman que las compañías grandes generan más de 12.000 eventos de seguridad por segundo). Las herramientas de seguridad cognitiva no solo pueden ayudar a procesar y analizar estos eventos, sino que también pueden procesar y extraer información de  las más de 60.000 entradas mensuales en blogs de seguridad o los más de 10.000 artículos en revistas científicas publicados cada año. De entre todos los datos relevantes para la resolución de incidencias se considera que el 80% pertenece a este tipo de datos no estructurados, los cuales, hasta ahora, eran básicamente ignorados al no existir capacidad para tratarlos. Las herramientas de computación cognitiva están haciendo salir a flote toda esta información, que puede ser parseada, interpretada y analizada automáticamente.

Estudiante enseñando a Watson el lenguaje de la ciberseguridad (Imagen de ibmphoto24 con licencia CC BY-NC-ND 2.0)

Uno de los mayores proyectos que tiene la seguridad cognitiva como herramienta central es el Cognitive Security Operations Center (SOC) de IBM. En este proyecto se ha utilizado Watson como herramienta de seguridad cognitiva, a la que se ha inyectado los datos almacenados en X-Force library, que contiene más de 20 años de investigación en seguridad. Básicamente, con estos datos y la ayuda de expertos humanos se ha dado el primer paso para que Watson aprenda creando lo que se llama un corpus de conocimiento. Posteriormente, Watson pre-procesa los datos, los indexa, crea metadatos y grafos de conocimiento para poder trabajar de forma más eficiente y poder responder preguntas de forma precisa. A continuación, expertos humanos crean ground truth y entrenan a Watson con técnicas de machine learning, y también le enseñan los patrones lingüísticos del ámbito de conocimiento para cada aplicación concreta. En estos momentos Watson ya puede aprender interactuando con otros usuarios y interpretando nuevas publicaciones, y ya está preparado para responder preguntas complejas del dominio para el que ha sido entrenado, dando respuestas respaldadas por un gran volumen de información.

Cognitive Security Operations Center (SOC) usando Watson (Imagen de ibmphoto24 con licencia CC BY-NC-ND 2.0)

Con la computación cognitiva, la ciberseguridad evoluciona hacia un paradigma más proactivo, donde los analistas trabajan iterativamente con las herramientas de seguridad cognitiva, analizando las hipótesis, las respuestas y las recomendaciones que son generadas automáticamente. La seguridad cognitiva tiene que servir de ayuda para que los analistas no resulten desbordados por la gran cantidad de información, los numerosos eventos de seguridad y la falta de personal. Estos nuevos sistemas no son el sustituto de los expertos en seguridad, sino que deben ser su asistente para poder resolver un mayor número de incidencias, decrementar los falsos positivos, reducir el tiempo de respuesta frente a incidentes, y en general mejorar de forma exponencial la seguridad en las organizaciones.

 

Víctor Garcia-Font es investigador de la cátedra UOC-IBM en ciberseguridad.

 

Seguretat cognitiva, una nova era per la ciberseguretat?

En un món altament interconnectat com l’actual, els virus i els hackers disposen d’autèntiques autopistes digitals per les quals transitar. Les organitzacions estan invertint cada dia més diners per defensar-se de les amenaces cibernètiques i la manca de professionals del sector és notable. L’any passat la despesa en ciberseguretat a nivell mundial es va situar entre els 75.000 i els 100.000 milions de dòlars i s’estima una manca d’entre un i dos milions d’experts en aquesta àrea per 2019. En aquest context, amb l’objectiu de fomentar la docència, la recerca, la difusió, la innovació i la transferència tecnològica en l’àmbit de la ciberseguretat ha sorgit la càtedra UOC-IBM de ciberseguretat. Dins el marc d’aquesta càtedra s’estudien noves formes de millorar i fer més efectiva la gestió de la seguretat en les organitzacions. En aquest sentit, una nova àrea que està guanyant popularitat és l’ús de la computació cognitiva per a la seguretat informàtica.

Però quan parlem de computació cognitiva, a què ens referim? Bàsicament, aquest nou paradigma computacional pretén deixar enrere els sistemes informàtics estàtics programats fonamentalment usant regles de l’estil if-then-else i resoldre problemes imitant la forma en què ho faria un cervell humà, tenint en compte el context en què es troba i bàsicament entenent, raonant i aprenent.

Al mercat existeixen productes que ja ofereixen eines basades en la computació cognitiva. Dos productes populars són HPE Haven On Demand i IBM Watson. Bàsicament, aquests productes ofereixen sistemes de computació en el cloud i APIs perquè els analistes puguin processar grans quantitats de dades i executar de forma senzilla tasques que necessitin processament de llenguatge natural, anàlisi de textos, extracció de conceptes clau, reconeixement de la parla, anàlisi de sentiment, reconeixement d’imatges i de cares, predicció i classificació, anàlisi de tendències, detecció d’anomalies, etc.

L’ús de les tècniques esmentades anteriorment de forma conjunta està resultant en la creació de productes que fan servir la computació cognitiva per assistir a empreses i professionals en diferents àmbits. Per exemple, en el sector minorista, ja es fa servir la computació cognitiva per identificar les preferències dels consumidors analitzant variables demogràfiques, de preu, ressenyes de productes, etc. En el sector bancari, s’usen sistemes cognitius per analitzar documents amb reglaments, polítiques comercials i de conformitat, per després realitzar càlculs de riscos i oferir recomanacions. Al sector de la salut, la computació cognitiva assisteix a investigadors processant grans volums de literatura científica i extraient la informació més rellevant per a la recerca.

Enfocat a l’àmbit de la ciberseguretat, és evident que la computació cognitiva pot assistir de manera efectiva als seus professionals. A hores d’ara, les organitzacions s’enfronten als problemes de ciberseguretat amb falta d’efectius en personal, i en un context on el volum dels esdeveniments de seguretat que es disparen en els sistemes empresarials és tan gran que desborda la capacitat de gestió de qualsevol equip (alguns estudis estimen que les companyies grans generen més de 12.000 esdeveniments de seguretat per segon). Les eines de seguretat cognitiva no només poden ajudar a processar i analitzar aquests esdeveniments, sinó que també poden processar i extreure informació de les més de 60.000 entrades mensuals en blocs de seguretat o els més de 10.000 articles en revistes científiques publicats cada any. D’entre totes les dades rellevants per a la resolució d’incidències es considera que el 80% pertany a aquest tipus de dades no estructurades, les quals, fins ara, eren bàsicament ignorades en no existir capacitat per tractar-les. Les eines de computació cognitiva estan fent sortir a la superfície tota aquesta informació, que pot ser parsejada, interpretada i analitzada automàticament.

Estudiant ensenyant a Watson el llenguatge de la ciberseguretat (Imatge de ibmphoto24 amb llicència CC BY-NC-ND 2.0)

Un dels majors projectes que té la seguretat cognitiva com a eina central és el Cognitive Security Operations Center (SOC) d’IBM. En aquest projecte s’ha utilitzat Watson com a eina de seguretat cognitiva, a la qual s’ha injectat les dades emmagatzemades en l’X-Force library, que conté més de 20 anys de recerca en seguretat. Bàsicament, amb aquestes dades i l’ajuda d’experts humans s’ha donat el primer pas perquè Watson aprengui creant el que s’anomena un corpus de coneixement. Posteriorment, Watson pre-processa les dades, les indexa, crea metadades i grafs de coneixement per poder treballar de forma més eficient i poder respondre preguntes de forma precisa. A continuació, experts humans creen ground truth i entrenen a Watson amb tècniques de machine learning, i també li ensenyen els patrons lingüístics de l’àmbit de coneixement per a cada aplicació concreta. En aquests moments, Watson ja pot aprendre interactuant amb altres usuaris i interpretant noves publicacions, i ja està preparat per respondre preguntes complexes del domini per al qual ha estat entrenat, donant respostes recolzades per un gran volum d’informació.

Cognitive Security Operations Center (SOC) utilitzant Watson (Imatge de ibmphoto24 amb llicència CC BY-NC-ND 2.0)

Amb la computació cognitiva, la ciberseguretat evoluciona cap a un paradigma més proactiu, on els analistes treballen iterativament amb les eines de seguretat cognitiva, analitzant les hipòtesis, les respostes i les recomanacions que són generades automàticament. La seguretat cognitiva ha de servir d’ajuda perquè els analistes no resultin desbordats per la gran quantitat d’informació, els nombrosos esdeveniments de seguretat i la manca de personal. Aquests nous sistemes no són el substitut dels experts en seguretat, sinó que han de ser el seu assistent per poder resoldre un major nombre d’incidències, decrementar els falsos positius, reduir el temps de resposta davant d’incidents, i en general millorar de forma exponencial la seguretat en les organitzacions.

 

Víctor Garcia-Font és investigador de la càtedra UOC-IBM en ciberseguretat.

MOOC BI y Big Data: no hay dos sin tres

Los dos últimos años hemos tenido dos interesantes experiencias en el ámbito de los MOOC a través de la plataforma MiriadaX, que ya comentamos en su momento aquí y aquí.

3a edición MOOC Business Intelligence y Big Data

Este MOOC ha estado centrado en la inteligencia de negocio y Big Data, competencias que llevamos formando desde hace más de una década y que son absolutamente cruciales en la actualidad para trabajar y gestionar escenarios VUCA y en el que es necesario convertirse en una organización orientada al dato, como hemos comentado más de una vez (1 y 2).

Desde nuestra perspectiva, el interés por estas dos iniciativas fue muy relevante (más de 35.000 personas interesadas en las dos ediciones) y casi 8.000 estudiantes que terminaron con éxito su correspondiente edición. Hemos aprendido mucho en estas dos ediciones. Lo hemos comentado en detalle aquí y aquí.

Pero no somos el único que tiene esta perspectiva. Tal y como comentan desde MiriadaX, estamos en el TOP 10 de los cursos que más generaron interés en 2016, por ello hemos hecho propio el dicho: “no hay dos sin tres”.

Para esta tercera edición hemos mantenido todo lo aprendido de las anteriores ediciones. Ello significa que: (1) los contenidos del MOOC se fundamentan en materiales y contenidos de nuestro programa de Business Intelligence y Big Data, (2) a lo largo del MOOC se tiene la posibilidad de interactuar con algunos de los profesores responsables y colaboradores en la UOC, (3) mantenemos los cambios introducidos en la segunda edición (por ejemplo, el capítulo entero dedicado a los sistemas de Big Data y a las bases de datos NoSQL, que es una de las ramas de especialización dentro del Máster de Business Intelligence y Big Data) y (4) hemos introducido pequeños cambios/actualizaciones en alguno de los videos y explicaciones.

Como en anteriores ediciones, incluye un taller de R opcional para permitir, a los estudiantes que lo desearon, aplicar los conceptos de Data Science explicados en la teoría.

El curso tiene una introducción donde explicamos los objetivos y capacidades, la estructura del programa y la metodología y claves para un seguimiento efectivo y se desarrolla durante un mes a través de cinco módulos docentes:

  • Introducción al BI. Es un módulo conceptual de presentación de los sistemas de Inteligencia de Negocio, sus usos y modo de funcionamiento, la gestión de proyectos de BI y la evolución de las empresas y de las profesiones en este ámbito.
  • Arquitectura de sistemas BI. Se presenta la “fábrica de información” o cómo se convierten los datos internos y externos de una empresa u organización en información útil para tomar decisiones. Se explican los sistemas de almacén de datos o data warehouse y conceptos básicos de bases de datos.
  • Data Science. En este módulo explicamos los modelos y algoritmos más frecuentes de clasificación y agrupación de datos y su tratamiento analítico y gráfico con el lenguaje R, que se ha convertido en un estándar de hecho en el mercado de inteligencia analítica.
  • Big Data. Explicamos el nuevo paradigma que representan los datos masivos, los usos y tecnologías disponibles y las nuevas clases de bases de datos (NoSQL) que se utilizan para recuperarlos, almacenarlos y tratarlos.
  • Tendencias en BI. Mostramos aquí algunos de los escenarios de uso más desarrollados (información social, geográfica o de clientes) y el movimiento de BI de código abierto (OSBI), con el cual la UOC se siente especialmente comprometida.

El curso está coordinado en esta edición por Josep Curto y se imparte por profesores del nuevo Máster de Business Intelligence y Big Data. Está compuesto por guías de estudio, vídeos, presentaciones y material docente complementario. Los profesores actúan también como moderadores de los hilos de discusión y consultas en el foro. Al término del programa se puede obtener un certificado de participación o un certificado de superación.

El MOOC comienza el 17/04/2017. Os damos de nuevo la bienvenida de nuevo al viaje al mundo de los datos y os invitamos a inscribiros aquí.

 

Jordi Casas-Roma es doctor en informática por la Universitat Autònoma de Barcelona (UAB, 2014), profesor en los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC, 2009), donde es responsable de asignaturas relacionadas con los sistemas Big Data, las bases de datos y la minería de datos. Desde 2010 pertenece al grupo de investigación KISON (K-ryptography and Information Security for Open Networks).

Josep Curto es  profesor en los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya, donde es responsable de asignaturas relacionadas con estrategias de datos. Es además Director de Delfos Research, empresa especializada en investigación de los mercados de estrategias de datos, y Chief Data Science Officer en Institute of Passion donde busca comprender y liberar la pasión de las personas a través de los datos.