Lecciones aprendidas sobre deep learning para la detección de fraude de tarjetas de crédito

En este post os presentamos un resumen y la presentación completa de una de las charlas del UOC Data Day, celebrado el día 14 de junio de 2017 en Barcelona sobre el uso de las redes neuronales (deep learning) para la detección de fraude de tarjetas de crédito. Esta ponencia fue a cargo de Alberto Rubio Muñoz, Senior Data Scientist en BBVA Data & Analytics y profesor colaborador docente del área de minería de datos y machine learningdel Máster universitario en Ciencia de datos (Data Science). Los datos están cambiando nuestra sociedad. Debido a los datos estamos repensando nuestras industrias para construir mejores productos: agricultura, educación, finanzas, jurídicos, etc. Con el advenimiento de los datos, un hijo pródigo del machine learning ha vuelto a la delantera para desempeñar un papel principal: las redes neuronales artificiales, también conocido como Deep learning o aprendizaje profundo. En esta charla, proporcionaremos algunas ideas sobre su aplicación para detectar transacciones de tarjetas de crédito fraudulentas realizadas en tiendas y minoristas en línea. También describiremos los datos que usamos, cómo se entrenan las redes neuronales y cómo se mide su eficiencia o precisión. Además, reflexionaremos sobre cómo la posibilidad de procesar gran cantidad de datos ha impulsado el deep learning y el machine learning en la industria. A continuación, os dejamos la grabación de la ponencia completa, así como el material de soporte utilizado para la presentación. ¡Esperamos que la disfrutéis! Nota: Este artículo ha aparecido previamente en el blog de Análisis y Ciencia de Datos de la UOC: http://dataanalysis.blogs.uoc.edu/.   Jordi Casas es profesor de los Estudios de Informática, Multimedia y Telecomunicación en la UOC y director...

Openbank Development Team

Openbank tiene abierto el proceso de selección Openbank Development Team, en el que buscan perfiles de desarrolladores Java, JavaScript, iOS y Android, y adicionalmente perfiles de Big Data. La oferta esta orientada a perfiles a partir de 1-2 años de experiencia y alto nivel de inglés. Puede ser especialmente interesante para estudiantes del máster en Desarrollo de Aplicaciones Móviles. Encontrareis todos los detalles...

Deep Learning en #XDS3

A finales de agosto se celebró en París (concretamente en Palaiseau) la Data Science Summer School 2017 (DS^3), organizada por el Laboratoire de Informatique (LIX) de la prestigiosa École Polytechnique francesa. Aunque era su primera edición, el evento fue todo un éxito, con más de 400 inscritos, incluyendo estudiantes, investigadores, profesores y profesionales de industria y empresa del sector. Sin duda, estos números confirman el auge que estamos viendo en los temas relacionados con la ciencia de datos, machine learning, análisis de datos, Big data y otros temas relacionados. Durante los cinco días que duró el acto, se dieron diversas ponencias y tutoriales de muchos temas relacionados con la ciencia de datos: por ejemplo, se habló extensamente de graphical models, randomized optimization methods o bayesian optimization. Pero sin duda, el “rey de la fiesta” fue el deep learning. Cerca del 40% de la programación del evento estaba relacionado con las redes neuronales y deep learning. Uno de los grandes atractivos de este evento fueron las clases magistrales que ofreció Yoshua Bengio sobre redes neuronales artificiales y deep learning. Las redes neuronales artificiales (ANN, artificial neural networks) están formadas por un conjunto de neuronas distribuidas en distintas capas. Cada una de estas neuronas realiza un cálculo u operación sencilla sobre el conjunto de valores de entrada de la neurona, que en esencia son entradas de datos o las salidas de las neuronas de la capa anterior, y calcula un único valor de salida que, a su vez, será un valor de entrada para las neuronas de la siguiente capa o bien formará parte de la salida final de la red. La siguiente figura presenta un esquema básico de una red neuronal con la capa de...

Computación distribuida y de alto rendimiento para potenciar la educación online

Los entornos de aprendizaje online actuales o sistemas de gestión de aprendizaje (LMS, en sus siglas en inglés) evolucionan muy rápidamente, y con requisitos tanto pedagógicos como tecnológicos cada vez más exigentes. Ciertamente, estos entornos ya no dependen de los contenidos y recursos estáticos del pasado, con grupos de alumnos homogéneos y modelos de aprendizaje únicos, sino que cada vez es más necesaria una alta flexibilidad y personalización en todos los frentes. Actualmente, se desarrollan complejos recursos e innovadoras estrategias de aprendizaje, como los juegos serios, los laboratorios virtuales, las analíticas del aprendizaje y la gamificación, que potencian fuertemente la interacción, colaboración y personalización del aprendizaje y, en conjunto, redundan en incrementar la motivación e implicación de los alumnos en su proceso de aprendizaje. Analíticas del aprendizaje (fuente: proyecto ICT-FLAG, Ref. TIN2013-45303-P) Sin embargo, al escalar estos recursos y estrategias de aprendizaje desde pequeños tests controlados a su puesta en producción masiva en entornos reales, nos encontramos con importantes barreras computacionales que impiden su despliegue y ejecución efectiva, limitando a su vez los beneficios pedagógicos esperados. Además, las organizaciones educativas actuales necesitan dar soporte a la distribución de actividades de aprendizaje y funcionalidades de los LMS con independencia de la localización tanto de los alumnos y profesores como de los recursos, y así facilitar la experiencia de aprendizaje en entornos abiertos, dinámicos, heterogéneos y masivos. Resumiendo, la mayoría de desarrollos tecnológicos en los LMS tienden a aproximarse a la parte visible (funcional) de estos sistemas, desmereciendo la parte invisible (no funcional), como el rendimiento, la escalabilidad, la interoperabilidad, etc, que finalmente son requisitos cruciales para el correcto funcionamiento del sistema. Esta decisión de...

Portafolio y beneficios de TI

En una entrada anterior abogamos por la realización de beneficios de la inversión en TI como un esfuerzo compartido entre el negocio y los departamentos de tecnología en el largo plazo. El examen de beneficios comienza antes del proyecto (con la realización de un caso de negocio) y acaba después (con la revisión de los beneficios obtenidos). La gestión estratégica del portafolio es, para algunos, el instrumento más crítico de la dirección estratégica de TI. No es un plan estratégico, que sólo algunas empresas abordan en momentos muy críticos, pero tampoco es un formulario de gestión de la demanda o una manera más guay de recoger los pedidos. La gestión del portolio de inversiones de TI según Joe Peppard Actualmente las inversiones en informática compiten por el favor de lo comités de inversiones de las empresas con cualquier otra clase de inversión: abrir una nueva línea de producción, desarrollar un servicio nuevo, comprar equipamiento o construir una nueva planta. Con frecuencia, cualquiera que lleva una inversión al comité tiene que completar el mismo cuestionario, presentar su caso y anticipar el retorno con evidencias e indicadores. El análisis de beneficios, en la teoría clásica, intenta relacionar, mapear cada tipo de inversión en informática con una clase de logro para la organización: inversiones estratégicas, o sea las que se consideran críticas para sostener o mejorar las ventajas para competir, según la propia estrategia definida por cada empresa. Hay ventajas que tienen que ver con la diferenciación (Apple) o con los costes (Ryanair) o con la defensa de la posición en un nicho de mercado concreto (Prada). Por ejemplo, las inversiones en...