El mercado de datos siempre en evolución

15 febrero, 2018

El mercado de datos (o mejor dicho de datos y algoritmos) está en una constante evolución. El profesional del dato (sea cual sea su rol dentro de espectro de roles que incluye el ingeniero del dato, el consultor o el científico del dato, entre otros) debe estar atento a todos los cambios y novedades. Mantenerse al tanto no es un trabajo sencillo, puesto que por su perfil deben estar atentos a novedades en múltiples ámbitos.

Vamos a tratar tres puntos como ejemplo.

Tecnología

Los cambios a veces hacen referencia a nuevas versiones de tecnología. Algunas de ellos son muy relevantes puesto que afectan tanto a implementaciones ya existentes o elecciones futuras. Este es el caso del lanzamiento de Apache Hadoop 3.0 que como explican en el blog de HortonWorks, supone grandes cambios significativos, por ejemplo, para Data Lakes. O el ecosistema que continua creciendo para proporcionar más y más valor (por ejemplo, Apache Trafodion, que proporciona Transactional SQL-on-Hadoop).

Regulación

Otras veces hacen referencia a la regulación. Que la analítica ha cambiado las reglas del juego en muchos mercados es algo que ya saben nuestros lectores. Ahora la regulación va a cambiar las reglas de la analítica. El próximo 25 de mayo de 2018 se exigirá a las empresas el cumplimiento del Reglamento General de Protección de Datos (GDPR). Esta regulación  busca ampliar los derechos de los sujetos de datos y establece mayores restricciones a la toma decisiones automáticas. Es decir, afecta considerablemente a la analítica de clientes y al uso de aprendizaje automático e inteligencia artificial.

GDPR establece “toda persona tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos en ella o le afecte significativamente de modo similar”. Es decir, en el consentimiento explícito debe informarse al sujeto de la lógica aplicada y de las consecuencias del algoritmo. Este nivel de trasparencia a nivel de algoritmos va a producir un dolor de cabeza a muchísimas organizaciones.

Algoritmos

Los cambios también afectan a los algoritmos. El dominio de deep learning está captando mucha de la atención por parte de empresas y instituciones académicas. El profesional del dato debe conocer en cierta medida los principales avances (un buen resumen es éste). Y no dejado de evolucionar. Por ejemplo, ahora hay mucha atención en las redes neuronales generativas. Mantenerse al tanto requiere revisar artículos académicos, participar en eventos y meetups.

Así que el profesional de la analítica y del dato, no solo debe comprender el negocio, saber capturar, procesar, almacenar, analizar y visualizar el dato, sino que además debe aprender cada día un poco más. Todo un reto, ¿no?

Autor / Autora
Profesor de la los Estudios de Informática, Multimedia y Telecomunicación de la UOC. Especialista en inteligencia artificial (IA) y científico de datos. Actualmente dirige el Máster en Inteligencia de Negocio y Big Data Analytics (MIBA) de la UOC.
Comentarios
Deja un comentario