[MÚSICA] [MÚSICA] you sabemos lo que es big data, you sabemos su importancia estratégica para negocio, sabemos su valor diferencial y su valor empresarial, por lo tanto, ¿qué necesitamos para poder capturar realmente el valor de los datos? Para poder capturar realmente el valor de big data. Pues para poder capturar el valor de big data debemos de resolver cinco grandes retos. El primer reto es darnos cuenta que las arquitecturas de información que tenemos actualmente no son suficientes. Los sistemas de información de las empresas única y exclusivamente a fecha de hoy permiten gestionar aplicaciones con datos estructurados, y no son capaces de procesar toda la información no estructurada y toda la nueva información como consecuencia de la explosión de datos digital, y tampoco son capaces de poderle hacer y poder escalar con grandes volúmenes a bajo coste. Para ello necesitamos incorporar nuevas arquitecturas big data a nuestros sistemas. Esas arquitecturas big data se construyen alrededor de un framework que se llama hadoop, que es la comunidad apache hadoop fue creada en el 2006 justamente como una comunidad que desarrolló un software open source que permite paralizar el procesamiento de datos y por lo tanto poder procesar esa información con nodos también de hardware commodity a muy bajo coste. Si estamos hablando hoy es porque alguien se inventó hadoop que se basa en el algoritmo que se llama [INAUDIBLE] y que gracias a ese software open source del cual no tenemos que pagar licencias, podemos acceder de manera muy, muy baja de coste a esta capacidad ingente de procesamiento. Por lo tanto, big data requiere nuevas arquitecturas tecnológicas basadas en el framework hadoop que fue el framework básico que hoy día ha evolucionado a otros componentes como pueden ser Spark, lo veremos más adelante en un módulo dedicado a los componentes tecnológicos de las arquitecturas big data. Pero lo más importante de entender que estas arquitecturas big data complementan y en algunos casos pueden sustituir a los sistemas de información tradicional como los data warehouse. Por lo tanto es muy importante definir las arquitecturas big data de referencia y ver cuál es el patrón de integración tecnológico con los sistemas existentes tanto a nivel de fuentes de datos operacionales, transaccionales como a nivel de explotación. Para poder hacer eso contamos con muchos componentes. La gran dificultad también de big data es poder seguir el ritmo de la innovación tecnológica. El sistema de partners es inmenso, pero la buena noticia es que existe software disponible a muy bajo coste para resolver cualquier problema y cualquier caso de uso, pero lo más importante es entender que te tienes que basar en una especie de componentes básicos para que todo eso pueda evolucionar a lo largo del tiempo a pesar de la innovación constante. Y esas piezas básicas va a ser hadoop para lo que sería las latencias en batch y Spark probablemente a nivel de tiempo real, aunque todos esos sistemas también están avanzados. Por lo tanto, el rol del director de IT de una organización, su primera preocupación va a estar siempre al día también de la innovación tecnológica. La ventaja de big data es que la prueba y error cuesta poco dinero, nos podemos equivocar y volver a empezar porque los sistemas son open source y el hardware es commodity. Por lo tanto hay un reto tecnológico importante, que es cuáles son los componentes que vamos a necesitar para resolver los casos de negocio. El segundo gran reto no es el ámbito de la arquitectura de la información, no es el ámbito del procesamiento que es lo que os acabo de contar, el segundo gran reto es el ámbito del análisis de los datos. Y como os decía, la segunda gran realidad es que el business intelligence you no es suficiente. El business intelligence se basa en poder analizar la información del pasado en base a unos entornos cerrados que son los data warehouse y únicamente para poder dar respuestas a preguntas conocidas. Ahora entorno de business intelligence no le puedes preguntar algo que no hubieras pensado antes. Si en tu informe mensual de ventas me dice las ventas por producto y por canal del mes anterior, yo no puedo preguntar las venta por producto, por canal, y por el color de ojos del cliente. Es algo que no había previsto, por lo tanto nunca me va a dar esta respuesta. La ventaja de evolucionar del business intelligence a la analítica avanzada del big data, lo que llamamos el data science es poder dar respuestas a preguntas conocidas pero también a preguntas no conocidas. Porque big data nos permite descubrir los patrones ocultos que hay detrás de la información. Por lo tanto la analítica avanzada y el data science nos permite pasar de gestionar nuestras empresas desde el presente hacia atrás con el retrovisor lo que you ocurrió y por lo tanto lo que you no puedo hacer nada con ello, que es el business intelligence del pasado, a lo que es la analítica avanzada del futuro que es del presente hacia adelante. Qué es lo que va a ocurrir, cómo lo puedo predecir, por lo tanto cómo puedo cambiarlo porque hoy se una información que puede influenciar en el comportamiento de mis clientes y en mi comportamiento como empresa, porque puedo hacer acciones de retención o desarrollar nuevas estrategias. Por lo tanto ese es el segundo gran reto en el ámbito analítico. El tercer gran reto es la consecuencia del anterior, para poder gestionar nuevas arquitecturas de big data con nuevos componentes, y para poder analizar la información de una manera distinta necesito nuevos perfiles, diríamos profesionales. De hecho el gran handicap hoy en día para desplegar big data en las organizaciones no es que la gente no entienda big data, no es que no le vea el valor, no es encontrar el budget, no es encontrar el sponsor, no es tener acceso a la tecnología que es barata sino es tener acceso al talento. Y para eso estáis aquí, para aprender a desarrollar nuevas habilidades que os permitan ser competitivos en un mundo que va a requerir personas que entiendan de las tecnologías de big data, personas que entiendan de datos, gente capaz de analizar los datos y sacarles patrones de comportamiento para el gran negocio tomar decisiones y por supuesto también directivos que aprendan a tomar decisiones basadas en datos. Existen tres nuevas profesiones que son claves para desplegar big data, el arquitecto big data que es quién tiene que desplegar, mantener y diseñar las arquitecturas de big data capaces para poder procesar y analizar esta información de todo tipo de múltiples fuentes. El ingeniero big data que es el que se encarga de provisionar las fuentes de datos tantas internas como externas y de prepararlas para su análisis. Y el científico de datos que es quien va a ser capaz de aplicar técnicas analíticas avanzadas, machine learning, big learning, en el futuro inteligencia artificial para poder desarrollar patrones y algoritmos predictivos que llevan a tomar y dar valor al negocio. Otra figura también muy importante es el del visualizador de datos, que es que nos va a ayudar a poner los datos de tal manera que la mente humana las pueda capturar, las pueda entender y las pueda accionar. En una cuarta fase, big data tiene un reto muy importante que es el del gobierno de datos. Cuando estamos hablando de big data, hablamos de poder disponibilizar todos los datos a la organización en lo que llamamos los data lakes, los lagos de datos. Sacar la información de los hilos y ponerla en el mismo sitio, independientemente de su formato, independientemente de donde vengan para poderlos tener accesibles a todo el negocio y a partir de ahí desarrollar nuestra estrategia de análisis. Pues bien, los lagos de datos deben de estar gobernados porque si no serían vertederos de datos con muchos riesgos a nivel legislativo, sino sabemos quién hace qué con los datos en cada momento. Por lo tanto necesitamos definir políticas de gobierno y políticas de seguridad alrededor de los datos, a nivel corporativo y que se implementan en procesos a nivel técnico que tienen que ver con la manera que nosotros vamos a gestionar los entornos de desarrollo de los modelos y también los entornos productivos de esos modelos analíticos. Y por último y por el hecho de que os decíamos antes que big data ha tenido un impacto tecnológico, pero sobre todo lo tiene en el ámbito del negocio, negocio debe liderar la estrategia de big data porque detrás de big data hay lo que llamamos casos de uso, es decir en qué departamentos, para qué tipos de problemas, en qué ambitos debo aplicar big data. Por lo tanto lo primero que hacemos, lo primero que deberíamos hacer en cualquier organización es identificar los casos de uso de negocio. ¿Para qué quiero big data? ¿Para qué lo quiere el departamento comercial, para qué lo quiere el departamento financiero, para qué lo quiere el departamento de producción o el de logística? Y una vez tengamos todas las necesidades de big data y todos los casos de uso potenciales, debemos priorizarlos en base a las prioridades de negocio. Y es solamente cuando tenemos esa hoja de ruta, ese road map de los casos de uso priorizados, cuando podemos desplegar nuestras estrategias de provisionamiento de datos y de arquitectura, porque la arquitectura big data es una arquitectura bottom up, se construye de abajo a arriba a partir de los casos de uso. Por ejemplo, no tengo por qué poner en marcha una arquitectura big data que requiera un componente de análisis de datos a tiempo real sino existe un caso de uso que aproveche esas capacidades de tiempo real. Ni tampoco lo que puede ocurrir es que el negocio tenga un proyecto muy interesante, que le de un retorno de inversión por ejemplo reducción de riesgos, y que cuando vayas al departamento IT y le pidas un dato no lo tenga, o cuando le pidas un componente necesario para ese caso de uso lo tenga planificado para el año siguiente. Por lo tanto es muy importante la alineación de toda la recesión alrededor de la estrategia de big data, donde negocio debe priorizar los casos de uso y deben ser los departamentos de tecnología, los de provisionamiento de datos y los analíticos los que deben desarrollar estrategias después de que negocio haya definido sus prioridades. Esos son los cinco grandes retos más importantes para que podamos aprovechar realmente el valor potencial de big data en nuestras empresas. [MÚSICA] [MÚSICA]