La tecnología progresa sin cesar y con ella proliferan los dispositivos conectados a la red, lo que hace que cada vez generemos y almacenemos cantidades más ingentes de datos. En este contexto se está produciendo un crecimiento espectacular en la diversidad de formatos de datos e información, también llamados Big Data.
Y es que, sencillamente, si una empresa no es capaz de manejar cantidades enormes de datos con eficacia y aprovechando esa información para mejorar, esto se traducirá en pérdida de productividad, de oportunidades y de beneficios. Existen muchas tecnologías destinadas a procesar y analizar grandes cantidades de información. Pero cuando Apache Hadoop entró en escena, todo cambió: por fin es posible escribir programas con facilidad y llevar a cabo análisis de datos a gran escala.
Este libro explica cómo trabajan juntas las numerosas partes del ecosistema Hadoop y cómo se pueden utilizar para construir soluciones adaptadas a la empresa. Aprenderá cómo realizar el diseño de datos y su impacto en la implementación, al mismo tiempo que verá cómo funciona MapReduce y cómo reformular problemas concretos. Encontrará ejemplos detallados de código Java que puede utilizar, derivados de aplicaciones que han sido construidas e implantadas con éxito.