- Bietet einen umfassenden Überblick zum Umgang mit großen Datenmengen.
- Erläutert verständlich die zentralen Big-Data- Konzepte und zeigt deren Möglichkeiten und Grenzen auf.
- Illustriert die Datenspeicherung mit skalierbaren NoSQL-Systemen und zeigt die verteilte Verarbeitung mit Batch-, Micro-Batch- und modernen Streaming-Verfahren.
- Beschreibt anwendungsorientiert, wie moderne Datenplattformen entwickelt und durch Künstliche Intelligenz erweitert werden können.
- Ihr exklusiver Vorteil: E-Book inklusive beim Kauf des gedruckten Buches
Mit diesem Buch erhalten Sie einen praxisnahen und technologieunabhängigen Einstieg in den Umgang mit großen Datenmengen. Zahlreiche Beispiele werden mit gängigen Open-Source-Werkzeugen und modernen Container-Technologien (Docker) umgesetzt, sodass Sie Ihr neu erworbenes Wissen gleich ausprobieren können und der Umgang mit kommerziellen Produkten ebenfalls problemlos möglich wird. Das Buch startet mit den Herausforderungen, die sich durch die verteilte Verarbeitung von Daten ergeben, sobald diese nicht mehr auf einen Rechnerknoten passen. Sie lernen, wie Sie Big-Data-Analytics mit Verarbeitungsparadigmen wie Batch-, Micro-Batch- und Stream-Verarbeitung praktisch umsetzen können; ebenso wird auf die Vor- und Nachteile von NoSQL-Datenbanken eingegangen. Einblicke zur Visualisierung von Analyseergebnissen, in zufallsbasierte Big-Data-Algorithmen sowie in Referenz-Architekturen für den Aufbau skalierbarer Big-Data-Systeme runden das Buch ab. Dieses Lehrbuch und Nachschlagewerk ist ein verlässlicher Begleiter für Studium, Ausbildung und berufliche Praxis.
AUS DEM INHALT //
- Einstieg ins Thema
- Verteilte Systeme
- Big-Data-Management
- Data Warehouse, Data Lake(house), Data Mesh
- NoSQL
- Verarbeitungsparadigmen
- Systemarchitekturen
- Algorithmen und Datenanalyse
- Visualisierung
- Systementwicklung, -test und -betrieb
- KI-Anwendungen
- Ausblick