Erwerben Sie in diesem Training ein Grundverständnis über die Funktionsweise von Spark auf einem Hadoop-Cluster und nutzen Sie Python, um Datenmanagement, ETL und Machine Learning Anwendungen darauf auszuführen. Über Hadoop als Basissystem hinweg, lernen Sie sich in der Big-Data Systemlandschaft zurechzufinden und die einzelne Module, deren Einsatzszenarien und grundsätzlichen Funktionsweisen zu benennen. Lernen Sie die dabei Vorzüge von Spark-DataFrames kennen und manipulieren Sie diese mit den gewohnten Funktionen aus dem Pandas Paket oder mit SQL-Anweisungen. Innerhalb des Trainings werden Sie die Machine Learning Verfahren der nativen Spark Bibliothek MLlib ausführen und diese mit den DeepLearning Verfahren aus den externen Bibliotheken ergänzen. Erfahren Sie außerdem, welche Datentypen und Datenbanksysteme Sie für die Anwendung von Spark benötigen und wie diese mit den Hadoop Systemkomponenten interagieren. Nach dem Kurs sind Sie in der Lage Pythonskripte zu erstellen, die auf einem Spark-Rechencluster ausführbar sind. Sie werden dabei ein tieferes Verständnis für die grundlegenden Funktionsweisen von Rechenclustern haben und können Ihre Skripte durch Spark und Hadoop Anweisungen konfigurieren.
Grundlegende Programmiererfahrung in Python sollte vorhanden sein.
Training am eigenen Laptop
(Softwarevoraussetzungen und Installationsanleitung erhalten Sie im Vorfeld)
Python Interessierte mit und ohne Programmiererfahrung, Data Scientists, Datenanalysten, Statistiker, Mathematiker, Researcher.