it innovations.de

Big Data und Hadoop Grundlagen - Schulung

Big Data and Hadoop Basics

Seminar Beschreibung Kurzbeschreibung

In diesem zweitägigen Grundlagenworkshop wird ein Überblick der neuen Technologien aus dem Big Data Umfeld gegeben. Dies beinhaltet sowohl die Einführung in Begrifflichkeiten aus dem Big Data Umfeld und NoSQL Datenbanken als auch einen sehr starken Fokus auf die gesamte Hadoop Plattform.

 

Ziel dieses Workshops ist es Teilnehmern einen Überblick über Möglichkeiten, Einsatzfelder aber auch Grenzen der neuen Technologien zu verschaffen. Zudem wird eine praxisorientierte Einführung in die wichtigsten Werkzeuge und Frameworks von Hadoop vermittelt.

Seminar Voraussetzungen Voraussetzungen

  • Es sind Grundkenntnisse in objektorientierter Programmierung notwendig. Vorkenntnisse in funktionaler Programmierung sind hilfreich aber nicht notwendig. Es werden Beispiele in Python, Java, SQL und Scala besprochen mit Übungen für die Teilnehmer.

Seminar Technikinfo Informationen zur Technologie

Der Begriff Big Data bedeutet große Datenmengen (Massendaten), die schnell wachsen und sich stetig verändern. Es bedeutet auch die Verarbeitung durch IT-Lösungen und Systeme wie Hadoop, die Unternehmen dabei helfen die Informationsflut aufschlussreich für effiziente Unternehmensergebnisse nutzen zu können. Big Data-Lösungen sind fähig große Mengen von strukturierten und unstrukturierten Daten zu erfassen, zu verwalten und zu analysieren.

 

Seminar Beschreibung Inhalt

Einführung

• Verständnis und Definition des Begriffs "Big Data". Was ist damit gemeint?

• Was ist das Neue an Big Data

 

Grundlagen der technologischen Komponenten und Architekturen von Big Data

• Entwicklung eines Verständnis für Big Data Architekturen

• Vorstellung der Hadoop Plattform als zentrales Werkzeug

 

Hadoop Kernkomponennten

• Erläuterung des Hadoop Filesystems (HDFS) mit praktischer Übung

• Erläuterung von Map/Reduce mit praktischer Übung in Python und Hadoop Streaming

• Beispiel von Map/Reduce in Java mit praktischer Übung

 

Wichtige Hadoop Werkzeuge

• Apache Pig mit praktischer Übung

• Einführung in SQL (sofern notwendig)

• Apache Hive und praxisbezogene Übungen

• Cloudera Impala und praktische Übungen

 

Apache Spark

• Einführung in Scala (sofern notwendig)

• Apache Spark mit RDDs mit praktischer Übung

• Apache Spark mit DataFrames und praktische Übungen

 

Möglichkeiten zum Deployment von Hadoop

• Verständnis der Begrifflichkeiten on premis, Appliance, IaaS, PaaS, SaaS, DaaS

• Wesentliche Technologieanbieter und deren Dienste

• Eigenes Verständnis und strategische Überlegungen der eigenen Wertschöfpungstiefe

 

NoSQL Datenbanken

• Überblick zu NoSQL Datenbanken und deren wichtigste Vertreter

• Praktische Übungen zu HBase

 

 

• Einführung in den Begriff „Big Data“. Was meint dieser? Was ist das Neue?

• Grundlagen der technologischen Architektur: Hadoop, NoSQL Datenbanken

• Big Data & Cloud

• Überblick über die gängigsten Data Mining Verfahren, zusammen mit typischen Anwendungsszenarien

• Big Data Projekt-Planung

• Big Data & Gesellschaft

Seminar Ziel Ziel

Workshop für Entwickler und Analysten, um Big Data Grundlagen im von Hadoop
Architekturen zu erlernen.

Seminar Zielgruppe Zielgruppe

  • Diese Schulung richtet sich sowohl an Softwareentwickler als auch an Mitarbeiter, die mit der Datenanalyse befasst sind (Data Scientist und Business Analyst).

offene Schulung

Eine offene Schulung findet in einem unserer Schulungszentren statt.
Dauer: 2 Tage
Preis: 1.450,00 € zzgl. USt. pro Teilnehmer
(1.725,50 € inkl. USt.)
Seminarstandorte:
Start-Termine: (Ortsabhängig)
Unterlagen:
Verpflegung:
Prüfung:

Firmenschulung

Eine Firmenschlung kann sowohl bei Ihnen vor Ort als auch in einem unserer Schulungszentren stattfinden.
Dauer: 2 Tage
Preis ab: 1.595,00 € zzgl. USt. pro Tag
(1.898,05 € inkl. USt.)
Schulungszentren:
  • Berlin
  • Düsseldorf
  • Frankfurt
  • Hamburg
  • München
  • Nürnberg
Unterlagen: zzgl.
Verpflegung: zzgl.
Prüfung: zzgl.
alle Preise verstehen sich zzgl. Reisekosten/Spesen
Big Data Hadoop Spark Hive Impala Cloudera
Artikelnummer: 2015000218

Structured Query Language (SQL). Eine Datenbanksprache zur Definition von Datenstrukturen in relationalen Datenbanken sowie zum Bearbeiten (Einfügen, Verändern, Löschen) und Abfragen von Datenbeständen.

Ein Framework (englisch für Rahmenstruktur) ist ein Programmiergerüst das oft bei objektorientierter Softwareentwicklung verwendet wird. Ein Framework ist selbst noch kein fertiges Programm, sondern stellt den Rahmen zur Verfügung, innerhalb dessen der Programierer eine Anwendung erstellt.

Als (Daten-) Stream bezeichnet man die Darstellung von Operationen beim Data Mining über eine Reihe von Knoten (Knotenreihe). Die Verbindung zwischen den Knoten gibt die Richtung des Datenflusses an. Datenstreams werden bei IBM SPSS Modeller in der Regel zum Einlesen von Daten, um Daten einer Reihe von Bearbeitungen zu unterziehen und um Daten an eine definierte Zieltabelle zu senden, verwendet.