Partner merytoryczny

Szkolenie z najszybciej rozwijającego się projektu Big Data ostatnich lat.
Ponad 100 osób przeszkolonych z tego tematu w ciągu ostatniego roku.

93,7% pozytywnych ocen
dotychczasowych realizacji szkolenia.

Temat realizowany na warsztatach w Monachium i Berlinie Q3 2016.

Adresaci szkolenia

Szkolenie jest przeznaczone głównie dla programistów i analityków danych, którzy chcą się zapoznać z podstawami przetwarzania Big Data, bardzo dużych zbiorów danych przekraczającej możliwości tradycyjnego przetwarzania, z użyciem narzędzi z rodziny Apache Spark. Szkolenie stanowi zarówno dobrą podstawę dla osób pragnących zacząć pracę z Big Data, jak i osób z uprzednim doświadczeniem w tego typu systemach, np. rodziny Apache Hadoop, pragnących nauczyć się nowej technologii.

Cel szkolenia

Uczestnicy szkolenia zapoznają się z nowym problemem jakim jest analiza bardzo dużych zbiorów danych (Big Data) z różnych źródeł. Na szkoleniu przedstawiony zostanie podstawowy zbór problemów Big Data i ich rozwiązania z pomocą narzędzi rodziny Apache Spark. Ponadto, uczestnicy będą świadomi zalet i wad Apache Spark w podejściu do ich rozwiązania ich problemów biznesowych. Dodatkowo, kurs pozwala uczestnikom na zapoznanie się z szybko zmieniającą się dziedziną jaką jest Big Data i nowym podejściem do rozwiązywania problemów jaki prezentuje Apache Spark.

Mocne strony szkolenia

Szkolenie jest prowadzone przez osoby na co dzień pracujące z problemami Big Data i mającymi praktyczne doświadczenie w tej dziedzinie. Z tego powodu szkolenie często wykracza poza dostępne choć często rozproszone materiały. Ponadto, program jest ciągle uaktualniany ze względu na szybki rozwój rozwiązań, których dotyczy szkolenie.

Wymagania

Szkolenie wymaga podstawowej umiejętności programowania w Javie (zakres szkolenia: J/JP), Scali (zakres szkolenia: J/SCL) lub Pythonie (zakres szkolenia: PT/PP); preferowanym językiem szkolenia jest Scala. Przydatne umiejętności: znajomość zagadnień związanych z przetwarzaniem danych, programowanie funkcjonalne, przetwarzanie rozproszone, systemy *nix.

Parametry szkolenia

2 dni robocze, 2*7 godz roboczych, grupa 8-10 osób. Szkolenie w formie prezentacji i warsztatów programistycznych.

Program szkolenia

  1. Wstęp do BigData
    1. Definicja
    2. Czym jest BigData?
    3. Geneza i historia BigData
    4. Strony w projektach BigData
    5. Problemy BigData
    6. Typy przetwarzania BigData
      • Wsadowe
      • Strumieniowe
  2. Apache Spark
    1. Wstęp
    2. Historia
    3. Spark a Hadoop
    4. Paradygmat programowania MapReduce
    5. Rozproszone kolekcje obiektów  Resilient Distributed Datasets (RDDs)
    6. Przetwarzanie w pamięci a z dysku
    7. Architektura
    8. Warianty uruchomienia klastra
      • Własny klaster Spark
      • Apache Mesos
      • Apache YARN
    9. Administracja
  3. Spark Core
    1. Wstęp
    2. Java vs Spark vs Python
    3. Łączenie z klastrem
    4. Rozproszone dane
    5. Operacje RDD
      • Transformacje
      • Akcje
    6. Współdzielone zmienne
    7. Uruchomienie i testowanie
    8. Dostrajanie zadań
      • Serializacja
      • Pamięć
  4. Spark SQL
    1. Wstęp
    2. Spark SQL a Hive
    3. Zasada działania
    4. Dane i schematy
    5. Zapytania
    6. Integracja z Hive
    7. Uruchomienie i testowanie
  5. Spark Streaming
    1. Wstęp
    2. Zasada działania
    3. Strumienie
      • Wejście
      • Transformacja
      • Wyjście
    4. Uruchomienie i testowanie
  6. Pozostałe komponenty rodziny Apache Spark
    1. MLlib
    2. GraphX

Pytania?

* Wymagane.
** Szczegóły promocji w Regulaminie.


Konsultant on-line
Skorzystaj z usług naszego konsultanta on-line.
Naciśnij przycisk ‘Skorzystaj’ aby przejść do okienka czatu
Kontakt
ul. Nowogrodzka 62c
02-002 Warszawa
Telefon +48 22 2035600
Fax +48 22 2035601
Email