Adresaci szkolenia:

Szkolenie jest adresowane do programistów, architektów oraz administratorów aplikacji, którzy chcą tworzyć lub utrzymywać hurtownie danych (DWH) z wykorzystaniem Pentaho Business Intelligence Suite.

Cel szkolenia:

Uczestnicy szkolenia zdobędą przekrojową wiedzę dotyczącą projektowania, implementowania, monitorowania, uruchamiania, strojenia procesów i elementów hurtowni danych, poznają ogólne założenia hurtowni danych tj. najpopularniejsze schematy relacyjnych hurtowni danych. Dzięki temu będą mogli wybrać właściwy zestaw narzędzi i technik dla swoich projektów. Szkolenie, poza ogólnym wprowadzeniem do pojęć teoretycznych, skupia się na stosie produktowym wybudowanym wokół Pentaho Business Intelligence Suite.

Mocne strony szkolenia:

Program obejmuje zarówno ogólne wprowadzenie w tematykę ETL, DWH, OLAP, jak i całościowe przedstawienie stosu produktowego Pentaho Business Intelligence. Szkolenie jest unikalne, gdyż tematyka poruszana w jego trakcie nie jest wyczerpująco ujęta w dostępnej literaturze, a wiedza na ten temat jest mocno rozproszona. Program jest ciągle uaktualniany ze względu na szybki rozwój rozwiązań, których dotyczy szkolenie.

Wymagania:

Od uczestników wymagana jest podstawowa znajomość baz danych, podstawowa umiejętność programowania w języku Java.

Parametry szkolenia:

5*8 godzin (5*7 netto) wykładów i warsztatów, z wyraźną przewagą warsztatów. W trakcie warsztatów, oprócz prostych ćwiczeń, uczestnicy rozwiązują problemy przetwarzania danych, implementując własne procesy ETL, modelują struktury hurtowni danych, wykonują podstawowe czynności administracyjne.

Program szkolenia

  1. Wprowadzenie do hurtowni danych i platformy Pentaho BI Suite
    1. OLTP, OLAP, bazy danych, hurtownie danych, data marty
    2. ROLAP, MOLAP, HOLAP
    3. Normalizacja, agregacja, fakty, wymiary
    4. SQL, MDX, XML/A
    5. ETL i integracja offline
    6. BigData, BigTable, NoSQL, nierelacyjne hurtownie danych
    7. Architektura i składowe Pentaho BI Suite
    8. Business intelligence a hurtownie danych
  2. Fizyczne struktury danych w hurtowni danych
    1. Tabele faktów i tabele wymiarów
    2. Indeksy, widoki, widoki zmaterializowane
    3. ROLAP w szczegółach: schemat gwiazdy, płatka śniegu, konstelacji faktów
    4. Testy wydajności ROLAP: The TPC Benchmark H
    5. ROLAP vs MOLAP
    6. Metody optymalizacji szczególnie przydatne w przypadku hurtowni danych
    7. Wykorzystanie Pentaho Aggregate Designer do optymalizacji hurtowni danych
    8. Znaczenie wymiaru czasu w hurtowniach danych
    9. Dziedzinowe hurtownie danych a dedykowane struktury danych np.: GeoSpatial DWH
  3. Zasilanie hurtowni danych z wykorzystaniem Pentaho Data Integration (PDI)
    1. ETL
      1. Ekstrakcja danych
      2. Transformacja, oczyszczenie i uzupełnianie danych
      3. Ładowanie
      4. Wyznaczniki i ocena jakości danych
      5. Stage’ing
      6. Hurtownie czasu rzeczywistego
      7. Kwestie wydajnościowe w kontekście procesów ETL
      8. Przegląd narzędzi ETL dostępnych na rynku
    2. Pentaho Data Integration
      1. Architektura
      2. Składowe
    3. Praca ze Spoon
      1. Instalacja, uruchomienie, Look&Feel (perspektywy, zakładki etc.)
      2. Zmienne
      3. Hop’y
      4. Praca z repozytorium i plikami XML
      5. Współdzielenie obiektów tj. połączenia z bazami danych, partycje, klastry
      6. Czytanie i zapisywanie danych z różnych źródeł danych
      7. Transformacje
        • Walidacja danych
        • Uzupełnianie danych
        • Transformacja danych
        • Optymalizacja
        • Wykorzystanie własnego kodu w transformatach
        • Utlilities
        • Monitorowanie wydajności i analiza logów
        • Wersjonowanie i praca grupowa
      8. Zadania
        • Zadania (kjb) a transformacje (ktr)
        • Tworzenie złożonych zadań
        • Wykorzystanie własnego kodu w zadaniach
        • Przepływ pracy
        • Praca z plikami
        • Monitorowanie wydajności i analiza logów
        • Wersjonowanie i praca grupowa
    4. Praca z Kitchen i Pan
      1. Uruchamianie zadań i transformat z plików i z repozytorium
      2. Scheduling
      3. Obsługa błędów
      4. Przekierowanie wejścia/wyjścia
    5. Praca z Cartle
  4. Analityka z wykorzystaniem OLAP oraz Pentaho Analysis Services (Mondian)
    1. Definiowanie kostek OLAP na hurtowni danych
    2. Pentaho Schema Workbench (PSW)
    3. Model logiczny i model fizyczny
      1. kostki
      2. miary
      3. wymiary, hierarchie, levele
      4. tabele
      5. relacje
      6. agregaty
      7. wyrażenia
    4. MDX w szczegółach
    5. peracje Slice, Dice, Drill na kostkach
    6. Optymalizacja na potrzeby OLAP
  5. Raportowanie danych zgromadzonych w hurtowni danych z wykorzystaniem Pentaho Report Designer (PRD)
    1. Definiowanie raportów za pomocą PRD
      1. Źródła danych
      2. Modelowanie zapytań
      3. Wydobywanie danych
      4. Zawężanie i filtrowanie wyników
      5. Wizualizacja danych na raporcie
    2. Osadzanie raportów
    3. Eksport do PDF, HTML, RTF etc.
    4. Report Wizard
  6. Raportowanie i analiza ad-hoc
    1. Pentaho BI Platform/Portal (BA Platform)
    2. Pentaho Interactive Reporting (PIR)
    3. Pentaho Metadata Editor (PME)
    4. Pentaho Analyzer (PAZ)
  7. Kokpity i dashboardy managerskie na danych zgromadzonych w hurtowni danych z wykorzystaniem Pentaho Dashboard Designer (PDD)
    1. Definiowanie dashboardów za pomocą PDD
      1. Praca z wykresami - simple bar, line, area, pie, dial charts
      2. Praca z tabelami
      3. Praca z raportami
      4. Parametry
      5. Szablony
    2. Osadzanie dashboardów
  8. Eksploracja danych zgromadzonych w hurtowni danych z wykorzystaniem Pentaho Data Mining (WEKA)
    1. Architektura
    2. Praca z Explorer’em
    3. Preprocessing i praca z danymi
      1. Format danych ARFF
      2. Przygotowanie danych do analizy
      3. Odpowiedni dobór atrybutów np.: korelacja atrybutów a wyniki eksploracji danych etc.
      4. Filtrowanie i rodzaje filtrów w WEKA np.: filtrowanie, dyskretyzacja, normalizacja etc.
      5. Wizualizacja
      6. Przetwarzanie dużych zbiorów danych, ograniczenia JVM 32bit
      7. Przetwarzanie strumieni oraz uczenie przyrostowe
    4. Eksploracja danych
      1. Klasyfikacja
      2. Grupowanie
      3. Odkrywanie reguł asocjacyjnych
      4. Ograniczanie i transformacja przestrzeni atrybutów
      5. Pozostałe algorytmy i techniki eksploracji danych dostępne w WEKA
    5. Rozbudowa możliwości WEKA
    6. Wykorzystanie możliwości w połączeniu z innymi produktami Pentaho
  9. Pentaho Mobile BI

Pytania?

* Wymagane.
** Szczegóły promocji w Regulaminie.


Konsultant on-line
Skorzystaj z usług naszego konsultanta on-line.
Naciśnij przycisk ‘Skorzystaj’ aby przejść do okienka czatu
Kontakt
ul. Nowogrodzka 62c
02-002 Warszawa
Telefon +48 22 2035600
Fax +48 22 2035601
Email