EN
0
Basket

Your basket is empty

background section

Big Data en Hadoop

Wat als je zoveel data te verwerken krijgt, dat de normale databasemanagementsystemen het niet meer aankunnen? Of dat de datastructuur niet meer overeenkomt met de traditionele data-architectuur? Daar sta je dan met je standaardanalysetechnieken. Gelukkig zijn er nu big data-producten, zoals Hadoop, die een antwoord bieden op jouw vragen. In deze opleiding leer je big data verwerken.
 
Inschrijvingsvoorwaarden
  • Training type

    Classical

  • Duration of training

    1 day

  • Available languages
    NL 
  • Training code

    318N

What do you learn?

  • Je kent de verschillende soort big data.
  • Met verschillende databasemanagementsystemen en programma’s blijf jij big data de baas.

Target group

Je wilt big data leren verwerken.

Required prior knowledge

Je volgde deze opleidingen:
  • ‘SQL’
  • ‘Databanken: theoretisch kader’

Overview of the programme

Situering data:
  • in het dagelijkse leven
  • in de wetenschap
  • in het bedrijfsleven
Big data:
  • 3V-model
  • Hoe groot is 'big'?
  • schaalbaarheid
  • in- en output bottleneck
  • random access
Relationele SQL DBMS:
  • achtergrond
  • transacties
  • gedistribueerde databases
  • CAP-theorema
  • two-phase commit
  • relationeel datamodel
  • caching
  • cases
NoSQL:
  • BASE
  • eventuele consistentie
  • multi version concurrency control (MVCC)
  • types
  • new SQL
MapReduce:
  • algoritme
  • eigenschappen
  • ontwerp richtlijnen
  • implementaties
  • toepassingsdomein
  • integratie met relationele DBMS
  • uitbreidingen
Gedistribueerde gegevensopslag:
  • Network File System
  • Google File System
  • Hadoop File System
  • Amazon Simple Storage Service (S3)
  • Facebook Haystack
Big data in de cloud:
  • cloudcomputing
  • Amazon Web Services
  • Google Cloud Platform
  • cases
Privacy & beveiliging:
  • privacywet
  • anonieme verwerking