Hadoop a spracovanie veľkého objemu dát – realita verzus potenciál

12. 06. 2013 | Komentáre čitateľov [0]

Spracovanie veľkých objemov dát je v dnešnej dobe veľkou výzvou. Po predstavení rámca Map/Reduce spoločnosťou Google sa táto výzva relatívne zjednodušila. Podľa vzoru Map/Reduce vzniklo viacero implementácií (komerčných aj voľne stiahnuteľných), ktoré ponúkajú analytikom, manažérom a ľudom v rôznych riadiacich pozíciách prehľady získané s veľkých dát skoro už v reálnom čase. Predstavíme si potenciál jednej z voľne stiahnuteľných implementácií paradigmy Map/Reduce – Apache Hadoop a povieme si ako ju firmy pracujúce s veľkými dátami (Facebook, Yahoo!, a iné) použili vo svojich prostrediach.

Martin Šeleng, Ústav Informatiky, Slovenská akadémia vied

Tento článok vyžaduje prihlásenie. Prihláste sa prosím.
Ak ešte nie ste zaregistrovaný, zaregistrujte sa.

Znalosti ako najdôležitejšie aktívum modernej organizácie

7.11.2019, Bratislava

  • Znalostný manažment – praktiky, technológie a praktické príklady
  • Learning Management System
  • Budoucnost organizací a jak se na ni připravit
  • Umelá inteligencia a znalosti

13. ročník konferencie Projektový manažment: Hybridné projektové riadenie – stratégia v praxi

22.-23.10.2019, Bratislava

Tri predkonferenčné workshopy
Hybridné projektové riadenie