Работа с компонентами экосистемы Hadoop — использование библиотек, фреймворков программной среды, а также других её составляющих для обработки больших объёмов данных. Data-инженеры владеют возможностями Hadoop для упрощения работы с Big Data. Они применяют в качестве инструментов HDFS, Mapreduce, Hive, Hbase, Zookeeper, Sqoop, Mahout и другие компоненты.
Программа курса
Онлайн-курс познакомит вас с особенностями работы с экосистемой Hadoop и Spark-приложениями, после чего вы закрепите полученные знания на практике и разработаете ETL-систему в качестве итогового проекта.