Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução:
- Apache Spark em Hadoop Ecossistema
- Breve introdução para python, scala
Noções básicas (teoria):
- Arquitetura
- RDD
- Transformação e Ações
- Estágio, Tarefa, Dependências
Usando o ambiente Databricks, entenda o básico (workshop prático):
- Exercícios usando API RDD
- Funções básicas de ação e transformação
- ParRDD
- Juntar
- Estratégias de cache
- Exercícios usando API DataFrame
- FaíscaSQL
- DataFrame: selecionar, filtrar, agrupar, classificar
- UDF (função definida pelo usuário)
- Olhando para a API DataSet
- Transmissão
Usando o ambiente AWS, entenda a implantação (workshop prático):
- Noções básicas do AWS Glue
- Entenda as diferenças entre AWS EMR e AWS Glue
- Trabalhos de exemplo em ambos os ambientes
- Entenda prós e contras
Extra:
- Introdução à Apache Airflow orquestração
Requisitos
Conhecimentos de programação (de preferência python, scala)
SQL noções básicas
21 Horas
Declaração de Clientes (3)
Having hands on session / assignments
Poornima Chenthamarakshan - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
1. Right balance between high level concepts and technical details. 2. Andras is very knowledgeable about his teaching. 3. Exercise
Steven Wu - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Get to learn spark streaming , databricks and aws redshift