In questo corso illustreremo:
- i modelli e le pratiche di data engineering per quanto riguarda il lavoro con soluzioni analitiche batch e in tempo reale utilizzando le tecnologie della piattaforma dati Azure.
- le tecnologie di calcolo e di archiviazione di base che vengono utilizzate per costruire una soluzione analitica.
- come progettare un livello di servizio analitico con considerazioni di data engineering per lavorare con i file di origine.
- come esplorare interattivamente i dati memorizzati nei file in un data lake
- le varie tecniche di data ingestion che possono essere utilizzate per caricare i dati utilizzando la capacità di Apache Spark presente in Azure Synapse Analytics o Azure Databricks, o utilizzando Azure Data Factory o Azure Synapse pipeline.
- i modi in cui possono trasformare i dati utilizzando le stesse tecnologie che vengono utilizzate per importare i dati.
- come monitorare e analizzare le prestazioni del sistema analitico in modo da poter ottimizzare le prestazioni dei data loads, o le query che vengono emesse contro i sistemi.
- come implementare la sicurezza per assicurare che i dati siano protetti at rest o in transit.
- come i dati in un sistema analitico possono essere utilizzati per creare dashboard o costruire modelli predittivi in Azure Synapse Analytics.
Questo corso è rivolto a data professionals, data architects e professionisti della business intelligence che vogliono imparare data engineering e la costruzione analytical solutions utilizzando le tecnologie della piattaforma dati che esistono su Microsoft Azure. Inoltre è rivolto a data analysts e data scientists che lavorano con soluzioni analitiche costruite su Microsoft Azure.
Per partecipare con profitto a questo corso gli allievi dovrebbero aver partecipato ai seguenti corsi oppure possedere competenze equivalenti:
AZ-900 – Azure Fundamentals
DP-900 – Azure Data Fundamentals
Module 1: Explore compute and storage options for data engineering workloads
Module 2: Design and implement the serving layer
Module 3: Data engineering considerations for source files
Module 4: Run interactive queries using Azure Synapse Analytics serverless SQL pools
Module 5: Explore, transform, and load data into the Data Warehouse using Apache Spark
Module 6: Data exploration and transformation in Azure Databricks
Module 7: Ingest and load data into the data warehouse
Module 8: Transform data with Azure Data Factory or Azure Synapse Pipelines
Module 9: Orchestrate data movement and transformation in Azure Synapse Pipelines
Module 10: Optimize query performance with dedicated SQL pools in Azure Synapse
Module 11: Analyze and Optimize Data Warehouse Storage
Module 12: Support Hybrid Transactional Analytical Processing (HTAP) with Azure Synapse Link
Module 13: End-to-end security with Azure Synapse Analytics
Module 14: Real-time Stream Processing with Stream Analytics
Module 15: Create a Stream Processing Solution with Event Hubs and Azure Databricks
Module 16: Build reports using Power BI integration with Azure Synpase Analytics
Module 17: Perform Integrated Machine Learning Processes in Azure Synapse Analytics
Sede | Data | P | ||
---|---|---|---|---|
Virtual | 03/07/2023 | |||
Virtual | 16/10/2023 |