Nel corso MICROSOFT DP-200T01: Implementing an Azure Data Solution, gli studenti implementeranno varie tecnologie Data Platform in soluzioni allineate con requisiti aziendali e tecnici specifici, tra cui scenari con dati locali, cloud e ibridi che includano sia dati relazionali che NoSQL.
Gli studenti impareranno anche come elaborare i dati utilizzando varie tecnologie sia per i dati in streaming che in batch. Scopriranno inoltre come implementare la protezione dei dati, approfondendo argomenti come l’autenticazione, le autorizzazioni, i criteri e gli standard applicabili ai dati.
Saranno quindi in grado di definire e implementare il monitoraggio delle soluzioni dati sia per le attività di archiviazione che per quelle di elaborazione dei dati.
Durante il corso impareranno a gestire e risolvere i problemi delle soluzioni di dati di Azure, occupandosi tra l’altro dell’ottimizzazione, del ripristino di emergenza di big data, dell’elaborazione in batch e di soluzioni con dati in streaming.
Questo corso è principalmente destinato ai professionisti che si occupano di dati, agli architetti di dati e agli esperti di business intelligence che desiderano conoscere meglio le tecnologie Data Platform disponibili in Microsoft Azure.
Tuttavia, è pensato anche per chi sviluppa applicazioni che forniscono contenuto ottenuto dalle tecnologie Data Platform disponibili in Microsoft Azure.
Modulo 1: Azure per i progettisti dati
- Illustrare la realtà dei dati in evoluzione
- Esaminare i servizi in Azure Data Platform
- Identificare le attività generalmente eseguite da un ingegnere dati
- Descrivere i casi d’uso per il cloud mediante un case study
Modulo 2: Utilizzare gli archivi dati
- Scegliere un approccio all’archiviazione dei dati in Azure
- Creare un account di archiviazione Azure
- Illustrare Azure Data Lake Storage
- Caricare i dati in Azure Data Lake
Modulo 3: Attivare Data Science in base a Team con Azure Databricks
- Illustrare Azure Databricks
- Utilizzare Azure Databricks
- Leggere i dati con Azure Databricks
- Eseguire conversioni con Azure Databricks
Modulo 4: Creare database distribuiti in modo globale con Cosmos DB
- Creare un database Azure Cosmos DB che possa essere ridimensionato
- Inserire i dati e ricercarli in un database Azure Cosmos DB
- Creare un’app .NET Core per Cosmos DB utilizzando il codice di Visual Studio
- Distribuire in modo globale i dati con Azure Cosmos DB
Modulo 5: Utilizzare gli archivi dati relazionali nel cloud
- Utilizzare un database SQL di Azure
- Descrivere Azure SQL Data Warehouse
- Creare ed eseguire query in Azure SQL Data Warehouse
- Utilizzare Polybase per caricare dati in Azure SQL Data Warehouse
Modulo 6: Eseguire analisi in tempo reale con Analisi di flusso
- Illustrare i flussi di dati e il monitoraggio degli eventi
- Inserire i dati con Hub eventi
- Elaborare i dati con i processi di Analisi di flusso
Modulo 7: Orchestrare la movimentazione dei dati con Azure Data Factory
- Illustrare il funzionamento di Azure Data Factory
- Componenti di Azure Data Factory
- Azure Data Factory e Azure Databricks
Modulo 8: Proteggere le piattaforme dati di Azure
- Introduzione alla sicurezza
- Componenti principali della sicurezza
- Proteggere gli account di archiviazione e Data Lake Storage
- Proteggere gli archivi di dati
- Proteggere i dati dei flussi
Modulo 9: Monitorare e risolvere i problemi relativi all’archiviazione e all’elaborazione dei dati
- Illustrare le funzionalità di monitoraggio disponibili
- Risolvere i problemi più comuni associati all’archiviazione dei dati
- Risolvere i problemi più comuni associati all’elaborazione dei dati
- Gestire il ripristino di emergenza
Oltre ad avere un’esperienza a livello professionale, gli studenti che decidono di seguire questo corso devono possedere le conoscenze tecniche che si acquisiscono tramite il corso Azure Fundamentals.