DP-200T01: Implementing an Azure Data Solution

Cas Training > Nuestros cursos > DP-200T01: Implementing an Azure Data Solution
Icono Duración del curso
Duración del curso
15 horas | 3 días
Lugar de impartición
Madrid / Online
Icono modalidad del curso
Modalidad
Virtual
Icono Fecha del curso
Fecha de inicio
Próximamente

Acerca del curso

En este curso, los estudiantes implementarán diversas tecnologías de plataforma de datos en soluciones que estén en línea con los requisitos comerciales y técnicos, incluidos escenarios de datos locales, en la nube e híbridos que incorporen datos relacionales y sin SQL. También aprenderán cómo procesar datos utilizando una variedad de tecnologías e idiomas para la transmisión de datos y lotes.

Los estudiantes también explorarán cómo implementar la seguridad de los datos, incluida la autenticación, autorización, políticas y estándares de datos. También definirán e implementarán el monitoreo de la solución de datos tanto para el almacenamiento de datos como para las actividades de procesamiento de datos. Finalmente, administrarán y solucionarán las soluciones de datos de Azure que incluyen la optimización y la recuperación ante desastres de big data, procesamiento por lotes y soluciones de transmisión de datos.

Próximas convocatorias

Estamos preparando nuevas convocatorias. Déjanos tus datos a través del formulario y te avisaremos lo antes posible.

Objetivos

  • Trabaje con almacenamiento de datos
  • Habiliten de la ciencia de datos basada en equipo con Azure Databricks
  • Cree de bases de datos distribuidas globalmente con Cosmos DB
  • Trabaje con almacenes de datos relacionales en la nube
  • Realice de análisis en tiempo real con Stream Analytics
  • Orqueste el movimiento de datos con Azure Data Factory
  • Asegure las plataformas de datos de Azure
  • Monitoree y solucione de problemas de almacenamiento y procesamiento de datos
  • Integre y optimice plataformas de datos

Contenidos

  • Azure for the Data Engineer
    • Explain the evolving world of data
    • Survey the services in the Azure Data Platform
    • Identify the tasks that are performed by a Data Engineer
    • Describe the use cases for the cloud in a Case Study
  • Working with Data Storage
    • Choose a data storage approach in Azure
    • Create an Azure Storage Account
    • Explain Azure Data Lake storage
    • Upload data into Azure Data Lake
  • Enabling Team Based Data Science with Azure Databricks
    • Explain Azure Databricks
    • Work with Azure Databricks
    • Read data with Azure Databricks
    • Perform transformations with Azure Databricks
  • Building Globally Distributed Databases with Cosmos DB
    • Create an Azure Cosmos DB database built to scale
    • Insert and query data in your Azure Cosmos DB database
    • Build a .NET Core app for Cosmos DB in Visual Studio Code
    • Distribute your data globally with Azure Cosmos DB
  • Working with Relational Data Stores in the Cloud
    • Use Azure SQL Database
    • Describe Azure SQL Data Warehouse
    • Creating and Querying an Azure SQL Data Warehouse
    • Use PolyBase to Load Data into Azure SQL Data Warehouse
  • Performing Real-Time Analytics with Stream Analytics
    • Explain data streams and event processing
    • Data Ingestion with Event Hubs
    • Processing Data with Stream Analytics Jobs
  • Orchestrating Data Movement with Azure Data Factory
    • Explain how Azure Data Factory works
    • Azure Data Factory Components
    • Azure Data Factory and Databricks
  • Securing Azure Data Platforms
    • An introduction to security
    • Key security components
    • Securing Storage Accounts and Data Lake Storage
    • Securing Data Stores
    • Securing Streaming Data
  • Monitoring and Troubleshooting Data Storage and Processing
    • Explain the monitoring capabilities that are available
    • Troubleshoot common data storage issues
    • Troubleshoot common data processing issues
    • Manage disaster recovery
Compartir:

Solicita más información

Solicitar Información
Mensaje enviado correctamente
No se ha enviado su mensaje. Por favor revisa los campos e inténtalo otra vez.