Rating 4.0 out of 5 (1 ratings in Udemy)
What you'll learn
- La certificación Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure
- Diseño e implementación de almacenamiento de datos
- Diseñar una estrategia de partición
- Diseña la capa de servicio
- Implementar estructuras de almacenamiento de datos físicos
- Implementar estructuras de datos lógicas
- Implementar la capa de servicio
- Ingerir y transformar datos
- Diseñar y desarrollar una solución de procesamiento por lotes
- Diseñar y …
Rating 4.0 out of 5 (1 ratings in Udemy)
What you'll learn
- La certificación Microsoft Azure DP-203: Ingeniería de datos en Microsoft Azure
- Diseño e implementación de almacenamiento de datos
- Diseñar una estrategia de partición
- Diseña la capa de servicio
- Implementar estructuras de almacenamiento de datos físicos
- Implementar estructuras de datos lógicas
- Implementar la capa de servicio
- Ingerir y transformar datos
- Diseñar y desarrollar una solución de procesamiento por lotes
- Diseñar y desarrollar una solución de procesamiento de flujo
- Gestionar lotes y canalizaciones
- Diseñar seguridad para políticas y estándares de datos
- Implementar la seguridad de los datos
- Supervisar el almacenamiento y el procesamiento de datos
- Optimice y solucione problemas de almacenamiento y procesamiento de datos
Description
Para establecer expectativas realistas, tenga en cuenta: Estas preguntas NO son preguntas oficiales que encontrará en el examen oficial. Estas preguntas cubren todo el material que se describe en las secciones de conocimiento a continuación. Muchas de las preguntas se basan en escenarios ficticios en los que se plantean preguntas.
Los requisitos de conocimientos oficiales para el examen se revisan de forma rutinaria para garantizar que el contenido tenga los requisitos más recientes incorporados en las preguntas de práctica. Las actualizaciones del contenido a menudo se realizan sin notificación previa y están sujetas a cambios en cualquier momento.
Muchas de las preguntas tienen tanto el término en inglés como la traducción al español porque varios de los términos y funciones en Microsoft están en inglés. De esta forma podrá reconocer los componentes que son utilizados en Microsoft.
Cada pregunta tiene una explicación detallada y enlaces a materiales de referencia para respaldar las respuestas que aseguran la precisión de las soluciones de los problemas.
Las preguntas se barajarán cada vez que repita las pruebas, por lo que deberá saber por qué una respuesta es correcta, no solo que la respuesta correcta fue el elemento "B" la última vez que pasó por la prueba.
Los candidatos para este examen deben tener experiencia en la materia para integrar, transformar y consolidar datos de varios sistemas de datos estructurados y no estructurados en una estructura que sea adecuada para crear soluciones de análisis.
Los ingenieros de datos de Azure ayudan a las partes interesadas a comprender los datos a través de la exploración, y crean y mantienen canalizaciones de procesamiento de datos seguras y compatibles mediante el uso de diferentes herramientas y técnicas. Estos profesionales utilizan varios lenguajes y servicios de datos de Azure para almacenar y producir conjuntos de datos mejorados y limpios para el análisis.
Los ingenieros de datos de Azure también ayudan a garantizar que las canalizaciones de datos y los almacenes de datos sean de alto rendimiento, eficientes, organizados y confiables, dado un conjunto de requisitos y restricciones comerciales. Se ocupan de los problemas imprevistos con rapidez y minimizan la pérdida de datos. También diseñan, implementan, monitorean y optimizan las plataformas de datos para satisfacer las necesidades de las canalizaciones de datos.
Un candidato para este examen debe tener un gran conocimiento de lenguajes de procesamiento de datos como SQL, Python o Scala, y debe comprender el procesamiento paralelo y los patrones de arquitectura de datos.
Habilidades medidas en el examen Microsoft Azure DP-203
Diseño e implementación de almacenamiento de datos (40-45%)
diseñar una estructura de almacenamiento de datos
diseñar una solución de Azure Data Lake
recomendar tipos de archivos para el almacenamiento
recomendar tipos de archivos para consultas analíticas
diseño para consultas eficientes
diseño para poda de datos
diseñar una estructura de carpetas que represente los niveles de transformación de datos
diseñar una estrategia de distribución
diseñar una solución de archivo de datos
Diseñar una estrategia de partición
diseñar una estrategia de partición para archivos
diseñar una estrategia de partición para cargas de trabajo analíticas
diseñar una estrategia de partición para la eficiencia / rendimiento
diseñar una estrategia de partición para Azure Synapse Analytics
identificar cuándo es necesario realizar particiones en Azure Data Lake Storage Gen2
Diseña la capa de servicio
diseño de esquemas en estrella
diseño que cambia lentamente las dimensiones
diseñar una jerarquía dimensional
diseñar una solución para datos temporales
diseño para carga incremental
diseñar tiendas analíticas
diseñar tiendas de metadatos en Azure Synapse Analytics y Azure Databricks
Implementar estructuras de almacenamiento de datos físicos
implementar compresión
implementar particiones
implementar fragmentación
implementar diferentes geometrías de tabla con grupos de Azure Synapse Analytics
implementar redundancia de datos
implementar distribuciones
implementar el archivo de datos
Implementar estructuras de datos lógicas
construir una solución de datos temporales
construir una dimensión que cambia lentamente
construir una estructura de carpetas lógica
construir tablas externas
implementar estructuras de archivos y carpetas para consultas y poda de datos eficientes.
Implementar la capa de servicio
entregar datos en un esquema de estrella relacional
entregar datos en archivos Parquet
mantener metadatos
implementar una jerarquía dimensional
Diseñar y desarrollar procesamiento de datos (25-30%)
Ingerir y transformar datos
transformar datos usando Apache Spark
transformar datos mediante Transact-SQL
transformar datos utilizando Data Factory
transformar datos mediante Azure Synapse Pipelines
transformar datos utilizando Stream Analytics
limpiar datos
dividir datos
triturar JSON
codificar y decodificar datos
configurar el manejo de errores para la transformación
normalizar y desnormalizar valores
transformar datos usando Scala
realizar análisis exploratorio de datos
Diseñar y desarrollar una solución de procesamiento por lotes
desarrollar soluciones de procesamiento por lotes mediante el uso de Data Factory, Data Lake, Spark, Azure Synapse Pipelines, PolyBase y Azure Databricks
crear canalizaciones de datos
diseñar e implementar cargas de datos incrementales
diseñar y desarrollar dimensiones que cambian lentamente
manejar los requisitos de seguridad y cumplimiento
escalar recursos
configurar el tamaño del lote
diseñar y crear pruebas para canalizaciones de datos
integrar cuadernos Jupyter / IPython en una canalización de datos
manejar datos duplicados
manejar datos faltantes
manejar datos que llegan tarde
insertar datos
retroceder a un estado anterior
diseñar y configurar el manejo de excepciones
configurar la retención de lotes
diseñar una solución de procesamiento por lotes
depurar trabajos de Spark mediante la interfaz de usuario de Spark
Diseñar y desarrollar una solución de procesamiento de flujo
desarrollar una solución de procesamiento de transmisiones mediante Stream Analytics, Azure Databricks y Azure Event Hubs.
procesar datos mediante la transmisión estructurada de Spark
supervisar el rendimiento y las regresiones funcionales
diseñar y crear agregados con ventana
manejar la deriva del esquema
procesar datos de series de tiempo
proceso a través de particiones
proceso dentro de una partición
configurar puntos de control / marcas de agua durante el procesamiento
escalar recursos
diseñar y crear pruebas para canalizaciones de datos
optimizar las canalizaciones con fines analíticos o transaccionales
manejar interrupciones
diseñar y configurar el manejo de excepciones
insertar datos
reproducir datos de transmisión archivados
diseñar una solución de procesamiento de flujo
Gestionar lotes y canalizaciones
lotes de gatillo
manejar cargas por lotes fallidas
validar cargas por lotes
administrar las canalizaciones de datos en Data Factory / Synapse Pipelines
programar canalizaciones de datos en Data Factory / Synapse Pipelines
implementar control de versiones para artefactos de canalización
administrar trabajos de Spark en una canalización
Diseñar e implementar seguridad de datos (10-15%)
Diseñar seguridad para políticas y estándares de datos
diseñar cifrado de datos para datos en reposo y en tránsito
diseñar una estrategia de auditoría de datos
diseñar una estrategia de enmascaramiento de datos
diseño para la privacidad de los datos
diseñar una política de retención de datos
diseño para depurar datos en función de los requisitos comerciales
diseñar el control de acceso basado en roles de Azure (Azure RBAC) y la lista de control de acceso (ACL) similar a POSIX para Data Lake Storage Gen2
diseñar seguridad a nivel de fila y a nivel de columna
Implementar la seguridad de los datos
implementar el enmascaramiento de datos
cifrar datos en reposo y en movimiento
implementar seguridad a nivel de fila y a nivel de columna
implementar Azure RBAC
implementar ACL similares a POSIX para Data Lake Storage Gen2
implementar una política de retención de datos
implementar una estrategia de auditoría de datos
administrar identidades, claves y secretos en diferentes tecnologías de plataformas de datos
implementar puntos finales seguros (privados y públicos)
implementar tokens de recursos en Azure Databricks
cargar un DataFrame con información confidencial
escribir datos cifrados en tablas o archivos Parquet
administrar información sensible
Supervisar y optimizar el almacenamiento y el procesamiento de datos (10-15%)
Supervisar el almacenamiento y el procesamiento de datos
implementar el registro usado por Azure Monitor
configurar servicios de monitoreo
medir el rendimiento del movimiento de datos
monitorear y actualizar estadísticas sobre datos en un sistema
supervisar el rendimiento de la canalización de datos
medir el rendimiento de la consulta
supervisar el rendimiento del clúster
comprender las opciones de registro personalizadas
programar y monitorear pruebas de canalización
interpretar las métricas y los registros de Azure Monitor
interpretar un gráfico acíclico dirigido por Spark (DAG)
Optimice y solucione problemas de almacenamiento y procesamiento de datos
archivos pequeños compactos
reescribir funciones definidas por el usuario (UDF)
manejar sesgos en los datos
manejar el derrame de datos
sintonizar particiones aleatoriamente
encontrar barajar en una tubería
optimizar la gestión de recursos
ajustar las consultas mediante indexadores
ajustar las consultas mediante el uso de la memoria caché
optimizar las canalizaciones con fines analíticos o transaccionales
optimizar la canalización para cargas de trabajo descriptivas versus analíticas
solucionar problemas de un trabajo de chispa fallido
solucionar problemas de una ejecución de canalización fallida
El examen está disponible en los siguientes idiomas: inglés
Paid
Self paced
All Levels
Spanish (Spain)
33
Rating 4.0 out of 5 (1 ratings in Udemy)
Go to the Course