AWS Certified Data Engineer - Associate (DEA-C01)
Développez de vraies compétences cloud avec des ateliers guidés sur AWS et Google Cloud. Pratiquez dans des environnements en direct avec un accès instantané aux vraies ressources cloud. Aucun compte cloud requis.
2 ateliers disponibles
Dans cet atelier, vous créerez un pipeline de données en streaming en temps réel en utilisant Amazon Kinesis Data Streams et AWS Lambda. Vous apprendrez comment ingérer des données avec Kinesis, les traiter en temps réel avec Lambda et stocker les données traitées dans Amazon S3. Ce pipeline peut être utilisé dans diverses applications réelles telles que la surveillance des journaux d'applications, les flux de données IoT ou les transactions financières. À la fin de cet atelier, vous aurez une compréhension approfondie de la création de flux de travail de données sans serveur et de l'intégration de différents services AWS.
Dans cet atelier, les étudiants construiront un pipeline de données en flux continu en utilisant Amazon Kinesis Data Streams et AWS Glue pour ingérer et transformer des données en temps réel. En utilisant Kinesis Data Streams pour l'ingestion de données et AWS Glue pour la transformation de données, les apprenants développeront une compréhension approfondie du traitement de données en temps réel à grande échelle. Cet atelier simule une entreprise de services financiers collectant et analysant des données de marché boursier en temps réel pour fournir des tableaux de bord analytiques à leurs clients. Les participants mettront en place des flux de données, configureront des travaux AWS Glue pour les processus ETL, et valideront le flux de données à travers le système. Cela inclura des tâches critiques comme la mise en place de producteurs Kinesis, le traitement des données avec les travaux AWS Glue, et l'assurance que les données transformées sont stockées correctement dans Amazon S3.
3 ateliers disponibles
Dans cet atelier, vous apprendrez à automatiser l'ingestion de données en utilisant Amazon Kinesis et AWS Glue pour créer un pipeline de traitement de données fiable et évolutif. Vous configurerez un flux de données Kinesis pour capturer des données en streaming et utiliserez AWS Glue pour extraire, transformer et charger (ETL) des données dans Amazon S3 pour le stockage. Cet atelier vous enseignera comment ces composants fonctionnent ensemble pour traiter les données en temps réel de manière efficace, permettant des insights rapides.
Dans cet atelier pratique, vous apprendrez à mettre en œuvre un pipeline de traitement de données en temps réel à l'aide d'Amazon Kinesis. Vous ingérerez des données de streaming à l'aide d'Amazon Kinesis Data Streams, traiterez ces flux à l'aide d'AWS Lambda et Amazon Kinesis Data Analytics, et livrerez les données traitées à Amazon S3 pour stockage. Cet atelier démontrera les aspects pratiques de la mise en place d'un pipeline de données en temps réel capable de gérer de grands volumes de données dans un scénario commercial, vous permettant de réagir aux changements en temps réel et de prendre des décisions basées sur les données rapidement. L'atelier couvre les concepts clés de l'ingestion, du traitement et du stockage des données dans une architecture sans serveur. Vous apprendrez également à garantir la qualité des données tout au long du pipeline de traitement des données. À la fin de cet atelier, vous devriez avoir une solide compréhension de la gestion d'un pipeline de données en temps réel sur AWS et être préparé à des sujets de certification AWS de niveau associé impliquant l'ingénierie des données avec des flux en temps réel.
Dans cet atelier, vous allez construire un pipeline de flux de données en utilisant Amazon Kinesis Data Streams et Amazon Kinesis Data Firehose. Vous configurerez AWS Lambda pour traiter les données en streaming et les enregistrer dans Amazon S3 pour une analyse ultérieure. Cet atelier vous aidera à comprendre les architectures de données en streaming et l'intégration de ces services pour automatiser et faciliter les pipelines de traitement de données.
3 ateliers disponibles
Dans cet atelier, vous allez créer un pipeline de streaming de données sécurisé à l'aide des services Amazon Kinesis. Vous allez mettre en place un flux de données complet allant de l'ingestion au stockage, en assurant la sécurité des données grâce au chiffrement. L'atelier se concentre sur l'intégration d'AWS KMS pour le chiffrement et l'application de politiques IAM appropriées pour gérer l'accès. Cette expérience pratique renforcera votre connaissance de la sécurité des données dans les architectures de streaming.
Dans cet atelier, vous apprendrez à garantir le chiffrement des données en transit et au repos en utilisant AWS KMS et S3. Les participants créeront des clés KMS et les utiliseront pour chiffrer les données stockées dans S3, en comprenant les options de chiffrement côté serveur et côté client. Cette expérience pratique renforcera vos connaissances sur la sécurisation des données sur AWS et la conformité aux exigences de la confidentialité des données.
Dans cet atelier, vous allez construire un pipeline de données sécurisé en utilisant Amazon Kinesis Data Streams et Amazon S3. Vous intégrerez ces services avec AWS IAM et AWS KMS pour garantir que vos données restent sécurisées à la fois en transit et au repos. Vous apprendrez à configurer l'ingestion de données en streaming avec Kinesis, à stocker des données chiffrées dans S3 et à appliquer un contrôle d'accès granulaire avec IAM. Cet atelier met l'accent sur l'application pratique des pratiques de sécurité des données AWS. En complétant cet atelier, vous améliorerez vos compétences en configurant un pipeline de données sûr et efficace, crucial pour traiter les données sensibles dans les applications réelles.
2 ateliers disponibles
Dans cet atelier, vous allez construire un pipeline de traitement de données en temps réel en utilisant les services Amazon Kinesis. Vous configurerez Kinesis Data Streams pour ingérer des données en streaming, les traiterez avec des fonctions AWS Lambda, et stockerez les résultats dans Amazon S3. De plus, vous configurerez AWS Glue pour cataloguer les données et permettre un accès rapide avec Amazon Athena pour l'analyse des données. Cet atelier vous fournira une expérience pratique avec des services AWS essentiels pour des solutions d'analytique en temps réel, démontrant comment intégrer efficacement des processus de streaming et de batch.
Dans cet atelier, vous allez construire une architecture de diffusion de données en temps réel en utilisant Amazon Kinesis Data Streams et AWS Glue. Vous allez mettre en place un pipeline d'ingestion de données qui capture, traite et catalogue les données pour les rendre prêtes pour l'analyse en temps réel. Cette solution AWS aide à réduire la latence dans le traitement des données, garantissant que les analyses sont disponibles à la vitesse des besoins de votre entreprise. Construisez un scénario où vous intégrez des données de plusieurs sources sur une seule plateforme pour des flux de travaux analytiques cohérents et simplifiés.