Ingestion et Transformation de Données en Flux Continu avec Kinesis et AWS Glue

INTERMEDIATE
75 minutes
5 tâches

Dans cet atelier, les étudiants construiront un pipeline de données en flux continu en utilisant Amazon Kinesis Data Streams et AWS Glue pour ingérer et transformer des données en temps réel. En utilisant Kinesis Data Streams pour l'ingestion de données et AWS Glue pour la transformation de données, les apprenants développeront une compréhension approfondie du traitement de données en temps réel à grande échelle. Cet atelier simule une entreprise de services financiers collectant et analysant des données de marché boursier en temps réel pour fournir des tableaux de bord analytiques à leurs clients. Les participants mettront en place des flux de données, configureront des travaux AWS Glue pour les processus ETL, et valideront le flux de données à travers le système. Cela inclura des tâches critiques comme la mise en place de producteurs Kinesis, le traitement des données avec les travaux AWS Glue, et l'assurance que les données transformées sont stockées correctement dans Amazon S3.

Scénario

Global Financial Services Inc. nécessite la capacité de traiter des données de marché boursier en temps réel pour fournir des analyses en direct à leurs clients pour une meilleure prise de décision. Ils ont besoin d'un système robuste et évolutif pour gérer l'ingestion et la transformation de données haute fréquence. Le défi actuel est de mettre en place un processus de streaming fluide utilisant Amazon Kinesis et AWS Glue pour garantir une analyse des données rapide et précise.

Objectifs d'Apprentissage

  • Configurer et mettre en place Amazon Kinesis Data Streams pour l'ingestion de données en temps réel.
  • Créer des travaux AWS Glue pour transformer les flux de données entrants.
  • Stocker les données traitées de manière sécurisée dans Amazon S3 pour une analyse ultérieure.

tâches (5)

tâche 1: Créer un flux de données Kinesis pour l'ingestion de données de marché boursier

20 min

tâche 2: Configurer un travail AWS Glue pour consommer et transformer les données du flux Kinesis

35 min

tâche 3: Créer un bucket S3 pour stocker les données transformées

15 min

tâche 4: Activer la journalisation et la surveillance pour les travaux AWS Glue

15 min

tâche 5: Tester le pipeline de données en injectant des données d'exemple et vérifier la sortie

25 min

Prérequis

  • Compréhension des concepts de Kinesis Data Streams
  • Connaissance de base de AWS Glue et des processus ETL
  • Familiarité avec la configuration et la mise en place de buckets S3

Compétences Testées

Configurer Kinesis Data Streams pour l'ingestion en temps réelMettre en œuvre des travaux AWS Glue pour la transformation des donnéesConfigurer S3 pour le stockage des données avec chiffrement
    Ingestion et Transformation de Données en Flux Continu avec Kinesis et AWS Glue - Hands-On Lab - CertiPass