Delta Lake avec Apache Spark
Il existe différent format de fichier pour stocker la donnée : parquet, avro, csv. Connaissez-vous le format Delta Lake ? Découvrons les fonctionnalités de ce format.
L'évolution des standards du web et de développement, couplée à la multiplication des technologies permettant de développer des applications web, des différents frameworks associés, des outils, ont généré le besoin de définir une architecture claire des projets.
Après plusieurs expériences en tant qu'architecte, il m'a semblé intéressant de proposer un document résumant ce qu'est l'architecture logicielle et les différents rôles d'un architecte sur plusieurs typologies de projets.
Des questions, ou simplement envie d'échanger sur ce sujet ? Vous avez besoin d'accompagnement sur un projet ? Contactez-nous : business@eleven-labs.com !
Auteur(s)
Vincent Composieux
Architecte passionné par les technologies web depuis de longues années, je pratique principalement du PHP (Symfony) / Javascript mais aussi du Python ou Golang.
Vous souhaitez en savoir plus sur le sujet ?
Organisons un échange !
Notre équipe d'experts répond à toutes vos questions.
Nous contacterDécouvrez nos autres contenus dans le même thème
Il existe différent format de fichier pour stocker la donnée : parquet, avro, csv. Connaissez-vous le format Delta Lake ? Découvrons les fonctionnalités de ce format.
Dans le domaine de la data, la qualité de la donnée est primordiale. Pour s'en assurer, plusieurs moyens existent, et nous allons nous attarder dans cet article sur l'un d'entre eux : tester unitairement avec Pytest.
Le domaine de la data est présent dans le quotidien de chacun : la majorité de nos actions peut être traduite en données. Le volume croissant de ces données exploitables a un nom : "Big Data". Dans cet article, nous verrons comment exploiter ce "Big data" à l'aide du framework Apache Spark.