Dans une équipe de développement, une des bonnes pratiques consiste à relire le code des autres membres de l'équipe. Cela permet de partager la connaissance et d'avoir un oeil différent sur le code produit. Pour aller encore plus loin, ce code pourrait être déployé dans un environnement isolé : un environnement de revue.
Voyons comment le mettre en oeuvre avec Gitlab CI.
Créer un environnement de revue avec Gitlab CI
Dans le contexte d'un projet data, nous avons du code Python que nous devons mettre à disposition dans un stockage objet Google Cloud Storage. Ce code est lu et exécuté par le service Google Dataproc.
Gitlab CI a une fonctionnalité qui permet de créer des environnements à la volée.
Prenons ce fichier .gitlab-ci.yml
initial.
variables:
DATAPROC_CLUSTER_NAME: review-${CI_COMMIT_REF_SLUG}
DATAPROC_IMAGE_VERSION: 2.2.21-debian12
DELTA_SPARK_VERSION: 3.2.0
GCP_PROJECT_ID: my-project
stages:
- deploy
deploy:review:
stage: deploy
image: hub.docker.com/google/cloud-sdk:alpine
before_script:
- gcloud auth activate-service-account --key-file $GCP_SA_KEY_DEV
- gcloud config set project ${GCP_PROJECT_ID}
script: |
if [ $(gcloud dataproc clusters list --region=europe-west1 --filter=clusterName:$DATAPROC_CLUSTER_NAME --format="value(clusterName)" | wc -l) -eq 0 ]; then
gcloud dataproc clusters create ${DATAPROC_CLUSTER_NAME} --enable-component-gateway --region=europe-west1 --master-machine-type=n1-standard-4 --worker-machine-type=n1-highmem-4 --num-workers=3 --num-masters=1 --master-boot-disk-size=1000 --worker-boot-disk-size=1000 --image-version=${DATAPROC_IMAGE_VERSION} --optional-components=JUPYTER --max-idle=1h --public-ip-address --properties=^#^spark:spark.jars=gs://${GCP_PROJECT_ID}/jars/delta-spark_2.12-${DELTA_SPARK_VERSION}.jar,gs://${GCP_PROJECT_ID}/jars/delta-storage-${DELTA_SPARK_VERSION}.jar#dataproc:pip.packages=delta-spark==${DELTA_SPARK_VERSION} --labels=environment-type=review,environment-name=${CI_COMMIT_REF_SLUG}
fi
gsutil -m rsync -d -x ".git|venv|__pycache__" -r ./ gs://${GCP_PROJECT_ID}/${CI_COMMIT_REF_SLUG}/spark-app
rules:
- if: $CI_MERGE_REQUEST_IID
La tâche de déploiement va vérifier la présence d'un cluster Dataproc. S'il n'existe pas, alors le cluster est créé. Les options ne sont pas importante dans le cadre de l'article. Enfin, les fichiers sont copié dans le stockage objet avec la commande gsutil
.
À partir de cette base, ajoutons la configuration pour créer un environnement dynamique. Nous voulons que cet environnement soit configuré de cette façon :
- préfixé par
review/
- auto détruit après 1 jour
- le bouton pour voir l'environnement ouvre la console Google Cloud Platform sur le cluster Dataproc
Cela se traduit par la configuration suivante qui sera à ajouter notre tâche de deploy:review
.
deploy:review:
(...)
environment:
deployment_tier: testing
name: review/${CI_COMMIT_REF_SLUG}
action: start
auto_stop_in: 1 day
on_stop: deploy:review:stop
url: https://console.cloud.google.com/dataproc/clusters/${DATAPROC_CLUSTER_NAME}/monitoring?region=europe-west1&project=${GCP_PROJECT_ID}
La clef on_stop
dans l'objet environment
fait référence à une tâche deploy:review:stop
. C'est cette tâche qui sera exécuté lorsque l'environnement sera détruit par Gitlab.
Ajoutons cette tâche deploy:review:stop
.
deploy:review:stop:
stage: deploy
image: hub.docker.com/google/cloud-sdk:alpine
before_script:
- gcloud auth activate-service-account --key-file $GCP_SA_KEY_DEV
- gcloud config set project ${GCP_PROJECT_ID}
script:
- gcloud dataproc clusters delete ${DATAPROC_CLUSTER_NAME} --region=europe-west1 --quiet || true
rules:
- if: $CI_MERGE_REQUEST_IID
when: manual
environment:
name: review/${CI_COMMIT_REF_SLUG}
action: stop
La tâche deploy:review:stop
a bien une configuration environment
avec la référence vers le nom de l'environnement à stopper ainsi que l'action à effectuer.
Dans le cas d'une merge request, un environnement dynamique est automatique arrêté lorsque la branche est fusionnée dans la branche principale.
Lorsque vous allez créer une nouvelle merge request, les tâches de déploiement en environnement de revu se lance. Quelques minutes plus tard, l'environnement est disponible.
La liste des environnements active est disponible dans le menu à gauche : Operate > Environments.
Bravo, vous avez créé un environnement de revu dynamique pour vos merge request. Cela va grandement faciliter la revue de code et de voir concrêtement les changements. Votre Product Owner va adorer 🤩 !
Référence
Code complet
variables:
DATAPROC_CLUSTER_NAME: review-${CI_COMMIT_REF_SLUG}
DATAPROC_IMAGE_VERSION: 2.2.21-debian12
DELTA_SPARK_VERSION: 3.2.0
GCP_PROJECT_ID: my-project
stages:
- deploy
deploy:review:
stage: deploy
image: hub.docker.com/google/cloud-sdk:alpine
before_script:
- gcloud auth activate-service-account --key-file $GCP_SA_KEY_DEV
- gcloud config set project ${GCP_PROJECT_ID}
script: |
if [ $(gcloud dataproc clusters list --region=europe-west1 --filter=clusterName:$DATAPROC_CLUSTER_NAME --format="value(clusterName)" | wc -l) -eq 0 ]; then
gcloud dataproc clusters create ${DATAPROC_CLUSTER_NAME} --enable-component-gateway --region=europe-west1 --master-machine-type=n1-standard-4 --worker-machine-type=n1-highmem-4 --num-workers=3 --num-masters=1 --master-boot-disk-size=1000 --worker-boot-disk-size=1000 --image-version=${DATAPROC_IMAGE_VERSION} --optional-components=JUPYTER --max-idle=1h --public-ip-address --properties=^#^spark:spark.jars=gs://${GCP_PROJECT_ID}/jars/delta-spark_2.12-${DELTA_SPARK_VERSION}.jar,gs://${GCP_PROJECT_ID}/jars/delta-storage-${DELTA_SPARK_VERSION}.jar#dataproc:pip.packages=delta-spark==${DELTA_SPARK_VERSION} --labels=environment-type=review,environment-name=${CI_COMMIT_REF_SLUG}
fi
gsutil -m rsync -d -x ".git|venv|__pycache__" -r ./ gs://${GCP_PROJECT_ID}/${CI_COMMIT_REF_SLUG}/spark-app
rules:
- if: $CI_MERGE_REQUEST_IID
environment:
deployment_tier: testing
name: review/${CI_COMMIT_REF_SLUG}
action: start
auto_stop_in: 1 day
on_stop: deploy:review:stop
url: https://console.cloud.google.com/dataproc/clusters/${DATAPROC_CLUSTER_NAME}/monitoring?region=europe-west1&project=${GCP_PROJECT_ID}
deploy:review:stop:
stage: deploy
image: hub.docker.com/google/cloud-sdk:alpine
before_script:
- gcloud auth activate-service-account --key-file $GCP_SA_KEY_DEV
- gcloud config set project ${GCP_PROJECT_ID}
script:
- gcloud dataproc clusters delete ${DATAPROC_CLUSTER_NAME} --region=europe-west1 --quiet || true
rules:
- if: $CI_MERGE_REQUEST_IID
when: manual
environment:
name: review/${CI_COMMIT_REF_SLUG}
action: stop