Publiée le 14/04/2026
Mission
CBA Informatique Libérale, c'est 40 ans d'expertise dans l'édition de logiciels de santé, 270 collaborateurs basés à Avignon et plus de 38 000 professionnels de santé libéraux accompagnés au quotidien. Leader sur son marché, nous développons des solutions SaaS innovantes — Agathe YOU, Milo, Opaline, Horizon Libéral — qui simplifient le quotidien des infirmières et kinésithérapeutes à travers toute la France. Nous structurons notre fonction Data autour d'une stack moderne et souveraine, avec une ambition claire : exploiter la puissance des données pour améliorer nos produits et intégrer l'intelligence artificielle au cœur de nos applications de santé.
Le contexte
CBA dispose d'une stack data en évolution — une infrastructure historique en production et une stack lakehouse moderne en cours de déploiement. Vous interviendrez sur les deux, assurant la continuité du RUN tout en contribuant activement au BUILD de la nouvelle architecture. Rattaché hiérarchiquement à la DSI et piloté fonctionnellement par le Responsable Data, vous êtes le bâtisseur de notre infrastructure data — celui sans qui rien n'est possible.
Vos missions
RUN
- Assurer la continuité et la fiabilité des pipelines Talend existants
- Maintenir et superviser le Data Warehouse PostgreSQL — performance, qualité des données
- Garantir la disponibilité des reportings Power BI à destination des équipes métiers
- Monitorer les flux via Grafana + Prometheus — alertes, incidents, résolution
BUILD
- Faire évoluer et enrichir les pipelines d'ingestion — Airbyte (batch/CDC) et Kafka (streaming)
- Gérer et optimiser le Data Lake Iceberg — partitionnement, time travel, schema evolution, compaction
- Développer et maintenir les modèles dbt — transformations, tests de qualité, documentation
- Orchestrer les flux via Dagster — scheduling, monitoring, gestion des dépendances
- Optimiser les requêtes Trino sur le Data Lake
- Contribuer aux projets IA via Qdrant — alimentation de la base vectorielle, feature engineering
Transverse
- Intégrer de nouvelles sources de données — applications CBA, outils internes
- Travailler en lien avec le DPO/RJ sur la conformité des données de santé — HDS, RGPD
- Documenter les flux et maintenir la documentation à jour
Profil
Formation & expérience
Bac+5 en Informatique, Data Engineering ou équivalent
Vous avez à minima 3 années d'expérience en Data Engineering dans un environnement SaaS
Expérience sur une architecture lakehouse — Iceberg, Delta Lake ou équivalent
Connaissance du secteur santé ou des contraintes HDS appréciée
Compétences techniques — indispensables
Maîtrise d'Iceberg — tables, partitionnement, time travel, schema evolution
Maîtrise de dbt — modélisation, tests, documentation
Maîtrise de SQL avancé et de Python
Expérience sur un orchestrateur — Dagster, Airflow ou équivalent
Bonne connaissance des moteurs de requêtes distribués
Expérience sur un outil d'ingestion batch/CDC — Airbyte, Fivetran ou équivalent
Compétences techniques — appréciées
Connaissance de Kafka ou d'un système de streaming équivalent
Sensibilité aux bases vectorielles et à l'IA — Qdrant ou équivalent
Connaissance de Grafana + Prometheus
Connaissance des contraintes HDS et ISO 27001
Savoir-être
Rigoureux et fiable — données de santé, la qualité n'est pas négociable
Bâtisseur — vous aimez construire autant que maintenir
Pédagogue — vous documentez et expliquez vos choix
Collaboratif — DSI, Data, Produit, Métiers, ...


