
Le groupe souhaite initier une démarche de standardisation dans l’intégration des données sur la plateforme en bénéficiant des capacités natives du cloud tant sur l’ingestion, la modélisation et la restaurions des données présentes sur la data platform.
Le Data Architect interviendra pour réconcilier les enjeux techniques (feuille de route move to cloud) et enjeux gouvernance (documentation, lineage, collibra, framework d’ingestion/restitution, mise en place de monitoring de la plateforme, définition des audit et design authority de la plateforme). Et construire une feuille de route pour renforcer durablement la qualité de service.
1. Objet de la consultation
Le présent cahier de consultation a pour objet de définir les modalités de sélection d’un prestataire en charge de la réalisation d’une mission en régie d’un data Architect. Son intervention conduira à la réalisation de différents livrables cités plus bas.
Ce rôle nécessite une forte capacité à animer les échanges, à traduire les enjeux techniques en impacts métiers, et à fédérer les parties prenantes autour d’une culture de la qualité de service et de l’amélioration continue pour revenir à un standard en termes de plateforme data (Cible : Snowflake S2 2026).
2. Expertise technique attendue :
Afin de mener à bien cette mission, le groupe souhaite préciser le niveau d’expertise nécessaire dans les domaines suivants :
- Compétences techniques Générales
• Systèmes, Base de Données et architectures techniques
• CLOUD, Stockagen, Sauvegarde, Virtualisation, Systèmes, Réseau
• SQL Serveur
• Systèmes d’exploitation Windows et Linux.
• BPN Stonesoft
• LAN/WAN/DC Cisco
• Autres : AWS, SSIS, Grafana, cURL
- Compétences techniques spécifiques
• Modélisation de données avancée : maîtrise des modèles conceptuels, logiques et physiques (ex. Snowflake, Data Vault, Star Schema).
• Maîtrise des outils ELT & orchestration : SQL avancé, orchestration type JAMS, Airflow ou Dagster, utilisation de dbt serait un plus.
• Expertise cloud & plateforme data : conception d’architectures cloud-native sur AWS,
idéalement incluant Snowflake.
• Gouvernance & catalogage : compétences dans l’intégration de solutions comme Collibra, dbt docs pour le lineage et la documentation.
• Expériences de l’environnement industriel, multi ERP : mise en œuvre de pipelines standards avec CDC (SAP Landscape Transformation serait un plus).
• Forte appétence à la data observabilité
- Compétences comportementales
• Leadership technique & Design Authority : capacité à valider les choix d’architecture et à fédérer autour des standards.
• Pédagogie & vulgarisation : aptitude à expliquer les concepts techniques aux métiers et à former les équipes.
• Rigueur & structuration : production de livrables clairs, auditables et alignés avec les
standards de gouvernance.
• Travail en transverse : collaboration fluide avec les équipes IT, métiers, gouvernance et architecture SI.
• Anglais écrit et oral.
3. Prestation attendue :
La mission consistera à travailler sur :
• Frameworks d’ingestion et restitution :
o Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI,
data services). Vision AS IS > TO BE
• Framework « Observabilité & qualité des données » :
o Définir métriques et roadmap pour monitorer la qualité des données critiques, en
lien avec une initiative déjà lancée avec SODA.
• Monitoring des flux & santé de la plateforme :
o Contribuer à la mise en place des indicateurs et outils pour surveiller la performance
et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec
le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie
FinOps)
• Plan de migration SSIS + SQL Server → Snowflake :
o Définir la méthodologie (phases, outils, patterns).
o Identifier les risques et dépendances.
• Stratégie d’Access Management : (priorité 2)
o Définir les rôles, politiques RBAC/ABAC.
o Garantir la conformité avec les standards de sécurité et gouvernance.
• Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art.
Ces activités mèneront à la production des livrables ci-dessous :
• Documentation des frameworks ingestion & restitution (As is > To be).
• Plan d’observabilité & qualité des données (métriques, outils, roadmap).
• [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme.
• Plan de migration (méthodologie, roadmap, estimation effort).
• Stratégie d’Access Management (modèle de rôles, règles d’accès).
• Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
4. Livrables :
Les livrables sont détaillés dans la partie : Prestation attendue
Un suivi de l’activité à intervalles réguliers et sous une forme qu’il explicitera. Il donnera un exemple de document correspondant à sa démarche. Cela devra être un rapport hebdomadaire d’activité. Ce rapport devra être commenté en présence du représentant.
Des rapports soit à l’initiative du Prestataire, soit sur demande du groupe. Ces rapports seront demandés par exemple (sans être exhaustif) dans le cas de diagnostics de pannes difficiles à établir ou mettant en jeu une organisation complexe ou suite à une demande d’audit d’une infrastructure technique.
5. Planning de la prestation :
La prestation commencera le 10 novembre 2025 et se terminera le 31/12/2025.
6. Localisation :
La prestation se déroulera principalement sur le site de Blagnac.
7. Langues :
La langue de la prestation sera :
• Le français pour la partie suivie de la prestation avec la DSI et les activités liées au Groupe.
• L’anglais lu, parlé et écrit pour les activités liées aux filiales et à la documentation.
• Les livrables seront rédigés en Anglais.
