Architecte Big Data (H/F)
CDI Salaire : Non spécifié Télétravail fréquent
Architecte Big Data (H/F)
Résumé du poste CDI Neuilly-sur-Seine Salaire : Non spécifié Télétravail fréquent Compétences & expertises Contenu généré Hadoop Kubernetes Azure Nifi Aws +1 il y a 2 mois
A propos de nous :
CARBON est une société de conseil IT spécialisée dans l’expertise technique et les bonnes pratiques de développement (#cleancode, #TDD, #BDD, #archihexagonales). Aujourd’hui, nous sommes une communauté de 150 passionné(e)s, ayant pour valeurs l’apprentissage continu, le partage de connaissances, et une réelle soif de challenge ! Nos bureaux sont situés à Neuilly-Sur-Seine et nos missions se déroulent dans Paris intramuros et petite couronne.
Ce que tu pourras attendre de nous :
Notre poste d’architecte Big Data :
En tant qu’architecte Big Data, tu joueras un rôle central dans la conception, le développement et la mise en œuvre de nos solutions Big Data. Tu collaboreras étroitement avec les équipes de développement, les chefs de projet et autres parties prenantes pour garantir la robustesse et l’évolution de nos solutions, répondant ainsi aux besoins de nos clients.
Ce que l’on attend de toi :
Le suivi et le pilotage de l’architecture Big Data :
Tu incarneras le leadership autour de la maîtrise de l’architecture Big Data.
Tu seras responsable du suivi des projets et de la roadmap Big Data.
Tu seras en charge de la mise en place d’un dispositif de réduction de la dette technique si nécessaire.
Le suivi et le pilotage de notre capacité à traiter et analyser des données massives rapidement tout en assurant un bon niveau de qualité :
Tu assureras le leadership autour de la maîtrise de nos capacités d’ingénierie Big Data.
Tu gèreras la mise en place d’une roadmap autour de l’ingénierie Big Data (gestion des flux de données, optimisation des performances, qualité des données) en collaboration avec tous les autres acteurs nécessaires (data engineers, data scientists, responsables de la qualité des données).
Tu piloteras l’accélération du Delivery via des métriques de type DORA, adaptées aux environnements Big Data.
Profil recherché
A propos de toi :
Tu disposes déjà de 6 années d’expérience, et les bonnes pratiques de développement et de gestion des données sont pour toi une évidence.
Technophile, les principes DevOps et DataOps sont une véritable passion qui t’anime au quotidien et tu cherches continuellement à faire évoluer tes compétences techniques.
Tu maîtrises les outils de pipeline de données tels que Apache Kafka, Apache NiFi, ou AWS Glue.
Tu as déjà une expérience dans le déploiement et la gestion de clusters Big Data avec des technologies comme Hadoop, Spark, ou Kubernetes.
Tu as une bonne connaissance des services managés des cloud providers publics (AWS, Azure, GCP) spécifiques au Big Data.
Les architectures distribuées et les traitements en temps réel n’ont aucun secret pour toi.
Enfin, tu as de bonnes connaissances en matière de systèmes d’information global et de leur gouvernance, en particulier dans le contexte de la gestion des données massives.
Tu es quelqu’un à l’écoute de tes clients et de tes collègues pour trouver les meilleures solutions adaptées.
Si ce poste te passionne, rejoins-nous et participe activement à la transformation Big Data de nos clients !
Parcours de recrutement :
Le parcours de recrutement chez Carbon est exigeant et personnalisé.
Personnalisé car les entretiens qui composent notre parcours sont adaptés selon ton profil et tes attentes.
Nos 4 étapes :
1- Trouver avant tout un état d’esprit avec l’entretien RH
2- Comprendre comment tu raisonnes avec l’entretien technique
3- Nous projeter ensemble avec l’entretien de direction
4- Et pour que notre engagement soit mutuel, notre remise de proposition
Mon statut
Non disponible
Je ne souhaite pas être contacté par des recruteurs.
Votre entreprise actuelle, si renseignée dans votre profil, n'aura pas accès à votre statut.