Entité de rattachement
Le Crédit Agricole Toulouse 31 recrute !
Le Crédit Agricole Toulouse 31, leader en Banque Assurances et Immobilier sur son marché, souhaite promouvoir le professionnalisme, la fierté et l'esprit d'entreprendre de ses 1370 collaborateurs et inscrire la relation client au cœur de son ambition.
Référence
2024-41229
Siège social
Toulouse cedex 6
Le pôle Data Développement et Pilotage offre une expertise dans tous les aspects de la chaine de valeur data, BI et IA , contribuant ainsi à éclairer les prises de décisions, à optimiser le pilotage opérationnel et stratégique, et à renforcer les activités commerciales et relations clients (marketing, communication, etc.) au sein de la Caisse Régionale.Le pôle favorise la sensibilisation autour des enjeux de la donnée auprès des employés et offre un soutien spécialisé autour des outils et techniques d’exploitation de la donnée.
Trois activités au sein du pôle :
Pilotage/BI :
Consiste à produire des indicateurs de l’activité commerciale à l'usage des manageurs des réseaux, siège, ainsi que de la Direction Générale, également la production des suivis des risques pour le contrôle financier.
Produire l’intégralité des indicateurs décisionnels de la Caisse Régionale (indicateurs stratégiques et de performances)
Offrir une assistance technique et fonctionnelle aux différents clients (réseaux, caisses locales, comité de directions, instances nationales, etc.)
Ciblage et data mining :
Principalement articulée autour des opérations de ciblage marketing, l’activité de Ciblage et Data Mining consiste aussi à extraire et structurer les données d’intérêt afin de produire des études autour de la connaissance des clients.
Produire les ciblages, industrialiser certains traitements récurrents
Transformer les données en informations actionnables pour des études et analyses autour de la connaissance clients (conformité, moment de vie, etc.)
Data Science :
Occupe une place essentielle au sein d’un dispositif CRM axé sur les données. Grâce à des méthodes avancées d'analyse et d’exploitation des données, le secteur Relation Client peut entre autres bénéficier d’informations précieuses concernant le comportement des clients, accroître leur fidélité, proposer des expériences individualisées et maximiser les recettes.
Modéliser et produire des études statistiques avancées pour les différents métiers de la Caisse Régionale, par le prisme Client (attrition, fraude, ventes produits, risques climatiques, etc.)
Déployer et mettre en production (scores pour les ciblages, modèles de machine learning, etc.)
Dans le cadre de ce stage vous serez amené à :
- Étudier, cadrer, documenter et mettre en place une architecture de déploiement de modèles de machine learning pour permettre la mise en production rapide et fiable.
- Apporter sa connaissance en DevOps /MLOps pour améliorer la qualité et la fiabilité des déploiements.
- Collaborer avec l'équipe de data scientist pour intégrer les modèles de machine learning dans l'architecture de déploiement cible.
- Participer aux projets de Data Science.
Nous recherchons une personne qui :
- Apprécie le travail en équipe : capacité à travailler en collaboration avec les membres de l'équipe de data scientist, les développeurs et les autres parties prenantes pour atteindre les objectifs du projet.
- communique efficacement : capacité à expliquer clairement et simplement les concepts techniques complexes à des non-spécialistes, ainsi qu'à présenter les résultats et les recommandations de manière claire et concise.
- fait preuve de flexibilité et d'adaptabilité : capacité à s'adapter aux changements et aux nouvelles situations, et à être ouvert aux nouvelles idées.
- est curieuse et a le sens de l'innovation.
Vous possédez des compétences théoriques et techniques solides et souhaitez évoluer dans les domaines suivants :
- La conception et déploiement de pipelines de machine learning : Concevoir, développer et maintenir des pipelines pour entraîner, valider, et déployer des modèles de machine learning dans des environnements de production.
- L'implémentation et optimisation des modèles :Collaborer avec les data scientists pour traduire des modèles prototypes en solutions robustes, performantes et évolutives.
- Le MLOps et automatisation des workflows : Mettre en place des pratiques de MLOps (CI/CD, surveillance des modèles, gestion des versions des données et des modèles).
- L'architecture logicielle et infrastructure : Définir, documenter et implémenter l’architecture technique nécessaire au déploiement des modèles, en s’appuyant sur les outils et services proposés par le CA ou sur des infrastructures internes de la CR.
- Le développement d’outils logiciels :Concevoir des outils réutilisables pour faciliter l’entraînement, l’expérimentation et la mise en production des modèles par les équipes.
- La veille technologique et amélioration continue :Suivre les évolutions des technologies d’ingénierie logicielle et de machine learning pour proposer des améliorations innovantes.
Compétences techniques requises, en cours de maitrise éventuellement et sur lesquelles vous souhaiteriez progresser :
- Langages de programmation :Maîtrise de Python et de ses bibliothèques pour le machine learning (TensorFlow, PyTorch, scikit-learn, etc.).
Bonne connaissance d’un langage orienté système ou backend (Java, Scala, C++, Go, ou similaire). - Frameworks et outils MLOps :Expérience avec des outils tels que MLflow, Kubeflow, ou TFX pour la gestion des pipelines de machine learning.
- Infrastructure :Bonne compréhension des systèmes de conteneurs (Docker) et des orchestrateurs (Kubernetes).
- Développement logiciel et DevOps :Connaissance des pratiques DevOps (CI/CD, gestion de versions avec Git, tests automatisés). Expérience avec des outils d’intégration et de déploiement continu (Jenkins, GitLab CI/CD, CircleCI, etc.).
Vous êtes titulaires d'un Bac +4/5, vous recherchez un stage de 6 mois et ce profil vous correspond ? N'hésitez plus, postulez !