instruction
stringclasses 1
value | input
stringlengths 186
9.68k
| output
stringlengths 102
389
| __index_level_0__
int64 0
398
|
---|---|---|---|
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Descriptif du poste LE RÔLE : En tant que Lead Data Engineer, positionné directement en dessous du CTO, vous jouerez un rôle de lead, accompagné par des stagiaires et des alternants. Vous aurez comme responsabilités principales: Construction et maintenance de l architecture data Développement de calculs haute performance robuste et scalable (Utilisation de Python) Collaboration proche avec le Lead Data Scientist pour industrialiser les projets de Machine Learning Réunir les parties développées et les outils utilisés en un seul système d'information Utilisation de la stack de la société : Python pour tout le développement, Kafka pour les algo real time, Docker et Kubernetes pour la conteneurisation, MongoDB et Pinot pour le stockage Profil recherché PROFIL RECHERCHÉ : Le profil devra réunir un maximum des points listés ci-dessous: Vous êtes diplômé d un diplôme d ingénieur ou d un équivalent Bac +5 Vous avez une expérience de plusieurs années en tant que Data Engineer et une volonté de... prendre en leadership Expertise sur Python et capacité à créer du code propre et scalable Vous maitrisez les best practices de développement Data / DevOps Doté d une excellente capacité de communication LANGUES- SAVOIR-ÊTRE- SAVOIR-FAIREAlgorithme Apache Kafka Voir plus Entreprise Senior Data Engineer Paris, Toulouse ou Rennes 55K-65K TECH STACK : Python, Pinot, Kafka, Docker, Kubernetes LA SOCIÉTÉ : C'est l occasion de rejoindre une société qui a créé un SaaS leader sur le marché dans l appui à la transformation digitale ! Grâce à l analyse poussée de comportements utilisateurs et de KPIs précis, le produit de la société anime les communautés pour réussir des objectifs données dans l onboarding de nouveaux outils/plateformes, et accélère la montée en compétences des collaborateurs. En mode startup, la société a levé +20 millions d euros pour accélérer le déploiement de sa solution à l international et continuer d améliorer ses features. La startup vient juste de lancer une nouvelle version de sa plateforme avec des technos open source très moderne, et cherche actuellement un Senior/Lead Data Engineer pour collaborer main dans la main avec le Lead Data Scientist dans le développement continu du SaaS. Autres offres de l'entreprise Personne en charge du recrutement Elie Ancrenaz - Recruteur Salaire 50 - 65 k€ brut annuel Prise de poste Dès que possible Expérience Minimum 3 ans Métier Data engineer Statut du poste Cadre du secteur privé Zone de déplacement Pas de déplacement Secteur d’activité du poste CONSEIL POUR LES AFFAIRES ET AUTRES CONSEILS DE GESTION Télétravail Partiel possible | {"salaire": [{"montant_min": 55000.0, "montant_max": 65000.0, "devise": "\u20ac", "frequence_versement": "an"}]} | 216 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Nous développons, pour eux, le premier bracelet GPS vibrant. Tes missions : Développement de nouveaux algorithmes de géolocalisation (Python) Analyse de données Mise en place de sessions de tests (en interne puis avec des déficients visuels) Coordination avec les équipes de l’ISEP et du CNAM Rédaction de rapports détaillés présentant les résultats Le projet sera mené en collaboration avec les équipes de l’ISEP (Institut Supérieur d’Electronique de Paris) et du CNAM (Conservatoire National des Arts et Métiers) composées de thésards et de maîtres de conférence. Profil recherché Ton profil: Expertises : Swift, Kotlin, Python Notions : Machine learning, AR (Augmented Reality), QGIS Connaissances : capteurs téléphone, Bluetooth (Radio Fréquence) Soft skills : rigueur, force de proposition, autonomie Bonus : attrait pour la cartographie Tu es en fin d’étude d’école d’ingénieur, tu veux vivre l’expérience startup et apporter tes compétences techniques et humaines au projet, rejoins nous ... Type d'emploi : Temps plein, CDI Statut : Cadre Rémunération : 35 000,00€ à 51 000,00€ par an Avantages: Prise en charge du transport quotidien Travail à domicile occasionnel Programmation: Du lundi au vendredi Travail en journée Question(s) de présélection: Vos motivations pour le poste ? Langue: Anglais (Optionnel) Lieu du poste : Télétravail hybride (75020 Paris 20e | {'salaire': [{'montant_min': 35000.0, 'montant_max': 51000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 290 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Client Details
Client Details
Ingénieur MLOps - Transport international : À Propos de l'EntrepriseMon partenaire, est le symbole de l'histoire et de l'innovation ferroviaire. Acteur majeur de cette industrie, l'entreprise joue un rôle crucial dans la connectivité nationale et internationale en facilitant les déplacements de millions de personnes et de biens chaque année.Mon partenaire s'engage à moderniser ses services et à façonner l'avenir de la mobilité. Cela inclut l'utilisation de l'intelligence artificielle, du Big Data et des technologies IoT pour améliorer la planification des opérations, la maintenance prédictive et la gestion des flux de passagers.
Description
Description
Ingénieur MLOps - Transport International : La Mission
• Concevoir et mettre en place des pipelines MLOps pour le déploiement et la gestion des modèles de machine learning.
• Collaborer avec les équipes de recherche et de développement pour assurer le déploiement réussi des modèles.
• Gérer les flux de... travail d'entraînement, de test et de déploiement des modèles.
• Optimiser les performances et la scalabilité des modèles en production.
• Travailler sur la mise en place de bonnes pratiques de sécurité et de gouvernance des modèles.
Profiles
Profiles
Ingénieur MLOps - Transport International : Profil Recherché
• Diplôme en informatique, en science des données ou dans un domaine connexe.
• Expérience avérée dans la mise en place de pipelines MLOps pour le déploiement de modèles de machine learning en production.
• Maîtrise des outils et des technologies liés à l'apprentissage automatique et à l'IA.
• Compétences en automatisation et en orchestration (Docker, Kubernetes, Ansible, etc.).
• Compréhension des bonnes pratiques de sécurité et de gouvernance des données.
Offer
Offer
Ingénieur MLOps - Transport International : L'Offre
• Package entre 65K et 75K avec télétravail partiel.
• Environnement de travail dynamique et stimulant dans le domaine de la digitalisation.
• Management basé sur la confiance, la responsabilité individuelle et la performance.
• Opportunité d'innovation et de contribution aux idées.
• Ambiance de travail sympathique dans des locaux très agréables situés au cœur de Paris.
Saisissez cette opportunité et envoyez votre CV à l'adresse email suivante : ou appelez-moi au +33 7 66 81 52 40.
CONFIDENTIALITÉ ASSURÉE - Si cette opportunité ne correspond pas à vos attentes, n'hésitez pas à la partager avec les personnes de votre réseau qui pourraient être intéressées.
Linux - DevOps - SRE - Télétravail - Infrastructure - Cloud - CI/CD - Docker - Kubernetes - Ansible - Terraform - AWS - Azure - GCP - Sécurité - Automatisation | {'salaire': [{'montant_min': 65000.0, 'montant_max': 75000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 193 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Descriptif du poste Description du poste Le/la data analyst valorise l ensemble des données du Groupe pour en faire un levier de création de valeur. Il/elle utilise notamment les données recueillies en masse (entrepôt de données) pour réaliser les nombreux tableaux de bord nécessaires à différents services de l entreprise (finance, e-commerce, marketing, relations clients, Supplychain, ). Il/elle est également en charge de construire des modèles statistiques pour éclairer les services opérationnels (segmentations clients ou analyses prédictives). Profil recherché ACTIVITES ET TACHES Extraction et Structuration des données Extraire les données nécessaires à l analyse (Base métier, API ). Définir des règles de gestion de nettoyage des bases de données (formatage, suppression des doublons ). Définir des règles de gestion de structuration des différentes bases de données entre elles. Écrire et rédiger les spécifications d automatisation des règles de gestion à la direction des systèmes d... information ou à la maîtrise d ouvrage. Maîtriser la qualité des données tout au long de leur traitement. Analyse et Exploration de données Analyser les données : mettre en avant les corrélations, définir les valeurs aberrantes. Réaliser des tableaux de bord ou des outils de reporting industrialisés. Réaliser des tests statistiques sur les données. Construire et tester des modèles statistiques (régression, forêt aléatoire ). Déterminer ou construire les variables importantes à introduire dans les modèles statistiques. Communication inter service Participer aux ateliers d expression des besoins internes. Comprendre précisément les problématiques métiers et les traduire de manière analytique. Communiquer les résultats et les solutions avec les équipes métiers. Présenter les résultats des analyses grâce à des outils de data visualisation. Spécialités Réaliser des analyse et des reporting de performance sur le paiements Rédiger des documentation et supports pédagogiques liés au périmètre Data Accompagner et former les différents collaborateur métier sur les outils Data (acquisition, visualisation et exploitation Expérience dans le poste - Minimum 3 ans Masquer LANGUES- SAVOIR-ÊTRE- Capacité d'analyse- Maîtrise de soi- SAVOIR-FAIREQualité Analyse de données Voir plus Entreprise Allopneus, leader français de la vente de pneumatique sur le Web et nouvellement filiale du Groupe Michelin, est un écosystème fort de ses 300 personnalités, de plus de 100 métiers en profonde interaction pour une communauté de travail et un lien social fort. Le Groupe par son agilité revendiquée est un formidable incubateur de projets professionnels. Autres offres de l'entreprise Processus de recrutement Si CV sélectionné, appel pour convenir d'un rendez-vous - Entretien Process 1- 30 à 45 minutes d'échange pour valider l'adéquation poste/profil Après validation du Manager, prise de RDV Entretien physique ou en visio. Process 2 - Entretien physique ou visio avec le/la manager expert - 30 à 45 minutes Bilan, analyse et synthèse entretien - En collaboration Manager & Recruteur Personne en charge du recrutement Pierre MAURY - DRH Salaire A partir de 30 k€ brut annuel Prise de poste Dès que possible Expérience Minimum 3 ans Métier Data analyst Statut du poste Cadre du secteur privé Zone de déplacement Pas de déplacement Secteur d’activité du poste COMMERCE DE DÉTAIL D'ÉQUIPEMENTS AUTOMOBILES Télétravail Ponctuel autorisé | {"salaire": [{"montant_min": 30000.0, "montant_max": null, "devise": "\u20ac", "frequence_versement": "an"}]} | 243 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Computer Vision/ Deep Learning Engineer
IC Resources is looking for Computer Vision/ Deep Learning Engineer to join a deep-tech start-up developing software in the medical space, combining the latest advances in artificial intelligence and robotics, this vacancy is based in Paris.
What you will be doing?
• Working with a team of experts in computer vision and deep learning.
• Full-cycle research and development of computer vision and deep learning modules.
• Develop and improve tools for signal processing and filtering of 3D data.
• Implement algorithms to analyze, clean and enhance 3D and 2D datasets.
Required experience.
• MSc or PhD in Computer Science, Computer Vision or similar.
• Python and TensorFlow.
• Computer Vision algorithms and systems development.
• Problem-solving and mathematical skills.
What they offer?
€55- 80k
Interested? Give me a call then!
This is a great opportunity for a Master’s or PhD educated Computer Vision/ Deep Learning Engineer. Please apply now for... immediate consideration, you will be speaking to Karla Pineda from IC Resources who is recruiting for this position in Paris, France | {"salaire": [{"montant_min": 55000.0, "montant_max": 80000.0, "devise": "\u20ac", "frequence_versement": "an"}]} | 198 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | / CDI / Environ 70k€ / 0 - 12+ ans / France
Le poste
Missions : * Contribuer à la création du produit DataHub, * Contribuer à l'optimisation des pipelines de traitement des données et à l'enrichissement d'un référentiel de données en intégrant de nouvelles sources de données de nos partenaires internationaux, * Faire évoluer les pipelines de données existants, * Intégrer de nouvelles sources de données, * Évaluer la qualité des données, * Analyser et résoudre les incidents de production, * Concevoir des tableaux de bord pour le suivi des applications, * Améliorer les pipelines CI/CD, * Optimiser les performances des pipelines de données et en assurer le déploiement en production.
Les responsabilités
Pourquoi venir chez nous?
Les équipes "agiles" de Michael Page (consultants & chargés de recrutement) vous apportent de l'écoute, du conseil et des offres adaptées à vos attentes en CDI et en free-lance. Les collaborateurs spécialisés par "Hub" sont à votre service pour vous proposer... les meilleures opportunités de carrière dans les domaines suivants : Infrastructures&Réseaux, ERP&Business Solutions, Digital&Data, Développement | {'salaire': [{'montant_min': 70000.0, 'montant_max': 70000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 323 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Foodles , c'est la cantine en mieux : plus simple, plus généreuse, et plus conviviale Nous ré-enchantons la vie au bureau en proposant une solution de restauration sur-mesure, livrée clé en main, afin que chaque collaborateur puisse se nourrir sainement et à moindre coût.
Votre mission :
En tant que Senior Data Engineer chez Foodles, vous serez responsable de la construction et de la maintenance de notre infrastructure de données, ainsi que de nos pipelines de données. Vous devrez comprendre les besoins en données de l'entreprise et travailler en étroite collaboration avec les équipes métier pour répondre à ces besoins. Vous travaillerez également en étroite collaboration avec l'équipe tech et produit pour élaborer des plans à long terme pour notre infrastructure de données.
Vous intégrez ainsi une équipe constituée de :
• 1 CTO et 10 développeurs
• 1 Head of data, 2 data analystes, 1 data scientist
• 1 Head of product, 2 product manager et 1 UX/UI designer
Vous serez le/la... premier.e Data Engineer à rejoindre l'entreprise et rapporterez directement au Head of Data et êtes le/la principal.e responsable des choix technologiques data.
Vos responsabilités :
Pour mener à bien votre mission au sein de Foodles, vos principales activités seront les suivantes :
• Concevoir et mettre en œuvre l'architecture de notre infrastructure de données pour répondre aux besoins de l'entreprise
• Développer des pipelines de données fiables et évolutifs
• Collaborer avec les autres équipes de l'entreprise pour comprendre leurs besoins en matière de données et créer des solutions pour y répondre
• Assurer la qualité des données et garantir la cohérence des données entre les différents systèmes
• Identifier les opportunités d'amélioration de l'infrastructure de données et proposer des solutions pour y parvenir
• Développer des processus de sécurité pour garantir la confidentialité et la protection des données de l'entreprise, en particulier les données à caractère personnelles
Dans un contexte d'une forte accélération de la data, vous serez amené.e à:
• Faire évoluer notre stack pour:
• atteindre un haut niveau de service et de fiabilité en production
• permettre la croissance de l'équipe data et la transition vers un mode d'organisation data moderne
• créer la confiance des équipes business dans la data
• permettre le développement de cas d'usage d'IA avancés
• Construire des pipelines de données pour collecter des données uniques et ayant énormément de valeur grâce à notre expérience de restauration 100% digitalisée, avec des frigos intelligents et connectés.
La stack Data actuelle est la suivante :
• Stitch, pour déplacer les données des sources vers le datawarehouse
• DBT pour manipuler la donnée au sein du datawarehouse et la rendre utilisable pour des enjeux métiers
• PostreSQL pour la datawarehouse
• Metabase pour visualiser la donnée
Voici un schéma simplifié de l'ensemble de notre stack tech.
C'est cette stack que vous devrez amener au niveau supérieur de qualité et de performance.
Lorsque l'équipe data engineering et analytics engineering grandira, vous serez en position idéale pour prendre des responsabilités de leadership et de management si vous y aspirez et en démontrez la capacité.
Profil recherché :
Nous recherchons un.e candidat.e ayant une solide expérience en ingénierie de données et qui peut travailler de manière autonome pour relever les défis techniques complexes.
• Au moins 5 ans d'expérience professionnelle en data engineering
• Expérience de la mise en œuvre et de la maintenance de Modern Data Stack évolutives et fiables
• Expérience de travail avec des bases de données relationnelles et non relationnelles, ainsi qu'avec des outils de traitement des données tels que Spark, Kafka, Hadoop, etc.
• Expérience de cas d'usage en temps réel, voire de streaming
• Compétences en programmation en Python, Java ou Scala
• Compréhension des problèmes de sécurité liés à l'ingénierie de données
• Idéalement, une expérience en start-up ou scale-up
• Une première expérience de management serait un plus
Chez Foodles, nous sommes déterminés à construire une entreprise inclusive et à fournir un environnement de travail diversifié et accueillant pour tous les membres de notre équipe. Nous encourageons les personnes de tous les horizons à postuler, indépendamment de leur race, de leur sexe, de leur orientation sexuelle, de leur religion ou de leur handicap.
Pourquoi rejoindre notre aventure ?
• Un salaire compétitif (70k€ à 80k€ selon profil & expérience)
• La possibilité si vous le souhaitez de télétravailler 4 jours / semaine (si vous êtes en région parisienne) ou en quasi full remote si vous êtes domicilié.e en région en France (présentiel 1x par mois avec toute l'équipe).
• Un environnement technique intéressant et varié, avec des problématiques d'échelle stimulantes
• Une équipe expérimentée, passionnée et bienveillante
• De bons repas Foodles quand vous passez au bureau... à prix très mini (vraiment... mini), tous les midis
• La possibilité si vous le souhaitez de télétravailler 4 jours / semaine (si vous êtes en région parisienne) ou en quasi full remote si vous êtes domicilié.e en région en France (présentiel 1x par mois avec toute l'équipe).
• Un MacBook Pro M2 de dernière génération.
• Et bien d'autres avantages | {'salaire': [{'montant_min': 70000.0, 'montant_max': 80000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 134 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | "Depuis notre création en 1996, toutes nos collaboratrices et tous nos collaborateurs ont la même ambition: être l'opérateur qui fait grandir les relations humaines. Nous innovons au service de technologies qui font grandir les amitiés, les liens de famille, les histoires d'amour, les engagements solidaires, les projets collectifs. Nous avons créé le premier forfait illimité, nous avons lancé l'internet mobile. Chaque jour, nous redoublons d'efforts pour fournir un réseau encore plus puissant et étendu pour connecter tous les territoires. Nous sommes 9 500 artisans des liens humains, passionnés, au service de 25 millions de personnes partout en France. Nous sommes 9 500 engagés pour l'inclusion, tous différents : par notre parcours, notre métier, nos idées. Alors si pour vous faire grandir les relations humaines est un métier, on est fait pour être ensemble."
Avez-vous déjà rêvé de travailler dans un environnement en perpétuel évolution, défié constamment par l'innovation et le... changement ? Au cœur de la Direction Financière de Bouygues Telecom, au service Comptages, vous interviendrez sur le comptage de nos clients Entreprises tout en gérant les offres associées. Vous serez également partie prenante dans la construction de la clôture des Coûts grâce à notre nouvel outil JACO.
Ce que vous ferez au quotidien :
Comptages :
• Extraire des volumétries clients et réaliser des clôtures budgétaires mensuelles.
• Présenter au CoDir Financier et publier à la DG le reporting mensuel des évolutions de notre parc clients, accompagné d'analyses ponctuelles.
• Préparer les enquêtes trimestrielles de l'ARCEP et répondre aux autres demandes institutionnelles.
Participation à la transformation du système analytique financier de façon transverse pour la Direction :
• Piloter le changement d'outil pour la production des clôtures en collaboration avec nos équipes DSI et Métiers.
• Industrialiser les productions, optimiser les flux, renforcer les contrôles et proposer de nouveaux indicateurs.
• Adapter les principaux reportings sous Tableau.
En complément de vos missions principales, vous pourrez intervenir sur des missions de type projet :
• Analyser des flux transverses,
• sécuriser le périmètre,
• créer des indicateurs d'alerte.
• Vous êtes diplômé d'une formation Bac+5, type Ecole de Commerce, d'Ingénieur, Université ou IAE.
• Vous avez une expérience minimum d'1 an en contrôle de gestion.
• Vous êtes reconnu pour votre proactivité pour ne pas rester bloquer sur des problématiques et aller chercher l'information.
• Votre curiosité vous permet de comprendre notre mode de fonctionnement et proposer des améliorations.
• Votre rigueur, esprit de synthèse et relationnel sont vos atouts pour mener à bien des projets de transformation.
• Vous êtes quelqu'un avec une forte appétence pour les sujets data et leur manipulation.
• Vous avez de bonnes connaissances d'Excel et pu mettre en pratique l'utilisation de SQL lors de vos expériences professionnelles (obligatoire | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 393 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Consept recherche …
Description
Intégré(e) dans l'équipe projet de notre client Grand Compte, vous êtes accompagné(e) par un parcours d'intégration au sein de notre entité de proximité de 20 consultants avec l'appui d'un groupe indépendant de 100 personnes. Vous intervenez sur les fonctions suivantes :
- Réaliser l'extraction de données afin de réaliser les analyses (Web Scraping),
- Procéder au Data Mining afin de faire des prédictions stratégiques,
- Créer et effectuer les tests d'algorithmes (Machine Learning),
- Effectuer le traitement d'images et de texte (Pattern Matching),
- Effectuer un reporting des résultats en s'appuyant des outils de Dataviz, Dashboards,
- Participer aux vérifications lors des phases de recette,
- Assurer une veille technologique sur les outils de Data Science.
Environnement Technique :
- Langage : Python, SQL,
- Frameworks : Tensorflow, PyTorch, Hadoop, Spark,
- Intégration continue : Docker, Kubernetes, Jenkins,
Profil :
De formation... supérieure en Ingénierie Informatique (Cursus Universitaire ou Ecole d'Ingénieurs), vous justifiez d'une expérience significatives en Machine Learning sur des données structurées.
En résumé ...
• Nantes - 44
• CDI
• 35 000 - 40 000 EUR par an
• Secteur informatique • ESN
• Bac +5
Publiée le 20/04/2023. Réf : c1a6e76035f6ad201767e17de2a5ba2d | {'salaire': [{'montant_min': 35000.0, 'montant_max': 40000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 190 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | GEODIS est un leader mondial du transport et de la logistique, reconnu pour son expertise sur l'ensemble de la supply chain. Partenaire de croissance de ses clients, GEODIS intervient sur cinq métiers : l'optimisation de la chaîne d'approvisionnement, le Freight Forwarding, la logistique contractuelle, la distribution & l'express et le transport routier. Avec un réseau mondial couvrant près de 170 pays et plus de 49 400 collaborateurs, GEODIS se classe au sixième rang mondial de son secteur. En 2022, GEODIS a réalisé un chiffre d'affaires de 13,7 milliards d'euros. GEODIS est une société du groupe SNCF.
Ce poste est également ouvert à toute personne reconnue travailleur handicapé
Basé au siège social de la Line of Business European Road Netwrk à Méry (73), nous recherchons un(e) Data Engineer pour rejoindre les équipes IT.
Vos missions principales seront les suivantes:
- Vous êtes responsable du maintien en conditions opérationnelles des outils BI utilisés chez Geodis ERN et de... leur bonne utilisation par les équipe de développement BI.
- Vous faites évoluer le S.I.D. (organisation des données, qualité, modélisation, gouvernance …) en tenant compte des directives du groupe GEODIS (Datalayer …)
- Vous êtes un acteur majeur de l'intégration de nos DATA dans le Datalayer du groupe GEODIS et vous accompagnez les équipes pour leur montée en compétence sur les solutions techniques déployées.
Votre profil :
- Expériences significatives dans un poste équivalent
- Maîtrise de la modélisation d'un SI décisionnel.
- Bonne connaissance des solutions embarquées dans un Datalayer (Cloudera …) et des langages structurés (Python, Javascript, Scala …)
- Maîtrise d'un ETL (idéalement Talend)
- Compétences sur les outils BI (Power BI, Cognos …)
- Bon communiquant, pour convaincre, expliquer, transmettre ses compétences
- Force de proposition (challenger les offres BI actuelles et futures)
+++: Dans un cadre agréable entre lac et montagnes, vous bénéficierez, entre autres, de titres restaurants, d'une épargne salariale attractive, de jours de télétravail, … | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 108 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Web Transition recrute un Data Scientist H/F, en Métropole Lilloise Implantés à Paris et à Lille, chaque jour et depuis 10 ans, ce sont 60 consultants Web Transition qui interviennent auprès de nos clients dans le développement de leurs activités digitales. Nous avons rejoint le Groupe MoOngy (5000 personnes) comme la filiale reconnue dans la Transformation Digitale et le E-commerce. Dans les secteurs du retail, du luxe, de la banque & assurance et des services, nos Consultants accompagnent nos clients grâce à leurs expertises en Digital Marketing, Design, Pilotage de Projets Web & Mobile, Data & IT. ✔ Vos missions: Votre mission principale consiste à mettre en place et à accompagner les projets data, ainsi qu’à répondre aux différentes problématiques et besoins métiers. Vous travaillez sur les problématiques e-commerce et marketing clients via des analyses de données et des modélisations, afin de renforcer la connaissance du marché et du portefeuille clients. Vous collaborez... étroitement avec l’équipe data interne (Data Scientist, Data Analyst, Data Engineer) ainsi qu’avec l’équipe marketing. Vous aurez pour principales missions: - L’analyse et l’exploitation des données en grande quantité ; - La définition des modèles prédictifs et des algorithmes d’analyses des données, ainsi que leur mise en production ; - La collecte, la structuration, le croisement et la restitution via des dashboards des données ; - L’automatisation de reporting ; - L’identification des risques et analyse d’impact ; - L’optimisation de la segmentation client à l’aide des statistiques ; - La mise en place des infrastructures Big Data pour traiter les données ; - L’analyse des résultats et la proposition des solutions. ✔ Votre profil: - Issu d'une formation bac+5 (université, école d’ingénieurs ou école de commerce avec spécialisation en informatique/statistiques/mathématiques/économétrie/big data), vous justifiez d’une expérience d’au moins 3 ans sur un poste similaire dans le domaine du e-commerce ; - Vous maîtrisez les langages de traitement de données (Python, R, SQL, ou encore Spark) ; - Vous avez une connaissance approfondie des technologies et services cloud (GCP, Azure) ; - Vous avez d’excellentes capacités de communication et de vulgarisation. Cette opportunité vous intéresse ? N'hésitez plus et tentez l'aventure ! Type d'emploi : Temps plein, CDI Salaire : 30 000,00€ à 50 000,00€ par an Avantages: - Participation au Transport - Titre-restaurant Programmation: - Périodes de travail de 8 heures - Travail en journée Types de primes et de gratifications: - Primes Lieu du poste : Télétravail hybride (92100 Boulogne-Billancourt | {'salaire': [{'montant_min': 30000.0, 'montant_max': 50000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 213 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ?
Pour tout savoir sur nous et votre future mission c’est par ici
Vous êtes data scientist scoring H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances.
CE QUI VOUS ATTEND
Dans le cadre de la mission votre rôle sera :
· Concevoir, développer et mettre en œuvre des modèles de scoring en utilisant des techniques avancées d'apprentissage automatique et de statistiques.
· Travailler en collaboration avec les équipes métier pour comprendre les objectifs, identifier les variables clés et définir les critères de succès pour les modèles de scoring.
· Collecter, nettoyer et préparer les données nécessaires à l'entraînement des modèles.
· Utiliser Python et d'autres outils analytiques pour développer des scripts et des pipelines de données efficaces.
· Évaluer la... performance des modèles, ajuster les paramètres et effectuer des améliorations continues.
· Communiquer efficacement les résultats des analyses et des modèles aux parties prenantes non techniques.
CE QUE VOUS ETES
Data scientist confirmé avec un minimum de 7 ans d’expérience dans la fonction, vous avez :
· De l’expérience significative dans le développement et le déploiement de modèles de scoring.
· La maîtrise de Python et de bibliothèques telles que NumPy, Pandas, Scikit-Learn, TensorFlow ou PyTorch.
· De solides compétences en traitement des données, y compris la collecte, le nettoyage et la transformation des données.
· Une capacité à travailler de manière autonome et à collaborer efficacement avec des équipes interfonctionnelles.
· D’excellentes compétences en communication pour expliquer les résultats complexes de manière claire et concise.
CE QUE VOUS AVEZ (AUSSI) ENVIE DE SAVOIR
Démarrage : Vous faites quoi demain ? Le client et l’équipe vous attendent dès que possible.
Durée : 6 mois renouvelable pour une mission longue durée.
Rythme : Hybride: 3 jours TT / 2 jours présentiel
TJM : 600€ HT et plus selon expertise.
CE QUE L’ON EST
Vous êtes toujours là ?
WEKEY est un Cabinet de conseil en transformation digitale et conduite du changement. Notre cœur de métier est de vous accompagner en tant que consultant.e indépendant.e pour réaliser des prestations, qui correspondent à vos attentes, auprès de nos clients. Et nos clients et nos talents, on les chouchoute !
Parce que vous partagez nos valeurs de la transparence, du sens du service et de la bonne humeur, alors cette mission est faite pour vous !
CE QUI FAIT LA DIFFERENCE
Vous êtes déjà indépendant.e ? C’est parfait, venez rejoindre une top communauté de freelances !
Vous ne l’êtes pas encore ? Wekey vous accompagne pour choisir entre le statut freelance et le portage salarial : bénéficiez de l’écosystème WEKEY pour vous aider dans votre réflexion (Cabinet Breakfree expert-comptable, société de portage salarial etc.)
Wekey est avant tout une équipe réactive, à votre écoute et disponible pour :
· Trouver LA mission qui vous correspond
· Vous accompagner tout au long de votre projet
· Anticiper la fin de votre contrat pour vous en proposer d’autres !
Alors ça vous tente ? Postulez ! Nous avons hâte de vous accompagner
CE QUI VA SE PASSER
30 min’ :Alain, Dénicheur de Talents, vous contactera pour un premier échange afin de mieux vous connaître et de comprendre vos attentes.
45 min’ : Vous échangerez avec Anaïs, super Agent de Talents sur le contexte de la mission.
1 h’ : La mission vous intéresse et le client souhaite vous rencontrer, nous préparons ensemble cet échange.
5 min’ : Pour vous annoncer la bonne nouvelle ! Et puis, si ce n’est pas pour cette mission, ce sera pour une autre !
Type d'emploi : Temps plein, Indépendant / freelance
Salaire : à partir de 600,00€ par jour
Avantages :
• Travail à domicile occasionnel
Programmation :
• Du lundi au vendredi
• Horaires flexibles
• Travail en journée
Lieu du poste : Télétravail hybride (79000 Niort | {'salaire': [{'montant_min': 600.0, 'montant_max': None, 'devise': '€', 'frequence_versement': 'jour'}]} | 25 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | WE ARE BETCLIC
Betclic est une société tech de jeu en ligne et leader du pari sportif dans plusieurs pays Européens. Tous les jours Betclic s’engage à satisfaire la passion du sport en fournissant la meilleure expérience de divertissement à ses joueurs grâce à des technologies de pointe innovantes qui leur assurent un environnement de jeu sûr et sain.
Betclic, dont le siège français est à Bordeaux, est une entreprise multiculturelle et internationale comptant près de 950 collaborateurs répartis dans 5 pays d’Europe: France, Italie, Malte, Pologne, et Portugal.
L’univers du sport et du jeu te fait vibrer ? Tu aimes les défis et participer à l’effort collectif? Rejoins l’aventure!
ENTER THE GAME
En tant que Stagiaire ML Engineer, tu seras intégré(e) au sein de l'équipe Cybersécurité qui est en charge de garantir la sécurité et la conformité des systèmes d’information.
YOUR ROLE WITHIN BETCLIC
À ce titre, et accompagé par un profil sénior de l'équipe, tes missions sont les... suivantes:
• Création d’un modèle de Machine Learning Cyber Securité avec mise en place de l’environnement
• Environnement de travail : Microsoft Azure ML
• Gisement de données : Microsoft Sentinel (SIEM/Monitoring Cyber sécurité)
• Langages (développements) : Jupyter et Python
WHO WE ARE LOOKING FOR?
Des collaborateurs avec une bonne dose d’humour, du respect et de la bienveillance, un peu de zèle et une réelle passion pour leur métier !
Ce stage est fait pour toi si :
• Futur(e) diplômé(e) d’une école d’ingénieur spécialisé en informatique / data.
• Tu disposes d’une première expérience (stage ou projet d’études) en Machine Learning
• Et enfin, tu as des notions d’anglais.
WHAT ARE THE RECRUITMENT STEPS?
• Si ta candidature est sélectionnée, tu seras contacté par Maxime sous une semaine pour une préqualification RH (30 minutes)
• Nous te demanderons ensuite de réaliser le Test AssessFirst (personnalité, motivations et réflexion)
• Tu rencontreras ensuite - Sofiane, Head of Engineering puis tu rencontreras des membres de l'équipe
• Enfin, Maxime te recevra en entretien final RH et en profiterons pour débriefer ensemble ton Test AssessFirst
Afin d’offrir une expérience candidat idéale, le processus de recrutement Betclic dure, en moyenne, 4 à 6 semaines.
WHAT CAN YOU EXPECT?
• Une carte Ticket Restaurant® créditée de 10€ par jour (financée à hauteur de 50%)
• Un abonnement de transport pris en charge à hauteur de 50% ou une prime annuelle de mobilité durable (200€ pour les trajets domicile – travail en transport durable)
• Un accord de télétravail avantageux
• Des locaux hors du commun avec un rooftop pour profiter de pauses et de déjeuners au soleil face à la Cité du Vin
• Des animations internes pour pimenter ton quotidien
• Des cours de sports gratuits dans nos locaux
Et surtout, l’opportunité de travailler dans une atmosphère jeune, conviviale et fun!
Stage à pourvoir dès Janvier 2024 à Bordeaux.
Betclic Group - 117 quai de Bacalan 33300 BORDEAUX
Tous nos postes sont ouverts aux personnes en situation de handicap.
#J-18808-Ljbffr | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 149 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Critères de l'offre
• Data scientist (H/F)
• Toulouse (31)
• CDI
• Temps Plein
• Secteur :
Systémier / Maître d'œuvre
Description du poste
Description de l'emploi :
Airbus Commercial Aircraft est à la recherche d'un Product manager (f/h) pour la mise en place et le maintien en condition opérationnelle de solutions analytiques avancées et de data science (f/m) destinées au domaine finance.
Vous ferez partie d'une équipe basée à Toulouse, France développant des solutions analytiques au sein du département IM (DMFP). Vous participerez à la mise en œuvre de solutions visant à soutenir les ambitions de transformation financière d'AIRBUS.
Votre environnement de travail :
Capitale mondiale de l'aéronautique et capitale européenne de la recherche dans le spatial, Toulouse est une ville dynamique du sud-ouest de la France desservie par un aéroport international. Idéalement située entre la mer Méditerranée et l'océan Atlantique et à proximité des Pyrénées, elle offre de nombreuses... possibilités d'activités de plein air !
Parce que nous prenons soin de vous :
• Avantages financiers: Salaire attractif, accords d'intéressement et de participation, plan d'épargne salariale abondé par Airbus, plan d'actionnariat salarié sur la base du volontariat, avec attribution d'actions gratuites en fonction du nombre d'actions souscrites.
• Équilibre vie privée / professionnelle: Des jours de congés supplémentaires pour occasions spéciales et des options de transfert de congés, un comité d'entreprise proposant de nombreuses activités socio-culturelles et d'autres services.
• Bien-être / santé: couverture complémentaire des frais de santé et de prévoyance (incapacité, invalidité, décès). Selon le site : centre de services de santé, services de conciergerie, salle de sport, application de covoiturage.
• Développement individuel: des opportunités d'évolution et des possibilités de formations nombreuses (catalogue de plus de 10.000 e-formations disponibles en libre accès pour développer votre employabilité, certifications, programmes de développement accéléré, parcours expert, mobilité nationale et internationale).
Chez Airbus, nous vous aidons à travailler, à vous connecter et à collaborer plus facilement et de manière plus flexible. Partout où cela est possible, nous favorisons la flexibilité dans nos modes de travail afin de stimuler l'esprit d'innovation.
Vos challenges:
• intégrer une MFT (Multi Functional Team) composée, d' IT Product/Application et d'experts fonctionnels afin de gérer le cycle de vie IT Product/Application ou Service, à la fois en développant les produits/services et en les exploitant pour répondre aux exigences opérationnelles (SLA).
• Devenir solution owner d'un portfolio applicatif et conduire les différentes évolutions requises.
• Représenter les utilisateurs finaux en assurant une parfaite compréhension de leurs besoins et de leur processus métiers et veiller à ce que les solutions servent au mieux les deux.
• comprendre et adhérer aux processus de développement AGILE et Veiller à traduire la vision n du produit et de l'application ou du service dans un backlog priorisé en collaboration avec le owner de l'application ou du produit
• Définir les modèles de rétrofacturation pour les produits/applications ou services informatiques respectifs.
• Définir et mettre en place les lignes de service adaptées au besoin ou au processus mercier dans lequel s'inscrit les applications concernées.
Votre carte d'embarquement:
• Maîtrise en data science ou en informatique, ou l'équivalent.
• Ingénierie des données (comprendre et gérer les flux de données nécessaires conformément aux processus métiers et à la stratégie financière)
Connaissance des technologies de business intelligence & de dataWareHousing (idéalement dans le contexte SAP BW)
Expérience des techniques de modélisation des données.
• Compétences en analyse de données, statistiques appliquées, exploration de données, science des données seraient un atout important
Solides compétences analytiques et mathématiques.
Maîtrise des logiciels statistiques et des langages de programmation tels que Python ou R.
Expérience de l'apprentissage automatique et de la modélisation statistique.
Informatique : Python, R, Matlab, Jupyter Notebooks
• Expérience de la gestion de projet et de l'utilisation de compétences et de cadres de gestion de projet (AGILE scrum/Waterfall).
• Capacité et volonté d'intégrer une équipe aux profils et objectifs variés
• Être à l'aise pour travailler avec un large éventail d'intervenants et d'équipes fonctionnelles.
• Bonnes compétences de communication et de résolution de problèmes.
• Niveau de négociation de l'anglais.
Fourchette de salaire:
Fourchette de salaire sur la base du profil recherché : 45 à 55 K€/an (incluant une part variable basée sur votre performance). Information fournie à titre indicatif.
Vous ne matchez pas à 100%? Pas d'inquiétude! Airbus vous accompagnera dans votre plan de développement.
Donnez une nouvelle dimension à votre carrière en candidatant en ligne maintenant!
Cet emploi exige une connaissance des risques de conformité potentiels et un engagement à agir avec intégrité, comme base de la réussite, de la réputation et de la croissance durable de la société.
Unité légale :
AIRBUS SAS
Type de contrat :
CDI
-------
Classe Emploi (France): Classe F12
Niveau d'expérience :
Expérimenté(e)
Famille d'emplois :
Information Mgmt and Digital Technology
En soumettant votre CV ou votre candidature, vous autorisez Airbus à utiliser et stocker des informations vous concernant à des fins de suivi de votre candidature ou de futurs emplois. Ces informations ne seront utilisées que par Airbus.
Airbus s'engage à assurer la diversité de sa main-d'œuvre et à créer un environnement de travail inclusif. Nous accueillons toutes les candidatures, quels que soient le milieu social et culturel, l'âge, le genre, l'invalidité, l'orientation sexuelle ou les croyances religieuses des postulants.
Airbus est depuis toujours attaché à l'égalité des chances pour tous. En tant que tel, nous ne demanderons jamais aucun type d'avance de frais dans le cadre d'un processus de recrutement. Toute usurpation d'identité d'Airbus à cette fin doit être signalée à emsom@airbus.com.
Chez Airbus, nous vous aidons à travailler, à vous connecter et à collaborer plus facilement et de manière plus flexible. Dans la mesure du possible, nous favorisons les modalités de travail flexibles pour stimuler la pensée innovante | {'salaire': [{'montant_min': 45000.0, 'montant_max': 55000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 188 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Mon client est à la recherche de deux Data Ananlyst avec des déplacements sur ses deux sites situés dans le 94 et 93 mais le plus souvent vous serez basé dans le 94. Mission Les Datas Analysts devront s’approprier les environnements data du Groupe et répondre à des missions de data analyst. Le responsable de la DF pourra prendre l’initiative d’incuber la ressource dans les directions métiers ou dans le cas contraire de laisser la ressource au sein de la DF et de réaliser la prestation pour la DSI. Des connaissances fonctionnelles des domaines suivants seront très appréciées : - Domaine Client et Retail : le panier moyen, les redevances, la gestion des abonnements parkings etc - Domaine Maintenance : le suivi des levées de réserves, les avis, les OT etc - Domaine RH et contrôle de gestion sociale : ETP, Turnover etc Profil candidat: - Maitrise des outils Data et des paradigmes de BI et Big Data : Ecosystème Microsoft Azure, Databricks, Power BI Cloud et RS (on premise) - SAP Business... Object (Webi) et ETL BODS 4.2 (seront très appréciées) - Microsoft Azure DEVOPS - Méthodes Agiles : Scrum Benefits TJM : selon profil Démarrage : ASAP Lieux : -téléphone masqué- remote | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 41 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Description de l'établissement :
Situé dans le 12ème arrondissement de Paris (Bastille), l’hôpital national de la vision des 15-20 est un établissement public de santé de ressort national spécialisé en ophtalmologie, reconnu internationalement dans le traitement des pathologies affectant la vision. Il assure l’ensemble des missions d’un hôpital universitaire (soins, enseignement, recherche et prévention) et propose, chaque année, une prise en charge d’excellence à près de 120 000 patients.
Structurée autour de quatre services hospitalo-universitaires d’ophtalmologie, l’organisation des 15-20 est entièrement tournée vers la prise en charge des maladies de l’œil et la pratique d’opérations chirurgicales (25 000 par an), dont 86% se font en ambulatoire.
L’offre de soins s’appuie sur trois centres spécialisés du glaucome, de la cornée (y compris chirurgie réfractive et kératocône) et de la rétine, qui complètent les consultations assurées par le centre des consultations d’ophtalmologie... (CCO). Outre l’accueil de plus de 50 000 urgences ophtalmologiques 24h/24 et 7jours/7, l’hôpital propose ainsi une prise en charge de haut niveau de la majeure partie de la pathologie ophtalmologique, qu’elle soit médicale, chirurgicale ou neuro-ophtalmologique.
Présentation du service et de l'équipe :
Entièrement tourné vers l’ophtalmologie, le Centre Hospitalier National d’Ophtalmologie (CHNO) est devenu, au fil du temps, un véritable pôle de référence dans le traitement des pathologies de l’œil.
A cet effet, le centre hospitalier national comporte :
• Quatre services d’ophtalmologie disposant des équipements les plus performants et les plus récents,
• Un service d’anesthésiologie et un bloc opératoire de 8 salles,
Un service de médecine interne,
• Un service de neuro-imagerie (doté d'une IRM de dernière génération et d'un scanner à rayons X),
• Un laboratoire de biologie médical et d’anatomopathologie,
• Un service d’urgences,
• Une pharmacie hospitalière,
• Des consultations générales et spécialisées.
Dans le cadre de l’Institut Hospitalo-Universitaire (IHU) associant le CHNO, l’Institut de la Vision (IdV), l’INSERM, Sorbonne Université et la Fondation Voir et Entendre, le CHNO se dote d’un entrepôt de données cliniques sous la responsabilité d’un médecin spécialisé en informatique médicale.
Pour mener à bien ce projet, une équipe est constituée autour de ce responsable médical et comprendra :
• 1 ingénieur data
• 1 data scientist profil «Méthodologie et biostatistique»
1 data scientist profil «Machine learning et traitement de l’image
Description de la mission :
Mission générale
L’entrepôt de données cliniques vise à remplir un certain nombre de missions autour de la numérisation des pratiques au sein du CHNO, du développement de la recherche clinique interne au CHNO, ainsi que de l’accélération des collaborations avec l’IdV dans le cadre de l’IHU. Il s’agira dans la pratique de la constitution de files actives de patients recrutables dans des essais cliniques, la constitution de cohortes, la réalisation d’études rétrospectives sur données de vie réelle collectées lors du soin dans l’établissement, et la collaboration sur des projets de recherche translationnelle avec les chercheurs de l’IdV et ses partenaires internationaux.
Le rôle du data scientist ML/images sera d’accompagner les chercheurs de l’hôpital et de l’institut de la vision dans leurs projets de recherche autour de l’entrepôt et spécifiquement du traitement des images.
Le data scientist est compétent en méthodologie de la recherche, en machine learning, réseaux de neurones convolutionnels, traitement du signal.
Missions permanentes
• Accompagnement méthodologique des projets de recherche sur l’entrepôt
• Extraction de données de l’entrepôt
• Extraction des images de systèmes d’imagerie divers
• Data management des données extraites
• Conception de modèles de classification d’images
• Rédaction de rapports d’analyse
Rédaction des parties méthode et résultats d’articles scientifiques
Profil recherché :
COMPETENCES REQUISES
L'expérience particulière souhaitée
Titulaire d’un diplôme Bac+5 en data science, statistiques, biostatistiques avec expérience de 2 à 4 ans dans le secteur de la recherche bio-médicale et disposant de compétences dans les secteurs suivants :
Ø Méthodologie de la recherche scientifique et biomédicale
Ø Maîtrise de R / Python
Ø Maîtrise des libraires de deep learning (Keras, Tensorflow, …)
Ø Expérience dans le traitement d’imagerie médicale et des formats DICOM
Ø Data management
Ø Modèles multivariés, modèles de survie
Ø Interrogation de bases de données SQL
Ø Familiarité avec les environnements UNIX/Linux
Maîtrise de l’anglais scientifique et médical
Horaires : Horaires normaux
Période de la journée : Jour
Contrat à durée déterminée, Contrat à durée indéterminée, Contrat à durée indéterminée | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 356 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Poste :
RATP DEV, filiale du Groupe RATP, assure l’exploitation et la maintenance de réseaux de transport urbains et interurbains dans 15 pays au travers de 100 filiales. Grâce au professionnalisme de nos 24 000 collaborateurs et à l’expertise d’un leader mondial du transport public, nos filiales apportent performance, dynamisme et fiabilité à nos clients et aux voyageurs de leurs réseaux.
Au sein de RATP Dev, la Business Unit France-Suisse (50 filiales, 5100 collaborateurs) assure le développement des activités du groupe au service des voyageurs et des autorités organisatrices de transport en France et en Suisse.
Dans un contexte d’augmentation des besoins dans un domaine en forte transformation, la Business Unit (BU) France/Suisse de RATP Dev recrute un ou une Data Analyst hf.
Vous êtes rattaché-e à la Direction des opérations de la BU France/Suisse de RATP Dev. Comme Data Analyst, vous êtes rattaché-e au Data Manager au sein du pôle « Systèmes Opérationnels & Data », et... assistez la BU et ses filiales dans leurs besoins et projets liés à la donnée.
Vos missions principales sont de collaborer avec le Data Manager afin de répondre aux besoins data de la BU France/Suisse et de ses filiales à travers des projets de collecte de données, de modélisation et de data visualisation.
A ce titre, vos principales missions sont les suivantes :
Projets data visualisation
o Vous être responsable de la définition et de la mise en place des tableaux de bord de visualisation des données (Qlik Sense)
o Vous conceptualisez la structure de chaque tableau de bord
o Vous animez des ateliers de travail avec les équipes métiers
o Vous développez, automatisez et mettez en service les reportings
o Vous assurez le SAV de vos productions
Collecte de données
o Vous cartographiez les données à collecter
o Vous assurez la conformité du traitement des données : respect des règlementations sur les données (RGPD et règlementations locales), respect des règles de confidentialité des données, respect de l’intégrité des données
o Vous participez à la création des modèles de données en vue de l’alimentation du datalake RATP Dev
o Vous recettez et validez la solution mise en place et la qualité des données
Veille technologique
o Vous suivez les dernières évolutions de l’outil BI permettant d’enrichir l’ergonomie des applications.
o Vous vous tenez informé des développements de nouveaux outils / technologies permettant d’optimiser les traitements des données ou la mise à disposition des tableaux de bord
Communication & sensibilisation
o Vous participez à la communication sur les projets data au sein de la BU et de ses filiales afin de faire connaître les solutions déployées
o Vous participez à la sensibilisation de la BU et de ses filiales sur les sujets liés à la donnée, leur importance et leur prise en compte dans les projets SI.
Profil :
· Vous êtes diplômé en informatique, data science ou statistiques.
· Vous avez de bonnes connaissances techniques sur Qlik Sense, Python, Snowflake et le requêtage de base de données (SQL).
· Vous êtes méthodique, organisé-e et avez un bon sens de la communication pour manager des projets tant avec des contributions internes qu’externes (consultants) grâce à votre vision technique et votre sens de l’exigence.
· Vous avez la capacité de comprendre et de challenger un besoin métier pour le retranscrire dans un modèle de données.
· Votre capacité de synthèse et de formalisation des attentes et besoins ainsi que votre capacité d’écoute et d’échange vous permettent de répondre aux attentes du poste.
· Vous êtes à l’aise avec l’habitude de « rendre compte ».
· Vous aimez travailler en équipe dans un univers en fort développement dans lequel il est nécessaire de prioriser les projets.
· Vous êtes ouvert aux problématiques plus générales de l’entreprises et votre sens du partage d’information est capital pour apporter les réponses-métiers les plus complètes (transverses), les plus efficaces (opérables) et les plus sûres (durables).
· Vous êtes culturellement en « veille technique ».
Poste basé à Paris 12ème avec des déplacements possibles en Filiale (France et Suisse).
Télétravail possible deux jours par semaine.
Entreprise : Afin de soutenir la croissance de notre groupe et développer de nouvelles solutions de mobilité, au service de nos partenaires et clients, nous accompagnons le développement de nos collaborateurs et encourageons leur mobilité tant fonctionnelle que géographique. RATP Dev, filiale du Groupe RATP, assure l'exploitation et la maintenance de réseaux de transports urbains et interurbains dans 15 pays au travers de plus de 100 filiales. Grâce au professionnalisme de nos 27 000 collaborateurs et à l'expertise d'un leader mondial du transport public, nos filiales apportent performance, dynamisme et fiabilité à nos clients et aux voyageurs de leurs réseaux | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 392 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Data Analyst Paris, Ile-de-France €38 000 - €40 000 Rejoignez ce groupe retail français de renom en tant que Data analyst au sein d'une équipe dynamique en pleine expansion. Au sein de cette équipe, vous participerez à l'élaboration et la mise en oeuvre du plan de contact. Vous participerez à l'amélioration l'efficacité des actions de personnalisation et veillerez à la qualité de la donnée. LE PROFIL Vous êtes diplômé d'une formation en Data analyse Vous disposez d'une première expérience en stage ou alternance Vous êtes customer-driven Vous êtes motivé et intéressé par le monde du retail Si vous êtes intéressé(e), postulez en cliquant sur le bouton ou en envoyant votre CV à | {"salaire": [{"montant_min": 38000.0, "montant_max": 40000.0, "devise": "€", "frequence_versement": "an"}]} | 15 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Qui sommes-nous?
Fédérateur de talents au service de l'excellence digitale, Néo-Soft est un Groupe indépendant de conseil en transformation digitale. Reconnu pour l’expertise de ses 1 700 consultants et ses 15 implantations dans 4 pays, nous sommes spécialisés dans 5 domaines d'expertise : - Conseil & Gestion de projet - Domaine applicatif - Systèmes & Réseaux - Cybersécurité grâce notre filiale dédiée Cogital - Data Une offre diversifiée pour accompagner nos clients tout au long de leurs projets. Animés par une forte exigence sociétale et engagés sur les enjeux environnementaux, nous nous mobilisons au quotidien pour le bien-être de nos consultants, une démarche récompensée par le label Engagé RSE et l’obtention du label Happy At Work depuis 4 ans.
Data ? Ops ? Data Ops ? La data et le développement vous intéressent ? Et si vous rejoigniez nos équipes présentes chez nos clients sur des problématiques Big Data dans les secteurs du Retail, de la Banque, et de l’Assurance.
Les... équipes sont organisées via une approche Agile autour de l’amélioration continue.
Vous interviendrez sur la conceptualisation et l’architecture des modèles de données à mettre en place, modèles qui répondront à des problématiques de segmentation clients (lister d’autres enjeux clients)
Vous évoluerez dans des environnements autour de GCP, AWS, Azure sur des langages tels que Python, Scala, Java, Golang | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 166 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | **Additi**
• *Contrat à Rennes 35000**
• *Les missions que l'on pourra te confier**:
- Stratégie opérationnelle : analyses de performance, aide aux décisions stratégiques et pilotage de l’activité commerciale,
- Optimisation et automatisation des opérations : mise en place de processus, d’outils et de features produit pour fluidifier les opérations,
- Accompagnement des équipes sales : structuration des équipes, soutien aux managers commerciaux dans la gestion de leurs équipes et de leurs projets,
- Accompagnement des équipes marketing : automatisation, exploration de nouveaux canaux, qualification et traitement des leads.
Monitoring et performance (40%):
- Modélisation de data pour assurer le suivi de la performance commerciale et marketing,
- Analyse de données approfondie pour identifier des axes d’amélioration et maximiser la productivité de l’équipe,
- Mise en place de nouveaux KPIs et de la remontée data requise avec l’équipe produit/tech.
Structuration et process (30%):
... Définition de nouveaux process de suivi de la performance,
- Préparation et animation des réunions avec le management,
- Product Management et interface avec les équipes tech.
Mise en place et suivi de projets (30%):
- Réalisation d’analyses ad hoc pour étudier le fonctionnement des opérations et identifier de nouvelles opportunités d’optimisation,
- Automatisation des tâches chronophages et à faible valeur ajoutée, en collaboration avec l’équipe Commerciale/produit/tech,
- Mise en place d’outils à destination des équipes sales et marketing.
- Expert Crm et Salesforce vous participez à la montée en expertise via un suivi précis
• *Ce qu’on attendra de toi**:
- Participer activement à penser et mettre en place la stratégie opérationnelle,
- Travailler en transversalité avec toute la BU,
- Exprimer ta personnalité et apporter un regard complémentaire,
- Remettre en question les process actuels et améliorer la performance des équipes.
• *Ce que tu peux attendre de nous**:
- Avoir un terrain d’expérimentation très vaste
- Avoir à disposition des outils qui te permettront de monter rapidement en compétences (Salesforce, QlikSense )
- Travailler dans la bienveillance et la confiance
- Participer à la stratégie et l’appliquer pour apprendre à utiliser avec finesse les outils et leviers marketing
- Vivre une expérience qui aura de la valeur dans ton parcours
• *Le profil idéal qu’on recherche**:
- Tu es cartésien(ne) et curieux(se), rigoureux(se) envers toi-même comme de tes collègues
- Tu aimes être autonome dans ton travail
- Tu aimes apprendre, aller vers les autres, prendre des initiatives, tester
- Tu as déjà 1 ou 2 **expériences significatives**
- Tu es perfectionniste et as la volonté d'aller au-delà de ce qui t'es demandé
Si tu ne "coches pas toutes les cases" mentionnées ci-dessus et que l'opportunité t'intéresse, pas d’inquiétude, la liste est ni exhaustive ni exclusive.
• *Pourquoi nous rejoindre ?**
- L’opportunité d’avoir une montée en compétence rapide
- Des locaux et un cadre agréables (Ligne de Bus C1, arrêt Sauvaie ou Ligne 11, arrêt Veyettes)
- Une ambiance ambitieuse, pro et sympa
- Une équipe pluridisciplinaire et complémentaire ambitieuse
Ce poste en CDI** **est à pourvoir dés que tu es disponible.
Tu es attiré(e) par le monde des médias et de la publicité ?
Société du groupe SIPA Ouest France, ADDITI propose aux annonceurs une offre publicitaire unique, basée sur des médias puissants et des solutions digitales ciblées.
ADDITI réunit plus de 750 salariés sur 50 départements et fédère les savoir-faire de régies publicitaires dédiées par marchés et secteurs d’activité, de sites d’annonces, de radios et d’affichage.
Additi, expert en communication locale, recherche pour son Marché de l'alimentation dédié aux **professionnels de l’alimentation **(Grandes surfaces alimentaires, commerces de bouche, entreprises agro-alimentaires et acteurs du monde agricole **sur le Grand Ouest : un.e SalesOp **
Rejoins-nous et ADDITIonnons nos talents | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 244 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | En bref, c'est quoi ?
Ta mission principale consiste à Industrialiser des cas d'usage métier datasciences en collaboration étroite avec les Data Analyst, les Data Scientist et les équipes de l'IT.
Ton quotidien ?
Tu es rattaché(e) à la Direction DATA et ANALYTICS.
Dans ce cadre, tu seras amené(e) à :
- Industrialiser des cas d'usage métier datasciences en collaboration étroite avec les Data Analyst, les Data Scientist et les équipes de l'IT :
Préparer des données issues de la plateforme en collaboration avec les Data Scientist,
Industrialiser les différents codes applicatifs,
Gérer des flux de données sur la plateforme data,
Pré-industrialiser des modèles de Machines Learning préparés par les Data Scientist (packaging, déploiement, monitoring des modèles, …) et back-testing en collaboration avec les équipes IT,
Superviser les flux d'alimentation du data lake,
…
- Contribuer à la construction de la nouvelle plateforme data Matmut sur Google Cloud Platform (outils, process... pratiques d'industrialisation) :
Choix d'architecture,
Mise en place des outils de Devops au sein de l'équipe,
Template projets (architecture type, automatisation des builds & deploy, CICD, …)
Mise en place de bonnes pratiques (code, normes, gouvernance des outils, …)
Développement de librairies internes pour réutilisation des traitements,
Monitoring,
Outillage MLOps (reproductibilité, standardisation et automatisation des packaging et déploiement, automatisation des réentrainements, triggers, process, …)
…
- Vulgariser et évangéliser la data au sein du groupe.
Ta satisfaction ?
Tu as envie de te sentir vraiment utile, avec un job intéressant, varié, ou tu pourras faire la différence. Faire partie d'une équipe jeune, dynamique, motivée sur des vrais sujets concrets …
Profil
Ton profil ?
Tu as au moins 5 ans d'expérience en Data Engineering,
Tu es un solide développeur Python avec de l'expérience dans des contextes d'industrialisation,
Tu as des compétences Spark et sais concevoir des traitements optimisés,
Tu es à l'aise avec les outils et pratiques de développement (Git, CI-CD),
Tu as de l'expérience dans des contextes Big Data et/ou cloud (idéalement GCP) : organisation d'un data lake, stockage et traitements distribués, services cloud, …
Tu as l'habitude de travailler avec des Data Scientist et tu as déjà industrialisé des projets de Data Science,
Pout terminer tu es doté d'un bon esprit de synthèse, tu es reconnu pour ta capacité de communication, ta rigueur, ton organisation et ton esprit d'équipe.
Ton salaire et avantages ?
• A partir de 50 000 k€ (évolutif selon expérience)
• Intéressement et participation aux résultats
• Mutuelle santé à 2 € par mois
• Télétravail (2 jours par semaine)
• Remboursement des frais de transport public à hauteur de 75 %
• Comité Social et Économique (CSE) avec de nombreux avantages
• Matmut Académie (formations et parcours professionnels)
Tu as envie d'un employeur mutualiste, engagé, proche de ses clients sociétaires et de ses collaborateurs ?
À la Matmut, nous croyons que sens et ambition sont indissociables. Notre mutualisme, ancré dans la réalité, agit et met en mouvement chacune et chacun d'entre nous. Pour répondre aux besoins de nos 4,5 millions de clients sociétaires et 6 500 collaborateurs, nous nous adaptons chaque jour aux évolutions de la société.
Groupe complet d'assurance, les valeurs mutualistes sont à la base de notre fonctionnement. Notre modèle, sans actionnaires, fait partie de notre ADN depuis plus de 60 ans. Chacun d'entre nous met ainsi son énergie et son expertise au profit du bien commun.
Concrètement
Nous travaillons au service et avec nos clients sociétaires, qui contribuent à la prise de décision et à notre stratégie de développement. Chacun d'entre nous s'implique à leurs côtés. Chacun d'entre nous reste proche d'eux, notamment avec nos 480 agences partout en France. Ensemble, nous agissons pour que la société soit plus solidaire, plus inclusive, et plus active face aux changements climatiques.
En résumé
« Nous assurons, nous accompagnons, nous protégeons, nous nous engageons, c'est notre raison d'agir au quotidien pour aider chacun à construire et rêver demain. » C'est notre Raison d'être, notre raison d'agir.
Toi aussi, Tu partages ce sens de l'engagement ?
Alors échangeons
A compétences égales, ce poste est ouvert aux travailleurs en situation de handicap ou assimilés au sens de l'article L. 5212-13 du Code du travail. L'UES Matmut s'engage en faveur de la diversité, l'égalité professionnelle, l'emploi des travailleurs handicapés.
Contrat
DUREE INDETERMINEE
Temps de travail
Temps complet
Statut
Cadre
Localisation du poste
Lieu
66 rue de sotteville 76100 rouen
Critères candidat
Niveau d'études min. requis
BAC. + 5
Niveau d'expérience min. requis
6 ans et plus | {'salaire': [{'montant_min': 50000.0, 'montant_max': None, 'devise': '€', 'frequence_versement': 'an'}]} | 231 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Les missions du poste
Seyos est un cabinet de recrutement spécialisé dans les métiers de l'IT. Nous intervenons au niveau national et proposons aux candidats des opportunités professionnelles au sein d'éditeurs de logiciels, DSI d'entreprises (clients finaux), startups, acteurs E-commerce. En 9 années d'existence, plus de 1 300 professionnels de l'IT et du Digital ont déjà été recrutés par l'intermédiaire de Seyos au sein de 400 entreprises.
Fondé en 1997, notre client est une association privée qui joue un rôle crucial dans le développement et la sécurité de l'Internet français.
Composé de +90 collaborateurs, ils sont chargés de la gestion des noms de domaine en.fr et de la préservation de l'infrastructure Internet en France.
Cette association a pour principal objectif de fournir aux internautes et aux acteurs du numérique une infrastructure nationale de noms de domaine robuste, résiliente et performante.
Vous allez rejoindre la DSI (+40 collaborateurs) dans un environnement... Agile / SCRUM et prendre part à des projets grandissant (croissance des équipes).
Localisation : Guyancourt (78280) - Semaine de 4 jours (Télétravail : 2 jours / semaine).
Environnement technique : Python, SQL, Tableau, Talend.
Rémunération : 45 000 / 50 000 Euros (annuel) - Hors prime et avantages.
Rattaché au département Etude et Développement, en étroite collaboration avec la data analyst senior, vous allez :
- Mettre en oeuvre les outils informatiques, les techniques et les méthodes statistiques pour permettre d'organiser, de synthétiser et de traduire efficacement des données,
- Construire des modèles satistiques pour les opérationnels (segmentation clients ou analyse prédictive),
- Dans un environnement BIG DATA, vous réaliserez des tableaux de bord et des visualisations claires et impactantes pour faciliter la prise de décision et fournir un appui analytique,
- Extraire des insights significatifs à partir de données complexes,
- Collaborer étroitement avec les équipes métier pour comprendre leurs besoins en analyse de données.
Le profil recherché
Votre profil :
- Vous êtes diplômé d'un Bac +4/5 (Ecole d'ingénieur ou Université française) en statistiques, informatique, mathématiques appliquées,
- Vous avez 2 ans d'expériences minium sur les projets de Data science/Data Analyst,- Vous avez une maîtrise de Python, SQL, Talend, ou Tableau,
- Vous avez un esprit d'équipe, autonomie et passion pour les défis analytiques,
- Vous avez une capacité à communiquer vos analyses de manière claire avec une orientation décision.
Nombreux avantages :
- Semaine de 32h (payé 35h) avec paiement des heures supplémentaires,
- 7 semaines de congés payés,
- Formations certifiantes,
- Prime sur objectif (1 mois de salaire + abondement),
- Prime d'intéressement/participation,
- Locaux moderne, proche des moyens de transport (10 min de la gare de Montigny-le-Bretonneux),
- Parking disponible,
- Forfait Mobilité Durable (Prime selon moyen de transport ou 75% remboursement des frais transports),
- TR et restaurant d'entreprise,
- Salle de sport.
Bienvenue chez Seyos
Seyos est un cabinet de recrutement spécialisé dans les métiers de l'IT. Nous intervenons au niveau national et proposons aux candidats des opportunités professionnelles au sein d'éditeurs de logiciels, DSI d'entreprises (clients finaux), startups, acteurs E-commerce. En 9 années d'existence, plus de 1 300 professionnels de l'IT et du Digital ont déjà été recrutés par l'intermédiaire de Seyos au sein de 400 entreprises.
Mais aussi...
| {'salaire': [{'montant_min': 45000.0, 'montant_max': 50000.0, 'devise': '€', 'frequence_versement': 'an'}]} | 222 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Description du poste et Missions
Le poste est un poste de Senior Data Scientist avec comme missions :
• Mentoring d'une équipe composé de ML et Data Engineer
• Travail sur les orientations du produit et l'organisation des tâches en collaboration avec le Lead Data Scientist et le Lead Tech Senior.
• Participation aux développements des fonctionnalités data et IA
• Échanges et présentations avec les clients
• Veille scientifique et travaux de R&D
Le mode de travail est hybride avec 2 à 3 jours de présence par semaine.
Les locaux sont à Paris 14eme.
Chez Dataswati by VIF, nous opérons en mode startup favorisant la réactivité et la proximité.
Nous sommes avant tout une équipe humaine, compétente et dynamique, rejoignez l’aventure!
Profil recherché
Informations utiles
LOCALISATION
La Chapelle-sur-Erdre - 44, France - pas de déplacement
CONTRAT
CDI
SALAIRE
Non défini
NIVEAU DE QUALIFICATION
Ingénieur/Cadre/Bac +5
EXPÉRIENCE
1 à 7 ans, + 7 ans
MODALITÉS DE TRAVAIL
Temps... complet
FONCTION
Informatique - Systèmes d'Information
SECTEUR
Industrie Agro-alimentaire, Secteur informatique/ESN
TÉLÉTRAVAIL
Partiel
Qui sommes nous ?
VIF
44240 La Chapelle-sur-Erdre • France
VIF conçoit, développe et déploie des solutions logicielles innovantes pour accompagner les PME et ETI industrielles de process dans l’exécution et l’amélioration durable de leur performance opérationnelle.
Nos solutions logicielles ERP, MES et Supply Chain Planning digitalisent et soutiennent les 3 processus clés de croissance et compétitivité. Ces solutions font référence dans toutes les filières de l’agroalimentaire depuis 40 ans.
Basée à Nantes, VIF conseille, équipe et accompagne la transformation numérique et performance industrielle de plus de + de 700 sites et 18 000 utilisateurs en France et à l'international.
VIF c’est aussi 270 passionnés mobilisés et solidaires qui mettent leur expertise au service de nos clients grâce à une connaissance fine de leurs métiers.
Présentation de Dataswati by VIF
Fondée en 2016, Dataswati développe PowerOP® une solution SAAS, de monitoring automatique pour les lignes de production de l'agroalimentaire. En 2023, Dataswati elle intègre l’entreprise VIF Software et devient Dataswati by VIF.
L'équipe Data est chargée de la conception, du développement et de la maintenance de la plateforme IA de la solutions PowerOP® dont les principales fonctionnalités sont monitoring analytique, prédictif et prescriptif.
L’équipe Data est également chargée de développer une nouvelle plateforme IA qui sera intégrée aux solutions VIF.
Nos solutions reposent sur une stack technologique moderne, à l’état de l’art avec des techno comme Airflow, Mlflow, MongoDB, Kubernetes, CI/CD. Nous portons de l’intérêt aux bonnes pratiques de programmation, notamment la POO (Programmation Orienté Objet) et aux principes MLOps | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 71 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | CDI à pourvoir immédiatement
Issy Les Moulineaux (Métro 8 et 12, RER C, bus, Tram T2 et T3)
Salaire à définir selon le profil. Intéressement aux résultats de l’entreprise, tickets restaurants, Mutuelle, CE, 50% transports en commun
Eqinov, filiale du groupe Acciona Energía, l'un des leaders de la transition énergétique et le plus grand opérateur mondial d'énergie d'origine exclusivement renouvelable, propose des services en performance énergétique aux industriels et gestionnaires de bâtiments pour leur permettre de consommer moins et mieux.
Maîtrise et suivi des consommations énergétiques, financements innovants, effacement et flexibilité de la consommation électrique, réduction de l’empreinte carbone, performance énergétique des projets de construction/rénovation, autoconsommation… L’avenir du secteur de l’énergie s’invente aujourd’hui
Dans ce contexte énergétique en perpétuelle évolution et face à l’urgence climatique, Eqinov déploie des solutions pour permettre aux entreprises... d’accélérer leur transition énergétique.
Dans le cadre de notre croissance nous recrutons un(e) Data Scientist expérimenté(e) basé(e) dans l’une de nos agences à Bordeaux, Lyon, Aix en Provence ou Issy les Moulineaux.
Intégré(e) au sein de l’équipe « Opérations de Flexibilité et Recherche & Développement », participez activement au développement de notre activité en remplissant les missions suivantes :
Compréhension des problématiques de l’activité,
Conception des solutions scientifiques,
Recherche, rassemblement, traitement et analyse des données disponibles,
Détermination des variables et méthodes optimales de modélisation,
Construction, mise à jour, optimisation, monitoring de nos modèles prédictifs (prix de l’énergie, tensions sur le système électrique…),
Construction, mise à jour, amélioration de nos modèles d’optimisation dans le cadre du projet de R&D INVESTCO ,
Participation à l’intégration de nos modèles dans nos applications mobiles et web #Java,
Support des équipes opérationnelles pour la construction d’outils de gestion des données,
Synthèse et suivi de la qualité des résultats des modèles prédictifs en production à travers des outils de reporting,
Veille technologique.
Compétences requises & savoir-faire Diplômé d’une formation supérieure bac+5, en Mathématiques Appliquées / Statistiques / Data Science, avec minimum cinq ans d’expérience en tant que Data Scientist, vous avez une appétence pour le secteur et l’envie de participer activement à la transition énergétique.
Vous avez acquis des connaissances approfondies en :
Techniques d’apprentissage supervisé et non supervisé (Machine Learning, Deep Learning, Reinforcement Learning)
Classification (réseaux de neurones type RNN, méthodes ensemblistes, support vector machine,..)
La maitrise d’un outil de versionning (git,..) serait appréciée. Idéalement vous avez des connaissances sectorielles sur les marchés de l’électricité.
Au-delà de ces compétences techniques vous démontrerez :
Votre envie de prendre un poste en autonomie et d’une grande polyvalence,
Votre motivation à faire partie d’un projet exigeant et ambitieux,
La capacité à travailler de manière collective au sein d’une équipe,
La capacité à être force de proposition et à prendre des initiatives,
Votre rigueur et votre précision dans les analyses effectuées,
Votre capacité à vulgariser des concepts complexes.
En rejoignant Eqinov, vous intégrez une équipe motivée, dynamique et agile aimant faire vite ET bien.
Venez inventer avec nous l'avenir du marché de l'Energie
Vous avez le profil ? Envoyez votre CV et lettre de motivation à : recrutement@eqinov.com
N’oubliez pas de préciser dans l’objet de votre mail le poste de l’annonce
| {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 72 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Rattaché(e) au département Formalités, vos missions sont les suivantes:
- Valider et facturer les commandes
- Analyser un état hypothécaire (BIA & FIDJI)
- Rédiger un rapport d’analyse
- Calculer les coûts liés à la publicité foncière
- Assurer le SAV et le courrier
• *Compétences**:
- Compétence rédactionnelle
- Esprit de synthèse
- Rigoureux(se)/organisé(e)
- Gestion relation client
- Etat d'esprit d'équipe
- Dynamique
• *Qualifications**:
- Bac +2 minimum, spécialité en droit ou Immobilier (BTS, DEUG, Licence professionnelle)
- Connaissances minimum attendues sur la lecture d'un état hypothécaire
Type d'emploi : CDD
Durée du contrat : 4 mois
Salaire : à partir de 21 000,00€ par an
Avantages:
- Participation au transport
- RTT
- Titre-restaurant
Programmation:
- Du lundi au vendredi
Types de primes et de gratifications:
- Prime annuelle
Lieu du poste : Télétravail hybride (75002 Paris 2e) | {'salaire': [{'montant_min': 21000.0, 'montant_max': None, 'devise': '€', 'frequence_versement': 'an'}]} | 316 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Au sein d’une entreprise dynamique et en pleine croissance, Wandercraft est à la recherche d’un(e) Data analyst - Data miner pour rejoindre l’équipe IT. Interlocuteur/trice privilégié(e) des clients internes, tu auras comme principales missions: Recueil et extraction des sources de données pertinentes et de qualité à traduire ensuite en données statistiques ; Traitement, exploitation et intégration des données dans un data warehouse (entrepôt de données) ; Création de dashboards, mise en place de KPIs et reporting des performances pour donner une vision cohérente des résultats aux différentes équipes ; Mise en place de process/requêtes et automatisation ; Production d’analyses métiers et de recommandations aux managers Gestion des outils d’analyses pour que les décideurs internes et les clients puissent suivre l’évolution de leurs produits ; Veille technologique des nouveaux outils visant à l’améliorer l’analyse des données. Aide aux améliorations et administration de l’ERP (droits... d’accès, workflow, mise à jour des versions) Ton quotidien: Interactions quotidiennes avec les équipes opérationnelles Interactions avec le responsable IT et le CFO Mise en place d’outils de reporting et analyses ad hoc selon les besoins Profil recherché: Compétences requises : Formation Bac+5 universitaire ou grande école. Cursus en mathématiques, statistiques, économie, marketing ou en informatique Expérience professionnelle en IT / Reporting Anglais courant Compétences attendues : Maitrise de divers outils et logiciels (Excel, Web Analytics, BI, SAS, VBA, Python etc.) Langages de programmation tel que R Aisance rédactionnelle Passion pour les chiffres et les statistiques Orientation business et aisance relationnelle avec les métiers Rigueur, organisation, esprit analytique Anglais courant Type d'emploi : Temps plein, CDI Statut : Cadre Avantages: Participation au transport Titre-restaurant Programmation: Du lundi au vendredi Travail en journée Formation: Bac +5 (Master / MBA) (Optionnel) Lieu du poste : En présentiel | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 357 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Descriptif du poste
microDON est une Entreprise Solidaire d'Utilité Sociale (ESUS) de 40 personnes, filiale du groupe KissKissBankBank & co, qui propose des solutions innovantes pour faciliter l'engagement solidaire.
microDON consolide une équipe produit passionnée et engagée. Notre objectif : "la solidarité est l'affaire de tous" - développer de chouettes produits innovants qui permettent de réinventer la générosité en France :
Comme 2 millions de Français chaque mois dans 10 000 magasins, vous faîtes un don à la caisse de votre magasin via L'ARRONDI en caisse . Un produit grand public qui a permis de reverser 45M d'€ aux associations.
530 000 salariés en France sont concernés par L'ARRONDI sur salaire : la possibilité de donner chaque mois quelques euros à l'association de son choix. Un produit solidaire qui a permis de déclencher plus de 1,8 millions de dons
❤️ Mis en place auprès d'une centaine d'entreprises, le don de temps est un produit en constante évolution qui se... réinvente en fonction des besoins des associations et des envies des salariés.
Un produit innovant en cours : le don de congés CET avec un potentiel de 2,6 milliards d'€ en France
Dans ce cadre, la Squad Data est responsable de l'ensemble de la donnée de ces différentes solutions. A travers nos applications développées en interne, elle a pour missions de fournir à nos équipes métiers et à nos clients des données enrichies et fiables. Elle s'assure aussi du suivi de la collecte de dons et de leur bonne redistribution à nos 1500 associations partenaires (Urgence Ukraine, Secours Populaire, Les Restos du Coeur, Emmaüs France, Planète Urgence...).
L'équipe Data se situe au coeur des différents métiers et se compose :
• D'une Product Manager
• D'un Data Engineer senior
• D'un Data Analyst confirmé
• D'une Data Engineer junior
• Et toi notre nouvelle pépite
Tu interviendras sur l'ensemble du cycle de vie de la donnée :
• Acquisition
• ETL
• Tests
• Automatisation
• Gestion des alertes et logs
• Mise en production
• Gestion d'API
Et sur tous les projets de l'enteprise comme par exemple :
• La gestion du run
• L'optimisation des process actuels
• Le développement de nouvelles briques / nouveaux produits
• L'onboarding de nouveaux clients
• Participer à la gouvernance data
Tout cela pour alimenter nos applications internes et délivrer aux équipes micros, à nos clients et à nos associations partenaires des données fiables et enrichies de manière automatique
Et au passage d'assurer la redistribution de millions d'euros de dons centimes après centimes
Profil recherché
Nous recherchons un ou une Data Engineer qui souhaite mettre du sens dans son travail et aider nos associations à accélérer la transition écologique et sociale à travers la data.
Savoir-faire
Tu as idéalement entre 1 et 3 ans d'expériences sur un poste similaire et tu maîtrises tout ou partie de notre stack technique :
• Google Cloud Platform (qui héberge nos données, VM et clusters Kubernetes)
• Postgresql (pour gérer nos modèles de données et fournir nos applications internes en données)
• Talend (notamment pour l'acquisition et la gestion des APIs)
A noter que nous travaillons en CI/CD sur GitLab et que nous gérons nos logs avec Grafana.
❤️ Savoir-être
• Esprit d'équipe et de collaboration
• Prise en main rapide et autonomie
• Fiabilité & organisation
Ce que nous te proposons
Tu rejoins une équipe bienveillante et engagée, enthousiaste à l'idée de t'intégrer. Ton avis et ton expertise sont écoutés.
Nos valeurs :
• Etre Solidaire
• Etre Authentique
• Etre Audacieux
• Faire confiance
Avantages :
• prise en charge du pass Navigo à 50% (ou forfait mobilité douce)
• prise en charge 100% mutuelle (Alan)
• prise en charge des tickets restaurants dématérialisés à 60%
• prise en charge de 50% du forfait téléphonique
• 10 jours de repos supplémentaires
• 5 jours de volontariat pour donner sur son temps pro du temps aux autres
Les petits plus :
• Un parcours d'intégration aux petits oignons pour s'assurer que tu te sentes bien chez toi
• Une équipe Happy Office qui te concocte de chouettes initiatives (massage assis, atelier créatif, apéro du jeudi...)
• Cours de yoga et de boxe gratuits 1x/semaine
• Des locaux agréables (salle de sport, fruits à volonté, babyfoot, cuisine...) avec des colocs sympatoches et solidaires : Goodeed, KissKissBankBank, Youmatter & Lendopolis
• Télétravail et flex-office
Tu as envie d'apprendre et d'évoluer dans un univers start-up où les sujets sont variés...
Tu as envie d'intégrer une team à taille humaine motivée à l'idée de contribuer à l'intérêt général...
Alors rejoins-nous
Process de recrutement
Candidatures diversifiées bienvenues.
• Echange en visio avec Johan, Head of Data #Fit
• Echange avec Johan, Samira et Benoît de la Squad Data #Tech
• Echange avec les fondateurs de microDON #RH | {"salaire": [{"montant_min": null, "montant_max": null, "devise": null, "frequence_versement": null}]} | 148 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Datascientist - H/F - Alternance 12 mois.
Ce poste basé à PARIS est à pourvoir à partir de septembre 2023 pour une durée de 12 mois.
SUR LE TERRAIN, ÇA DONNE QUOI ?
Notre équipe Reg Tech au sein de la Compliance Groupe de BNP Paribas a pour mandat d’apporter des solutions cognitives à base de Machine Learning, de NLP autour de la lutte contre le blanchiment d'argent, le financement du terrorisme, le filtrage des transactions et le screening des bases clients.
VOS MISSIONS :
Contribuer à l’implémentation et l’amélioration en continu des modèles existants, que ce soit via le tuning du modèle, la construction de nouvelles « features », la proposition de monitoring de KPI ou l’amélioration de la chaîne MLOps ;
Benchmarker les modèles existants via les modèles standards (Random Forest, Réseaux de Neurones, Xgboost…) mais également explorer l’état de l’art et tester différentes modélisations possibles ;
Tester et intégrer des modules d’explicabilité des modèles (explicabilité locale... et globale), prérequis dans notre activité réglementée ;
Compléter chaque modélisation par une proposition de monitoring de modèle (KPI).
Sur un plan technologique :
Vous serez amené à implémenter et exécuter des solutions en langage Python sur la plateforme Cloud du groupe ;
Vous contribuerez aux différentes phases des projets de data science depuis la phase exploratoire du projet jusqu’à sa mise en production et son monitoring post implémentation ;
Vous participerez à la mise en place de la chaîne d’outils DevOps des projets (CI/CD) et monterez en compétence au sein d’une équipe composée de data scientists et data engineers passionnés par la data science.
LES MISSIONS C’EST IMPORTANT, L’ÉQUIPE ET L’ENVIRONNEMENT AUSSI !
Face à un environnement où les évolutions réglementaires, géopolitiques, sociétales sont de plus en plus nombreuses et complexes, la Conformité se place au carrefour de la stratégie et de l’action quotidienne de la Banque et de ses clients.
La Conformité, veille au respect de toutes les réglementations bancaires et financières et assure la mise en sécurité du Groupe, de ses métiers, de ses territoires, qui passe par une adaptation aux exigences accrues de ses régulateurs, des clients et de l’opinion publique.
L’une de nos missions essentielles ?
Contribuer à faire que BNP Paribas soit une entreprise pleinement digne de confiance, non seulement grâce au respect des lois et règlements, mais aussi grâce à la mise en œuvre exemplaire de son code de conduite.
L’une des valeurs du Groupe ? La Culture Conformité !
Au sein du Technology & Innovation Office (T&I Office), vous rejoindrez une équipe multidisciplinaire composée de 40 personnes. Le leitmotiv de l’équipe : innover pour optimiser les process Compliance en trouvant des solutions concrètes basées sur des technologies cognitives.
Basé au Millénaire 1, dans un environnement dynamique situé dans le 19ème arrondissement de Paris, vous bénéficierez d’un espace de travail convivial en mode « Flex Office », conçu pour rendre l’expérience collaborateur la plus agréable possible.
ET APRÈS...?
Au sein de l'équipe Reg Tech vous participerez non seulement à des expérimentations IA et data mais aussi à des projets destinés à passer en production : cette expérience vous donnera une vision de bout en bout d'une industrialisation de l'IA et des challenges associés.
Vous découvrirez de nombreux métiers en travaillant avec des interlocuteurs variés (Métier, IT, Conformité, Data office...).
Vous développerez par ailleurs votre connaissance du domaine Compliance et de ses process, et échangerez avec des experts de ces domaines.
La connaissance des enjeux des projets Compliance et votre expertise en data science vous ouvriront des perspectives dans la gestion de projets IA au sein des entités du groupe BNP Paribas, en France ou à l’international.
ET LA RÉMUNÉRATION ?
Encadrée par la loi, elle sera abordée à l’issue de votre parcours de recrutement. Elle dépend du type de contrat, votre âge et de votre niveau d’études.
ENCORE UNE HÉSITATION ?
Notre monde change : notre manière de nous informer, de consommer… et de travailler aussi !
Aujourd’hui, ce qui compte dans un job, c’est de vivre de véritables expériences, d’apprendre, de partager objectifs et résultats avec ses collègues.
Bref, de tracer son propre chemin, différent, responsable et durable.
Chez BNP Paribas, nous recrutons nos collaborateurs avec l’idée qu’ils nous aideront à concevoir le monde et la banque de demain.
Vous voulez connaître toutes les raisons de nous rejoindre ? Rendez-vous sur www.bnpparibas.com
Saurez-vous relever le challenge ?
Vous préparez un diplôme bac+5 (RNCP niveau 7 anciennement niveau 1) en école d’ingénieur ou équivalent universitaire avec une spécialisation Data science.
Vous parlez couramment anglais et français.
Vous avez des connaissances en matière de Data, Mathématiques appliquées, algorithmes, Modèles prédictifs, Data Processing, Développement informatique, Langages de programmation, Robotiques et Intelligence Artificielle.
Et vous maîtrisez le langage Python.
Vous êtes de nature curieuse.
Votre adaptabilité, votre capacité à collaborer et analyser seront des atouts essentiels. Ajoutez à cela, une bonne capacité d'organisation et de communication qui finiront de nous convaincre.
Dans un monde qui change, la diversité, l’équité et l’inclusion sont des valeurs clés pour le bien-être et la performance des équipes.
Chez BNP Paribas, nous souhaitons accueillir et retenir tous les talents sans distinction : c’est ainsi que nous construirons, ensemble, la finance de demain, innovante, responsable et durable.
Enfin, nous attachons une importance particulière à ce que nos futurs collaborateurs agissent au quotidien avec responsabilité éthique et professionnelle.
À tout moment pendant le processus de recrutement, les informations figurant sur votre CV, vos données d'identification et vos antécédents pourront être vérifiés.
N'oubliez pas d'indiquer sur votre CV la formation que vous souhaitez préparer dans le cadre de votre alternance.
#Rejoignez-nous !
LIEU PRINCIPAL
FR-Île-de-France-PARIS
TYPE D'EMPLOI
Alternance
DOMAINE D'ACTIVITÉ
CONFORMITE
NIVEAU D'ÉTUDES
Master ou équivalent (> 4 ans)
NIVEAU D'EXPÉRIENCE
Débutant
HORAIRES
Temps plein
RÉFÉRENCE
!A_CPL23_0043
APPLY
(REF: !A_CPL23_0043 | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 163 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Stage: Data Science (h/f) Début du stage : Janvier-Mars 2022 Durée : 6 mois (fini d’études) Localisation : La Rochelle L’entreprise : DATS Connexion est une jeune Startup évoluant dans le domaine de la Business Intelligence (BI) et de l’automatisation. Notre petite équipe, composée de consultants présents en France et au Québec (Canada), priorise le partage de connaissances et favorise les savoirs, savoir-faire et savoir-être de chacun(e). Nous apportons notre expertise à une époque où les outils décisionnels augmentent considérablement la compétitivité des entreprises, et où l’automatisation de tâches chronophages développe la créativité et l’épanouissement de l’humain. Notre but est de répondre aux besoins et enjeux de nos clients en leur délivrant une solution d’intelligence d’affaires et/ou d’automatisation adaptée(s) à leur réalité. Nous portons une très grande importance aux relations clients et pour ce faire nous misons sur la transparence, la confiance et la rigueur. Nos... objectifs : Constamment évoluer au rythme des technologies émergentes du monde des technologies de l’information. Relever de nouveaux défis pour le développement de notre organisation et proposer des services toujours plus innovants à nos clients, dans une démarche d’optimisation des ressources et d’augmentation de la performance. Faire mieux avec moins ! Le stage : Tes missions : Au travers de missions variées, tu travailleras aux côtés d’une équipe jeune, en méthode AGILE, dans le domaine des métiers de la donnée appliquée à la gestion d’entreprise, aux finances, au marketing, et bien d’autres. Accompagné par ton tuteur, tu prendras part: Au développement de Tableau de bords PowerBI ; Au développement de pipeline ETL avec PowerQuery et Python ; Aux analyses d’affaires et analyses fonctionnelles ; Si tu le souhaites, au développement de modèle statistique (machine Learning, IA, etc.) Au support de développement de projets clients. Compétences recherchées : Tu es un(e) étudiant(e) recherchant un stage de fin d’études de 6 mois Tu as des notions en PowerBI et Pythonmais pas forcément ; Tu es une personne rigoureuse dans le développement de projet ; Tu as un intérêt particulier pour l’univers de la data. En résumé : Tu cherches une expérience professionnelle dans une startup en pleine croissance à la culture d’entreprise internationale ? Tu es curieux(se) et créatif(ve), tu as un intérêt fort pour les nouvelles technologies, et tu aimes jouer avec les données ? Tu veux rejoindre une organisation où ton travail deviendra ta plus grande passion ? Si tout cela te parle, rejoins nous ! _ Envoie ton CV et une lettre de motivation par mail Type d'emploi : Stage Durée du contrat : 6 mois Salaire : 5,00€ par heure Programmation: Du Lundi au Vendredi Périodes de travail de 8 heures Repos le week-end Travail en journée Capacité à faire le trajet ou à déménager: 17440 Aytré: Faire le trajet sans problème ou prévoir un déménagement avant de prendre son poste (Optionnel) Langue: Français (Optionnel | {'salaire': [{'montant_min': 5.0, 'montant_max': 5.0, 'devise': '€', 'frequence_versement': 'heure'}]} | 55 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Qualification :Cadre Profil recherché : Expérience :Débutant accepté Langue(s) :Anglais Compétences recherchées : Adapter les outils de traitement statistique de données Rédiger l'information produite Présenter et diffuser les résultats des études réalisées Réaliser une veille documentaire Définir et faire évoluer des procédés de traitement de l'information | {'salaire': [{'montant_min': None, 'montant_max': None, 'devise': None, 'frequence_versement': None}]} | 379 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Data engineering Big data Data Engineering. : - Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop Environnement Anglophone2 - Livrables attendus Les livrables attendus sont : - Revue de code et re-factoring - Projet agile (Scrum) - Traitement d?un gros volume de données - L?application des normes de développements3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Hive PostGreSQL Python Scala Spark450 e | {'salaire': [{'montant_min': 540.0, 'montant_max': 540.0, 'devise': '€', 'frequence_versement': 'jour'}]} | 209 |
Tu es un agent de traitement textuel. A partir d'une offre d'emploi tu dois structurer et normaliser les informations de salaire au format JSON selon les règles suivantes :
- Pour un salaire indiqué comme minimum (ex. 'à partir de 30k'), définis-le comme 'montant_min'.
- Si indiqué comme maximum (ex. 'jusqu'à 70000'), définis-le comme 'montant_max'.
- En cas de montant unique, définis-le dans 'montant_min' et 'montant_max'.
- Convertis tous les montants en format décimal y compris ceux exprimés en abréviations. Par exemple, "25k" ou "25ke" devient 25000.0.
- En cas de fourchette de salaire (ex. 'entre 40k et 55ke/an'), segmente-la dans 'montant_min' (40000.0) et 'montant_max' (55000.0) respectivement.
- 'frequence_versement' accepte des valeurs normalisées comme 'an', 'mois', 'semaine', 'jour', 'heure'.
- 'devise' accepte les symboles standards '$', '€' et '£'.
- En cas de manquement de la fréquence ou devise, suppose leur valeurs.
- Si aucun montant explicites n'est mentionné, remplis tous les champs avec la valeur null.
- Des expressions comme "Selon expérience", "A négocier", "Rémunération attractive, ect ne sont pas des montants explicites. Remplis null pour tous les champs.
- Si plusieurs salaires ou fourchettes différentes sont détaillés, liste les toutes. Chaque salaire doit pouvoir etre entierement décrite dans son dictionnaire.
- Privilégie les fourchettes détaillées aux salaire unique ou approximations. Par exemple, si une meme offre mentionne "salaire environ 35k" et ensuite "salaire entre 30 000 et 40 000", privilégie la seconde formulation.
- N'essaye pas de convertir les montants dans d'autre unités que celle donné dans l'offre.
- Assures toi que les informations extraites sont logiquement cohérentes (ex. 'montant_min' <= 'montant_max'). JSON schema :{"$defs": {"ItemSalaire": {"properties": {"montant_min": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Min"}, "montant_max": {"anyOf": [{"type": "number"}, {"type": "null"}], "default": null, "title": "Montant Max"}, "devise": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Devise"}, "frequence_versement": {"anyOf": [{"type": "string"}, {"type": "null"}], "default": null, "title": "Frequence Versement"}}, "title": "ItemSalaire", "type": "object"}}, "properties": {"salaire": {"items": {"$ref": "#/$defs/ItemSalaire"}, "title": "Salaire", "type": "array"}}, "required": ["salaire"], "title": "SchemaSalaire", "type": "object"}
Commence immédiatement ta réponse en JSON valide après la prochaine offre d'emploi : | Descriptif du poste
Le poste ?
Dans le cadre du développement de nos activités d’expertises Cloud, Data et Cybersécurité.
Nous recrutons un Data Analyst Confirmé H/F, pour s’inscrire dans notre projet d’entreprise. Le profil intègrera notre cellule expertise en accompagnement transverse de nos agences sur un périmètre France et International : avant-ventes, aide à la construction des offres, animation de communauté, réalisation de projets clients.
• *Vos missions**:
- Collecter, nettoyer et préparer les données provenant de différentes sources, en utilisant les outils appropriés pour assurer leur intégrité et leur fiabilité.
- Concevoir et mettre en œuvre des pipelines de données ETL/ELT efficaces pour alimenter les entrepôts de données.
- Développer et exécuter des requêtes et des analyses avancées pour identifier les tendances, les modèles et les insights significatifs dans les données.
- Créer des tableaux de bord et des visualisations interactives pour faciliter la... compréhension et la prise de décision basée sur les données.
- Collaborer avec les équipes métier pour comprendre leurs besoins analytiques spécifiques et fournir des recommandations pertinentes.
- Participer à l'élaboration et à la mise en œuvre de modèles d'apprentissage automatique pour des tâches telles que la segmentation client, la prédiction de la demande, etc.
- Suivre les meilleures pratiques en matière de sécurité des données et de confidentialité, ainsi que les normes de gouvernance des données.
Compétences techniques attendues:
- Dataiku, SAS Viya, Alteryx,
- Databricks, Snowflake, Tableau
- SAS, R, Python
- SQL, MongoDB, Neo4j, Cassandra
- AWS, Azure, GCP
- Et des compétences de Data Analyse : segmentation, score, études quantitatives, reporting
Profil recherché
• *Vous ?**
- Diplômé(e) d'une école d'ingénieurs ou d'un Master 2 en Informatique, vous disposez d'une expérience significative de minimum 3 ans en tant que Data Analyst
- Maitrise de l’Anglais
• *Et la suite ?**
1. Vous rencontrez d’abord l’équipe RH pour parler de vos attentes, votre projet et futur
2. Puis le manager pour parler concret : Périmètre client, projets, parcours de carrière, et bien sûr salaire et avantages J
Vous souhaitez donner un nouvel élan à ta carrière ? Rejoins la vie Apsidienne
• *Avantage ?**
- Mutuelle offerte, carte titre Restaurant Swile, 50% du Passe Navigo, télétravail, participation, Plan d’Epargne Retraite Collectif et encore d’autres
Compétences attendues
- LANGUESAnglais
SAVOIR-ÊTRE
Capacité à prendre des décisions
Capacité d'analyse
• *Voir plus**
SAVOIR-FAIRE
Avant-vente
Gestion de communautés
• *Voir plus**
Entreprise
- De bonnes raisons de rejoindre Apside ?En pleine croissance, Apside est à la recherche des nouveaux talents du numérique Un esprit start-up avec la stabilité d un grand groupe, qui favorise l agilité, le travail d équipe et la proximité.Alors qu Apside ne cesse d'agrandir sa famille déjà forte de plus de 3000 consultants, nous sommes à la recherche de nos nouveaux talents -Développez votre réseau (Soirées trimestrielles, Afterwork, Soirées d intégration ),-Intégrez une structure à taille humaine : ambiance saine et convivialApside est une entreprise au service du numérique depuis plus de 47 ans, mais surtout à votre service.Notre savoir-faire et notre savoir-être vous accompagnent au cœur de plusieurs métiers : l ingénierie en systèmes d'information et informatique technique, scientifique, aéronautique, automobile et financière.
- Autres offres de l'entreprise**Personne en charge du recrutement**
IRINA MOUKHINA
- _responsable recrutement_
Salaire
A partir de 48 k€ brut annuel
Prise de poste
Dès que possible
Expérience
Minimum 3 ans
Métier
Data analyst
Statut du poste
Cadre du secteur privé
Zone de déplacement
Pas de déplacement
Secteur d’activité du poste
INGÉNIERIE, ÉTUDES TECHNIQUES
Télétravail
Partiel possible | {'salaire': [{'montant_min': 48000.0, 'montant_max': None, 'devise': '€', 'frequence_versement': 'an'}]} | 266 |
End of preview. Expand
in Dataset Viewer.
README.md exists but content is empty.
Use the Edit dataset card button to edit it.
- Downloads last month
- 48