Mission : Développer les outils logiciels pour la collecte, le traitement et la visualisation de données multimédia.
Activités :
- Collecter, nettoyer, homogénéiser et centraliser des données stockées au sein de data-lakes
- Veiller à l'interopérabilité des systèmes par lesquels transitent ces données, qu'ils soient internes ou externes, en local ou sur le Cloud
- Garantir des remontées de données en temps réel depuis les systèmes back-end vers les applications métier
- Respecter les règles de gouvernance des données, de cybersécurité et de respect de la règlementation, tel que le droit à l'oubli et la RGPD
- Rédiger et maintenir la documentation associée
Formation : Bac+4/5
Compétences :
- Maîtrise des langages structurés (Python, JavaScript, Scala…) et divers systèmes d'exploitation (UNIX, Linux…)
- Maîtrise de Git, convaincu de l'application des bonnes pratiques qualités (documentation, test, revue de code), API
- Expertise en stockage des données et bases de données SQL et noSQL, des connaissances en données sémantiques et bases de données Graph constituent un plus
- Maîtrise d'outils Big Data pour le traitement des données (Hadoop, Spark, Kafka, TensorFlow, PyTorch…)
- Anglais technique écrit et parlé
Lieu : Paris 15ème
Durée : Longue
Démarrage : début janvier 2019