Nos coeurs de métier

Nous sommes le partenaire technologique préféré de ceux qui changent le monde en offrant une couverture complète du traitement (Data Process), de la valorisation (Data Value) et de la protection (Data Protect) de vos données :

Métiers devDevApp Métiers dataDataTech Métiers OpsDevOps

Data Tech

Data Analyst

Être en mesure de donner un sens à la donnée, ceci afin d’en extraire de la valeur « business » ou d’usage, est l’essence même du rôle des Data Analysts chez iPepper. En d’autres termes, le Data Analyst, c’est comme être le Sherlock Holmes du futur qui résout les énigmes avec les données. Au lieu de suivre des pistes pour trouver un criminel, il analyse et présente d’une certaine façon la donnée pour découvrir des informations cachées. En gros, il aide les entreprises à prendre des décisions plus informées en leur fournissant des insights précieux.
Par exemple, au sein d’une Start-up cliente offrant une solution de personnalisation pour la revente de produits de voyages complémentaires à un billet d’avion, une des premières tâches du Data Analyst iPepper, était d’identifier le potentiel business d’une telle solution.
Pour cela il a utilisé des techniques d’analyse statistique et de visualisation de données provenant de différentes plateformes de réservation de voyages. Ceci a permis d’extraire et d’agréger des informations utiles et pertinentes permettant de reconstituer l’itinéraire bout en bout des voyageurs. Sur cette base, il a été possible de segmenter des typologies de voyages et d’établir les moments propices pour promouvoir des produits de voyages comme un transfert de l’hôtel à une réunion ou à l’aéroport. Plus tard, notre Data Analyst iPepper a pu utiliser les informations collectées pour identifier plus précisément des facteurs qui améliorent les taux de conversion de revente de produits de voyages, ainsi que les tendances et anomalies qui impactent les retombées business. Bref, à travers cette illustration, tu peux comprendre le rôle clé que peut jouer un Data Analyst iPepper.
Sur le plan techno, nos Data Analysts travaillent avec des outils d’analyse et de visualisation de type Tableau, Power BI. SAS, est aussi un logiciel d’analyse statistique et de visualisation de données utilisé surtout chez des grands comptes. L’exploitation de certains packages de la famille de langage de programmation de type R et Python, comme Phyton Panda, peuvent faire partie de la boîte à outils requise pour faciliter la manipulation et l’analyse des données émanant d'applications basées sur ces langages. Enfin, la maîtrise du bon vieil Excel et de SQL restent des valeurs sûres pour mener à bien des missions de Data Analyst.

Data Scientist

Souvent scientifique mathématicien dans l’âme, le Data Scientist chez iPepper contribue à prédire l’avenir grâce à la donnée ! Imagines, découvrir le prochain best-seller en utilisant les données sur les habitudes de lecture des gens. Wow, incroyable, non ? En tout cas, ce métier est pour les personnes qui aiment jouer avec les chiffres et qui veulent résoudre des problèmes complexes pouvant faire la différence dans le monde dans lequel nous vivons. Tu aimes expérimenter et utiliser des méthodes mathématiques, des techniques de statistique et des outils en Intelligence Artificielle? Tu souhaites mettre en place des modèles intelligents de prédiction avec apprentissage automatique, ceci afin d’optimiser des processus commerciaux et opérationnels ? Et bien, le club des Data Scientists est pour toi !
D’ailleurs, c’est typiquement, ce que fait un de nos Data Scientist au sein d’une Start-up « data advertising-tech » spécialisée dans la création d’audiences à destination de campagnes publicitaires personnalisées respectant néanmoins les nouvelles réglementations en termes de vie privée.
Si la conception et l’expérimentation de modèles IA et plus généralement de techniques statistiques sont primordiales, la capacité à collecter, nettoyer, analyser, interpréter et sémantiser les données peuvent aussi être des tâches demandées surtout lorsque l’entreprise ne dispose pas d’un Data Analyst et d’un Data Engineer. Au sein de nos missions en Data Science, tu seras amené à travailler par exemple en Python pour l’analyse et la mise en place de modèle d’apprentissage automatique. Le langage R et Go sont aussi requis par certains clients. SQL reste un « béabas » en ce qui concerne l’accès aux données stockées dans des bases de données SQL de type PostgresSQL. Mais aussi, la capacité à travailler avec des bases de type NoSQL est requise. TensorFlow, bibliothèque open-source de Google est très populaire auprès de certains clients ayant des projets de deep learning et de reconnaissance d’image. L’utilisation d’autres types de bibliothèques de machine learning open source comme PyTorch, Scikit-learn, pour en citer quelques-unes, sont aussi « au menu » de certaines missions. Bref, tu retrouveras certainement la même panoplie d’outils qu’utilise l’ingénieur IA, mais avec la différence que c’est toi qui es aux commandes de conception de modèles de prédictions IA.

Ingénieur IA

L’Ingénieur en intelligence artificielle est le Jedi de l’informatique ! Il utilise le pouvoir de la force (aka l'algorithmie de l’apprentissage machine) pour faire en sorte que les machines soient plus intelligentes et interprètent mieux les êtres humains.
Ainsi, en tant qu’ingénieur IA chez iPepper, la maîtrise des techniques d’apprentissage automatique ( aka supervised / unsupervised machine learning, deep learning, reinforced learning…) et des traitements du langage naturel, tu auras ! Le but étant de développer des systèmes informatiques dotés de la capacité de raisonner, d’apprendre et de s’adapter.
Par exemple, pour un de nos clients Start-up œuvrant dans la mobilité urbaine, nos ingénieurs IA participent à la conception et au développement d’une application en IA qui permet de mettre en place un plan d’action correctif optimal en cas de perturbations de circulation et d’incidents techniques. Ceci est réalisé grâce à la mise en place d’un apprentissage approfondies à partir de l’historique des différents types de perturbations.
Ainsi, la diversité d'applications IA sur lesquelles tu peux être amené à développer devient à présent presque infinie… Que ce soient des systèmes à des fins de reconnaissance de la parole, de la vision et de la compréhension naturelle du langage, l’IA est devenue la pierre angulaire pour plusieurs de nos clients. Ainsi, les applicatifs que nous soumettent nos clients sont variés et couvrent toutes les industries –que ce soient par exemple des assistants personnels virtuels à reconnaissance vocale, des chatbots pour un service clientèle, des systèmes de sécurité à reconnaissance faciale, des solutions de mobilité à conduite autonome, ou des solutions capables d’interpréter des documents légaux complexes.
Les frameworks de deep learning que tu pourrais être amené à utiliser sont par exemple TensorFlow, PyTorch, Caffe, Keras. Concernant les librairies pour les opérations mathématiques, les traitements de données, et les visualisations, NumPy, Scikit-learn, Matplotlib, et Seaborn sont quelques-uns des outils les plus couramment utilisés. Bref, toute une panoplie d’outils à utiliser mais, dans le respect de principes généraux d’éthique afin de ne pas tomber du côté obscur de la force !

Ingénieur Data

Le Data Engineer chez iPepper, est comme un DJ de données, mélangeant les données pour créer de la musique pour les Data Scientists et les Data Analysts puissent danser !
Ton rôle, comme tout ingénieur, est de concevoir et fabriquer. Toutefois, plutôt que des engins aéronautiques ou des bâtiments, tu es spécialisé dans la création de ponts de données. Au sein de nos missions, ta responsabilité est d’abord de collecter des données brutes en provenance de multiples sources, comme des Data Warehouses (entrepôt de données), des bases données de type SQL ou NoSQL, jusqu’aux fichiers renfermant des données pas toujours bien structurées.
Dans un second temps, c’est à toi de « nettoyer » au sens noble du terme, ces données, de les transformer et de les structurer. Après les ponts de données, tu œuvre à créer des «Data Lakes ». Lors de ces actions, tu automatises les différentes étapes de l’acquisition de données, de l’extraction au stockage pour y instaurer une approche industrialisée optimale.
Au sein de projets, tu es donc amené à utiliser différents outils, comme Apache Spark, Apache Fling, Apache Storm pour le traitement des données. En particulier, en termes d’extraction de données, la maîtrise de certains framework ETL (Extract, Transform, Load) comme Stich est requise. De même l’orchestration de ces données pourrait nécessiter l’utilisation d’outils de type Apache Airflow, AWS Glue, Apache Nifi. Les bases SQL souvent utilisées sont MySQL, PostgresSQL,Oracle, et en termes de NoSQL, on retrouve Cassandra, MongoDB, Amazon DynamoDB, CouchDB…
Bref, le Data Engineer, est maître dans l’art de l’utilisation d’une variété d’outils afin de faire en sorte que les données soient prêtes pour être analysées et exploitées par les Data Scientists et les Data Analysts.

Ingénieur Big Data

Le Big Data Engineer, c’est un Data Engineer « Gargantuesque », opérant avec un très, très gros volume de données !
Analyser, gérer et exploiter de grandes quantités de données, tout en prenant en compte des problématiques d’anonymisation et de sécurisation de la donnée, est un exemple de mission parmi d’autres, qu’un des ingénieurs iPepper a mené au sein d’une Start-up spécialisée dans la cybersécurité.
Dans ce type de poste, bien entendu, tu utiliseras les technologies classiques comme Hadoop ou Spark pour traiter de gros volumes de données et constituer des data lakes opérables, mais aussi tu utiliseras des outils d’analyse tels que Hive, Pig et Impala pour effectuer des requêtes et des analyses sur ces données.
Aussi, le besoin en termes de déploiement de technos de type « streaming » nécessaires pour le traitement en temps réel, devient une tendance forte. En effet, de plus en plus d’entreprises clientes iPepper sont intéressées par la capacité d’analyser de gros volumes de données en temps réel pour prendre des décisions plus rapides ou offrir des cas d’usages fortement contextualisés aux besoins de leurs utilisateurs / clients finaux. Ainsi, au sein de certaines missions, tu pourrais être amené à travailler sur ces technos de type streaming telles qu’Apache Kafka ou Apache Storm.

Ingénieur Blockchain

Lorsqu’il s’agit de protéger et d’authentifier des informations sensibles ou bien des actifs de grande valeur, le déploiement et l’exploitation de la technologie blockchain grâce à un Blockchain Engineer, est un choix de plus en plus adopté par certains de nos clients.
Les Start-ups dans la fintech furent les premières, et d’ailleurs certaines ont démocratisé l’accès à des services financiers, véritable vecteur d’inclusion dans nos sociétés modernes. Mais depuis peu, nous observons des demandes de plus en plus variées. Par exemple, l’utilisation de la blockchain pour assurer la traçabilité et l’authenticité de grand vins, est une solution qu’une des Start-ups clientes de iPepper a choisi de mettre en place.
La Blockchain est d’ailleurs aussi la solution retenue par iPepper pour la mise en place d’un processus de recrutement anonymisé par le biais de sa plateforme Xtreme Profiler. Ainsi en tant qu’ingénieur en blockchain iPepper, tu conçois, développes et maintiens des applications de blockchains privées ou publiques. Tu décentralises et automatises des processus métiers en développant des « smart contracts ». Mais aussi, tu œuvres à l’intégration de la technologie blockchain avec d’autres systèmes et tu t’assures de la mise en œuvre de la sécurité de tes « smart contracts ».
Tu seras amené à travailler sur différentes plateformes comme Ethereum, ou Hyperledger. Mais, plus qu’un expert technique, l’ingénieur Blockchain iPepper contribue à la révolution du Web 3.0.

Métiers dev

Dev App

Ingénieur Dev Backend

L’ingénieur Dev Backend, c’est comme être l’artiste invisible du spectacle. Il se cache derrière les coulisses, mais c’est grâce à lui que tout tourne à merveille!
Dans le cadre d’applications avec de fortes exploitations de la donnée comme nous développons souvent chez nos clients iPepper, c’est lui qui intègre, orchestre et expose le travail des data engineers, des data scientists, des ingénieurs IA auprès des ingénieurs Dev Front-End.
Architecte logiciel dans l’âme, nos ingénieurs Back-End maîtrisent les principes de conception en génie logiciel du type « Design Pattern », permettant de déployer des applications hautement scalables. De ce fait, la maîtrise des architectures à microservices et à orchestration par agents intelligents, illustre à quelle point le métier est devenu sophistiqué.
Chez iPepper, nous aimons dire à nos Ingénieurs Dev Back-End : « the sky is the limit ». D’ailleurs, la diversité des missions et des technologies est impressionnante. Ainsi, que ce soient des applications pour des acteurs dans l’aéronautique, dans le maritime, dans la biotech, dans la finance ou dans la transition énergétique, nos ingénieurs Dev Backend œuvrent à délivrer des applications conformes à l’état de l’art, scalables et hautement sécurisées. Néanmoins, chez iPepper nous avons au fil du temps constitué un bataillon d’ingénieurs back-end experts sur certains langages phares comme Python, Java, C# et C++.
Pour accélérer le développement, nos ingénieurs backend utilisent des frameworks back-end ou web app comme Flask, Django, Express, Spring, J2EE, .Net et même parfois Ruby on Rails. L’intégration de systèmes de gestion de base de données SQL et NoSQL tels que MySQL, MongoDB, SQL Server, et PostgreSQL, n’ont plus de secrets non plus.
Enfin, la mise en place d’API REST/Json ou GraphQL pour l’interaction entre les différents composants d’une application ou entre différentes applications font partie du « lot quotidien ». Prêt-e pour rejoindre l’aventure ?

Ingénieur Dev Frontend

Chez iPepper, l’ingénieur Frontend est perçu un peu comme un magicien de l’informatique ! Il utilise sa baguette magique (code HTML, CSS et JavaScript) pour faire apparaître des merveilles à l’écran. Il prend des idées (des designs, des fonctionnalités, etc.) et les transforme en une expérience utilisateur incroyable.
Il travaille souvent en étroite collaboration avec les ingénieurs Dev Back-End pour garantir une bonne intégration entre les aspects visuels et les fonctionnalités du site ou de l’application.
Pour accélérer son travail, il utilise des librairies et frameworks Javascript modernes comme React, Angular, Node.Js. De plus, la conception d’une expérience multi-canal homogène et complémentaire est au cœur de ses exigences ; que ce soit sur une interface web, une interface mobile, nos ingénieurs Front-End maîtrisent l’art de rendre des applications « full responsives ».
Afin d’offrir une expérience utilisateur fluide, nos ingénieurs Front End veillent aussi à améliorer les performances des pages web en utilisant des techniques telles que la compression, le cache et les requêtes asynchrones.
De plus, grâce à l’intégration de l’intelligence artificielle, nos ingénieurs Dev Front end doivent, en plus, penser à développer des applications compatibles avec une multitudes de cas d’usages personnalisés « à la volée » aux utilisateurs.
Enfin, plus particulièrement lié à notre combat pour l’égalité des chances au travail, il est important pour iPepper que nos ingénieurs Front End sachent implémenter des sites web et des applications accessibles pour les personnes ayant des besoins spéciaux comme les utilisateurs malvoyants, sourds, ou avec des limitations physiques.

Métiers Ops

DevOps 

Ingénieur DevOps

D'abord les puristes vont te dire que DevOps n’est pas un métier mais une démarche !
Mais bon, on s’accorde à dire chez iPepper que l’ingénieur DevOps est un véritable professionnel responsable de la mise en place et de la maintenance des systèmes d'intégration, de déploiement et de livraison des applications. Ta mission ? Faire en sorte que la phase de développement (Continuous Integration) et d’opérations (Continuous Deployment) autour des applications se fasse le plus rapidement possible en assurant la qualité de l’ensemble.
Par exemple, un de nos ingénieurs iPepper travaille, chez un client, sur des solutions digitales destinées aux collectivités et aux opérateurs de transport afin d'orchestrer la mobilité sur le territoire ! Il est question de faire évoluer la “Toolchain” CI/CD, d’accompagner les Devs et Ops dans la mise en place de la culture DevOps. Il est aussi amené à mettre en place des POC (Proof Of Concept) d’amélioration des processus de la chaîne de production.
En ce moment, ce qu'on demande aux DevOps est de maîtriser les technologies d’automatisation. Donc, tu seras certainement amené à utiliser Ansible, Puppet ou Chef pour automatiser la configuration de serveurs, et utiliser des outils de cloud computing tels que Amazon Web Services (AWS), Microsoft Azure ou Google Cloud Platform (GCP) pour déployer et gérer des applications.
Être ingénieur Devops, c’est aussi garantir la scalabilité et l’isolation des applications. Il faudra donc connaître ou te former à des outils de gestion de conteneurs tels que Docker et Kubernetes.
Il est important aujourd’hui d’assurer la performance des applications et des systèmes en production. Pour cela, tu as typiquement Prometheus ou Grafana pour t’aider. Enfin, dans une optique de surveillance des systèmes, il est probable qu’on te demande de te servir de Naggios ou Zabbix.

Ingénieur Data Ops

L’ingénieur Data Ops chez iPepper on le voit un peu comme un DevOps fan de la donnée ! La gestion des opérations et de l’architecture de différentes typologies de systèmes de gestion de bases de données de type SQL et NoSQL, voire de type Big Data ou de streaming, forment les fondations de son savoir.
Ainsi, on l’ingénieur Data Ops définit généralement comme un professionnel qui se concentre sur la mise en place et la maintenance des processus et des outils pour gérer les données de manière efficace dans un environnement informatique. Et donc tout ce qui touche à la donnée est dans son scope d’expertise : gestion, qualité, intégration, analyse, visualisation. Du coup, c’est un métier où typiquement tu dois travailler en étroite collaboration avec d’autres fans de la data…j’ai nommé, les data scientists, data engineers, data analysts !
Nous pouvons te donner l’exemple d’un leader du paiement en France et en Europe, positionné sur des offres retails et Fintech. Le Data Ops, chez eux, s’est vu confier la tâche d’améliorer la qualité, d’accélérer les cycles d’analyse et d’exploitation des données pour renouveler constamment l’offre de services.
Si tu veux être performant dans ce métier, tu devras suivre la tendance à l’automatisation. Pour cela, prépare toi à maîtriser Jenkins ou Ansible pour automatiser le déploiement continu et la gestion des configs. On te demandera aussi certainement de mettre en place des pipelines de données. Et pour cela, fais comme un de nos ingénieurs iPepper, utilise Apache Airflow pour planifier ton workflow.
Sinon, un nombre croissant de projets data exige de traiter la donnée en temps réel pour prendre des décisions plus rapidement ou rendre les opérations des entreprises plus agiles. Dans ce sens, nous pouvons te recommander de regarder de plus près les technos de streaming de données en temps réel comme Apache Kafka. De manière assez classique, l’orchestrateur de conteneurs Kubernetes est très apprécié. D’ailleurs on l’associe souvent avec Prometheus pour le volet surveillance et alertes.
Fais attention à la sécurité de la donnée, les cyberattaques et les violations de données sont en augmentation.
Les services de Cloud computing sont utilisés par de nombreux clients d’iPepper donc on te conseille vraiment de comprendre comment gérer des données dans un environnement Cloud.
Et si tu veux devenir une star de la gestion et de la qualité des données et que les clients s’arrachent tes compétences, regarde ce que l’IA et l’apprentissage automatique peuvent faire pour toi.

Ingénieur System Ops

L’ingénieur System Ops est renommé “Boss de la Prod” dans les couloirs d’iPepper. Capable de travailler sur la virtualisation de systèmes d’exploitation, il reste doté d’une bonne maîtrise du fonctionnement de systèmes d’exploitation comme Linux et Windows. Et bien sûr, la gestion d’infrastructures sur le cloud est le conpe quotidien de son métier.
Forcément, il est responsable de la mise en place, de la maintenance et de l'optimisation des systèmes informatiques en production !
Si tu t'intéresses à ce métier, tu sais qu’à ce poste tu travailles étroitement avec les équipes de Dev et Ops afin d’assurer la fluidité du flux des applications vers la Prod. Sur ce poste, tu peux t’attendre à avoir des tâches très variées. Comme la surveillance des systèmes, la gestion des performances, la gestion de la capacité, la gestion des sauvegardes et des déploiements, et la résolution des problèmes. Rien que ça !
Dans l'aéronautique, nous avons l’exemple d’un de nos ingénieurs iPepper qui travaille sur une plateforme d'échanges de données entre les compagnies aériennes et les gouvernements européens. Dans ce cadre, il s’est appuyé sur Prometheus pour surveiller le système mais il aurait pu tout autant préférer Naggios ou Zabbix !
Un bon ingénieur system ops doit optimiser les systèmes en production en assurant sa disponibilité, fiabilité et performance. Pour ce dernier point, on parle souvent de Prometheus, Grafana, Elastic Stack pour collecter, stocker et visualiser des données de performance pour les applications et les systèmes.
Tu dois être prêt aussi à devenir un as de la sécurité en mettant en place des mesures pour protéger les données et les applications des menaces externes. Tu ne dois pas être allergique aux problèmes, non plus, tu dois même les anticiper en mettant en place des systèmes de sauvegarde ou en imaginant des procédures de secours.
Une âme de chef bienveillant, tu devras avoir, car on demande souvent à l’ingénieur system Ops de superviser l’ensemble des équipes de Prod. Donc une bonne communication et organisation sont les bienvenus.
En matière de technos, on retrouve des tendances et des outils en commun à d’autres métiers. L’automatisation d’abords, avec côté configuration des serveurs, des outils comme Ansible, Puppet ou Chef. Pour le déploiement et la gestion des applications, on automatise beaucoup avec des outils de cloud computing tels que Amazon Web Services (AWS), Microsoft Azure ou Google Cloud Platform (GCP) pour déployer et gérer des applications. En parlant de Cloud, beaucoup des clients d’iPepper se tournent vers les services du Cloud publics dans une optique de scalabilité, de flexibilité et…de coûts. Donc mieux vaut être à l’aise avec les services Cloud en général !
Tu as entendu parler de “ Infrastructure as Code” ? Si ce n’est pas le cas, forme toi. Pour résumer, il s'agit d'une pratique consistant à décrire l'infrastructure logicielle sous forme de code, ce qui permet de la reproduire facilement, de la documenter efficacement et de l'automatiser. Les outils comme Terraform, Ansible et CloudFormation permettent de gérer l'infrastructure de cette façon. Enfin, pour exécuter des applications efficacement et gagner en scalabilité, savoir utiliser correctement des leaders de la conteneurisation comme Docker et Kubernetes est une bonne idée !

Ingénieur ML Ops

Si on devait résumer ce qu’un ingénieur ML Ops est, on pourrait te dire que c’est un expert du Machine learning qui maîtrise la démarche DevOps.
Il a des compétences très recherchées pour tout projet impliquant des applications orientées Machine Learning forcément !
Tu dois déployer et maintenir des modèles d'apprentissage automatique en production de manière fiable et efficace ! Et donc pour cela, tu dois t’inscrire dans une démarche DevOps, c'est-à-dire prendre en compte les contraintes de déploiement dès l’étape de conception et d'entraînement du modèle.
Chez iPepper, un de nos ingénieurs travaille sur la plateforme d’un client, expert dans l’échange de data consommateurs entre sociétés pour proposer des promotions et services pertinents aux acheteurs potentiels.
Au quotidien, on demande à l’ingénieur ML Ops, de mettre en place des pipelines d'apprentissage combinés à des outils de monitoring des modèles.
En termes d’outils, on parle beaucoup de DataRobot qui te permettra de couvrir le cycle de vie du ML, c'est-à-dire de la préparation des data sets d'apprentissage au déploiement des modèles en passant par leurs entraînements. On peut dire que c’est un concurrent sérieux au auto ML de Google, d’autant plus que c’est une offre no-code ! Mais on pourrait citer aussi Domino Data, ML flow chez Windows ou Kubeflow si tu comptes déployer sur Kubernetes.
Si tu veux te faciliter la vie et copier Netflix, tu peux aussi regarder de plus près MetaFlow, un framework Python qui facilite l’exécution de projets machine learning depuis le stade du prototype jusqu’à la production. Tu peux marquer des points en sachant utiliser les “features stores” ! Ce sont des briques qui te permettent de stocker, mettre à jour, récupérer et partager des caractéristiques de machine learning avec d’autres experts de la data, comme toi, afin de gagner du temps. Tu devras, aussi, bien maîtriser les outils d'intégration et de livraison continu (CI/CD) comme Jenkins.