Maxime, Data Engineer
- Quel est ton parcours chez DataPy ?
J’ai commencé à travailler chez DataPy en octobre 2019, après avoir rencontré François sur un événement lié à la Data Science.
Il m’a proposé une belle mission de data engineering pour industrialiser le traitement d’un flux de données pour un datalake dans le secteur de l’aéronautique. François m’a ensuite proposé d’autres missions alignées avec mon métier d’ingénieur en données et automatisations. J’aime ce type d’enjeux.
A ce titre, j’ai travaillé avec des technologies récentes comme du RPA (Robotic Process Automation) pour automatiser des tâches qui étaient précédemment systématiques et répétitives (création de contrats de vente pour un acteur du transport aérien, remplissage automatique de données pour assureur en immobilier).
J’ai souvent utilisé Python, un langage aujourd’hui très populaire, pour des applications mêlant de grandes quantités de données et automatisation de process ; principalement dans l’aéronautique.
Enfin, je participe au développement en interne de DataPy avec la mise en place de quelques outils de pilotage interne.
J’ai beaucoup appris au cours de mes missions. C’est grâce à l’écoute de mes souhaits professionnels et à la grande variété de missions que l’on m’a proposé que je peux dire que je deviens un référant dans mon domaine.
- Quelle est ta « journée-type » chez DataPy ?
Il n’y a pas de « journée-type », compte tenu du fait que je réalise mes prestations directement chez nos clients. Cependant il y a une « année-type » que je peux décrire :
Durant une année avec DataPy, le consultant ne sera jamais livré à lui-même chez un client, sans nouvelles.
L’équipe DataPy met un point d’honneur à suivre régulièrement tous ses collaborateurs afin de savoir : s’ils se sentent bien, si la mission correspond toujours à leur souhait professionnel, si tout va bien globalement.
Le but est d’avoir un objectif professionnel, une compétence à acquérir, un domaine à maîtriser, un métier à apprendre. Tout est mis en œuvre pour trouver la mission qui peut nous aider à avancer vers cet objectif, quand cela est possible.
On ne m’a jamais imposé de mission qui ne m’inspire pas.
Ainsi, tout au long de l’année je me sens accompagné par DataPy sur le plan professionnel.
Une fois par an, un bilan annuel est réalisé afin de faire le point sur mes objectifs, mettre en lumière mes points forts et prioriser des axes de progrès. On discute de ce que l’on peut/veut améliorer et de la façon dont DataPy peut nous accompagner dans la démarche.
Également, des rencontres entre collaborateurs de DataPy pour une activité ou une soirée afterwork ont lieu régulièrement. Cela nous permet de rencontrer de nouvelles personnes et de nous amuser.
- Que penses-tu de la culture d’entreprise DataPy ?
La culture d’entreprise chez DataPy est extrêmement positive et bienveillante.
En fait, François et Jérôme mettent le bien être de leurs collaborateurs en priorité et c’est plus rare qu’on ne le pense dans le monde du travail.
On oublie souvent que les collaborateurs d’une entreprise sont les rouages qui permettent à celle-ci de fonctionner. Plus ils sont en bonne santé et motivés, mieux ces rouages fonctionnent.
Tout est fait pour être accueilli le mieux possible, être le mieux accompagné, être compris et écouté.
Cela se ressent sur la valorisation de mon travail par le salaire, quand je fais un afterwork avec l’équipe, quand j’échange avec François. Je n’en ressens que du positif.
Vous devriez également aimer
Athena, solution serverless d’Amazon, mise en perspective de “Buzz Query”
Nous avions exploré dans l’article précédent les forces et faiblesses de Spark et Elasticsearch. Nous allons à présent creuser en quoi la solution.
Forces et faiblesses de Spark et Elasticsearch
Nous avons partagé les enjeux liés à la techno du Serverless dans le précédent article. Nous allons creuser aujourd’hui les solutions les plus connues dans le domaine du traitement de données à grande échelle, Spark et Elasticsearch.
Le serverless, une approche efficace à bas prix
Nous avions introduit dans l’article précédent ce qu’était la notion de moteur de requête de dashboarding. Nous allons à présent nous concentrer sur une nouvelle notion, plus proche des ressources matérielles, le serverless.