ETL Software Developer

job
  • CPP, Inc
Job Summary
Location
Montreal ,QC G4F
Job Type
Contract
Visa
Any Valid Visa
Salary
PayRate
Qualification
BCA
Experience
2Years - 10Years
Posted
19 Dec 2024
Share
Job Description
Are you passionate about building cutting-edge solutions and want to be part of something big from the ground up?

We're Tovanah Analytics, a data analytics SaaS provider, transforming the way healthcare organizations use data with our innovative platform. Our mission is to empower clinics with advanced analytics that drive better decision-making.

Job Summary

We are seeking an experienced ETL Software Developer to join our data engineering team.

As one of our first software developer hires, you'll play a pivotal role in shaping our technology and building the foundation for scalable, impactful products. This is an exciting opportunity to work directly with the founding team, make critical technical decisions, and leave your mark on a product that will change the healthcare landscape

Reporting to our CTO, the successful candidate will design, develop, and maintain efficient ETL (Extract, Transform, Load) pipelines to support our data infrastructure and will work closely with Tovanah's founders to ensure data is accurately extracted from various sources, loaded into our data warehouse, and transformed for analytical and reporting purposes. This role requires a strong understanding of database design and the ability to work with large datasets in a fast-paced environment.

As a key player in our data ecosystem, the ETL Developer will optimize data workflows, troubleshoot issues, and ensure the overall reliability and scalability of our data pipelines.

If you're ready to take on a challenge and create something truly meaningful, we'd love to hear from you!

Key Responsibilities:

  • Design and Build ETL Pipelines: Develop scalable and efficient ETL pipelines to extract data from various sources, load it into the data warehouse, and transform it into usable formats for analysis.
  • Develop Data Integrations: Build integrations to authenticate, extract and download data from multiple sources, including APIs, databases, and third-party platforms.
  • Optimize Data Workflows: Continuously monitor, tune, and optimize data flows to improve performance and reduce resource consumption.
  • Data Quality and Governance: Ensure data accuracy, integrity, and consistency across different stages of the pipeline. Implement and maintain data quality checks.
  • Documentation: Write comprehensive documentation for ETL processes, including pipeline design, data models, and troubleshooting guides.
  • Troubleshooting and Debugging: Diagnose and resolve issues in production pipelines in a timely manner to minimize downtime and ensure data availability.
  • Automation: Automate repetitive tasks and data workflows using scripting or scheduling tools.
  • Collaboration: Work closely with data engineers, architects, and business stakeholders to understand data requirements and ensure the ETL processes meet business needs.

Qualifications:

  • Education: Bachelor's degree in Computer Science, Data Engineering, Information Technology, or a related field.
  • Experience:
  • 3+ years of experience in ETL development, data engineering, or similar roles.
  • Hands-on experience with ETL tools such as dbt (Data Build Tool), Airflow, Talend, or Informatica.
  • Proficiency in working with cloud-based data warehouses (e.g., Snowflake, Redshift, BigQuery).
  • Strong SQL skills and experience with relational databases (PostgreSQL)
  • Experience with scripting languages like JavaScript or Python.
  • Experience with integrating with APIs and JSON or CSV formats.
  • Familiarity with version control systems like Git.

Skills:

  • Solid understanding of data modeling, database architecture, and data warehousing concepts.
  • Strong analytical skills with the ability to troubleshoot and resolve data-related issues.
  • Knowledge of cloud platforms such as Google Cloud, AWS, Azure.
  • Ability to manage multiple projects and prioritize tasks in a fast-paced environment.
  • Excellent communication and collaboration skills.

Preferred Qualifications:
  • Experience with HTTP REST API development.
  • Familiarity with containerization and deployment tools like Docker
  • Knowledge of machine learning workflows and integration with data pipelines.

Work Environment: Hybrid preferred

What We Offer:
  • Competitive salary and performance based incentives.


- - - - - - - - - - - - - - - - - -

Résumé du poste

Nous recherchons un développeur de logiciels ETL expérimenté pour rejoindre notre équipe d'ingénierie des données.

En tant que l'un de nos premiers développeurs de logiciels embauchés, vous jouerez un rôle essentiel dans le façonnement de notre technologie et la construction des bases de produits évolutifs et percutants. Il s'agit d'une opportunité passionnante de travailler directement avec l'équipe fondatrice, de prendre des décisions techniques critiques et de laisser votre empreinte sur un produit qui changera le paysage des soins de santé.

Sous la responsabilité de notre directeur technique, le candidat retenu concevra, développera et maintiendra des pipelines ETL (extraction, transformation, chargement) efficaces pour prendre en charge notre infrastructure de données et travaillera en étroite collaboration avec les fondateurs de Tovanah pour garantir que les données sont extraites avec précision de diverses sources, chargées dans notre entrepôt de données et transformées à des fins d'analyse et de création de rapports. Ce rôle nécessite une solide compréhension de la conception de bases de données et la capacité de travailler avec de grands ensembles de données dans un environnement en évolution rapide.

En tant qu'acteur clé de notre écosystème de données, le développeur ETL optimisera les flux de données, résoudra les problèmes et assurera la fiabilité et l'évolutivité globales de nos pipelines de données.

Si vous êtes prêt à relever un défi et à créer quelque chose de vraiment significatif, nous aimerions avoir de vos nouvelles !

Principales responsabilités :

  • Concevoir et créer des pipelines ETL : développer des pipelines ETL évolutifs et efficaces pour extraire des données de diverses sources, les charger dans l'entrepôt de données et les transformer en formats utilisables pour l'analyse.
  • Développer des intégrations de données : créer des intégrations pour authentifier, extraire et télécharger des données à partir de plusieurs sources, notamment des API, des bases de données et des plateformes tierces.
  • Optimiser les flux de données : surveiller, ajuster et optimiser en permanence les flux de données pour améliorer les performances et réduire la consommation de ressources.
  • Qualité et gouvernance des données : garantir l'exactitude, l'intégrité et la cohérence des données à travers les différentes étapes du pipeline. Mettre en œuvre et maintenir des contrôles de qualité des données.
  • Documentation : rédiger une documentation complète pour les processus ETL, y compris la conception du pipeline, les modèles de données et les guides de dépannage.
  • Dépannage et débogage : diagnostiquer et résoudre les problèmes dans les pipelines de production en temps opportun pour minimiser les temps d'arrêt et garantir la disponibilité des données.
  • Automatisation : automatiser les tâches répétitives et les flux de données à l'aide d'outils de script ou de planification.
  • Collaboration : travailler en étroite collaboration avec les ingénieurs de données, les architectes et les parties prenantes de l'entreprise pour comprendre les exigences en matière de données et garantir que les processus ETL répondent aux besoins de l'entreprise.

Qualifications :

  • Formation: baccalauréat en informatique, ingénierie des données, technologies de l'information ou dans un domaine connexe.
  • Expérience:
    3 ans et plus d'expérience en développement ETL, ingénierie des données ou rôles similaires.
  • Expérience pratique avec des outils ETL tels que dbt (Data Build Tool), Airflow, Talend ou Informatica.
  • Maîtrise des entrepôts de données basés sur le cloud (par exemple, Snowflake, Redshift, BigQuery).
  • Solides compétences SQL et expérience des bases de données relationnelles (PostgreSQL)
  • Expérience avec les langages de script comme JavaScript ou Python.
  • Expérience avec l'intégration avec les API et les formats JSON ou CSV.
  • Familière avec les systèmes de contrôle de version comme Git.
  • Compétences :
  • Solide compréhension de la modélisation des données, de l'architecture des bases de données et des concepts d'entreposage de données.
  • Solides compétences analytiques avec la capacité de dépanner et de résoudre les problèmes liés aux données.
  • Connaissance des plateformes cloud telles que Google Cloud, AWS, Azure.
  • Capacité à gérer plusieurs projets et à hiérarchiser les tâches dans un environnement en évolution rapide.
  • Excellentes compétences en communication et en collaboration.


Qualifications préférées :

  • Expérience avec le développement d'API HTTP REST.
  • Connaissance des outils de conteneurisation et de déploiement comme Docker
  • Connaissance des flux de travail d'apprentissage automatique et de l'intégration avec les pipelines de données.

Environnement de travail: Hybride préféré.

Ce que nous offrons :

  • Salaire compétitif et primes basées sur les performances.
Other Smiliar Jobs
 
  • Toledo, OH
  • 7 Days ago
  • Athens, GA
  • 7 Days ago
  • Eugene, OR
  • 7 Days ago
  • Montreal, QC
  • 7 Days ago
  • Kansas City, MO
  • 7 Days ago
  • Fairview Heights, IL
  • 7 Days ago
  • Fort Bragg, NC
  • 7 Days ago
  • Washington, DC
  • 7 Days ago
  • Chantilly, VA
  • 7 Days ago
  • Ashburn, VA
  • 7 Days ago
  • Omaha, NE
  • 7 Days ago
  • Ashburn, VA
  • 7 Days ago
  • Reston, VA
  • 7 Days ago
  • , NY
  • 7 Days ago