Data engineer

Als Data Engineer ben je verantwoordelijk voor het ontwerp, de implementatie en het onderhoud van de data-infrastructuur van de organisatie. Je werkt nauw samen met data scientists, softwareontwikkelaars en andere belanghebbenden om ervoor te zorgen dat de data-behoeften van de organisatie worden vervuld.

Verantwoordelijkheden:
  • Ontwerpen, bouwen en onderhouden van data-infrastructuur in AWS, Azure, GCP, Private Cloud of Hybrid.
  • Een cruciale rol spelen in het ondersteunen van het team bij de implementatie van de bouwblokken die nodig zijn voor de ontwikkeling van CI/CD-pijplijnen.
  • Ontwerpen, ontwikkelen en onderhouden van schaalbare datapijplijnen en ETL-workflows.
  • Implementeren van data-verwerkings- en transformatie-logica met programmeertalen zoals Python, Scala of Spark.
  • Ontwikkelen en onderhouden van data-opslagoplossingen zoals gestructureerde databases, datawarehouses en data lakes.
  • Ontwikkelen en implementeren van datavisualisatie- en dashboard-oplossingen om belanghebbenden gemakkelijk toegang te geven tot en inzicht te geven in belangrijke data.
  • Documenteren en onderhouden van data-infrastructuurcomponenten en datapijplijnen.
  • Problemen oplossen en oplossen van issues met data-verwerking en opslag.
  • Continu monitoren en optimaliseren van de prestaties van de data-infrastructuur om de beschikbaarheid en betrouwbaarheid van data te waarborgen.

Hier gaan we vanuit

  • Bachelor- of masterdiploma in Informatica, Computertechniek of een verwante richting.
  • Minimaal 3 jaar werkervaring in data engineering of een vergelijkbaar vakgebied.
  • Ervaring als DBA of ML Ops engineer wordt als een grote plus beschouwd.
  • Sterke programmeervaardigheden in Python, Scala of R.
  • Ervaring met data-verwerking en -transformatie met tools zoals Apache Spark, Hadoop of Kafka.
  • Kennis van Big Data-technologieën en -principes zoals Databricks, ELK-stack, enz.
  • Sterke kennis van SQL- en NoSQL-databases, datawarehouses en data lakes (streaming, batch, ingestie, verwerking, metadata).
  • Ervaring met tools voor datapijplijnen zoals Apache, Airflow, Hevo Data, Confluence, Azure Data Factory, enz.
  • Sterk begrip van datamodellering, datawarehouse-ontwikkeling en ETL-ontwerpprincipes.
  • Ervaring met data-infrastructuur in Azure, AWS of GCP (zoals Azure SQL, Azure Data Lake, Databricks Delta Lake, AWS Glue, Kinesis, DMS, Dataflow, PubSub, enz.).
  • Ervaring met DBMS zoals PostgreSQL, MongoDB of MySQL.
  • Ervaring of kennis van Docker of Kubernetes is een plus.
  • Zelfstandig gebruik van PowerBI, DAX en Power Query functies.
  • Werkervaring met TensorFlow, PyTorch of Scikit-learn.
  • Werkervaring met GitHub, Bitbucket of andere broncode-opslagtools.
  • Sterke probleemoplossende en foutopsporingsvaardigheden.
  • Uitstekende communicatieve vaardigheden in het Frans of Nederlands en Engels.
  • Vermogen om zowel zelfstandig als in teamverband te werken.

Werken bij Exatech

Consultancy
Gedeeltelijk vanuit huis

EXATECH was created by a team of experts who believe in a fit for purpose approach, connecting
and sharing knowledge across the globe to leverage Business Intelligence, ArtificiaI Intelligence, Cloud, Hybrid and Big Data technologies to effectively help customers in their digital transformation.


Our purpose is to be a trusted partner in above technology solutions so that our
customers can increase their organizational agility, efficiency, productivity and strategic goals.

Locatie
De Meeussquare 35
1000 Brussel
België
10-20

Medewerkers

1

Kantoor

2023

Oprichtingsjaar

Hulp nodig?

Vraag het aan Daan

+31203699487 d.rooth@cooderjobs.com

Upload je CV

Het voornaam veld is verplicht.
Het achternaam veld is verplicht.
Het e-mailadres veld is verplicht.
Het telefoonnummer veld is verplicht.
Vink de privacy policy checkbox aan