Employer Active
Job Alert
You will be updated with latest job alerts via emailJob Alert
You will be updated with latest job alerts via email7years
7500 - 7500
1 Vacancy
Je versterkt een DevOps-team dat een modern cloudgebaseerd dataplatform bouwt en beheert op Azure. Met jouw expertise richt je services in zoals Azure Data Factory Azure Databricks en AKS en automatiseer je end-to-end data-workflows. Je borgt performance betrouwbaarheid en security en zorgt dat collega s in staat zijn hoogwaardige data-oplossingen snel in productie te nemen.
Ontwerpen implementeren en onderhouden van schaalbare data-oplossingen met Azure-services
Beheren van containerized applicaties in Azure Kubernetes Service (AKS)
Bouwen en onderhouden van CI/CD-pipelines voor deployment en geautomatiseerd testen
Ontwikkelen van data-processing en integratie-workflows in Python Java en SQL
Provisionen en beheren van cloud-infrastructuur met Infrastructure as Code (Terraform of Bicep)
Ontwikkelen en integreren van RESTful API s voor data-uitwisseling
Automatiseren van event-driven workflows en systeemintegraties
Toepassen van logging monitoring en observability om hoge beschikbaarheid en fouttolerantie te garanderen
Schrijven en onderhouden van unit- en integratietests
Troubleshooten en oplossen van issues in (pr )productie-omgevingen
Actief bijdragen aan kennisdeling design-discussies en technische reviews
HBO- of WO-diploma in Computer Science Engineering of vergelijkbaar
Minimaal 7 jaar ervaring met Microsoft Azure (inclusief AKS Data Factory Data Lake Storage Databricks)
Diepgaande kennis van Azure Databricks: Delta Lake notebook orchestration structured streaming en performance-optimalisatie
Ruime ervaring met CI/CD-tools (Azure DevOps GitHub Actions Jenkins of vergelijkbaar)
Sterke programmeer- en scriptingvaardigheden in Python Java en SQL
Ervaring met Infrastructure as Code (Terraform of Bicep)
Bekend met RESTful API-ontwikkeling en integraties
Ervaring met event-driven architecturen en geautomatiseerde workflows
Inzicht in data-engineeringprincipes (data-modelleren ETL/ELT-patronen governance)
Kennis van big-data frameworks (Apache Spark Kafka Hadoop) is een pr
Uitstekende analytische en probleemoplossende vaardigheden
Vloeiende beheersing van Engels
Ervaring met data-lakehouse of data-mesh architecturen
Kennis van MLOps en machine learning workloads in Databricks
Ervaring met security best practices en compliance-raamwerken
Affiniteit met open-source tooling en community-initiatieven
Kennis van messaging-oplossingen en serverless eventing
Wil jij bouwen aan het hart van een cloud-gebaseerd dataplatform en impact maken binnen een ambitieus DevOps-team Solliciteer dan snel!
Education
HBO werk- en denkniveau
Full Time