Employer Active
Job Alert
You will be updated with latest job alerts via emailJob Alert
You will be updated with latest job alerts via emailWir suchen einen PythonEntwickler mit DevOpsExpertise zur Optimierung der Dateninfrastruktur und zur Untersttzung der Entwicklung eines modularen Kontrollzentrums fr das Stammdatenmanagement.
Key Facts
Start: 01.04.2025
Duration: not known
Capacity: 90
Employment type:
Job site: Berlin
Job country: Deutschland
Ihre Aufgaben
Entwicklung von RESTbasierten und Kafkabasierten APIs fr den Stammdatenzugriff und die Integration in andere Systeme mit Fokus auf Sicherheit
Als Koordinierungsstelle fr Deploymentbezogene Themen innerhalb des Projekt/Produktteams fungieren einschlielich Docker CI/CDPipelines und KubernetesAufgaben.
Optimieren der Datenspeicher und Abrufsysteme fr Leistung und Effizienz
Sicherstellung der Skalierbarkeit und Zuverlssigkeit der Dateninfrastruktur
Koordination mit Data Scientists Data Architects und anderen Data Engineers um die Datengenauigkeit und konsistente Datenbereitstellung sicherzustellen insbesondere im Zusammenhang mit DataGovernanceEntscheidungen.
Identifizieren entwerfen und implementieren Sie Prozessverbesserungen einschlielich der Automatisierung manueller Prozesse der Optimierung der Datenbereitstellung und der Neugestaltung der Infrastruktur fr eine hhere Skalierbarkeit.
Arbeiten Sie mit Stakeholdern zusammen um sie in datenbezogenen technischen Fragen zu beraten und die Datenplattform an ihre Bedrfnisse anzupassen
Bauen Sie Datenexpertise auf und bernehmen Sie die Verantwortung fr die Datenqualitt in den von Ihnen entwickelten Pipelines
Untersttzung der projektbezogenen Koordination und Kommunikation zur Abstimmung mit den Teamzielen und ergebnissen
MussAnforderungen
IT/Technikbezogene Erfahrungen (z. B. akademischer Grad wie Bachelor oder Master) oder eine vergleichbare Ausbildung
Mindestens 3 Jahre Berufserfahrung in der Entwicklung robuster BackendAnwendungen in Python
Fundiertes Verstndnis der ITSicherheitsanforderungen und deren Umsetzung (z. B. Leitfden fr die sichere Entwicklung von Webanwendungen des Bundesamts fr Sicherheit in der Informationstechnik BSI) idealerweise im Kontext kritischer Infrastrukturen
Fundierte Erfahrung mit Containerisierung unter Verwendung von Docker und DeploymentPipelines in einer CI/CDUmgebung vorzugsweise Azure
Fundierte Erfahrung in Kubernetes (einschlielich Helm Charts) und ArgoCD (oder hnlichen GitOpsTools)
Fundierte Kenntnisse in Python fr BackendDienste vorzugsweise mit FastAPI oder hnlichen Frameworks
Kenntnisse in SQL (z. B. fr Backend und/oder ELTAnwendungen) vorzugsweise PostgreSQL. Erfahrung mit gemischten OLTP/OLAPWorkloads ist ein Plus
Fundiertes Verstndnis von MicroservicesArchitekturen und ereignisgesteuerten Systemen
Solide konzeptionelle Kenntnisse in Softwaredesignmustern Skalierbarkeit und Continuous IntegrationPraktiken
Kenntnisse in TestautomatisierungsFrameworks (z. B. JUnit Cypress Selenium oder Playwright)
Praktische Erfahrung in der Arbeit in ScrumTeams
Kenntnisse in Englisch und Deutsch (C1Niveau oder hher)
KannAnforderungen
Erfahrung mit RESTbasierten und Kafkabasierten APIs fr den Stammdatenzugriff und die Integration mit anderen Systemen mit Fokus auf Sicherheit
Erfahrung in der Koordination von Themen im Zusammenhang mit der Bereitstellung innerhalb von Projekt/Produktteams (z. B. Docker CI/CDPipelines Aufgaben im Zusammenhang mit Kubernetes)
Erfahrung in der Optimierung von Datenspeicher und Abrufsystemen fr Leistung und Effizienz
Erfahrung in der Sicherstellung der Skalierbarkeit und Zuverlssigkeit der Dateninfrastruktur
Erfahrung in der projektbezogenen Koordination mit Data Scientists Datenarchitekten und anderen Dateningenieuren um die Datengenauigkeit und konsistente Datenbereitstellung sicherzustellen insbesondere im Zusammenhang mit Data Governance Entscheidungen.
Erfahrung in der Identifizierung dem Design und der Implementierung von Prozessverbesserungen einschlielich der Automatisierung manueller Prozesse der Optimierung der Datenbereitstellung und der Neugestaltung der Infrastruktur fr eine hhere Skalierbarkeit.
Erfahrung in der Beratung von Stakeholdern in datenbezogenen technischen Fragen und in der Weiterentwicklung der Datenplattform um den Bedrfnissen der Stakeholder gerecht zu werden
Erfahrung im Aufbau von Datenexpertise und bernahme der Verantwortung fr die Datenqualitt der erstellten Pipelines
Weitere Informationen
Das Projekt beginnt am 1. April 2025 und endet am 31. Dezember 2025 mit einer potenziellen Verlngerung. Die Arbeit erfolgt zu 95 remote wobei eine 5prozentige Prsenz vor Ort in der Zentrale in Berlin oder Neuenhagen erforderlich ist. Der Reiseaufwand ist mit 5 minimal.
Lets power the future together
From Business Case to Implementation: As a leading consulting firm for strategic transformations we are a trusted partner for our clientsand for our employees. Responsible highperforming and always with a focus on people. #WeAreWavestone
With our 360 portfolio of consulting services we combine toptier industry expertise with a wide range of crosssector skills work interdisciplinary and think outside the box. This allows us to offer our partner companies and freelancers comprehensive perspectives within our own projects while also supporting them as a longstanding framework agreement partner in filling project vacanciespromptly and directly.
We look forward to hearing from you!
Full Time