Robert Half Italia è una società che opera nel campo della ricerca & selezione del personale gestione di progetti ed è autorizzata a tempo indeterminato per la somministrazione di lavoro con Autorizzazione Ministeriale Prot. n.del 03/08/2018.
Per unazienda operante nel settore della consulenza informatica che supporta società di diversi settori con progetti per la realizzazione di soluzioni innovative scalabili e orientate al business ricerchiamo un/una Data Engineer con esperienza su Databricks.
La figura verrà inserita nellarea Data Intelligence e si occuperà di:
- Progettare sviluppare e mantenere pipeline di dati scalabili su piattaforma Databricks
- Implementare processi ETL/ELT per lintegrazione e la trasformazione dei dati
- Lavorare su grandi volumi di dati utilizzando Apache Spark
- Collaborare con Data Analyst Data Scientist e stakeholder di business per comprendere i requisiti
- Ottimizzare le performance delle pipeline e la qualità dei dati attraverso lo sviluppo di metodologie CI/CD
Requisiti
Principali requisiti:
- Almeno 4 anni di esperienza in un ruolo simile
- Ottima conoscenza del linguaggio di programmazione Python e/o Scala in particolare conoscenza approfondita di Apache Spark
- Conoscenza e utilizzo di database SQL e NoSQL
- Conoscenza di soluzioni cloud (AWS Azure o GCP)
- Buon livello di conoscenza della lingua inglese (almeno livello B1 o superiore) scritto e parlato
Nice to have:
- Certificazioni in ambito Data Cloud o Databricks
- Esperienza in contesti enterprise o su piattaforme dati complesse
Sede di lavoro: Milano/Roma/Bologna/Ferrara (posizione aperta su diverse sedi)
I candidati ambosessi ( n. 198/2006) sono invitati a leggere linformativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 disponibile sul nostro sito web. Si comunica inoltre che i curricula potranno essere considerati per altre posizioni vacanti e potrebbero essere gestiti e comunicati anche attraverso luso di tools propri e/o dellazienda cliente.
Required Skills:
Principali requisiti: Almeno 4 anni di esperienza in un ruolo simile Ottima conoscenza del linguaggio di programmazione Python e/o Scala in particolare conoscenza approfondita di Apache Spark Conoscenza e utilizzo di database SQL e NoSQL Conoscenza di soluzioni cloud (AWS Azure o GCP) Buon livello di conoscenza della lingua inglese (almeno livello B1 o superiore) scritto e parlato Nice to have: Certificazioni in ambito Data Cloud o Databricks Esperienza in contesti enterprise o su piattaforme dati complesse Sede di lavoro: Milano/Roma/Bologna/Ferrara (posizione aperta su diverse sedi) I candidati ambosessi ( n. 198/2006) sono invitati a leggere linformativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 disponibile sul nostro sito web. Si comunica inoltre che i curricula potranno essere considerati per altre posizioni vacanti e potrebbero essere gestiti e comunicati anche attraverso luso di tools propri e/o dellazienda cliente.
Robert Half Italia è una società che opera nel campo della ricerca & selezione del personale gestione di progetti ed è autorizzata a tempo indeterminato per la somministrazione di lavoro con Autorizzazione Ministeriale Prot. n.del 03/08/2018.Per unazienda operante nel settore della consulenza inform...
Robert Half Italia è una società che opera nel campo della ricerca & selezione del personale gestione di progetti ed è autorizzata a tempo indeterminato per la somministrazione di lavoro con Autorizzazione Ministeriale Prot. n.del 03/08/2018.
Per unazienda operante nel settore della consulenza informatica che supporta società di diversi settori con progetti per la realizzazione di soluzioni innovative scalabili e orientate al business ricerchiamo un/una Data Engineer con esperienza su Databricks.
La figura verrà inserita nellarea Data Intelligence e si occuperà di:
- Progettare sviluppare e mantenere pipeline di dati scalabili su piattaforma Databricks
- Implementare processi ETL/ELT per lintegrazione e la trasformazione dei dati
- Lavorare su grandi volumi di dati utilizzando Apache Spark
- Collaborare con Data Analyst Data Scientist e stakeholder di business per comprendere i requisiti
- Ottimizzare le performance delle pipeline e la qualità dei dati attraverso lo sviluppo di metodologie CI/CD
Requisiti
Principali requisiti:
- Almeno 4 anni di esperienza in un ruolo simile
- Ottima conoscenza del linguaggio di programmazione Python e/o Scala in particolare conoscenza approfondita di Apache Spark
- Conoscenza e utilizzo di database SQL e NoSQL
- Conoscenza di soluzioni cloud (AWS Azure o GCP)
- Buon livello di conoscenza della lingua inglese (almeno livello B1 o superiore) scritto e parlato
Nice to have:
- Certificazioni in ambito Data Cloud o Databricks
- Esperienza in contesti enterprise o su piattaforme dati complesse
Sede di lavoro: Milano/Roma/Bologna/Ferrara (posizione aperta su diverse sedi)
I candidati ambosessi ( n. 198/2006) sono invitati a leggere linformativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 disponibile sul nostro sito web. Si comunica inoltre che i curricula potranno essere considerati per altre posizioni vacanti e potrebbero essere gestiti e comunicati anche attraverso luso di tools propri e/o dellazienda cliente.
Required Skills:
Principali requisiti: Almeno 4 anni di esperienza in un ruolo simile Ottima conoscenza del linguaggio di programmazione Python e/o Scala in particolare conoscenza approfondita di Apache Spark Conoscenza e utilizzo di database SQL e NoSQL Conoscenza di soluzioni cloud (AWS Azure o GCP) Buon livello di conoscenza della lingua inglese (almeno livello B1 o superiore) scritto e parlato Nice to have: Certificazioni in ambito Data Cloud o Databricks Esperienza in contesti enterprise o su piattaforme dati complesse Sede di lavoro: Milano/Roma/Bologna/Ferrara (posizione aperta su diverse sedi) I candidati ambosessi ( n. 198/2006) sono invitati a leggere linformativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 disponibile sul nostro sito web. Si comunica inoltre che i curricula potranno essere considerati per altre posizioni vacanti e potrebbero essere gestiti e comunicati anche attraverso luso di tools propri e/o dellazienda cliente.
View more
View less