This is a remote position.
1. Architetto Big Data Cloudera Spark
Per ampliamento team cliente siamo alla ricerca di un Architetto Big Data con esperienza approfondita in ambienti distribuiti e tecnologie Cloudera. La risorsa opererà su progetti di data engineering e data analytics ad alta complessità garantendo la scalabilità e la sicurezza delle architetture dati in contesti enterprise.
Competenze tecniche richieste:
Esperienza comprovata in architetture Big Data basate su Cloudera Data Platform (CDP) e Apache Spark
Conoscenza approfondita di HDFS Hive Impala HBase Kafka e NiFi
Padronanza di YARN Ranger Knox Atlas e strumenti di sicurezza e governance dati
Esperienza in modellazione dati e progettazione di pipeline ETL/ELT
Conoscenza di linguaggi Scala Python SQL
Buona comprensione di microservizi containerizzazione (Docker Kubernetes) e API REST
Conoscenza di ambienti Linux/Unix e scripting avanzato
Esperienza con strumenti di monitoraggio e performance tuning Spark e Cloudera
Gradita esperienza in contesti di Pubblica Amministrazione o ambienti regolamentati
Soft skills:
Ottime capacità analitiche e di problem solving
Autonomia decisionale e attitudine alla collaborazione con team multidisciplinari
Capacità di documentare soluzioni architetturali e processi
Modalità di lavoro: full remote
Durata: almeno 12 mesi
2. Sviluppatore Big Data Spark / Cloudera
Siamo alla ricerca di uno Sviluppatore Big Data con solida esperienza in ambienti Cloudera e Apache Spark per attività di sviluppo e ottimizzazione di pipeline dati distribuite in contesto enterprise.
Competenze tecniche richieste:
Esperienza di almeno 3 anni nello sviluppo di applicazioni su Apache Spark (Core SQL Streaming)
Conoscenza approfondita dellecosistema Cloudera (HDFS Hive Impala Oozie NiFi)
Buona padronanza di Scala e Python
Esperienza nella gestione e ottimizzazione di job Spark in ambienti clusterizzati
Conoscenza di Kafka per ingestion real-time
Familiarità con Git Jenkins CI/CD e best practice DevOps
Esperienza in query tuning data ingestion pipelines e data transformation
Conoscenza base di Linux shell scripting e sistemi distribuiti
Soft skills:
Precisione e capacità di lavorare in ambienti strutturati
Buone doti comunicative e predisposizione al lavoro in team
Propensione al miglioramento continuo e alladozione di standard di qualità
Modalità di lavoro: full remote
Durata: almeno 12 mesi
Required Skills:
Esperienza comprovata in architetture Big Data basate su Cloudera Data Platform (CDP) e Apache Spark Conoscenza approfondita di HDFS Hive Impala HBase Kafka e NiFi Padronanza di YARN Ranger Knox Atlas e strumenti di sicurezza e governance dati Esperienza in modellazione dati e progettazione di pipeline ETL/ELT Conoscenza di linguaggi Scala Python SQL Buona comprensione di microservizi containerizzazione (Docker Kubernetes) e API REST Conoscenza di ambienti Linux/Unix e scripting avanzato Esperienza con strumenti di monitoraggio e performance tuning Spark e Cloudera Gradita esperienza in contesti di Pubblica Amministrazione o ambienti regolamentati
This is a remote position.1. Architetto Big Data Cloudera SparkPer ampliamento team cliente siamo alla ricerca di un Architetto Big Data con esperienza approfondita in ambienti distribuiti e tecnologie Cloudera. La risorsa opererà su progetti di data engineering e data analytics ad alta compless...
This is a remote position.
1. Architetto Big Data Cloudera Spark
Per ampliamento team cliente siamo alla ricerca di un Architetto Big Data con esperienza approfondita in ambienti distribuiti e tecnologie Cloudera. La risorsa opererà su progetti di data engineering e data analytics ad alta complessità garantendo la scalabilità e la sicurezza delle architetture dati in contesti enterprise.
Competenze tecniche richieste:
Esperienza comprovata in architetture Big Data basate su Cloudera Data Platform (CDP) e Apache Spark
Conoscenza approfondita di HDFS Hive Impala HBase Kafka e NiFi
Padronanza di YARN Ranger Knox Atlas e strumenti di sicurezza e governance dati
Esperienza in modellazione dati e progettazione di pipeline ETL/ELT
Conoscenza di linguaggi Scala Python SQL
Buona comprensione di microservizi containerizzazione (Docker Kubernetes) e API REST
Conoscenza di ambienti Linux/Unix e scripting avanzato
Esperienza con strumenti di monitoraggio e performance tuning Spark e Cloudera
Gradita esperienza in contesti di Pubblica Amministrazione o ambienti regolamentati
Soft skills:
Ottime capacità analitiche e di problem solving
Autonomia decisionale e attitudine alla collaborazione con team multidisciplinari
Capacità di documentare soluzioni architetturali e processi
Modalità di lavoro: full remote
Durata: almeno 12 mesi
2. Sviluppatore Big Data Spark / Cloudera
Siamo alla ricerca di uno Sviluppatore Big Data con solida esperienza in ambienti Cloudera e Apache Spark per attività di sviluppo e ottimizzazione di pipeline dati distribuite in contesto enterprise.
Competenze tecniche richieste:
Esperienza di almeno 3 anni nello sviluppo di applicazioni su Apache Spark (Core SQL Streaming)
Conoscenza approfondita dellecosistema Cloudera (HDFS Hive Impala Oozie NiFi)
Buona padronanza di Scala e Python
Esperienza nella gestione e ottimizzazione di job Spark in ambienti clusterizzati
Conoscenza di Kafka per ingestion real-time
Familiarità con Git Jenkins CI/CD e best practice DevOps
Esperienza in query tuning data ingestion pipelines e data transformation
Conoscenza base di Linux shell scripting e sistemi distribuiti
Soft skills:
Precisione e capacità di lavorare in ambienti strutturati
Buone doti comunicative e predisposizione al lavoro in team
Propensione al miglioramento continuo e alladozione di standard di qualità
Modalità di lavoro: full remote
Durata: almeno 12 mesi
Required Skills:
Esperienza comprovata in architetture Big Data basate su Cloudera Data Platform (CDP) e Apache Spark Conoscenza approfondita di HDFS Hive Impala HBase Kafka e NiFi Padronanza di YARN Ranger Knox Atlas e strumenti di sicurezza e governance dati Esperienza in modellazione dati e progettazione di pipeline ETL/ELT Conoscenza di linguaggi Scala Python SQL Buona comprensione di microservizi containerizzazione (Docker Kubernetes) e API REST Conoscenza di ambienti Linux/Unix e scripting avanzato Esperienza con strumenti di monitoraggio e performance tuning Spark e Cloudera Gradita esperienza in contesti di Pubblica Amministrazione o ambienti regolamentati
View more
View less