Title: Software Data Engineer
La risorsa sarà inserita all’interno del progetto di Data Platform con l’obiettivo di sviluppare i processi di alimentazione tramite Kafka e integrare tutti i sistemi di manufacturing presenti nei plant. Si occuperà di analisi e implementazione di soluzioni big data specialmente in ambiente cloud. In particolare i progetti riguarderanno tematiche di digital transformation a partire da soluzioni tradizionali e legacy, verso soluzioni di gestione e analisi del dato in linea con una data strategy data-driven.
Collaborerà con il team di Milano alla condivisione dei requisiti, progettazione e modellazione delle loading chain.
Si occuperà inoltre della stesura della documentazione degli sviluppi, agli integration test e deploy in ambiente AWS e gestirà l’handover della soluzione implementata al team di supporto per la governance della soluzione.
Attività
Sono richieste:
- Laurea in discipline tecniche/scientifiche;
- Conoscenza approfondita di S3, Aurora , RDS e postgres per configurazione e gestione database nei processi di loading dati;
- Esperienza programmazione con Phyton, Spark, Node.js, Scala;
- Esperienza in ambienti cloud preferibilmente AWS(msk, Kafka);
- Esperienza di progettazione, sviluppo, gestione di pipeline scalabili (ETL);
- Capacità analitiche per la gestione di grandi quantità di dati (Big Data);
- Conoscenza delle tematiche di data integration e data streaming e di almeno un paio di strumenti/framework (Spark, Apache Beam, Kafka, databricks, ecc..) con esperienza di almeno 1 anno nell’utilizzo di questi tool;
- Conoscenza delle architetture e tecnologie big data più diffuse (Hadoop, MapReduce, HBase, Oozie, Hive, Flume, MongoDB, Cassandra, Pig, ecc.).
Inoltre:
- Buona conoscenza della lingua inglese;
- Buona propensione all'analisi, al problem solving e al teamworking;
- Dinamismo e proattività.
Sono un plus:
- Conoscenza linguaggi di scripting Web, Design e UX;
- Certificazioni tecniche AWS;
- Esperienza in ambito simile di almeno 2 anni.
Ruolo da ricoprire:
- Sviluppo pipeline di caricamento sistemi di fabbrica in data platform;
- Performance tuning;
- Scrittura di codice PL/SQL;
- Scrittura e manutenzione della documentazione tecnica a supporto delle implementazioni ETL;
- Manutenzione ed interventi su flussi ETL esistenti;
- Interfaccia con i settori del Business per la raccolta dei requisiti;
- Predisposizione di sistemi di alert, monitoring tramite Cloudwatch, Phyton.
Sede: la posizione sarà basata presso il nuovo ufficio Pirelli di Bari (BA), Italia.