Scalo
Czym będziesz się zajmować? uczestnictwo w projekcie dot. branży finansowej. Wykorzystywany stos technologiczny: Python, PySpark, AWS, Kafka, SQL, Hadoop, Hive, BI Tools (Power BI / Tableau / Qlik),praca nad nowym, greenfieldowym rozwiązaniem typu Data Lake opartym na AWS,praca w międzynarodowym zespole, który działa blisko biznesu i ma realny wpływ na rozwój platformy danych,tworzenie i utrzymywanie wysokiej jakości procesów ETL,integracja danych w czasie rzeczywistym,dbałość o jakość dostarczanego oprogramowania,praca w modelu hybrydowym: 3 razy w miesiącu w biurze w Warszawie,stawka do 160 zł/h przy B2B w zależności od doświadczenia.
Kogo poszukujemy? posiadasz minimum 3 lata doświadczenia jako Data Engineer,bardzo dobrze znasz Python (w tym JupyterLab, PySpark),swobodnie pracujesz w środowisku AWS,masz bardzo dobrą znajomość SQL,znasz narzędzia BI (Power BI, Tableau, Qlik),masz doświadczenie z narzędziami CI/CD, takimi jak Git, Jenkins itp.,pracujesz zgodnie z metodykami Agile,posiadasz doświadczenie w pracy z Kafka, Hive i Hadoop,biegle komunikujesz się w języku angielskim (min. B2).
| Opublikowana | 4 dni temu |
| Wygasa | za 27 dni |
| Tryb pracy | Pełny etat |
| Źródło |
Milczenie jest przytłaczające. Wysyłasz aplikacje jedna po drugiej, ale Twoja skrzynka odbiorcza pozostaje pusta. Nasze AI ujawnia ukryte bariery, które utrudniają Ci dotarcie do rekruterów.
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.