
Data Engineer (Senior)
Scalo Sp. z o.o.
165 - 165 PLN / HOUR
Warszawa, mazowieckie
Hybrydowa
B2B
GCP
ETL
Python
PySpark
Kafka
Rest API
Rust
Oracle
PostgreSQL
Informatica
Status
Hexjobs Insights
Poszukiwany Senior Data Engineer do pracy z procesami integracji danych na GCP i on-prem, z wymaganiami w zakresie ETL oraz programowania w Pythonie i Rust.
Słowa kluczowe
GCP
ETL
Python
PySpark
Kafka
Rest API
Rust
Oracle
PostgreSQL
Informatica
Benefity
- stabilna współpraca
- różnorodne projekty
- możliwość rozwoju kompetencji
- wpływ na rozwój organizacji
- wsparcie dla innych w społeczności eksperckiej
Technologie, których używamy
O projekcie
Twój zakres obowiązków
- praca w obszarze procesów integracji danych na GCP,
- praca w obszarze procesów integracji danych on-prem,
- projektowanie, budowa i tuning baz danych,
- korzystanie z narzędzi ETL na GCP i on-prem,
- korzystanie z kolejek Kafka oraz GCP Pub / Sub,
- wystawianie usług Rest API,
- praca w języku Python oraz z frameworkiem PySpark,
- wykorzystanie języka Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych,
- z czasem przejęcie odpowiedzialności za wybrany obszar przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym,
- praca w modelu hybrydowym 1 raz w tygodniu z biura w Warszawie.
Nasze wymagania
- masz co najmniej 5-letnie doświadczenie jako Data Engineer GCP w obszarze procesów integracji danych na GCP,
- bardzo dobrze znasz bazy danych GCP: GCP Big Query, GCP Big Table, Scylla Cloud,
- dobrze znasz narzędzia ETL Flow na GCP: Apache AirFlow, GCP Data Flow, GCP Data Proc,
- korzystasz z kolejek Kafka oraz GCP Pub / Sub,
- masz co najmniej 4-letnie doświadczenie jako Developer ETL w obszarze procesów integracji danych on-prem,
- biegle posługujesz się narzędziami ETL on-prem na poziomie zaawansowanym: Informatica Power Center, NIFI,
- posiadasz ekspercką znajomość relacyjnych baz danych Oracle, PostgreSQL, ScyllaDB,
- bardzo dobrze znasz narzędzie harmonogramujące Automate Now firmy Infinity Data,
- potrafisz wystawiać usługi Rest API,
- masz co najmniej 3-letnie doświadczenie jako programista,
- biegle znasz Python w obszarze integracji i analizy danych oraz framework PySpark,
- znasz język Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych.
Mile widziane
- podstawowa wiedza w zakresie programowania MicroServices w języku JAVA,
- korzystanie z systemu operacyjnego Linux na poziomie zaawansowanego użytkownika,
- doświadczenie w pracy z dużymi wolumenami danych ~100TB,
- umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy,
- samodzielność i kreatywność w rozwiązywaniu problemów,
- terminowość i rzetelność w realizacji projektów,
- znajomość narzędzi pomocniczych: repozytorium GIT, narzędzi do monitorowania jak np. Grafana, narzędzi do testów wydajności jak Apache JMeter.
Tak organizujemy naszą pracę
Tak pracujemy
To oferujemy
- stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services),
- możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych,
- przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet),
- prywatną opiekę medyczną - Luxmed,
- kafeteryjny system benefitów - Motivizer,
- dostęp do karty Multisport,
- program poleceń pracowniczych z nagrodami,
- integracje i wydarzenia firmowe.
Benefity
Wyświetlenia: 8
| Opublikowana | 9 dni temu |
| Wygasa | za 21 dni |
| Rodzaj umowy | B2B |
| Tryb pracy | Hybrydowa |
| Źródło |
Podobne oferty, które mogą Cię zainteresować
Na podstawie "Data Engineer (Senior)"
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.