ITFS
Czym będziesz się zajmować? Charakterystyka oferty:Miejsce pracy: praca hybrydowa (1/2 dni z biura klienta w Warszawie)Start: 5.01.2026 (do 30 dni OW)Współpraca: B2B z ITFS (współpraca długofalowa) Wynagrodzenie: 120-135 zł/h netto + VAT Proces rekrutacyjny: krótka rozmowa z ITFS➡ rozmowa miękko-techniczna z klientem➡ decyzjaOferujemy:Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowejMożliwość skorzystania z dodatkowych benefitów (pakiet medyczny, sportowy, darmowa opieka księgowa - do 3 wpisów miesięcznie)Obowiązki na stanowisku:Projektowanie i utrzymanie procesów integracji danych on-prem (Informatica, Oracle, PostgreSQL) oraz w GCP (Airflow, Dataflow, Dataproc, BigQuery, BigTable).Budowa i optymalizacja przepływów danych end-to-end, w tym zadania harmonogramujące oraz obsługa kolejek danych (Kafka, Pub/Sub).Tworzenie i rozwijanie komponentów integracyjnych w Pythonie i PySpark lub narzędzi w Rust wspierających szybkie ładowanie danych.Zapewnienie wysokiej dostępności i wydajności danych oraz wsparcie usług działających w trybie 24/7.Monitorowanie, testowanie i optymalizacja procesów z użyciem narzędzi takich jak Grafana czy JMeter oraz współpraca z zespołami danych.
Kogo poszukujemy? Wymagania:Minimum 5 lat doświadczenia w integracji danych na on-prem, w tym biegła znajomość Informatica PowerCenter oraz ekspercka znajomość Oracle i PostgreSQL (projektowanie, budowa, tuning)Doświadczenie w pracy z narzędziami harmonogramującymi (np. Automate Now) oraz umiejętność wystawiania usług REST APIMinimum 4 lata doświadczenia jako Data Engineer w GCP, w tym dobra znajomość narzędzi Apache Airflow, GCP Dataflow, GCP Dataproc oraz baz BigQuery i BigTableDoświadczenie w pracy z kolejkami danych (Kafka, GCP Pub/Sub) oraz programowaniu w Pythonie i PySpark lub znajomość Rust w kontekście ładowania danychDoświadczenie w pracy z GitDobra znajomość języka angielskiego w stopniu umożliwiającym pracę z dokumentacją technicznąMile widziane:Podstawowa znajomość microservices w Javie oraz języka GroovyDoświadczenie w pracy z Linuxem oraz dużymi wolumenami danych (ok. 100 TB)Umiejętności analityczne, samodzielność, kreatywność i terminowość w realizacji zadańZnajomość narzędzi wspierających: Grafana, Apache JMeter i repozytoria Git
| Opublikowana | 12 dni temu |
| Wygasa | za 19 dni |
| Tryb pracy | Pełny etat |
| Źródło |
Milczenie jest przytłaczające. Wysyłasz aplikacje jedna po drugiej, ale Twoja skrzynka odbiorcza pozostaje pusta. Nasze AI ujawnia ukryte bariery, które utrudniają Ci dotarcie do rekruterów.
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.