Aplikuj teraz

Data Engineer

ITFS

Centrum, Warszawa +1 więcej
20 200 - 22 700 PLN
Pełny etat
REST
Kafka
GCP
🐍 Python
Rust
Pełny etat
T-SQL
SQL Server
ETL
SSIS
Analysis Services
SQL Server Reporting Services
🔄 DevOps
Testing
Selenium
Playwright
Cypress
API testing

Czym będziesz się zajmować? Charakterystyka oferty:Miejsce pracy: praca hybrydowa (1/2 dni z biura klienta w Warszawie)Start: 5.01.2026 (do 30 dni OW)Współpraca: B2B z ITFS (współpraca długofalowa) Wynagrodzenie: 120-135 zł/h netto + VAT Proces rekrutacyjny: krótka rozmowa z ITFS➡ rozmowa miękko-techniczna z klientem➡ decyzjaOferujemy:Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowejMożliwość skorzystania z dodatkowych benefitów (pakiet medyczny, sportowy, darmowa opieka księgowa - do 3 wpisów miesięcznie)Obowiązki na stanowisku:Projektowanie i utrzymanie procesów integracji danych on-prem (Informatica, Oracle, PostgreSQL) oraz w GCP (Airflow, Dataflow, Dataproc, BigQuery, BigTable).Budowa i optymalizacja przepływów danych end-to-end, w tym zadania harmonogramujące oraz obsługa kolejek danych (Kafka, Pub/Sub).Tworzenie i rozwijanie komponentów integracyjnych w Pythonie i PySpark lub narzędzi w Rust wspierających szybkie ładowanie danych.Zapewnienie wysokiej dostępności i wydajności danych oraz wsparcie usług działających w trybie 24/7.Monitorowanie, testowanie i optymalizacja procesów z użyciem narzędzi takich jak Grafana czy JMeter oraz współpraca z zespołami danych.

Kogo poszukujemy? Wymagania:Minimum 5 lat doświadczenia w integracji danych na on-prem, w tym biegła znajomość Informatica PowerCenter oraz ekspercka znajomość Oracle i PostgreSQL (projektowanie, budowa, tuning)Doświadczenie w pracy z narzędziami harmonogramującymi (np. Automate Now) oraz umiejętność wystawiania usług REST APIMinimum 4 lata doświadczenia jako Data Engineer w GCP, w tym dobra znajomość narzędzi Apache Airflow, GCP Dataflow, GCP Dataproc oraz baz BigQuery i BigTableDoświadczenie w pracy z kolejkami danych (Kafka, GCP Pub/Sub) oraz programowaniu w Pythonie i PySpark lub znajomość Rust w kontekście ładowania danychDoświadczenie w pracy z GitDobra znajomość języka angielskiego w stopniu umożliwiającym pracę z dokumentacją technicznąMile widziane:Podstawowa znajomość microservices w Javie oraz języka GroovyDoświadczenie w pracy z Linuxem oraz dużymi wolumenami danych (ok. 100 TB)Umiejętności analityczne, samodzielność, kreatywność i terminowość w realizacji zadańZnajomość narzędzi wspierających: Grafana, Apache JMeter i repozytoria Git

Wyświetlenia: 3
Opublikowana12 dni temu
Wygasaza 19 dni
Tryb pracyPełny etat
Źródło
Logo

Podobne oferty, które mogą Cię zainteresować

Na podstawie "Data Engineer"