Data Engineer (Praca zdalna)

P&P Solutions

Warszawa, Łucka 15 +3 więcej
90 - 130 PLN
Zdalna
B2B
Apache Kafka
📊 Data
GCP
PL/SQL
SQL
🐍 Python
Apache Spark
💼 B2B
🌐 Zdalna
Pełny etat
☁️ AWS
Git
🤖 GenAI
RAG
Snowflake
💙 TypeScript
⚛️ React
Terraform
☁️ Azure Databricks
🧠 MLOps

📍 Lokalizacja: praca zdalna💰 Wynagrodzenie: 90- 130 pln/h📄 Forma zatrudnienia: B2B💻Projekt: komercyjny, telco.Pracodawca to jeden z kluczowych operatorów telekomunikacyjnych w Polsce, działający w ramach międzynarodowej grupy. Firma mocno stawia na innowacje, digital transformation oraz rozwój technologii wspierających biznes na dużą skalę.Dołączysz do zespołu odpowiedzialnego za migrację Hurtowni Danych Oracle na Google Cloud Platform (GCP) oraz budowę skalowalnych procesów przetwarzania danych w środowisku chmurowym.Zakres obowiązków: Budowa i utrzymanie procesów pobierania danych z wielu źródeł do Data Lake. Projektowanie i rozwój złożonych potoków danych oraz ich optymalizacja. Tworzenie i utrzymanie frameworków ułatwiających budowę data pipelines. Implementacja frameworków testowych dla potoków danych. Ścisła współpraca z analitykami i data scientistami. Zapewnienie wysokich standardów w zakresie data governance, bezpieczeństwa i jakości danych. Analiza, wdrażanie i testowanie nowych technologii zwiększających wydajność procesów. Integracja danych z różnych typów źródeł: Kafka, MQ, SFTP, bazy danych, API, udziały plików. Technologie w projekcie: Apache Kafka, Apache Spark Cloudera Hadoop stack GCP (Google Cloud Platform) SQL / PL/SQL Python, Scala (mile widziane) Linux, Bash ETL, SFTP, MQ, API, file share Umiejętność przełożenia wiedzy technicznej na praktyczne rozwiązania i realną wartość biznesowąWymagania must-have Bardzo dobra znajomość GCP (warunek kluczowy). Min. 3 lata doświadczenia jako Data Analyst / Data Quality Analyst / Data Engineer. Udokumentowane doświadczenie w zarządzaniu jakością danych i data governance. Zaawansowany SQL oraz PL/SQL. Bardzo dobra znajomość Python; Scala jako plus. Doświadczenie z Linuxem i bash scripting. Praktyczna znajomość technologii Cloudera Hadoop (Spark, Kafka). Zrozumienie zasad ETL i przetwarzania danych w czasie rzeczywistym. Mile widziane Doświadczenie z CI/CD i narzędziami automatyzacji. Znajomość zasad data governance (metadata, data quality frameworks). Doświadczenie z różnymi źródłami danych: Kafka, MQ, SFTP, API, DB, file shares. Praca w środowisku międzynarodowym. Umiejętność przekładania zagadnień technicznych na język biznesowy. Angielski na poziomie B2+. Proaktywność, dokładność i chęć ciągłego rozwoju.

Wyświetlenia: 1
Opublikowana2 dni temu
Wygasaza 28 dni
Rodzaj umowyB2B
Tryb pracyZdalna
Źródło
Logo
Logo

Podobne oferty, które mogą Cię zainteresować

Na podstawie "Data Engineer"