
P&P Solutions
Poszukiwany Regular Data Engineer GCP. Praca zdalna, migracja Hurtowni Danych do GCP. Wymagana znajomość SQL, Python oraz doświadczenie w chmurze. Stawka 115-130 PLN/h netto.
Lokalizacja: zdalnie ze sporadycznymi wizytami w biurze w WarszawieWidełki: 115 - 130 PLN/h netto na b2bOpis klienta:Klient to jeden z czołowych operatorów telekomunikacyjnych w Polsce, oferujący usługi telefonii komórkowej, internetu i rozwiązań cyfrowych. Jako część międzynarodowej grupy firma koncentruje się na innowacjach, transformacji cyfrowej i rozwoju technologii, aby utrzymać przewagę konkurencyjną na rynku.Opis projektu:Projekt obejmuje migrację Hurtowni Danych z Oracle na Google Cloud Platform (GCP).Wymagania Doświadczenie w pracy z platformami chmurowymi i usługami GCP – MUST HAVE Minimum 3 lata doświadczenia jako Data Analyst lub Data Quality Analyst w organizacji data-driven Doświadczenie w zarządzaniu jakością danych i praktykach zarządzania danymi Zaawansowana znajomość SQL i PL/SQL Biegłość w Python Doświadczenie w Linux i Bash scripting Znajomość technologii Cloudera Hadoop stack (Apache Spark, Apache Kafka) Znajomość zasad przetwarzania danych, w tym procesów ETL i przetwarzania danych w czasie rzeczywistym Mile widziane: Doświadczenie z CI/CD i narzędziami automatyzacji Doświadczenie w Scala Znajomość zasad zarządzania danymi, w tym metadata management i frameworków jakości danych Doświadczenie w pracy z różnymi typami systemów źródłowych (Kafka, MQ, SFTP, bazy danych, API, file shares) Udział w projektach międzynarodowych lub wielokrajowych Umiejętność przekładania wyników technicznych na wnioski biznesowe Samodzielność, chęć ciągłego uczenia się i dbałość o szczegóły Biegła znajomość języka angielskiego (B2) Obowiązki Budowa i utrzymanie procesów pobierania danych z różnych źródeł do Data Lake Projektowanie, rozwój i optymalizacja złożonych potoków danych zapewniających niezawodny przepływ danych Tworzenie i utrzymanie frameworków ułatwiających budowę potoków danych Wdrażanie kompleksowych frameworków testowych dla potoków danych Współpraca z analitykami i naukowcami danych w celu zapewnienia wysokiej jakości danych Zapewnienie solidnych praktyk w zakresie zarządzania danymi, bezpieczeństwa i zgodności Badanie i wdrażanie nowych technologii w celu poprawy wydajności potoków danych Integracja danych z różnych systemów źródłowych, w tym Kafka, MQ, SFTP, bazy danych, API oraz udziały plików Technologie w projekcie: Apache Kafka, Apache Spark Cloudera Hadoop stack GCP (Google Cloud Platform) SQL / PL/SQL, Python, Scala (mile widziane) Linux, Bash, ETL SFTP, MQ, API, udziały plików Oferujemy Stawka do 130 zł/h netto na b2b Przelew w dogodnej formie Krótki 14-dniowy termin płatności faktury Bogaty pakiet usług prywatnej opieki medycznej Dostęp do platformy kafeteryjnej MyBenefit (umożliwiającej zamawianie kart Multisport, kart przedpłaconych do Ikea, Zalando, Notino i wielu innych)
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | około miesiąc temu |
| Wygasa | za około 2 miesiące |
| Rodzaj umowy | B2B |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.