
Data Engineer GCP
Connectis_
132 - 190 PLN / HOUR
Warszawa
Warszawa, mazowieckie
Hybrydowa
B2B
Google Cloud Platform
BigQuery
Dataflow
Terraform
Cloud Native
Data Engineering
DevOps
CI/CD
Security
Status
Hexjobs Insights
Poszukujemy Data Engineera GCP do projektowania rozwiązań w chmurze. Wymagana znajomość GCP oraz Big Data. Oferujemy hybrydowy model pracy i wiele benefitów.
Słowa kluczowe
Google Cloud Platform
BigQuery
Dataflow
Terraform
Cloud Native
Data Engineering
DevOps
CI/CD
Security
Benefity
- Możliwość uczestnictwa w spotkaniach integracyjnych oraz meetupach technologicznych.
- Praca w modelu hybrydowym - 4 dni zdalnie, 1 dzień z biura w tygodniu.
- Wsparcie dedykowanej osoby kontaktowej z Connectis.
- Rozwój kariery i długofalowa współpraca.
- 5000 PLN za polecenie znajomych do projektów.
- Praca z nowoczesnego biura w Warszawie.
- Szybki, zdalny proces.
Technologie, których używamy
O projekcie
Twój zakres obowiązków
- Tworzenie i rozwój architektury platform przetwarzania danych (Data Lake / DWH / Lakehouse) z wykorzystaniem usług BigQuery, Dataflow, Dataproc, Dataplex oraz Pub/Sub.
- Standaryzacja, implementacja i automatyzacja wdrożeń infrastruktury w podejściu Infrastructure as Code (Terraform), w tym rozwój i utrzymanie Landing Zone.
- Projektowanie i wdrażanie rozwiązań chmurowych w GCP zgodnych ze standardami bezpieczeństwa, dostępności oraz architektury Cloud Native.
- Doradztwo dla zespołów projektowych w zakresie wyboru usług, wzorców architektonicznych oraz integracji danych w środowisku GCP.
- Wsparcie w procesach kosztowych: estymacja zużycia zasobów, optymalizacja kosztów oraz budżetowanie środowiska chmurowego.
- Współpraca z zespołami Security, IT, Data oraz biznesem w projektowaniu skalowalnych i bezpiecznych ekosystemów danych.
- Udział w tworzeniu i utrzymaniu standardów oraz dobrych praktyk w obszarze Cloud, DevOps i Data Engineering.
- Dzielenie się wiedzą, mentoring oraz budowanie kompetencji chmurowych w organizacji.
Nasze wymagania
- Kilkuletniego doświadczenia w projektowaniu i wdrażaniu rozwiązań chmurowych, preferencyjnie w środowisku Google Cloud Platform (GCP).
- Bardzo dobrej znajomości usług GCP: Compute, Storage, IAM, BigQuery, Pub/Sub, Dataflow, Dataproc, Kubernetes (GKE).
- Doświadczenia w projektach Big Data lub budowie Hurtowni Danych / Lakehouse w środowisku chmurowym.
- Praktycznej znajomości Cloud Native oraz Infrastructure as Code (Terraform).
- Znajomości zasad bezpieczeństwa chmurowego: IAM, VPC, DevSecOps.
- Automatyzacja procesów CI/CD (np. GitHub, ArgoCD).
Mile widziane
- Doświadczenie w architekturze hybrydowej (on-premise ↔ GCP) oraz w obszarze Data Governance (Dataplex, Collibra).
- Certyfikaty Google Cloud (Professional Cloud Architect, Professional Data Engineer).
- Znajomość Python, Ansible, Bash.
- Doświadczenie z platformą Azure.
- Wiedza z zakresu FinOps.
To oferujemy
- Możliwość uczestnictwa w spotkaniach integracyjnych oraz meetupach technologicznych, gdzie będziesz mógł/mogła dzielić się wiedzą i doświadczeniem.
- Praca w modelu hybrydowym - 4 dni zdalnie, 1 dzień z biura w tygodniu, (dla osób zamieszkałych poza Warszawą możliwość pracy zdalnej).
- Wsparcie dedykowanej osoby kontaktowej z Connectis, dostępnej w celu pomocy w sprawach związanych z projektem.
- Rozwój kariery i długofalową współpracę w firmie o ugruntowanej pozycji na rynku.
- 5000 PLN za polecenie znajomych do naszych projektów.
- Praca z nowoczesnego biura w Warszawie.
- Szybki, zdalny proces
Wyświetlenia: 6
| Opublikowana | 5 dni temu |
| Wygasa | za 25 dni |
| Rodzaj umowy | B2B |
| Tryb pracy | Hybrydowa |
| Źródło |
Podobne oferty, które mogą Cię zainteresować
Na podstawie "Data Engineer GCP"
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.