SCALO
Stanowisko: Data Engineer. Kluczowe obowiązki: projektowanie rozwiązań Data Lake, programowanie w Pythonie/Rust, analiza danych. Wymagania: doświadczenie w data lakes, znajomość GCP i baz danych. Forma pracy: hybrydowa.
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!W Scalo czeka na Ciebie: Projektowanie i budowa rozwiązań klasy Data Lake i DWH, procesy zasilania online i offline, Tworzenie przepływów danych w Pythonie i Rust dla danych strukturalnych i niestrukturalnych, Analiza danych oraz przygotowywanie modeli logicznych i fizycznych, Strojenie zapytań SQL na bazach relacyjnych i hurtowniach danych (on-prem i GCP), Tworzenie datamartów tematycznych na bazach relacyjnych i kolumnowych, Projektowanie i implementacja rozwiązań zgodnie z wymaganiami biznesowymi, Usuwanie incydentów, wsparcie testów, wdrożeń i serwisowanie oprogramowania, Praca zgodnie z modelem DevSecOps. Praca hybrydowa (raz w tygodniu praca z Warszawy) Stawka: do 160 zł netto + VAT/H/B2B Ta oferta jest dla Ciebie, jeśli: Masz doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake Programujesz w Pythonie i/lub Rust Znasz technologie wykorzystywane w architekturze sterowanej zdarzeniami (np. Kafka, Pub/Sub) Masz dobrą znajomość baz danych GCP BigQuery – projektowanie, budowa i tuning baz danych Znasz Oracle i PostgreSQL – projektowanie, budowa i tuning baz danych Dobrze poruszasz się w systemie Linux na poziomie zaawansowanego użytkownika Mile widziane: Doświadczenie w tworzeniu rozwiązań Big Data wykorzystujących GenAI (przetwarzanie danych niestrukturalnych: transkrypcje audio, dokumenty tekstowe, obrazy) Znajomość narzędzi Automate Now, Airflow Praktyka w Apache Spark (GCP Dataproc) lub Apache Beam (GCP DataFlow) Doświadczenie z Informatica PowerCenter Co dla Ciebie mamy? Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe. GCP, Data Lake, Python, BigDataSeniordo160 PLN/h (B2B)HybrydowaZobacz jak do nas dołączyć:
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | 3 dni temu |
| Wygasa | za 27 dni |
| Rodzaj umowy | B2B, PERMANENT |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.