Link Group

Minimum 6 lat doświadczenia w obszarze danych i analiz.

Minimum 2 lata doświadczenia z GCP.

Znajomość usług chmurowych GCP (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow).

Doświadczenie z GIT.

Znajomość SQL oraz przynajmniej jednego z języków programowania: Java, Python.

Znajomość zasad projektowania DWH, Data Lake, Lakehouse.

Silne zdolności analityczne i rozwiązywania problemów.

Bardzo dobra komunikacja w języku angielskim, zarówno werbalna, jak i pisemna.

Mile widziane:

Doświadczenie z Docker, Kubernetes, Terraform.

Doświadczenie z frameworkami danych jak dbt, narzędziami ETL jak Talend oraz platformami do przesyłania danych jak Fivetran.

Znajomość procesów CI/CD.

Doświadczenie w metodologii Agile.

Umiejętność pracy zarówno samodzielnej, jak i zespołowej.

Oferta zawiera stabilne zatrudnienie, możliwość pracy zdalnej lub w biurze, oraz szeroki pakiet benefitów edukacyjnych i rozwojowych. Proces rekrutacyjny obejmuje rozmowy z HR, techniczne oraz z klientem. ,[Tworzenie skalowalnych frameworków do implementacji procesów pobierania danych, magazynów danych, jezior danych oraz rozwiązań do przetwarzania danych dla nowych i istniejących klientów. , Budowanie i utrzymywanie efektywnych, skalowalnych i niezawodnych architektur danych do analiz i raportowania. , Implementacja procesów sprawdzania jakości i walidacji danych w celu zapewnienia ich dokładności i spójności. , Utrzymywanie i aktualizacja dokumentacji oraz słowników danych. , Współpraca z zespołami międzyfunkcyjnymi w celu przekładania wymagań biznesowych na rozwiązania techniczne. ] Requirements: GCP, BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow, Git, SQL, Java, Python, DWH, Data Lake, Lakehouse, Docker, Kubernetes, Terraform, dbt, ETL, Fivetran, CI/CD Tools: Agile. Additionally: Sport subscription, Private healthcare, Small teams.

No Fluff Jobs

You must sign in to apply for this position.