Link Group
Minimum 6 lat doświadczenia w obszarze danych i analiz.
Minimum 2 lata doświadczenia z GCP.
Znajomość usług chmurowych GCP (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow).
Doświadczenie z GIT.
Znajomość SQL oraz przynajmniej jednego z języków programowania: Java, Python.
Znajomość zasad projektowania DWH, Data Lake, Lakehouse.
Silne zdolności analityczne i rozwiązywania problemów.
Bardzo dobra komunikacja w języku angielskim, zarówno werbalna, jak i pisemna.
Mile widziane:
Doświadczenie z Docker, Kubernetes, Terraform.
Doświadczenie z frameworkami danych jak dbt, narzędziami ETL jak Talend oraz platformami do przesyłania danych jak Fivetran.
Znajomość procesów CI/CD.
Doświadczenie w metodologii Agile.
Umiejętność pracy zarówno samodzielnej, jak i zespołowej.
Oferta zawiera stabilne zatrudnienie, możliwość pracy zdalnej lub w biurze, oraz szeroki pakiet benefitów edukacyjnych i rozwojowych. Proces rekrutacyjny obejmuje rozmowy z HR, techniczne oraz z klientem. ,[Tworzenie skalowalnych frameworków do implementacji procesów pobierania danych, magazynów danych, jezior danych oraz rozwiązań do przetwarzania danych dla nowych i istniejących klientów. , Budowanie i utrzymywanie efektywnych, skalowalnych i niezawodnych architektur danych do analiz i raportowania. , Implementacja procesów sprawdzania jakości i walidacji danych w celu zapewnienia ich dokładności i spójności. , Utrzymywanie i aktualizacja dokumentacji oraz słowników danych. , Współpraca z zespołami międzyfunkcyjnymi w celu przekładania wymagań biznesowych na rozwiązania techniczne. ] Requirements: GCP, BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow, Git, SQL, Java, Python, DWH, Data Lake, Lakehouse, Docker, Kubernetes, Terraform, dbt, ETL, Fivetran, CI/CD Tools: Agile. Additionally: Sport subscription, Private healthcare, Small teams.
No Fluff Jobs
You must sign in to apply for this position.