- projektować, optymalizować i tworzyć integracje przepływu danych pomiędzy systemami, hurtownią danych i zaawansowanymi rozwiązaniami Big Data i BI,
- projektować i implementować procesy przetwarzające duże i nieustrukturyzowane zbiory danych (noSQL, Data Lake Architecture)
- projektować i implementować procesy zasilania Data Lake House oraz Hurtowni Danych
- realizować projekty z wykorzystaniem nowoczesnych technologii i narzędzi Big Data i Cloud (Azure, GCP) w środowisku Continuous Delivery / Continuous Integration
- współpracować z interesariuszami biznesowymi i IT w celu definiowania potrzeb i opracowania architektury integracji i mapy drogowej rozwoju architektury Data Lake House
- tworzyć i aktualizować dokumentacje techniczne w tym opracowywać wytyczne dla systemów IT w zakresie architektury i integracji
- opiniować nowe rozwiązania IT wykorzystujące technologie chmurowe pod kątem zgodności z zaprojektowaną architekturą IT
- poszukiwać nowych technologii i dbałość o wysoki poziom swojej wiedzy technicznej
- mają min. 3-letnie doświadczenie w roli architekta rozwiązań/aplikacji chmurowych lub starszego programisty
- posiadają min. 4-letnie doświadczenie w nowoczesnych platformach chmurowych (preferowane Azure)
- bardzo dobrze znają SQL i NoSQL i pracują z bazami danych typu OLAP
- odznaczają się praktyczną znajomością wzorców architektonicznych
- mają doświadczenie z technologią wymiany danych za pomocą kolejek (np. Kafka, Azure Service Bus)
- są doświadczone w tworzeniu rozwiązań opartych o środowisko Microsoft Azure (np.: Azure Data Factory, Azure Databricks, Azure Data Lake, Logic Apps)
- znają dobre praktyki z tworzenia oprogramowania, hurtowni danych oraz data governance
- mają doświadczenie w pracy w środowisku Agile i z narzędziami takimi jak JIRA, Azure DevOps
- umiejętnie opracowują, dokumentują i ustanawiają zasady architektoniczne, standardy i architekturę referencyjną
- posiadają wysokie umiejętności rozwiązywania problemów i komunikacji
- znają z praktyki zagadnienia z zakresu Big Data, AI, ML
- posiadają praktyczną znajomość platform danych, magazynów, narzędzi raportowania i wizualizacji (Serwer SQL, Databricks i PowerBI)
- są doświadczone w projektach z obszaru Data Engineering, Big Data i/lub Cloud z wykorzystaniem technologii Spark, Synapse, Databricks, Big Query, Snowflake
- możliwość pracy zdalnej, hybrydowo lub w jednym z naszych biur,
- zatrudnienie w oparciu o umowę o pracę lub B2B,
- pracę w zespole #TechCCC w międzynarodowej, dynamicznie rozwijającej się firmie,
- możliwość wprowadzania własnych rozwiązań,
- prywatną opiekę medyczną,
- możliwość przystąpienia do grupowego ubezpieczenia na życie oraz programu sportowego Multisport/OK System,
- dodatek stażowy i frekwencyjny
- możliwość zdobywania nowej wiedzy i poszerzania doświadczeń zawodowych,
- dodatkowe benefity w postaci kart rabatowych na zakupy w sieci CCC, sklepie internetowym eobuwie.pl oraz MODIVO