Używamy plików cookie, aby poprawić wrażenia użytkownika, analizować ruch i wyświetlać odpowiednie reklamy.
Więcej Akceptuję
Podaj pozycję

Przegląd Statystyki wynagrodzenia zawód "Data Architect w Polsce"

Otrzymuj informacje statystyczne pocztą

Przegląd Statystyki wynagrodzenia zawód "Data Architect w Polsce"

17 000 zł Średnia miesięczna pensja

Średni poziom płac w ciągu ostatnich 12 miesięcy: "Data Architect w Polsce"

Waluty: PLN USD Rok: 2024
Wykres słupkowy pokazuje zmiany w poziomie przeciętnego wynagrodzenia zawodu Data Architect w Polsce.

Podział miejsc pracy "Data Architect" na obszarach Polsce

Waluty: PLN
Jak widać na wykresie, w Polsce największą ilość wakatów zawodu Data Architect otwarcie w Mazowieckie. Na drugim miejscu - Małopolskie, a na trzecim - Śląskie.

Regiony ocenił Polsce od poziomu wynagrodzeń dla zawodu "Data Architect"

Waluty: PLN
Jak widać na wykresie, w Polsce największą ilość wakatów zawodu Data Architect otwarcie w Mazowieckie. Na drugim miejscu - Małopolskie, a na trzecim - Śląskie.

Podobne wolnych miejsc pracy ocenił przez poziom wynagrodzenia w Polsce

Waluty: PLN
Wśród podobnych zawodach Polsce jest uważany za najlepiej opłacaną Programista Scala. Według naszej stronie internetowej, średnia pensja wynosi 38000 zł. Na drugim miejscu - Enterprise Architect z pensją 30308 zł, a trzeci - Dynamics Ax Consultant z pensją 25000 zł.

Polecane oferty pracy

Cloud Data Architect
PwC, Warszawa, mazowieckie
PwC to sieć ponad 250 000 tysięcy pracowników w 158 krajach skupionych na tym, by dostarczać usługi najwyższej jakości w obszarach audytu, doradztwa podatkowego, konsultingu i rozwoju technologii. Dołącz do PwC i zmieniaj z nami zasady gry. PwC, jako światowego lidera w obszarze usług chmurowych, wspiera zespół Cloud & Digital PwC Polska, liczący ponad 70 specjalistów. Świadczymy najwyższej jakości usługi we wszystkich obszarach związanych z chmurą, takich jak: Cloud Strategy, Cloud Migrations, Data Analytics, DevOps, Application Modernization & Cloud Native. Wspieramy klientów w procesie wprowadzania innowacji, w tworzeniu nowych modeli biznesowych oraz usprawnianiu działań operacyjnych. Poprawiamy też wyniki biznesowe organizacji.Do naszego zespołu poszukujemy: Cloud Data ArchitectTwoja przyszła rola:udział w projektach w obszarze danych w chmurze publicznej, hybrydowej oraz Multicloud,projektowanie i wdrażanie innowacyjnych rozwiązań z zakresu analityki danych opartych o chmurę Google Cloud, Microsoft Azure, AWS,współpracowanie z zespołem biznesowym i Data Analytics w zakresie tworzenia wymagań oraz koncepcji architektonicznych w celu budowania rozwiązań analitycznych w oparciu o natywne rozwiązania chmurowe,projektowanie i budowanie systemów hurtowni danych, procesów ETL oraz rozwiązań Machine Learning w skali Enterprise,wspieranie i kierowanie zespołami implementacyjnymi od koncepcji po wdrożenie, zapewniając wiedzę techniczną w zakresie analityki i przetwarzania danych w chmurze i on-premise,rozwijanie się zawodowo, uczestnicząc w najciekawszych i najbardziej innowacyjnych projektach na rynku, realizowanych dla klientów, będących liderami w swoich branżach w Polsce i na świecie.Aplikuj, jeśli:projektujesz oraz wdrażasz rozwiązania hurtowni danych (on-premises oraz cloud),wdrażasz koncepcje Data Governance w organizacji,przygotowujesz koncepcje technologicznych oraz architektury w obszarze Data,implementujesz rozwiązania architektoniczne i analizujesz dane w jednej z Chmur Publicznych (AWS, Azure, Google Cloud, Oracle Cloud),planujesz lub przeprowadzasz migracje danych między systemami on-prem a chmurą publiczną (np. Hadoop, Exadata, Teradata),projektujesz i wdrażasz pipeline ETL,projektujesz i wdrażasz rozwiązania Data Lake, Data Lakehouse,rozwijasz Hadoop stack (np. MapReduce, Sqoop, Pig, Hive, HBase, Flume, Spark, Kafka, Flink, Java),pracujesz z bazami danych SQL/NoSQL (np. Oracle, MSSQL, PostgreSQL, MySQL, Cassandra, MongoDB),znasz Python (w obszarze Data), SQL, Scala,przygotowujesz dokumentację techniczną projektowanych rozwiązańbiegle posługujesz się językiem polskim i językiem angielskim w mowie i piśmieMile widziane:znajomość pryncypiów chmurowego bezpieczeństwa, zarządzania danymi (Data Governance), podstaw oraz narzędzi DevOps, DataOps, CI/CD i koncepcji Multicloud,doświadczenie w budowaniu rozwiązań hurtownianych oraz Lakehouse jak Snowflake oraz Databricks,zrozumienie strategii migracji środowisk do chmury - włączając w to znajomość narzędzi wspierających proces oceny i migracji aplikacji oraz baz danych,certyfikacja na poziomie Professional Google Cloud Data Engineer, Microsoft Azure Data Engineer, AWS Certified Data Analytics lub Oracle Database SQL Certified Associate będzie atutem, ale nie jest wymagana.Dołączając do nas zyskujesz: elastyczne warunki - hybrydowy model pracy, elastyczny początek dnia, workation, sabbatical leave,rozwój i podnoszenie kwalifikacji - pełne wsparcie zespołu podczas procesu wdrożenia, mentoring, szkolenia, warsztaty, certyfikacja współ-/finansowana przez PwC.szeroki program medyczno-wellbeingowy - pakiet opieki medycznej (m.in. opieka stomatologiczna, swoboda leczenia, masaże, fizjoterapia), coaching, sesje mindfulness, wsparcie psychologiczne, edukacja poprzez dedykowane webinary i warsztaty, doradztwo finansowo-prawne, możliwość stworzenia indywidualnego planu benefitowego (wybór m.in. lunch pass, pakiet ubezpieczenia, concierge, pakiet weterynaryjny dla pupila czy masaże) oraz dostęp do kafeterii - w środku m.in. vouchery, zniżki na urządzenia IT i zakup samochodu,3 godziny płatnego urlopu w miesiącu na wolontariat,dodatkowy dzień wolnego z okazji urodzin,a kiedy polubisz to miejsce tak, jak my, możesz polecić znajomych do PwC .Jak wygląda proces rekrutacji? zaaplikuj, porozmawiaj telefonicznie z osobą z zespołu Rekrutacji, poznaj swojego przyszłego Managera i osoby z zespołu podczas rozmowy rekrutacyjnej.W razie problemów, napisz do nas: [email protected].
Data Engineer | Cloud&Engineering
Deloitte, Gdańsk, Katowice, Kraków, Łódź, Poznań, Warszawa, ...
Who we are looking for For our fast growing Cloud Engineering practice in Central Europe we are looking for Data Engineer where primary goals are conducting R&D tasks, design data models, prepare solution architecture, implementing data models, data flow pipelines (batch & streaming) in Azure cloud which is part of larger transformation programs for large client from Insurance industry.We are looking for an enthusiastic, person with hands-on experience in data projects, in Azure cloud space. Project scope is to implement modern data platform based on Data Mesh concept. The whole implementation is in Azure with streaming data processing in Kafka and Azure Databricks. Qualifications: At least 3-5 years of experience in a similar position At least 3-5 years of experience in on-premise BI/Big Data class solutions or 3 years of experience of working in the Azure cloud environment dealing with data analytics Knowledge of SQL (any dialect, T-SQL, PL/SQL...) Knowledge of Scala or Python Advanced understanding of most of the listed concepts from the field of relational databases, data warehouses, analytical bases (OLTP/OLAP), BigData, data processing and transformation processes (ETL/ELT) Experience in some of Azure services like Azure SQL Database, Azure Databricks, Azure Synapse Analytics, Azure Data Factory, Azure Data Lake, Azure Stream Analytics, Azure Analysis Services, PowerBI Problem-solving skills and analytical thinking Knowledge of English in speaking and writing Willingness to develop in the field of public cloudMoreover, the following will be an advantage:Knowledge of German in speaking and writing Cloud certifications in the data area in Azure: Azure Fundamentals Azure Data Engineer Associate Experience with data streaming (Databricks Structured Streaming, Kafka) Understanding of Data Mesh concept Knowledge of German in speaking and writing Your future role Here’s a sample of what you can experience: Proposing solution architecture based on cloud solutions Develop data-related solutions (i.e. BigData, Modern Data Warehouse, Data Warehouse Modernization, Data Analytics) based on the cloud environment (Azure, GCP, AWS). Streaming data processing Develop solutions in selected specializations in the area of data transformation (ETL / ELT), advanced analytics (OLAP) and reports Develop Data Governance solutions (Data Quality, Master Data Management, Metadata Management etc.) Support the process of implementing changes into the existing software Participate in the planning and tasks estimation process Cooperate with an external client with respect to analysis and performance of indicated tasks Communicate with an external client Desire for intensive development in the field of cloud technologies with a focus on data analytics  What we offer Working from office or home office – what you preferFlexible working hours Permanent employment or contract Medical and health insurance Multisport and other lifestyle benefits Language courses A development path to fit your needs Friendly coworkers & team spirit Wide variety of projects Multiple geographies and clients Work for well-known brands Exposure to trailblazing business and technology projects A place in the first line of a digital transformation Everyday opportunities to influence how and where we do our business Selection process Recruitment process is easy, all you have to do is: Send us your CV HR Interview (30min) Technical Interview (60min) Final Interview (45min) About Deloitte Deloitte is a variety of people, experience, industries and services we deliver in 150 countries of the world. It is an intellectual challenge, a good starting point for your career, and an excellent opportunity for continuous development and gaining valuable life experiences. What you only must do is to take the first step – press the apply button and send us your CV, go through all the stages of the recruitment process and sign a contract with us. Deloitte is simply your best choice. About the team Our Cloud Engineering teams design and deliver interesting cloud projects for clients in Poland and abroad in areas of cloud development, DevOps, integration, migration, data management, infrastructure and others. We help our clients to strategize, design and implement and migrate solutions with use of modern cloud technologies.Cloud Engineering (deloitte.com) #LI-ET1
Data Security Lead (Snowflake)
SCALO Sp. z o.o., Szczecin, zachodniopomorskie
Cześć!Cieszymy się, że czytasz nasze ogłoszenie!Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!Sprawdź, co czeka Cię w Scalo:praca w projektach związanych z obszaru data security&access realizowanych dla linii lotniczych i branży turystycznej. Stos technologiczny: Snowflake Data Security, Data Loss Prevention, Oauth, SAML, SCIM, RABC, Azure, AWS, GCP,projektowanie i rozwijanie rozwiązań z zakresu zabezpieczeń Data Loss Prevention i Data Security,zarządzanie projektami w obszarze data security,praca w modelu w pełni zdalnym,stawka: 200 - 220 pln/h netto B2B w zalezności od doświadczenia.Dobrze odnajdziesz się w naszym zespole, jeśli:ok 8 letnie doświadczenie na podobnym stanowisku,masz praktycznie doświadczenie z Snowflake (Data Security, Data Exchange, Data Live Sharing, Data Mesh Architecture),znasz rozwiązania chmurowe (Azure, AWS, GCP),masz doświadczenie w projektowaniu i wdrażaniu rozwiązań z zakresu Data Loss Prevention,potrafisz tworzyć i wdrażać zasady kontroli i dostępu do danych,posiadasz doświadczenie w zarządzaniu projektami obszarze data security,znasz standardy zabezpieczeń i protokoły SAML, SCIM, Oauth, RBAC.Co możesz zyskać?długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, dostęp do technologicznych platform e-learningowych -Udemy, Pluralsight, kursy języka angielskiego - biznesowego lub angielskiego w IT,     kafeteryjny system benefitów - Motivizer, prywatną opiekę medyczną - Luxmed, możliwość wystąpień na naszych autorskich eventach IT-ProMEET. Prześlij CV i porozmawiajmy!
Data Security Lead (Snowflake)
SCALO Sp. z o.o., Poznań, wielkopolskie
Cześć!Cieszymy się, że czytasz nasze ogłoszenie!Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!Sprawdź, co czeka Cię w Scalo:praca w projektach związanych z obszaru data security&access realizowanych dla linii lotniczych i branży turystycznej. Stos technologiczny: Snowflake Data Security, Data Loss Prevention, Oauth, SAML, SCIM, RABC, Azure, AWS, GCP,projektowanie i rozwijanie rozwiązań z zakresu zabezpieczeń Data Loss Prevention i Data Security,zarządzanie projektami w obszarze data security,praca w modelu w pełni zdalnym,stawka: 200 - 220 pln/h netto B2B w zalezności od doświadczenia.Dobrze odnajdziesz się w naszym zespole, jeśli:ok 8 letnie doświadczenie na podobnym stanowisku,masz praktycznie doświadczenie z Snowflake (Data Security, Data Exchange, Data Live Sharing, Data Mesh Architecture),znasz rozwiązania chmurowe (Azure, AWS, GCP),masz doświadczenie w projektowaniu i wdrażaniu rozwiązań z zakresu Data Loss Prevention,potrafisz tworzyć i wdrażać zasady kontroli i dostępu do danych,posiadasz doświadczenie w zarządzaniu projektami obszarze data security,znasz standardy zabezpieczeń i protokoły SAML, SCIM, Oauth, RBAC.Co możesz zyskać?długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, dostęp do technologicznych platform e-learningowych -Udemy, Pluralsight, kursy języka angielskiego - biznesowego lub angielskiego w IT,     kafeteryjny system benefitów - Motivizer, prywatną opiekę medyczną - Luxmed, możliwość wystąpień na naszych autorskich eventach IT-ProMEET. Prześlij CV i porozmawiajmy!
Data Security Lead (Snowflake)
SCALO Sp. z o.o., Opole, opolskie
Cześć!Cieszymy się, że czytasz nasze ogłoszenie!Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!Sprawdź, co czeka Cię w Scalo:praca w projektach związanych z obszaru data security&access realizowanych dla linii lotniczych i branży turystycznej. Stos technologiczny: Snowflake Data Security, Data Loss Prevention, Oauth, SAML, SCIM, RABC, Azure, AWS, GCP,projektowanie i rozwijanie rozwiązań z zakresu zabezpieczeń Data Loss Prevention i Data Security,zarządzanie projektami w obszarze data security,praca w modelu w pełni zdalnym,stawka: 200 - 220 pln/h netto B2B w zalezności od doświadczenia.Dobrze odnajdziesz się w naszym zespole, jeśli:ok 8 letnie doświadczenie na podobnym stanowisku,masz praktycznie doświadczenie z Snowflake (Data Security, Data Exchange, Data Live Sharing, Data Mesh Architecture),znasz rozwiązania chmurowe (Azure, AWS, GCP),masz doświadczenie w projektowaniu i wdrażaniu rozwiązań z zakresu Data Loss Prevention,potrafisz tworzyć i wdrażać zasady kontroli i dostępu do danych,posiadasz doświadczenie w zarządzaniu projektami obszarze data security,znasz standardy zabezpieczeń i protokoły SAML, SCIM, Oauth, RBAC.Co możesz zyskać?długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, dostęp do technologicznych platform e-learningowych -Udemy, Pluralsight, kursy języka angielskiego - biznesowego lub angielskiego w IT,     kafeteryjny system benefitów - Motivizer, prywatną opiekę medyczną - Luxmed, możliwość wystąpień na naszych autorskich eventach IT-ProMEET. Prześlij CV i porozmawiajmy!
Data Security Lead (Snowflake)
SCALO Sp. z o.o., Łódź, łódzkie
Cześć!Cieszymy się, że czytasz nasze ogłoszenie!Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!Sprawdź, co czeka Cię w Scalo:praca w projektach związanych z obszaru data security&access realizowanych dla linii lotniczych i branży turystycznej. Stos technologiczny: Snowflake Data Security, Data Loss Prevention, Oauth, SAML, SCIM, RABC, Azure, AWS, GCP,projektowanie i rozwijanie rozwiązań z zakresu zabezpieczeń Data Loss Prevention i Data Security,zarządzanie projektami w obszarze data security,praca w modelu w pełni zdalnym,stawka: 200 - 220 pln/h netto B2B w zalezności od doświadczenia.Dobrze odnajdziesz się w naszym zespole, jeśli:ok 8 letnie doświadczenie na podobnym stanowisku,masz praktycznie doświadczenie z Snowflake (Data Security, Data Exchange, Data Live Sharing, Data Mesh Architecture),znasz rozwiązania chmurowe (Azure, AWS, GCP),masz doświadczenie w projektowaniu i wdrażaniu rozwiązań z zakresu Data Loss Prevention,potrafisz tworzyć i wdrażać zasady kontroli i dostępu do danych,posiadasz doświadczenie w zarządzaniu projektami obszarze data security,znasz standardy zabezpieczeń i protokoły SAML, SCIM, Oauth, RBAC.Co możesz zyskać?długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, dostęp do technologicznych platform e-learningowych -Udemy, Pluralsight, kursy języka angielskiego - biznesowego lub angielskiego w IT,     kafeteryjny system benefitów - Motivizer, prywatną opiekę medyczną - Luxmed, możliwość wystąpień na naszych autorskich eventach IT-ProMEET. Prześlij CV i porozmawiajmy!
Data Security Lead (Snowflake)
SCALO Sp. z o.o., Wrocław, dolnośląskie
Cześć!Cieszymy się, że czytasz nasze ogłoszenie!Szukasz dla siebie czegoś nowego? Dobrze się składa - mamy o czym rozmawiać!Sprawdź, co czeka Cię w Scalo:praca w projektach związanych z obszaru data security&access realizowanych dla linii lotniczych i branży turystycznej. Stos technologiczny: Snowflake Data Security, Data Loss Prevention, Oauth, SAML, SCIM, RABC, Azure, AWS, GCP,projektowanie i rozwijanie rozwiązań z zakresu zabezpieczeń Data Loss Prevention i Data Security,zarządzanie projektami w obszarze data security,praca w modelu w pełni zdalnym,stawka: 200 - 220 pln/h netto B2B w zalezności od doświadczenia.Dobrze odnajdziesz się w naszym zespole, jeśli:ok 8 letnie doświadczenie na podobnym stanowisku,masz praktycznie doświadczenie z Snowflake (Data Security, Data Exchange, Data Live Sharing, Data Mesh Architecture),znasz rozwiązania chmurowe (Azure, AWS, GCP),masz doświadczenie w projektowaniu i wdrażaniu rozwiązań z zakresu Data Loss Prevention,potrafisz tworzyć i wdrażać zasady kontroli i dostępu do danych,posiadasz doświadczenie w zarządzaniu projektami obszarze data security,znasz standardy zabezpieczeń i protokoły SAML, SCIM, Oauth, RBAC.Co możesz zyskać?długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, dostęp do technologicznych platform e-learningowych -Udemy, Pluralsight, kursy języka angielskiego - biznesowego lub angielskiego w IT,     kafeteryjny system benefitów - Motivizer, prywatną opiekę medyczną - Luxmed, możliwość wystąpień na naszych autorskich eventach IT-ProMEET. Prześlij CV i porozmawiajmy!
Cloud Data Architect
Michael Page Poland, Mazowieckie
Projektowanie architektury danychDoświadczenie w Azure, AWS, dbt i Databricks,O naszym kliencieNaszym Klientem jest firma, która specjalizuje się w rozwiązaniach z obszarów Data Science & AI.Opis stanowiskaOpracowywanie strategii, dotyczącej danych w chmurze ,Projektowanie architektury danych w Microsoft Azure,Kierowanie działaniami w zakresie integracji danych i procesów ETL,Wykorzystywanie Azure, dbt i Databricks do różnych rozwiązań analitycznych,Utrzymanie standardów zgodności oraz bezpieczeństwa danych w środowiskach chmurowych,Optymalizacja rozwiązań w celu zwiększenia efektywności kosztowej,Tworzenie kompleksowej dokumentacji, dotyczącej architektury danych i rozwiązań.Profil kandydata+ 10 lat doświadczenia zawodowego w obszarze danych,+ 2 lata doświadczenia na stanowisku architekta lub senior konsultanta z naciskiem na rozwiązania AWS,Wykształcenie informatyczne bądź pokrewne,Doświadczenie w Azure, Databricks,Znajomość Pythona, PySpark, SQLUgruntowana wiedza na temat usług danych w chmurze, hurtowni danych, technologii Big Data i procesów ETL,Rozumienie architektury danych, projektowania aplikacji, inżynierii systemów i integracji,Otwarcie na pracę w wielu różnych technologiach,Mile widziana znajomość narzędzi do wizualizacji danych (np. Power BI, Tableau),Bardzo dobra znajomość języka angielskiego (w mowie i piśmie) - poziom C1.OferujemyMożliwość pracy w środowisku, wykorzystującym najnowsze technologie na rynku,Możliwość pracy hybrydowej (Warszawa) lub zdalnejElastyczność w zakresie godzin pracy i preferowanej formy umowyPraca w środowisku międzynarodowymNieograniczony dostęp do platformy edukacyjnej UdemyCertyfikatowe programy szkoleniowe oraz programy rozwoju talentów
Cloud Data Architect
P&P Solutions Sp. z o.o., Warszawa
O projekcie Dołącz do zespołu PnP Solutions w projekcie dla naszego Klienta. Obecnie poszukujemy osoby na stanowisko Cloud Data Architecta, który będzie odgrywać kluczową rolę w projekcie związanym z przetwarzaniem danych w chmurze.Twój zakres obowiązkówWsparcie klienta w podejmowaniu kluczowych i strategicznych decyzji technologicznych w obszarze danych.Prace badawczo-rozwojowe w zakresie analizy funkcjonalności i przydatności nowych technologii i narzędzi w rozwiązaniach biznesowych klienta.Tworzenie PoC w obszarze danych w celu zaprezentowania wyników prowadzonych prac R&D.Projektowanie i tworzenie całości platformy przetwarzania danych uwzględniając wszystkie jej części oraz powiązania z pozostałymi rozwiązaniami (BI i ML) z uwzględnieniem ekosystemu chmurowego.Kompleksowe zarządzanie procesem wytwarzania rozwiązań z zakresu Big Data: od analizy wymagań biznesowych, przez projektowanie architektury technicznej do testowania i wdrożenia, po tworzenie dokumentacji przepływu danych.Optymalizacja całościowych rozwiązań/systemów przechowywania i analizy danych.Koordynowanie pracy inżynierów zaangażowanych w tworzenie rozwiązania.Nasze wymaganiaMin. 5 lat doświadczenia w IT, w tym przynajmniej 3,5 roku pracy z danymi w chmurze.Bardzo dobra znajomość usług Data w Azure, w szczególności: Azure Data Factory, Azure Data Lake, Azure SQL Server, Azure Synapse Analytics oraz Power BI.Znajomość platformy Databricks, ze szczególnym uwzględnieniem najnowszych funkcjonalności, takich jak Delta Live Tables i Unity Catalog.Znajomość narzędzi i mechanizmów takich jak CI/CD, Azure DevOps, Git.Umiejętność tworzenia i modyfikowania modeli danych, oraz dobierania odpowiednich modeli do rozwiązywanego problemu (w tym: DWH, Data Marts, Data Lake, Delta Lake, Data Lakehouse).Znajomość architektury Lambda i Kappa, oraz umiejętność budowania rozwiązań do analizy danych.Zrozumienie i praktyczna znajomość mechanizmów związanych z bezpiecznym przechowywaniem i przetwarzaniem danych w chmurze.Znajomość języka angielskiego na poziomie zaawansowanym, minimum C1.
Cloud Data Architect
P&P Solutions Sp. z o.o., Warszawa, mazowieckie
Dołącz do zespołu PnP Solutions w projekcie dla naszego Klienta. Obecnie poszukujemy osoby na stanowisko Cloud Data Architecta, który będzie odgrywać kluczową rolę w projekcie związanym z przetwarzaniem danych w chmurze.