Angielski, SQL i Python to najczęstsze umiejętności, których opanowania oczekuje się od początkujących w data science. Przejrzeliśmy oferty, żeby sprawdzić, jakich dodatkowych kompetencji poszukują pracodawcy i przekonać się, jakie obowiązki czekają specjalistów na poziomie junior data scientist.

Junior data scientist na co dzień zajmuje się pozyskiwaniem danych z różnych źródeł, czyszczeniem ich, prowadzeniem analizy eksploracyjnej, a także dobieraniem odpowiednich modeli analizy czy pomocą w budowaniu algorytmów. Wśród kluczowych zadań jest m.in. przygotowywanie raportów, w tym zestawień doraźnych, na potrzeby kadry kierowniczej. Wiedza młodszych analityków jest wykorzystywana również do automatyzacji procesów związanych z opracowywaniem dokumentów. W pracy doskonalą się w wykrywaniu anomalii i błędów w danych, określeniu ich źródeł i szukaniu sposobów, by nie pojawiały się w przyszłości. Ponadto oferty wspominają o używaniu danych również w celach prognozowania dla działów sprzedaży, logistyki oraz finansów.

Łącznik biznesu ze światem technologii

Z wielu ogłoszeń jasno wynika, że zadaniem juniorów jest wspieranie integracji działań przedsiębiorstwa, a także komunikacja zarówno z menedżerami, jak i zespołami programistów czy klientami przedsiębiorstw. To wiąże się np. z wizualizowaniem i prezentowaniem danych oraz wnioskowaniem w sposób przystępny dla odbiorców. Początkujący analitycy powinni ćwiczyć się w zadawaniu właściwych pytań, by przedstawiane informacje jak najlepiej odpowiadały oczekiwaniom poszczególnych grup. Umiejętności miękkie przydadzą się również we wdrażaniu rozwiązań w całej firmie i budowaniu kultury organizacji opartej na danych, która pomoże wypracować przewagę biznesową.

Najważniejsze umiejętności

Zacznijmy od umiejętności, bez których ani rusz. Trzy podstawowe, zawarte w większości ofert to: angielski, SQL i Python. Jeśli chodzi o język Szekspira, to pracodawcy częściej oczekują zdolności swobodnej komunikacji niż sprawnego czytania dokumentacji technicznej, choć i takie wymogi się zdarzają. Znajomość SQL, używanego do tworzenia i modyfikowania relacyjnych baz danych, to must have. Z kolei wśród systemów do zarządzania wspomnianymi bazami zazwyczaj padają nazwy MySQL i PostgreSQL. W przypadku Pythona oczekiwania zwykle nie są wyśrubowane – zgodnie z treścią ofert, juniorom wystarczy podstawowa znajomość.

Inne języki programowania obecne w ogłoszeniach dla junior data scientist to R, C#, a także Java. Sporadycznie w wymogach można natknąć się na VBA, Scalę czy Kotlin. Przydatna okazuje się znajomość języka półformalnego UML (Unified Modeling Language) używanego do modelowania systemów.

Metodyki działania

Jeśli oferty wspominają o tym zagadnieniu, to najczęściej chodzi o zwinne strategie programowania. Zgodnie z założeniami agile’u praca nad projektem przebiega w kolejnych iteracjach, w których ramach zbiera się wymagania, planuje rozwiązania i testy. Każdy sam decyduje o realizacji swojej części pracy. Celem jest szybkie wykonanie projektu, ale przy zachowaniu wysokiej jakości. W interdyscyplinarnych zespołach nie ma hierarchii, a członkowie bezpośrednio się ze sobą komunikują.

Poszukiwane kompetencje miękkie

Przedsiębiorcy, którzy planują zatrudnić osobę na stanowisko junior data scientist, częściej niż konkretne technologie wyliczają w ogłoszeniach szereg kompetencji miękkich. Podium otwiera szybkie i analityczne myślenie. Kolejna jest sprawna komunikacja i umiejętność pracy zarówno indywidualnej, jak i zespołowej. Pracodawcy cenią samodzielność, kreatywne podejście do powierzonych zadań i zręczne rozwiązywanie problemów. Ponadto od przyszłych pracowników oczekują dociekliwości, skrupulatności oraz chęci ciągłego uczenia się.

Doświadczenie w pracy z danymi

Autorzy ofert celują w osoby obeznane ze statystyką, które miały do czynienia z modelowaniem, czyszczeniem i analizą danych, na przykład na studiach. Gdzieniegdzie pojawia się oczekiwanie, że kandydat będzie zaznajomiony z pracą na dużych zbiorach danych, a przynajmniej metodami analizy big data. Warto też mieć podstawową wiedzę z zakresu budowania hurtowni danych (data warehouses) i umieć korzystać z narzędzi ETL (extraction, transformation, loading). Służą one ekstrakcji danych z ich źródła, na przykład systemu ERP, transformacji związanej m.in. z czyszczeniem i wprowadzaniem reguł oraz ładowaniem do bazy, która jest podstawowym źródłem aplikacji opracowującej raporty.

Obsługiwane programy i systemy

Jeśli chodzi o systemy operacyjne, to domyślnym jest Windows, choć niekiedy w ogłoszeniach są również wzmianki o pracy na Linuxie. Skoro już o „okienkach” wspominamy, nie można przegapić częstej nadziei na zdolność kandydatów do sprawnego poruszania się w aplikacjach pakietu Office, ze szczególnym uwzględnieniem Excela. Junior data scientist planujący działania w obszarze analityki biznesowej powinien umieć korzystać z narzędzi do wizualizacji danych. Dodatkową zaletą jest odnajdywanie się w środowisku programistycznym SAS. Gdy wymogi w ogłoszeniu dotyczą pracy w chmurze, częściej od AWS pojawia się platformowa Microsoft Azure. Najrzadziej – Google Cloud.

– W ocenie ryzyka finansowego wielki potencjał mają systemy do przetwarzania języka naturalnego. Firmy w branży są wprost zalewane tekstem w postaci informacji, artykułów, raportów czy zestawień. Technologia ta pozwala szybko odfiltrować dane i stworzyć system, który błyskawicznie uwypukli możliwe zagrożenia – podkreśla Katarzyna Kryńska, Risk Manager w Generali CEE Holding.

Katarzyna Kryńska jest finansistką i data scientistką, która na co dzień pełni funkcję Risk Manager w Generali CEE Holding, czyli jednego z największych globalnych dostawców usług ubezpieczeniowych i zarządzania aktywami. Zawodowo pasjonuje się finansami i nowymi technologiami. Połączenie tych zainteresowań przerodziło się w jej zamiłowanie do analizy danych i uczenia maszynowego. W obszarze data science w finansach szczególnie interesuje ją przewidywanie ryzyka wystąpienia tzw. efektu domina.

Czym zajmuje się risk manager w branży finansowej? W jaki sposób specjalista w obszarze zarządzania ryzykiem podejmuje decyzje na co dzień?

Departament ryzyka chroni interesy uczestników funduszy inwestycyjnych (tzw. TFI – towarzystwo funduszy inwestycyjnych). Jego głównym zadaniem jest zabezpieczanie wartości inwestycji, jakie mogą poczynić inwestorzy kupujący fundusze inwestycyjne. Poza limitami ustawowymi kontrolujemy także te dodatkowe, wewnętrzne. To szczególnie ważne przy wprowadzaniu nowych funduszy. W wielu TFI działy ryzyka zajmują się także ryzykiem operacyjnym, które występuje w każdej firmie. Większość zadań jest już zautomatyzowna dzięki robotyzacji, natomiast duża część naszej pracy odbywa się bez udziału rozwiązań sztucznej inteligencji.

Z czego to wynika?

Naszym głównym obowiązkiem jest monitorowanie limitów ustalonych przez ustawodawcę. Te limity zapisane są w Ustawie o funduszach inwestycyjnych i mają na celu zapewnienie bezpieczeństwa inwestycji. Są to na przykład ograniczenia zadłużania się funduszu (ekspozycji) lub koncentracji lokat. W takim silnie regulowanym środowisku wprowadzane innowacje mogą schodzić na drugi plan. Dlatego mamy jeszcze duży obszar do zagospodarowania jeśli chodzi o wykorzystanie np. algorytmów sztucznej inteligencji w obszarze ryzyka.

Myślę, że konieczna jest również zmiana mentalności niektórych risk managerów, aby szerzej korzystali z nowoczesnych rozwiązań. Wykorzystanie data science w finansach przynosi bowiem wymierne korzyści, choć niekiedy dopiero w długoterminowej perspektywie. Dlatego warto starać się o wsparcie na inwestycje w takie programy w ramach organizacji.

Myśli Pani, że będą to narzędzia wspierające automatyzację pracy, czy raczej autonomiczne wobec działań risk managera?

Na pewno będą dawać nam sygnały do podjęcia decyzji. Natomiast same ich nie podejmą. Nie pracujemy na rozwiązaniach, gdzie działanie algorytmu byłoby głównym wyznacznikiem. Jednak na końcu zawsze powinien być człowiek. Wynika to z bardzo ścisłych i konkretnych regulacji branży finansowej. Zawsze musimy w klarowny i transparentny sposób informować, dlaczego podjęliśmy taką decyzję, a nie inną.

To z kolei nie jest proste w przypadku rozwiązań z obszaru sztucznej inteligencji. Niektóre algorytmy mogą być traktowane bowiem jak czarna skrzynka (tzw. black box). Natomiast my musimy być w stanie wytłumaczyć swoje działania. Na szczęście pojawia się coraz więcej opracowań z obszaru explainable AI, co daje nadzieję na szersze wykorzystanie tej technologii, także w finansach.

A co ze skutecznością takich rozwiązań?

Na początku zawsze przeprowadzamy tzw. proof of concept i badamy, jak bardzo przydatne jest dane narzędzie, jaką wartość dodaną wnosi. Jeśli jest ona niska, to takie rozwiązanie nie zostanie zaimplementowane.

Jakie pomysły bazujące na algorytmach uczenia maszynowego czy data science w finansach kiełkują obecnie w zarządzaniu ryzykiem w tej branży?

W ocenie ryzyka finansowego wielki potencjał mają systemy do przetwarzania języka naturalnego (z ang. NLP – natural language processing). Firmy w branży są wprost zalewane tekstem w postaci informacji, artykułów, raportów czy zestawień. Technologia ta pozwala szybko odfiltrować dane i stworzyć system, który błyskawicznie uwypukli możliwe zagrożenia.

Przykładem niech będzie chiński gigant Evergrande i jego niewypłacalność. Firma była drugim największym deweloperem w Chinach. Pierwsze informacje dotyczące słabości finansowej pojawiały się w mediach branżowych już kilka miesięcy przed upadkiem. Korzystając z rozwiązań data science w finansach, można wychwytywać informacje wskazujące na niewidoczne dla wielu symptomy problemów finansowych, a także reagować dużo wcześniej i skuteczniej. Możemy też szybciej zauważyć negatywne wiadomości, przejrzeć nagłówki prasowe i już na tej podstawie podejmować pierwsze decyzje.

Innym zastosowaniem technologii NLP jest ustawianie w systemach danych z prospektów informacyjnych lub pochodzących z zawartych umów inwestycyjnych. Wyłapanie limitów inwestycyjnych z tekstu dla zarządzającego funduszem z pięcioma umowami nie stanowi większego problemu. Ale w przypadku korporacji, która ma np. 600 portfeli, to się wiąże z dużym nakładem pracy. Na szczęście są już rozwiązania na rynku, które pomagają człowiekowi zidentyfikować limity inwestycyjne w tekście i sugerują w jaki sposób je ustawić, co znacznie skraca czas pracy, jak i minimalizuje ryzyko błędów.

A co z rozwiązaniami dotyczącymi analizy samych liczb, danych finansowych? Czy tu także wykorzystywane są już zaawansowane algorytmy?

Na razie jest to technologia raczkująca w naszej branży. Są już systemu tego typu, chociaż często są to rozwiązania o dość wąskich zastosowaniach, np. tylko na rynku akcyjnym albo analizujące jedynie ryzyko kredytowe emitentów papierów dłużnych. Trzeba przyznać, że człowiek nie zawsze potrafi wyłapać takie zagrożenia z samych danych. Jeżeli na ich podstawie wiemy, że emitenci w naszym portfelu inwestycyjnym są narażeni na czynniki ryzyka, to możemy dobrać skład portfela w ten sposób, żeby je zminimalizować.

Czy poza narzędziami NLP i analizą danych istnieją jeszcze jakieś metody, gdzie wykorzystujemy rozwiązania data science w finansach?

Niezwykle ciekawą kwestią dla mnie jest także przewidywanie ryzyka wystąpienia „efektu domina”. Badamy tym samym powiązania pomiędzy emitentami, których mamy w portfelu i możemy sprawdzić, jak bardzo skorelowani są ze sobą. Dzięki temu można minimalizować ryzyko wysokiej straty na funduszu.

Proszę zauważyć, że w przypadku Lehman Brothers nie chodziło o krach jednej firmy, tylko wielu instytucji z nią powiązanych. Dzięki takiej analizie sieci można przewidzieć, którzy emitenci zostaną pociągnięci w dół.

Czyli wpływ innowacji na pracę risk managera można również oceniać pod kątem oszczędności czasu?

Niedawno przeprowadziliśmy ankietę wśród menedżerów ryzyka. Pytaliśmy ich o liczbę godzin spędzanych codziennie na czytaniu wiadomości finansowych. Okazało się, że zajmuje im to średnio ok. godziny. Dla mnie to bardzo czasochłonne zadanie, a przecież wiadomo, że nie każda informacja jest ważna czy użyteczna. Już sam taki system, który wybiera dla nas najbardziej znaczące wiadomości, jest niezwykle przydatny.

A czy widzi Pani jakieś zagrożenia związane we wdrażaniu innowacyjnych rozwiązań w zarządzaniu ryzykiem?

Odpowiem nieco przewrotnie – znamy zagrożenia technologiczne mające wpływ na społeczeństwo czy biznes. Pojawia się na ten temat wiele publikacji, zarówno w obszarze bezpieczeństwa danych, jak i prywatności. Natomiast dla branży finansowej niebezpieczne jest również niewdrażanie innowacji. Bo dzięki tym rozwiązaniom podmioty finansowe mogą skuteczniej i bezpieczniej zarządzać aktywami klientów, jak i oferować coraz lepsze produkty i niższe marże.

Poza tym każda zmiana niesie za sobą ryzyko. Właśnie dlatego uważam, że rola specjalistów zarządzających tym obszarem rośnie. Są w stanie zauważyć różne zagrożenia i zaproponować sposób, jak takie ryzyko zminimalizować. Jeżeli na bieżąco je identyfikujemy i eliminujemy, to jestem spokojna o przyszłość branży.

Porozmawiajmy chwilę o przykładach innowatorów. Czy jest organizacja, która uchodzi za pewien wzorzec w kontekście zaawansowania rozwiązań data science w finansach?

Środowisko data science jest znane z tego, że jest bardzo otwarte i chętnie chwali się swoimi osiągnięciami. Branża finansowa jest natomiast dość specyficzna, gdyż musimy zachowywać poufność, żeby chronić interes naszych klientów. W rezultacie jesteśmy środowiskiem znacznie bardziej zamkniętym, może w niektórych obszarach nawet na wyrost zamkniętym. Widzę, że to się powoli zmienia i jest coraz więcej graczy, którzy organizują swoje konferencje, podczas których demonstrują swoje rozwiązania. Wśród nich można wymienić chociażby JPMorgan. Eksperci tej korporacji chwalą się, że chcą wykorzystywać sztuczną inteligencję np. do przewidywania płynności na rynku. Co ciekawe, w JPM raporty nie są dziś „klejone ręcznie” przez pracowników, ale tworzone przez system, który pomaga wygenerować raport adekwatny do zapytania użytkownika.

Ale nie wszystkie rozwiązania data science w finansach są skuteczne. Wielu ekspertów mówi, ze czasem mamy do czynienia z wróżeniem z algorytmu. Podziela Pani ich opinię?

Nie ma się co dziwić, że wszyscy zachwalają swoje rozwiązania. Ale dopiero przy zastosowaniu wspomnianego wcześniej proof of concept mamy informację, jak bardzo to narzędzie jest wartościowe. Co nie oznacza, że już na starcie warto wszystkie takie firmy skreślać. Poznałam ostatnio dostawcę pewnej technologii, który obiecuje, że potrafi przewidzieć kondycję finansową konkretnych emitentów. Na podstawie algorytmu stwierdza, które akcje mogą zyskiwać na wartości, a które firmy będą sobie radzić gorzej. Efekt? Algorytm inwestujący w ten sposób może zdecydowanie przebić benchmark. Czyli w niektórych sytuacjach poradzi sobie lepiej niż „ślepe” inwestowanie w indeks giełdowy. Innym problemem jest to, że w przypadku szeregów czasowych (jak np. cena akcji) ocena przyszłej skuteczności algorytmu jest bardzo dyskusyjna.

Jak widzi Pani przyszłość branży, która przechodzi obecnie transformację cyfrową w wyniku korzystania z rozwiązań data science w finansach na coraz większą skalę? Jaką rolę w procesie przemian odgrywa obszar zarządzania ryzykiem?

Innowacji na rynku będzie przybywać, a ich wpływ na realizację bieżących zadań specjalistów będzie coraz większy. Wynikać to będzie z naturalnych ograniczeń zdolności człowieka. Nie jesteśmy w stanie przeanalizować tak dużej ilości informacji, jakie do nas trafiają. A już z pewnością nie tak dobrze, jak potrafi to robić maszyna.

Uważam, że jeszcze przez długi czas ostateczna decyzja co do oceny ryzyka i podjęcia działań będzie leżała w gestii osób zarządzających tym obszarem. Oczywiście jestem w stanie wyobrazić sobie jakiś fundusz hedgingowy, który bazuje tylko na sygnałach uzyskiwanych od maszyny. Natomiast takie fundusze wciąż mają znikomy udział w rynku.

Czyli obszarem w pracy menedżera ryzyka, który raczej nie będzie zautomatyzowany w pełni, jest podejmowanie decyzji?

Odpowiem tak: nigdy nie mów nigdy. Na razie nie widzę takiej możliwości, ale wszystko może się zmienić. W ciągu kilku lub kilkudziesięciu lat rozwiązania data science w finansach mogą tak bardzo wpłynąć na branżę, że prawdopodobieństwo wystąpienia takiego scenariusza – mimo że niskie – istnieje.

Ale nie obawia się Pani, że za kilka lat specjaliści ds. zarządzania ryzykiem zostaną zastąpieni przez algorytmy data science w finansach?

Menedżer ryzyka ma pracę zapewnioną na wiele, wiele lat. Potwierdzają to zarówno raporty branżowe, jak i różne narzędzia analityczne w sieci. Poza tym, nawet gdyby tak się stało, to posiadanie umiejętności z obszaru data science w finansach prawdopodobnie pozwoliłoby specjalistom wykonywać pracę w innym charakterze.

Zapewne w przeciwieństwie do zawodu dziennikarza, który może zniknąć bardzo szybko…

Dziś firmy tworzące rankingi funduszy inwestycyjnych w 20-30 proc. używają do tej pracy maszyn, które nie wymagają wsparcia analityków bądź redaktorów. W takim raporcie nie jest wskazywany wyłącznie rating funduszu, ale także opis ryzyka oraz główne czynniki decydujące o tej ocenie. Odbiorca raportu prawie nigdy się nie zorientuje, czy dany opis napisał człowiek, czy maszyna. Natomiast bardziej wyrafinowane materiały – wymagające dogłębnego zrozumienia tematu czy pracy badawczej – jeszcze przez długi czas będą pisane jedynie przez ludzi.

Czuje się Pani dziś bardziej data scientistką, czy jednak finansistką?

Proporcje oceniałbym jako pół na pół. Myślę, że wiedza i doświadczenie z obszaru finansów będą zawsze dominować w mojej pracy. Na tym stanowisku nadal potrzebna jest osoba, która dobrze orientuje się w świecie finansów. Zmieniają się jednak role przypisane temu stanowisku i zapotrzebowanie na specjalistów data science w finansach. A to jest dzisiaj ogromne jak nigdy wcześniej.

Ponad 61 proc. Polaków myśli o przebranżowieniu. Z kolei jedna czwarta zakłada, że w najbliższych trzech latach dołączy do branży technologicznej. Główny powód? Wysokie zarobki. Sprawdziliśmy wynagrodzenia specjalistów na poziomie junior, mid i senior, najbardziej opłacalne zawody oraz miasta, w których lepiej wybrać umowę o pracę niż kontrakt B2B.

Firma ARC Rynek i Opinie na zlecenie portalu Enter The Code przebadała 1025 aktywnych zawodowo osób w wieku 25-37 lat. Jeden na czterech respondentów przyznaje, że planuje zmianę pracy i rozważa najbardziej opłacalne zawody w branży technologicznej jako potencjalną ścieżkę kariery w ciągu najbliższych 3 lat. Jeśli chodzi o czynniki hamujące przebranżowienie, ankietowani mówią m.in. o braku czasu na zdobycie nowych umiejętności, zbyt wysokich cenach kursów i niepewności co do opłacalności nauki. Z kolei potrzeba podejmowania nowych wyzwań, elastyczny czas pracy oraz możliwość pracy zdalnej to częste powody poszukiwania nowej pracy. Jednak największą motywacją pozostają wyższe zarobki. To deklaracja 83 proc. uczestników badania otwartych na pracę m.in. w branży data science.

Pod lupę wzięliśmy płace w sektorze IT. Prezentowane w tekście dane pochodzą z serwisów takich jak No Fluff Jobs, Just Join IT, Inhire.io i The:protocol (portal Grupy Pracuj).

Pensje a doświadczenie

Zacznijmy od zarobków zależnych od poziomu doświadczenia, które mogą zaproponować najbardziej opłacalne zawody w świecie technologii. Juniorzy zatrudnieni na umowie o pracę mogą liczyć średnio na 8 tys. złotych brutto, czyli netto około 5,5 tys. zł. Mid developerzy, czyli osoby bardziej samodzielne, zarabiają przeciętnie 15,1 tys. złotych brutto, co po odliczeniu składek i podatków daje blisko 9,8 tys. złotych. Z kolei w przypadku seniorów średnie wypłaty to w przybliżeniu 20,1 tys. złotych brutto i 13 tys. złotych netto.

Z danych przedstawianych w raportach wynika, że osoby pracujące zdalnie zarabiają ok. tysiąc złotych więcej na podobnych stanowiskach. Zmianę widać również w przypadku kooperacji na zasadach B2B – kwoty na fakturach juniorów są wyższe od płac brutto przy umowie o pracę o blisko tysiąc złotych. U specjalistów na poziomie mid i senior – o 3 tysiące złotych.

W tym kontekście warto zwrócić uwagę na trzy dodatkowe informacje:

– rośnie udział ofert zawierających opcję pracy zdalnej – w pierwszym kwartale 2020 roku wynosił on zaledwie 14 proc., podczas gdy dwa lata później już 73 proc.

– prawie trzy czwarte ogłoszeń dotyczy współpracy w modelu B2B

– najbardziej pożądani na rynku są specjaliści średniego szczebla – zależnie od zestawienia udział przeznaczonych dla nich ofert wynosi od 50 proc. do 64 proc.; seniorzy mogą przebierać w 28-40 proc. propozycji, a juniorom zostaje 7-9 proc.

Poszukiwane kompetencje

Technologie, które najczęściej pojawiają się w ofertach, to JavaScript, Java, Python, .NET Framework oraz PHP. Pokrywa się to w większości ze składanymi aplikacjami – kandydaci chętnie zgłaszają się, jeśli wymogi dotyczą Javy, JavaScriptu i Pythona. Jednak najwięcej (16,3 proc.) CV jest przesyłanych na stanowiska testerów, których udział w propozycjach pracodawców wynosi 9 proc.

Jeśli wziąć pod uwagę rodzaje poszukiwanych stanowisk, w pierwszej trójce ogłoszeń królują oferty dla specjalistów back-end, front-end i full-stack developerów. W 2021 roku w porównaniu z 2020 najbardziej zwiększyła się liczba propozycji w dziedzinach product management (315 proc.), UX/design (243 proc.) oraz analizy biznesowej (159 proc.). Przy czym największe wzrosty odnotowano w obszarach bezpieczeństwa (366 proc.) i sztucznej inteligencji (356 proc.). Piotr Trzmiel, Head of Growth w The:protocol zaznacza, że w pierwszym kwartale 2022 roku widoczny był wzrost zapotrzebowania na specjalistów z zakresu cyberbezpieczeństwa. – Poszukiwani byli m.in. analitycy, architekci bezpieczeństwa, specjaliści ds. bezpieczeństwa aplikacji, często tych chmurowych, a także np. inżynierowie o specjalizacji cyber threat security – wyszczególnia ekspert.

Najwyższe zarobki

Najwięcej pieniędzy przeciętnie zarabiają pracujący na posadach DevOps, czyli osoby, które łączą działania z zakresu działów rozwoju IT, programowania i administracji. Kolejni są developerzy wyspecjalizowani w Java i Python, a także inżynierowie danych – ci ostatni, zależnie od rodzaju współpracy, mogą liczyć na 7,5-7,8 tys. złotych brutto na początku kariery i na 17,7-21,6 tys. złotych brutto, gdy zostaną seniorami. Jeśli realizują projekty z obszaru big data, to górne widełki sięgają 22,9 tys. złotych brutto na umowie o pracę i 26 tys. złotych netto przy B2B. Ponadprzeciętne stawki (do 10 tys. zł brutto na umowie o pracę i 12 tys. zł plus VAT przy B2B) mają juniorzy podejmujący pracę z algorytmami AI. Wysoko płatne kontrakty czekają również na ekspertów takich języków programowania jak Scala i Kotlin.

Gdzie można zarobić najwięcej?

Jeśli chodzi o liczbę ofert pracy, to niezależnie od portalu dominowały duże miasta – Warszawa, Kraków i Wrocław. W pierwszym kwartale 2022 roku firmy w tych lokalizacjach opublikowały w sumie blisko 15 tys. ofert. Mediana zarobków data scientistów w stolicy sięga 25 tys. zł brutto, w dwóch pozostałych miejscowościach około 23 tysiące złotych brutto. Na drugim końcu zestawienia znalazły się Gdynia, Szczecin i Gliwice z łącznie 1,3 tys. ogłoszeniami. W Gliwicach, o ile średnia wartość kontraktów B2B jest wysoka, to pracującym na umowie o pracę oferowane są stosunkowo najniższe stawki. Natomiast w Szczecinie specjaliści IT wybierający model współpracy B2B zarobią mniej niż w innych regionach.

Autorzy publikacji pt. „IT Market Snapshot Q1 2022” zwracają uwagę na pojawiający się trend zacierania różnic pomiędzy zarobkami w poszczególnych miastach, gdy chodzi o najbardziej opłacalne zawody w IT. – Jeszcze na początku ubiegłego roku to w Warszawie i Krakowie oferowano najwyższe stawki zarówno na umowie o pracę, jak i na B2B. Obecnie obserwujemy sytuację, że to w  mniejszych miastach takich jak Rzeszów czy Białystok oferowane są wyższe stawki – podkreślają.

Czym jeszcze kuszą pracodawcy?

Z cyklicznie publikowanych raportów można się dowiedzieć, że wartość kontraktów jest skorelowana z liczbą ofert – im więcej ogłoszeń zamieszcza dana firma, tym większa szansa na wyższe zarobki. Pracodawcy, choć nieco rzadziej niż w 2020, w ubiegłym roku wciąż proponowali rozwiązania, które mają przyciągnąć kandydatów. Najczęstsze to prywatna opieka zdrowotna, możliwość pracy w międzynarodowych projektach, karty sportowe, małe zespoły i budżet szkoleniowy. Jeśli chodzi o sprzęt, firmy stawiają na mobilność – 73 proc. oferuje laptopy, a informacje o dwóch monitorach pojawiają się dwa razy częściej niż wzmianki o jednym ekranie.

– Polska miała szczęście w nieszczęściu, gdy w grę weszła analityka biznesowa i wdrożenie jej narzędzi. Czasy PRL-u spowodowały, że ominęło nas sporo różnych rozwiązań. Wystartowaliśmy z opóźnieniem, ale mamy znacznie nowocześniejsze technologie na rynku. Bardzo pomocne okazało się to, że wiele zachodnich koncernów u nas eksperymentowało i wdrażało swoje innowacje – zauważa Mariusz Dzieciątko, Chief Digital Officer w Gabos Software.

Z Mariuszem Dzieciątko, doktorem nauk technicznych z 30-letnim doświadczeniem w dziedzinie technologii informacyjnych, wykładowcą w Instytucie Informatyki i Gospodarki Cyfrowej Szkoły Głównej Handlowej, a także Chief Digital Officer w Gabos Software rozmawiamy o tym, jak ewoluowała analityka biznesowa w Polsce oraz jakie perspektywy stoją przed tą branżą.

W tym roku analityka biznesowa obchodzi swoje umowne 30-lecie na polskim rynku. Spróbujmy przenieść się trzy dekady wstecz, a może nawet wcześniej. Jak Pan wspomina te czasy?

Rzeczywiście w latach 90. analityka biznesowa zyskała solidne podwaliny. To właśnie wtedy pojawił się w Polsce SAS Warto jednak pamiętać, że bez odpowiedniego oprogramowania i wypracowanych metod gromadzenia danych nic by się nie udało. Dlatego niewątpliwie takim kamieniem milowym w rozwoju technologii analitycznej było wówczas pojawienie się na polskim rynku komputerów osobistych. Zarówno takich jak IBM PC (czyli tzw. pecety), ale także tych mniejszych firm jak Atari, Spectrum czy Timex.

Jakie wrażenia towarzyszyły wtedy Panu?

Miałem styczność z tymi narzędziami, jeszcze na etapie szkoły średniej. Wtedy w placówkach edukacyjnych zaczęły się pojawiać pierwsze komputery. W tym czasie uczęszczałem do technikum elektronicznego, ponieważ to elektronika była moją pierwszą „miłością”.

W laboratorium korzystaliśmy z komputerów Timex. To była prawdziwa nowość i zupełnie nikt nie wiedział, co z tymi urządzaniami robić, jak prowadzić zajęcia. Językiem programowania był wtedy Basic, pojawiły się pierwsze książki związane z grafiką komputerową, w tym poświęcone sposobom obliczania współrzędnych brył w trzech wymiarach za pomocą algorytmów. Pamiętam też bursztynowe i zielone ekrany monitorów.

Ale wtedy nikt nie myślał jeszcze o analityce?

Zanim pojawiły się komputery, cała „analiza” była robiona papierowo na olbrzymich płachtach, tzw. „amerykankach”. Moja mama pracowała w księgowości, więc pamiętam, jak pomagałem jej zliczać dane. Odbywało się to jeszcze na rosyjskich maszynach liczących na korbkę. Tak w latach 80. wyglądała praca z danymi. Nie do końca jeszcze wtedy myślano o jakimkolwiek gromadzeniu danych, bardziej o wsparciu tej uciążliwej działalności, żmudnych zadaniach pracowników. Po 1989 roku wszystko się zmieniło.

Tak naprawdę wszystko zaczęło się od systemów operacyjnych, czyli takich, które wspierały  codzienne funkcjonowanie firm. Zatem początkiem analityki były właściwie systemy finansowo-księgowe czy kadrowo-płacowe.

Te systemy komputerowe trafiały do Polski z Zachodu, czy też była jakaś rodzima technologia?

Były dwie ścieżki rozwoju. Po pierwsze, po 1989 roku polska myśl techniczna mogła się w końcu rozwinąć. Pojawiły się bowiem odpowiednie narzędzia. Mieliśmy też do czynienia ze zmianą ustroju, ogromną eksplozją wolności, także jeśli chodzi o własną działalność gospodarczą. Przy pomocy kreatywnych umysłów można było dać życie wielu twórczym pomysłom. Co prawda komputery pojawiły się z Zachodu, ale dostrzegliśmy też bardzo duży potencjał jeśli chodzi o polskich informatyków.

Nastąpiła też wtedy ogromna zmiana technologiczna. Kiedy zacząłem studia w 1990 roku, to pamiętam, jak z gmachu Politechniki Warszawskiej przeniesiono do Muzeum Techniki olbrzymi komputer lampowy, który ważył wiele ton. To był koniec pewnej epoki, także epoki kart perforowanych. Zaczęła się era pecetów.

I pojawiły się systemy komputerowe wspierające pracowników w firmach. Jak wyglądały?

W 1994 roku zacząłem pracować etatowo dla podmiotu, który zajmował się wdrażaniem oprogramowania wspierającego zarządzanie w firmach. Tam działał już system finansowo-księgowy, jak i płacowo-kadrowy. To namnożenie bytów wynikało z ówczesnych potrzeb firm, aby obsługiwać kolejne fragmenty działalności z osobna. Oczywiście były to programy na bazie DOS, czyli pierwszego systemu operacyjnego, bez żadnego interfejsu graficznego, nieobsługiwane myszką. Co ciekawe, tego typu interfejsy funkcjonują gdzieniegdzie nawet do dzisiaj.

Natomiast wciąż nie mogliśmy tego nazwać analityką. Były co najwyżej raporty, zestawienia, które pomagały robić bilans. Ta rewolucja miała się zacząć za chwilę.

Dokładnie kiedy?

Myślę, że takim kluczowym momentem jest połowa lat 90. I tu właśnie SAS ma swoje wielkie zasługi, ponieważ do Polski docierają hurtownie danych. Pierwsza hurtownia w Polsce została zbudowana w Narodowym Banku Polskim. To był moment, kiedy zaczęła się rzeczywista zmiana i początek analityki biznesowej w naszym kraju. To wtedy zaczęliśmy patrzeć na dane całościowo z punktu widzenia analiz, przyglądać się im z różnych perspektyw, a nie tylko skupiać się na ich gromadzeniu. Do tego momentu wszystkie systemy kadrowe czy finansowe miały charakter wyspowy. Nie miały ze sobą nic wspólnego. To był pierwszy tak ważny krok w kierunku tworzenia rozwiązań analitycznych.

Czy podobnie rozwijała analityka biznesowa w USA?

Początki SAS w Stanach można wiązać z potrzebą rynku. Ten oczekiwał analizy danych statystycznych w rolnictwie. W drugiej połowie lat 60., w ramach grantu ogłoszonego przez National Institutes of Health w Stanach Zjednoczonych, CEO i założyciel SAS James Goodnight wraz ze współpracownikami z North Carolina State University stworzył program statystyczny, który miał analizować dane gromadzone przez Departament Rolnictwa USA.

Podobnie działało to także w Polsce. Firmy widzące potrzebę informatyzacji jakiegoś obszaru zwracały się do kogoś zaprzyjaźnionego z informatyków, którzy opracowywali dla nich dedykowany system. Ten najczęściej okazywał się na tyle dobry, że twórca zakładał firmę i zaczynał system sprzedawać dalej. Ewentualnie dostosowywał go jeszcze w taki sposób, aby był bardziej uniwersalny i pasował do innych przedsiębiorstw. Wiele znanych i potężnych polskich firm IT tak zaczynało swoją drogę na szczyt. Od małego kawałka oprogramowania napisanego pod konkretne zamówienie.

Mówimy o transformacji cyfrowej sprzed 30 lat. Uważa Pan, że wykorzystaliśmy swoją szansę rozwoju po 1989 roku?

Nasz kraj, pomimo PRL-u, do tego „analitycznego” pociągu wskoczył szybko, bez zbędnego opóźnienia. Uaktywnił się też potencjał wielu osób. To pozwoliło nam bardzo szybko dogonić, a w niektórych obszarach przegonić to, co się działo na Zachodzie.

Polska miała szczęście w nieszczęściu, jeśli chodzi o wdrożenia narzędzia analityki biznesowej. Czasy republiki ludowej spowodowały, że ominęło nas sporo różnych rozwiązań, które były na Zachodzie już wcześniej implementowane. Wystartowaliśmy z opóźnieniem, ale mamy znacznie nowocześniejsze technologie na rynku. Poza tym fakt, że Polska była dosyć ciekawym, rozwijającym się i niespecjalnie dużym rynkiem spowodował, że wiele zachodnich koncernów u nas eksperymentowało. Firmy zachodnie, w tym amerykańskie, były bardziej otwarte na innowacje. Jeśli coś udało się w Polsce, przenoszono to na własny lub inne rynki.

Czyli byliśmy poletkiem doświadczalnym dla koncernów?

Tak, ale z korzyścią dla Polski, ponieważ wiele ciekawych rozwiązań powstało najpierw u nas. Dopiero później świat uczył się tego od polskich ekspertów i analityków danych. Pytanie, czy można było coś zrobić lepiej? Zawsze można. Natomiast ciekawe jest to, że dalej w Polsce są branże, gdzie analityka biznesowa nie występuje w ogóle lub co najwyżej w śladowej postaci. Na szczęście coraz więcej firm zauważa, jaką wartość może wnieść analityka biznesowa.

Za czasów Edwarda Gierka Polska miała dwie ścieżki rozwoju. Był to wybór pomiędzy elektroniką a przemysłem ciężkim i wydobywczym. Niestety wybraliśmy ścieżkę numer dwa. Co by się stało, gdyby jednak zaważyła elektronika? Nie dowiemy się, bo ten moment przespaliśmy.

Jak firmy, dopiero co powstałe z socjalistycznego niebytu, podchodziły do rewolucji, którą spowodowała analityka biznesowa?

Od razu pojawiły się pewne różnice w szybkości rozwoju przedsiębiorstw. Gracze dysponujący większymi możliwościami finansowymi, kadrowymi czy technicznymi szybciej wchodzili w rozwiązania analityczne.

Istotne jest to, że sztafeta w biegu o innowacyjność w obszarze analityki cały czas się zmienia. Najpierw mocno inwestowały w to banki, bo tam pojawiły się pierwsze hurtownie danych. Później banki „oddały pałeczkę” telekomom, które bardzo dynamicznie zaczęły się rozwijać na polskim rynku. Tak było przez dziesięć lat, aż telekomy oddały znów pierwszeństwo bankom i firmom ubezpieczeniowym. I tak sytuacja wygląda do dziś.

Na Zachodzie było inaczej?

Różnica w podejściu do funkcjonowania firm, jeśli chodzi o Europę i Amerykę, istniała od zawsze. Nawet nieduże firmy w USA mają swoich własnych analityków, którzy wspierają przedsiębiorstwa w codziennym działaniu. Z kolei w Europie wygląda to zupełnie inaczej. Nawet duże firmy przez długi okres nie miały działów analitycznych. Dopiero później dojrzały i zrozumiały, że analityka może im dać przewagę na rynku.

Trudno porównywać akurat te dwa rynki zarówno w latach 90., jak i dziś. Natomiast zasada zawsze jest ta sama – analityka prędzej czy później odpowiada na to, co jest największą bolączką organizacji. To spowodowało wysyp systemów do oceny ryzyka różnej maści. Na przykład telekomy patrzyły na to, czy z daną osobą warto podpisać umowę. Banki oceniały z kolei ryzyko kredytowe. Jak już firmy poznały sposoby na ograniczenie liczby klientów, których nie chcą, trzeba było dowiedzieć się, jak zdobyć tych pożądanych.

Te lata należały do systemów CRM. Na każdym rynku firmy mogą być różne, ale system działa identycznie. Tworzymy podstawę w postaci danych, a następnie zaczynamy przesiewać klientów zgodnie z naszym aktualnym zapotrzebowaniem.

Wydaje się, że cyfryzacja i analityka biznesowa spadła na firmy jak grom z jasnego nieba. Duża liczba systemów, do których wykorzystywania trzeba przekonać pracowników i menedżerów?

Jeśli chodzi o wielość systemów, to polskie firmy uczyły się na własnych błędach. Mówimy tu o dużych firmach. Zdarzało się, że nieco się zagoniły w cyfryzacji i miały nagle kilkanaście różnych systemów pod opieką. I to oczywiście nie może się dobrze kończyć. W takiej sytuacji ich utrzymanie i integracja są niewykonalne lub bardzo trudne. Natomiast ci, którzy postawili na rozwiązanie wyłącznie od jednego dostawcy, również nie wyszli na tym dobrze. Trzeba było to sensownie wyważyć.

Natomiast „przekonywanie” organizacji do analityki wcale nie jest proste. Dobrze to wiem z własnego doświadczenia, ponieważ od 20 lat zajmuję się analizą danych nieustrukturyzowanych i analizą danych tekstowych. Przez długi czas „chodziliśmy” po firmach, pokazując, że te rozwiązania działają oraz jakie korzyści mogą dzięki nim osiągnąć. Wszyscy przytakiwali, ale często nic tego nie wynikało. Być może brakowało świadomości czy poczucia, że warto tą ścieżką pójść. Technologicznie można było wprowadzać w firmach analitykę znacznie wcześniej.

Podobnie rzecz się miała jeszcze do niedawna z sieciami neuronowymi. W badaniach oceny ryzyka jeszcze 10 lat temu używano wyłącznie drzew decyzyjnych czy metod regresyjnych, a więc absolutnej klasyki znanej od dziesiątek lat. Natomiast sieci neuronowe były stosowane wyłącznie testowo jako punktów odniesienia w modelach. Sprawdzano tym samym, czy to, co dają sieci, jest tożsame z modelami tworzonymi z drzewa i regresji.

Z czego to wynikało?

Drzewa decyzyjne i metody regresyjne były interpretowalne, a modeli sieci neuronowych – nie. Tymczasem dziś już nikt o tym nie pamięta, a firmy korzystają nawet z głębokich sieci neuronowych, które świetnie sprawdzają się w niektórych zastosowaniach, jak np. kategoryzacja obrazów. Dużym wyzwaniem nadal pozostaje jednak kwestia interpretowalności, choć coraz rzadziej przerażają one firmy, bo te są otwarte na innowacyjne pomysły.

Analityka biznesowa nie istniałaby bez specjalistów, np. data scientistów, ale też bez narzędzi. Czy w ostatnich latach te ostatnie bardzo się zmieniły?

Adaptacja tego, co pojawią się w publikacjach naukowych, w tym nowych algorytmów, zawsze zajmuje trochę czasu. To prawda, że pojawienie się języka R, a później Pythona spowodowało przyspieszenie. Powstała też prężnie działająca społeczność open source, która szybko implementuje algorytmy. Jednak aby taki algorytm naprawdę zaistniał na poziomie biznesowym, potrzebnych jest minimum kilkanaście lat.

Oczywiście mamy również takie przedsiębiorstwa, które wiodą prym w szukaniu innowacyjnych rozwiązań i wspierają środowiska open source’owe. Ale to nie jest szybki proces. Mówiąc o analityce biznesowej, mówimy o różnych poziomach tej analityki. Z jednej strony są to narzędzia do wizualizacji czy wizualnej eksploracji danych. Kiedyś trzeba było napisać kawałek kodu, żeby zrobić jakieś wykres, a wcześniej – przygotować pod ten wykres jakieś dane. Dziś mamy wydajne komputery o dużej pamięci, proste interfejsy, a więc możemy mieć szybki dostęp do danych. To pozwala na rozwój narzędzi do wizualnej eksploracji danych, testowanie różnych hipotez. Wcześniej było to nie do pomyślenia.

Przed laty metody optymalizacji liczyło się w godzinach lub dniach. Natomiast dziś metody optymalizacyjne są po prostu dostępne jako pewien dodatek do algorytmu, od razu wspierając analityka przy doborze optymalnych ustawień dla algorytmu w kilka minut.

Ciekawi jesteśmy przyszłości branży analitycznej w Polsce. Co dalej po tych 30 latach?

Rozwój analityki biznesowej w Polsce odbywa się nierównomiernie. I tak będzie dalej. Liderów innowacji, które będą mogły w pewnych obszarach tylko przyspieszać, będziemy mieli. Natomiast są branże, które niestety zostały w tyle i mają sporo do nadrobienia. Co najmniej przez następne 10 lat nie będą się nudzić, jeśli chodzi o wdrożenie analityki.

Ostatnie lata to też duża popularność rozwiązań z przedrostkiem smart, czyli smart city, inteligentne domy itp. Kolejny obszar to e-państwo i usługi cyfrowe dla obywatela, w którym na pewno nie należy się spodziewać jakiejś stagnacji, bo cały czas pojawiają się nowe metody podejścia do badania danych. Również analiza danych nieustrukturyzowanych ma dużą przyszłość na polskim rynku. Kolejne lata poświęcimy na poszukiwanie skutecznych zastosowań dla algorytmów, które już znamy.

Widzi Pan w tym jakieś wyzwania dla branży, zagrożenia?

Pewnym problemem może się okazać kwestia chmury obliczeniowej. Na przykład w kontekście wojny w Ukrainie i trwającego tam konfliktu okazała się ona sporym wyzwaniem. Mając tzw. data centres poza obszarem konfliktu nadal nie mamy pewności, czy nie stracimy dostępu do danych. Proszę tylko wyobrazić: ktoś prowadzi dziś firmę na terenie Federacji Rosyjskiej i w jednej chwili traci dostęp do danych z chmury, ponieważ amerykańska korporacja blokuje mu dostęp do usług. To może się powtórzyć także w innych szerokościach geograficznych.

Przenoszenie się do chmury ogólnie jest świetnym pomysłem. Ale co w sytuacjach takich zagrożeń? Dlatego już dzisiaj trzeba zadać sobie konkretne pytanie – czy w przyszłości sytuacja polityczna i geopolityczna będzie miała konsekwencje dla używania rozwiązań opartych o chmurę, zwłaszcza jeżeli chodzi o przechowywanie danych i używanie systemów analitycznych.

Chociaż na rynku pracy można znaleźć mnóstwo ofert z zakresu big data, a potencjalni pracownicy mają w czym wybierać, to dla pracodawcy wciąż kluczowe jest odpowiednie wykształcenie kandydata i jego umiejętności. Po raz kolejny przedstawiamy kierunki studiów na polskich uczelniach, tym razem z zakresu big data i data management.

STUDIA BIG DATA I STOPNIA

Zarządzanie danymi i analityka big data – Collegium Humanum

Decydując się na ten kierunek studiów, zdobywasz kompetencje nie tylko w zakresie nauk społecznych, komunikacji i relacji międzyludzkich, ale również w obszarze IT, analizy danych oraz kodowania. Studenci tego kierunku zdobędą wiedzę teoretyczną w zakresie analizy statystycznej oraz algorytmów uczenia maszynowego.

Poziom: I stopnia.
Tryb studiów: stacjonarny i niestacjonarny.
Czas trwania: 3 lata (6 semestrów).
Więcej informacji na stronie.

Analityka danych, big data i kodowanie – Collegium Civitas w Warszawie

W ciągu trzech lat studiów poznasz najważniejsze zagadnienia związane z technologiami informacyjno-komunikacyjnymi (ICT), które są wykorzystywane w biznesie: m.in. big data, data mining, języki programowania. Poznasz sektor ICT „od kuchni”, a know-how zdobędziesz od praktyków z branży. Po zakończeniu studiów będziesz mógł pochwalić się kwalifikacjami wykorzystywanymi np. w przemyśle, sektorze FinTech, telekomunikacji lub administracji.

Poziom: I stopnia.
Tryb studiów: stacjonarny i niestacjonarny.
Czas trwania: 3 lata (6 semestrów).
Więcej informacji na stronie.

Big data w biznesie – Wyższa Szkoła Bankowa w Toruniu

Jakie konkretne umiejętności zdobędziesz na tych studiach? Przede wszystkim wiedzę z zakresu precyzyjnej analizy danych w przedsiębiorstwie, a także wykorzystania wyników analizy danych w zarządzaniu organizacją. Będziesz wiedział, jak wykorzystać języki programowania w analizie danych i zadbać o bezpieczeństwo przetwarzania danych cyfrowych. Zyskasz również wiedzę w obszarze internetu rzeczy (IoT) oraz algorytmów sztucznej inteligencji, zgłębiając tajniki wizualizacji danych i narzędzi business intelligence.

Poziom: I stopnia.
Tryb studiów: hybrydowy.
Czas trwania: 3 lata (6 semestrów).
Więcej informacji na stronie.

Zarządzanie big data – Uczelnia Techniczno-Handlowa im. Heleny Chodkowskiej w Warszawie

Studia big data są odpowiedzią na zgłaszane przez przedsiębiorstwa i biznes braki właściwie wykształconych kadr w zakresie zarządzania danymi. Można tu zdobyć wiedzę na temat pozyskiwania i przetwarzania zbiorów danych cyfrowych oraz pracy z nimi. Nauczysz się również, jak na podstawie analizy informacji podejmować trafne decyzje o charakterze strategicznym. Rozszerzysz swoją wiedzę z zakresu informatyki, matematyki, statystki, podejmowania decyzji, zarządzania, a wszystko to w kontekście analizy danych.

Poziom: I stopnia.
Tryb studiów: stacjonarny i niestacjonarny.
Czas trwania: 3 lata (6 semestrów).
Więcej informacji na stronie.

STUDIA BIG DATA II STOPNIA

Advanced analytics – big data – Szkoła Główna Handlowa w Warszawie

Studia na tym kierunku kształcą specjalistów w zakresie pozyskiwania danych z różnych źródeł oraz ich analizy. Dają one zaawansowaną wiedzę i kompetencje umożliwiające podjęcie pracy zawodowej na stanowisku specjalisty zaawansowanej analizy danych, w przedsiębiorstwach produkcyjnych, bankach, firmach ubezpieczeniowych i telekomunikacyjnych, administracji publicznej oraz centrach badawczych wyspecjalizowanych w zaawansowanej analityce danych. Studia te przygotowują do prowadzenia prac badawczych i do podjęcia studiów trzeciego stopnia. Zajęcia odbywają się w języku angielskim.

Poziom: II stopnia.
Tryb studiów: stacjonarny.
Czas trwania: 2 lata (4 semestry).
Więcej informacji na stronie.

Health economics and big data analytics – Akademia Leona Koźmińskiego w Warszawie

Do atutów kierunku można zaliczyć system nauczania oparty o najnowsze osiągnięcia z dziedziny ekonomiki zdrowia i zdefiniowany z perspektywy potrzeb płatnika podatków, świadczeniodawcy usług opieki zdrowotnej, producenta technologii zdrowotnych oraz pacjenta. Celem studiów jest przyswojenie wiedzy specjalistycznej i wykształcenie umiejętności w obszarze analizy danych z uwzględnieniem danych zdrowotnych w przemyśle farmaceutycznym i innych powiązanych branżach. Liderką kierunku jest dr hab. Katarzyna Kolasa, prof. Akademii Leona Koźmińskiego.

Poziom: II stopnia.
Tryb studiów: stacjonarny.
Czas trwania: 2 lata (4 semestry).
Więcej informacji na stronie.

Zarządzanie big data – Uniwersytet Warszawski

Walorem studiów jest przekazywanie wiedzy i umiejętności w zakresie procesów informatycznych (w tym tworzenia, poznawania i obsługi specjalistycznego oprogramowania), ekonomicznych, a także identyfikacji źródeł, ich klasyfikacji i typologii oraz sposobów wyszukiwania, gromadzenia i zarządzania zasobami cyfrowymi. Ścisła współpraca z instytucjami, firmami, przedsiębiorstwami na co dzień zajmującymi się gromadzeniem, organizacją, przetwarzaniem i analizą dużych zasobów danych zapewnia możliwość odbycia praktyk studenckich w instytucjach działających w obszarze IT.

Poziom: II stopnia.
Tryb studiów: stacjonarny.
Czas trwania: 2 lata (4 semestry).
Więcej informacji na stronie.

Big data analytics – Politechnika Wrocławska

Studia „Big data analytics” pozwalają na zdobycie wiedzy i umiejętności w zakresie analizy dużych zbiorów danych i modelowania układów złożonych. Jest to kierunek interdyscyplinarny, na pograniczu fizyki układów złożonych, informatyki i matematyki. Jakie umiejętności zdobywa absolwent tego kierunku? Wykorzystuje narzędzia i technologie informatyczne służące do obróbki dużych zasobów danych, zna metody fizyki układów złożonych do badania i modelowania analizowanych zasobów informacyjnych, projektuje modele obserwowanych dynamicznie zjawisk i zweryfikuje je na podstawie danych empirycznych. Zajęcia odbywają się w języku angielskim.

Poziom: II stopnia.
Tryb studiów: stacjonarny.
Czas trwania: 1,5 roku (3 semestry).
Więcej informacji na stronie.

Big data analytics – Szkoła Główna Gospodarstwa Wiejskiego w Warszawie

Zajęcia na tym kierunku prowadzone są w języku angielskim. Studenci zapoznają się z technologiami wykorzystywanymi do przechowywania, przetwarzania i analizy dużych zbiorów danych oraz z innymi ilościowymi metodami analizy ekonomicznej, narzędziami informatycznymi i ich praktycznym zastosowaniem. Nabędą również umiejętności budowania rozwiązań analitycznych na platformach big data, zapoznają się z systemami przetwarzania rozproszonego i równoległego oraz nauczą się wykorzystywać podstawowe narzędzia do wizualizacji dużych zbiorów danych.

Poziom: II stopnia.
Tryb studiów: stacjonarny.
Czas trwania: 2 lata (4 semestry).
Więcej informacji na stronie.

PODYPLOMOWE STUDIA BIG DATA

Big data – przetwarzanie i analiza dużych zbiorów danych – Politechnika Warszawska

Ten kierunek studiów przeznaczony jest dla osób, które zainteresowane są wykorzystaniem potencjału analizy dużych zbiorów danych w celu wspierania procesu podejmowania decyzji: w biznesie, nauce i innych obszarach działalności. Doświadczenie w pracy z technologiami jest mile widziane (np. podstawowa umiejętność programowania w dowolnym języku, podstawowa znajomość zagadnień związanych z bazami danych i językiem SQL), ale nie jest wymagane. Po zakończonej nauce kompetencje słuchaczy wzbogacą się o umiejętność programowania w języku Python na potrzeby analityki dużych danych, szybkiego i wydajnego przetwarzanie dużych danych, podstawowych technik projektowania architektury chmurowej, obsługi baz danych typu noSQL, a także trenowania i oceniania modeli uczenia maszynowego.

Poziom: studia podyplomowe.
Tryb studiów: niestacjonarny.
Czas trwania: 1 rok (2 semestry).
Więcej informacji na stronie.

Big data – inżynieria dużych zbiorów danych – Polsko-Japońska Akademia Technik Komputerowych w Warszawie

Kandydaci na studia podyplomowe powinni być absolwentami studiów I lub II stopnia kierunków informatycznych lub pokrewnych, ekonomicznych, technicznych. Wymagana jest podstawowa znajomość: teorii relacyjnych baz danych, metod statystycznych, programowania w języku Python, użytkowania systemów klasy UNIX. Mile widziana znajomość języka programowania JAVA. Wymagana jest także znajomość języka angielskiego przynajmniej na poziomie B2. Wśród przedmiotów na tym kierunku studiów znajdziesz m.in. podstawy inżynierii dużych zbiorów danych, infrastrukturę sprzętową w przetwarzaniu dużych zbiorów danych, infrastrukturę programową w przetwarzaniu dużych zbiorów danych, konfigurację środowiska przetwarzania dużych zbiorów danych, analizę danych w języku Python i R, nierelacyjne bazy danych, metody uczenia maszynowego, przetwarzanie dużych zbiorów danych w chmurze obliczeniowej.

Poziom: studia podyplomowe.
Tryb studiów: niestacjonarny.
Czas trwania: 1 rok (2 semestry).
Więcej informacji na stronie.

Analiza danych – big data – Uniwersytet Gdański

Najważniejszym i najobszerniejszym blokiem zajęć jest eksploracja danych i modelowanie statystyczne. Obejmuje on treści związane z przygotowaniem danych do analizy, takie jak kodowanie danych, agregację cech/jednostek, imputację braków danych, transformację zmiennych i przypadków, wykrywanie obserwacji nietypowych, redukcję wymiarowości, analizę jakości danych. Słuchacze tego kierunku poznają również etapy i metody analiz big data, najważniejsze źródła wartości analiz dla odbiorcy, a także programowanie językiem R oraz Python.

Poziom: studia podyplomowe.
Tryb studiów: niestacjonarny.
Czas trwania: 1 rok (2 semestry).
Więcej informacji na stronie.

Inżyniera danych – big data – Wyższa Szkoła Bankowa w Gdańsku

Celem studiów jest przygotowanie słuchaczy do analizy i przetwarzania dużych zbiorów danych. Skierowane są do wszystkich osób które chciałyby pracować w obszarze big data: finansach i bankowości, mediach społecznościowych (np. Facebook, LinkedIn, Twitter, Google), w sprzedaży (np. Amazon), firmach tworzących aplikacje na smartfony i tablety. Decydując się na ten kierunek, zdobędziesz wiedzę z zakresu big data & data science, poznasz praktyków z zakresu data science, a także nauczysz się korzystać z platformy Microsoft Azure.

Poziom: studia podyplomowe.
Tryb studiów: niestacjonarny.
Czas trwania: 1 rok (2 semestry).
Więcej informacji na stronie.

Przetwarzanie danych – big data – Uniwersytet im. Adama Mickiewicza w Poznaniu

W tym przypadku uczelnia stawia na ponad 75 proc. zajęć praktycznych i aktualne zagadnienia związane z hurtowniami danych, big data, przetwarzaniem w chmurze, Hadoop, bazach NoSQL, analizy i eksploracji danych z wykorzystaniem języka R i Python. Zajęcia prowadzone są przez praktyków data science, a słuchacze mają możliwość rozwiązywać rzeczywiste problemy z zakresu big data.

Poziom: studia podyplomowe.
Tryb studiów: niestacjonarny.
Czas trwania: 1 rok (2 semestry).
Więcej informacji na stronie.


Wszystkie opisy powyższych kierunków zostały przygotowane na podstawie informacji podanych na stronach internetowych poszczególnych uczelni, które je prowadzą. Każdy z kierunków został wyselekcjonowany w wyniku niezależnego researchu w sieci, w tym danych z bazy RAD-on – źródła informacji o szkolnictwie wyższym i nauce w Polsce prowadzonym przez Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy.

Udostępnij link

https://www.datasciencerobie.pl/studia-big-data-na-polskich-uczelniach/