Analityka biznesowa w Polsce obchodzi swoje 30-lecie. Rodzime firmy uczyły się na własnych błędach
– Polska miała szczęście w nieszczęściu, gdy w grę weszła analityka biznesowa i wdrożenie jej narzędzi. Czasy PRL-u spowodowały, że ominęło nas sporo różnych rozwiązań. Wystartowaliśmy z opóźnieniem, ale mamy znacznie nowocześniejsze technologie na rynku. Bardzo pomocne okazało się to, że wiele zachodnich koncernów u nas eksperymentowało i wdrażało swoje innowacje – zauważa Mariusz Dzieciątko, Chief Digital Officer w Gabos Software.
Z Mariuszem Dzieciątko, doktorem nauk technicznych z 30-letnim doświadczeniem w dziedzinie technologii informacyjnych, wykładowcą w Instytucie Informatyki i Gospodarki Cyfrowej Szkoły Głównej Handlowej, a także Chief Digital Officer w Gabos Software rozmawiamy o tym, jak ewoluowała analityka biznesowa w Polsce oraz jakie perspektywy stoją przed tą branżą.
W tym roku analityka biznesowa obchodzi swoje umowne 30-lecie na polskim rynku. Spróbujmy przenieść się trzy dekady wstecz, a może nawet wcześniej. Jak Pan wspomina te czasy?
Rzeczywiście w latach 90. analityka biznesowa zyskała solidne podwaliny. To właśnie wtedy pojawił się w Polsce SAS Warto jednak pamiętać, że bez odpowiedniego oprogramowania i wypracowanych metod gromadzenia danych nic by się nie udało. Dlatego niewątpliwie takim kamieniem milowym w rozwoju technologii analitycznej było wówczas pojawienie się na polskim rynku komputerów osobistych. Zarówno takich jak IBM PC (czyli tzw. pecety), ale także tych mniejszych firm jak Atari, Spectrum czy Timex.
Jakie wrażenia towarzyszyły wtedy Panu?
Miałem styczność z tymi narzędziami, jeszcze na etapie szkoły średniej. Wtedy w placówkach edukacyjnych zaczęły się pojawiać pierwsze komputery. W tym czasie uczęszczałem do technikum elektronicznego, ponieważ to elektronika była moją pierwszą „miłością”.
W laboratorium korzystaliśmy z komputerów Timex. To była prawdziwa nowość i zupełnie nikt nie wiedział, co z tymi urządzaniami robić, jak prowadzić zajęcia. Językiem programowania był wtedy Basic, pojawiły się pierwsze książki związane z grafiką komputerową, w tym poświęcone sposobom obliczania współrzędnych brył w trzech wymiarach za pomocą algorytmów. Pamiętam też bursztynowe i zielone ekrany monitorów.
Ale wtedy nikt nie myślał jeszcze o analityce?
Zanim pojawiły się komputery, cała „analiza” była robiona papierowo na olbrzymich płachtach, tzw. „amerykankach”. Moja mama pracowała w księgowości, więc pamiętam, jak pomagałem jej zliczać dane. Odbywało się to jeszcze na rosyjskich maszynach liczących na korbkę. Tak w latach 80. wyglądała praca z danymi. Nie do końca jeszcze wtedy myślano o jakimkolwiek gromadzeniu danych, bardziej o wsparciu tej uciążliwej działalności, żmudnych zadaniach pracowników. Po 1989 roku wszystko się zmieniło.
Tak naprawdę wszystko zaczęło się od systemów operacyjnych, czyli takich, które wspierały codzienne funkcjonowanie firm. Zatem początkiem analityki były właściwie systemy finansowo-księgowe czy kadrowo-płacowe.
Te systemy komputerowe trafiały do Polski z Zachodu, czy też była jakaś rodzima technologia?
Były dwie ścieżki rozwoju. Po pierwsze, po 1989 roku polska myśl techniczna mogła się w końcu rozwinąć. Pojawiły się bowiem odpowiednie narzędzia. Mieliśmy też do czynienia ze zmianą ustroju, ogromną eksplozją wolności, także jeśli chodzi o własną działalność gospodarczą. Przy pomocy kreatywnych umysłów można było dać życie wielu twórczym pomysłom. Co prawda komputery pojawiły się z Zachodu, ale dostrzegliśmy też bardzo duży potencjał jeśli chodzi o polskich informatyków.
Nastąpiła też wtedy ogromna zmiana technologiczna. Kiedy zacząłem studia w 1990 roku, to pamiętam, jak z gmachu Politechniki Warszawskiej przeniesiono do Muzeum Techniki olbrzymi komputer lampowy, który ważył wiele ton. To był koniec pewnej epoki, także epoki kart perforowanych. Zaczęła się era pecetów.
I pojawiły się systemy komputerowe wspierające pracowników w firmach. Jak wyglądały?
W 1994 roku zacząłem pracować etatowo dla podmiotu, który zajmował się wdrażaniem oprogramowania wspierającego zarządzanie w firmach. Tam działał już system finansowo-księgowy, jak i płacowo-kadrowy. To namnożenie bytów wynikało z ówczesnych potrzeb firm, aby obsługiwać kolejne fragmenty działalności z osobna. Oczywiście były to programy na bazie DOS, czyli pierwszego systemu operacyjnego, bez żadnego interfejsu graficznego, nieobsługiwane myszką. Co ciekawe, tego typu interfejsy funkcjonują gdzieniegdzie nawet do dzisiaj.
Natomiast wciąż nie mogliśmy tego nazwać analityką. Były co najwyżej raporty, zestawienia, które pomagały robić bilans. Ta rewolucja miała się zacząć za chwilę.
Dokładnie kiedy?
Myślę, że takim kluczowym momentem jest połowa lat 90. I tu właśnie SAS ma swoje wielkie zasługi, ponieważ do Polski docierają hurtownie danych. Pierwsza hurtownia w Polsce została zbudowana w Narodowym Banku Polskim. To był moment, kiedy zaczęła się rzeczywista zmiana i początek analityki biznesowej w naszym kraju. To wtedy zaczęliśmy patrzeć na dane całościowo z punktu widzenia analiz, przyglądać się im z różnych perspektyw, a nie tylko skupiać się na ich gromadzeniu. Do tego momentu wszystkie systemy kadrowe czy finansowe miały charakter wyspowy. Nie miały ze sobą nic wspólnego. To był pierwszy tak ważny krok w kierunku tworzenia rozwiązań analitycznych.
Czy podobnie rozwijała analityka biznesowa w USA?
Początki SAS w Stanach można wiązać z potrzebą rynku. Ten oczekiwał analizy danych statystycznych w rolnictwie. W drugiej połowie lat 60., w ramach grantu ogłoszonego przez National Institutes of Health w Stanach Zjednoczonych, CEO i założyciel SAS James Goodnight wraz ze współpracownikami z North Carolina State University stworzył program statystyczny, który miał analizować dane gromadzone przez Departament Rolnictwa USA.
Podobnie działało to także w Polsce. Firmy widzące potrzebę informatyzacji jakiegoś obszaru zwracały się do kogoś zaprzyjaźnionego z informatyków, którzy opracowywali dla nich dedykowany system. Ten najczęściej okazywał się na tyle dobry, że twórca zakładał firmę i zaczynał system sprzedawać dalej. Ewentualnie dostosowywał go jeszcze w taki sposób, aby był bardziej uniwersalny i pasował do innych przedsiębiorstw. Wiele znanych i potężnych polskich firm IT tak zaczynało swoją drogę na szczyt. Od małego kawałka oprogramowania napisanego pod konkretne zamówienie.
Mówimy o transformacji cyfrowej sprzed 30 lat. Uważa Pan, że wykorzystaliśmy swoją szansę rozwoju po 1989 roku?
Nasz kraj, pomimo PRL-u, do tego „analitycznego” pociągu wskoczył szybko, bez zbędnego opóźnienia. Uaktywnił się też potencjał wielu osób. To pozwoliło nam bardzo szybko dogonić, a w niektórych obszarach przegonić to, co się działo na Zachodzie.
Polska miała szczęście w nieszczęściu, jeśli chodzi o wdrożenia narzędzia analityki biznesowej. Czasy republiki ludowej spowodowały, że ominęło nas sporo różnych rozwiązań, które były na Zachodzie już wcześniej implementowane. Wystartowaliśmy z opóźnieniem, ale mamy znacznie nowocześniejsze technologie na rynku. Poza tym fakt, że Polska była dosyć ciekawym, rozwijającym się i niespecjalnie dużym rynkiem spowodował, że wiele zachodnich koncernów u nas eksperymentowało. Firmy zachodnie, w tym amerykańskie, były bardziej otwarte na innowacje. Jeśli coś udało się w Polsce, przenoszono to na własny lub inne rynki.
Czyli byliśmy poletkiem doświadczalnym dla koncernów?
Tak, ale z korzyścią dla Polski, ponieważ wiele ciekawych rozwiązań powstało najpierw u nas. Dopiero później świat uczył się tego od polskich ekspertów i analityków danych. Pytanie, czy można było coś zrobić lepiej? Zawsze można. Natomiast ciekawe jest to, że dalej w Polsce są branże, gdzie analityka biznesowa nie występuje w ogóle lub co najwyżej w śladowej postaci. Na szczęście coraz więcej firm zauważa, jaką wartość może wnieść analityka biznesowa.
Za czasów Edwarda Gierka Polska miała dwie ścieżki rozwoju. Był to wybór pomiędzy elektroniką a przemysłem ciężkim i wydobywczym. Niestety wybraliśmy ścieżkę numer dwa. Co by się stało, gdyby jednak zaważyła elektronika? Nie dowiemy się, bo ten moment przespaliśmy.
Jak firmy, dopiero co powstałe z socjalistycznego niebytu, podchodziły do rewolucji, którą spowodowała analityka biznesowa?
Od razu pojawiły się pewne różnice w szybkości rozwoju przedsiębiorstw. Gracze dysponujący większymi możliwościami finansowymi, kadrowymi czy technicznymi szybciej wchodzili w rozwiązania analityczne.
Istotne jest to, że sztafeta w biegu o innowacyjność w obszarze analityki cały czas się zmienia. Najpierw mocno inwestowały w to banki, bo tam pojawiły się pierwsze hurtownie danych. Później banki „oddały pałeczkę” telekomom, które bardzo dynamicznie zaczęły się rozwijać na polskim rynku. Tak było przez dziesięć lat, aż telekomy oddały znów pierwszeństwo bankom i firmom ubezpieczeniowym. I tak sytuacja wygląda do dziś.
Na Zachodzie było inaczej?
Różnica w podejściu do funkcjonowania firm, jeśli chodzi o Europę i Amerykę, istniała od zawsze. Nawet nieduże firmy w USA mają swoich własnych analityków, którzy wspierają przedsiębiorstwa w codziennym działaniu. Z kolei w Europie wygląda to zupełnie inaczej. Nawet duże firmy przez długi okres nie miały działów analitycznych. Dopiero później dojrzały i zrozumiały, że analityka może im dać przewagę na rynku.
Trudno porównywać akurat te dwa rynki zarówno w latach 90., jak i dziś. Natomiast zasada zawsze jest ta sama – analityka prędzej czy później odpowiada na to, co jest największą bolączką organizacji. To spowodowało wysyp systemów do oceny ryzyka różnej maści. Na przykład telekomy patrzyły na to, czy z daną osobą warto podpisać umowę. Banki oceniały z kolei ryzyko kredytowe. Jak już firmy poznały sposoby na ograniczenie liczby klientów, których nie chcą, trzeba było dowiedzieć się, jak zdobyć tych pożądanych.
Te lata należały do systemów CRM. Na każdym rynku firmy mogą być różne, ale system działa identycznie. Tworzymy podstawę w postaci danych, a następnie zaczynamy przesiewać klientów zgodnie z naszym aktualnym zapotrzebowaniem.
Wydaje się, że cyfryzacja i analityka biznesowa spadła na firmy jak grom z jasnego nieba. Duża liczba systemów, do których wykorzystywania trzeba przekonać pracowników i menedżerów?
Jeśli chodzi o wielość systemów, to polskie firmy uczyły się na własnych błędach. Mówimy tu o dużych firmach. Zdarzało się, że nieco się zagoniły w cyfryzacji i miały nagle kilkanaście różnych systemów pod opieką. I to oczywiście nie może się dobrze kończyć. W takiej sytuacji ich utrzymanie i integracja są niewykonalne lub bardzo trudne. Natomiast ci, którzy postawili na rozwiązanie wyłącznie od jednego dostawcy, również nie wyszli na tym dobrze. Trzeba było to sensownie wyważyć.
Natomiast „przekonywanie” organizacji do analityki wcale nie jest proste. Dobrze to wiem z własnego doświadczenia, ponieważ od 20 lat zajmuję się analizą danych nieustrukturyzowanych i analizą danych tekstowych. Przez długi czas „chodziliśmy” po firmach, pokazując, że te rozwiązania działają oraz jakie korzyści mogą dzięki nim osiągnąć. Wszyscy przytakiwali, ale często nic tego nie wynikało. Być może brakowało świadomości czy poczucia, że warto tą ścieżką pójść. Technologicznie można było wprowadzać w firmach analitykę znacznie wcześniej.
Podobnie rzecz się miała jeszcze do niedawna z sieciami neuronowymi. W badaniach oceny ryzyka jeszcze 10 lat temu używano wyłącznie drzew decyzyjnych czy metod regresyjnych, a więc absolutnej klasyki znanej od dziesiątek lat. Natomiast sieci neuronowe były stosowane wyłącznie testowo jako punktów odniesienia w modelach. Sprawdzano tym samym, czy to, co dają sieci, jest tożsame z modelami tworzonymi z drzewa i regresji.
Z czego to wynikało?
Drzewa decyzyjne i metody regresyjne były interpretowalne, a modeli sieci neuronowych – nie. Tymczasem dziś już nikt o tym nie pamięta, a firmy korzystają nawet z głębokich sieci neuronowych, które świetnie sprawdzają się w niektórych zastosowaniach, jak np. kategoryzacja obrazów. Dużym wyzwaniem nadal pozostaje jednak kwestia interpretowalności, choć coraz rzadziej przerażają one firmy, bo te są otwarte na innowacyjne pomysły.
Analityka biznesowa nie istniałaby bez specjalistów, np. data scientistów, ale też bez narzędzi. Czy w ostatnich latach te ostatnie bardzo się zmieniły?
Adaptacja tego, co pojawią się w publikacjach naukowych, w tym nowych algorytmów, zawsze zajmuje trochę czasu. To prawda, że pojawienie się języka R, a później Pythona spowodowało przyspieszenie. Powstała też prężnie działająca społeczność open source, która szybko implementuje algorytmy. Jednak aby taki algorytm naprawdę zaistniał na poziomie biznesowym, potrzebnych jest minimum kilkanaście lat.
Oczywiście mamy również takie przedsiębiorstwa, które wiodą prym w szukaniu innowacyjnych rozwiązań i wspierają środowiska open source’owe. Ale to nie jest szybki proces. Mówiąc o analityce biznesowej, mówimy o różnych poziomach tej analityki. Z jednej strony są to narzędzia do wizualizacji czy wizualnej eksploracji danych. Kiedyś trzeba było napisać kawałek kodu, żeby zrobić jakieś wykres, a wcześniej – przygotować pod ten wykres jakieś dane. Dziś mamy wydajne komputery o dużej pamięci, proste interfejsy, a więc możemy mieć szybki dostęp do danych. To pozwala na rozwój narzędzi do wizualnej eksploracji danych, testowanie różnych hipotez. Wcześniej było to nie do pomyślenia.
Przed laty metody optymalizacji liczyło się w godzinach lub dniach. Natomiast dziś metody optymalizacyjne są po prostu dostępne jako pewien dodatek do algorytmu, od razu wspierając analityka przy doborze optymalnych ustawień dla algorytmu w kilka minut.
Ciekawi jesteśmy przyszłości branży analitycznej w Polsce. Co dalej po tych 30 latach?
Rozwój analityki biznesowej w Polsce odbywa się nierównomiernie. I tak będzie dalej. Liderów innowacji, które będą mogły w pewnych obszarach tylko przyspieszać, będziemy mieli. Natomiast są branże, które niestety zostały w tyle i mają sporo do nadrobienia. Co najmniej przez następne 10 lat nie będą się nudzić, jeśli chodzi o wdrożenie analityki.
Ostatnie lata to też duża popularność rozwiązań z przedrostkiem smart, czyli smart city, inteligentne domy itp. Kolejny obszar to e-państwo i usługi cyfrowe dla obywatela, w którym na pewno nie należy się spodziewać jakiejś stagnacji, bo cały czas pojawiają się nowe metody podejścia do badania danych. Również analiza danych nieustrukturyzowanych ma dużą przyszłość na polskim rynku. Kolejne lata poświęcimy na poszukiwanie skutecznych zastosowań dla algorytmów, które już znamy.
Widzi Pan w tym jakieś wyzwania dla branży, zagrożenia?
Pewnym problemem może się okazać kwestia chmury obliczeniowej. Na przykład w kontekście wojny w Ukrainie i trwającego tam konfliktu okazała się ona sporym wyzwaniem. Mając tzw. data centres poza obszarem konfliktu nadal nie mamy pewności, czy nie stracimy dostępu do danych. Proszę tylko wyobrazić: ktoś prowadzi dziś firmę na terenie Federacji Rosyjskiej i w jednej chwili traci dostęp do danych z chmury, ponieważ amerykańska korporacja blokuje mu dostęp do usług. To może się powtórzyć także w innych szerokościach geograficznych.
Przenoszenie się do chmury ogólnie jest świetnym pomysłem. Ale co w sytuacjach takich zagrożeń? Dlatego już dzisiaj trzeba zadać sobie konkretne pytanie – czy w przyszłości sytuacja polityczna i geopolityczna będzie miała konsekwencje dla używania rozwiązań opartych o chmurę, zwłaszcza jeżeli chodzi o przechowywanie danych i używanie systemów analitycznych.