– System ochrony zdrowia bazujący wyłącznie na jednej funkcji pracownika dawno “przeszedł na emeryturę”. Każdy z nas, a lekarze w szczególności, powinni rozumieć analitykę danych i to, na czym polega uczenie maszynowe. Dlatego coraz częściej w systemie opieki zdrowotnej mówimy o lekarzach – data scientistach. Oznacza to, że personel medyczny musi umieć korzystać z digital health utilities – uważa dr hab. Katarzyna Kolasa z Akademii Leona Koźmińskiego.

Dr hab. Katarzyna Kolasa jest ekspertką w obszarze cyfryzacji medycyny i nowych technologii w opiece zdrowotnej, a także profesorem na Akademii Leona Koźmińskiego. Liderka programu studiów Health Economics and Big Data Analytics oraz specjalistycznego kursu dla kadry zarządzającej ochroną zdrowia i innowatorów – Digital Health. Start Me Up – we współpracy z Agencją Badań Medycznych, szpitalem MSWiA oraz Gdańskim Uniwersytetem Medycznym. Doktor habilitowana ekonomii zdrowia i zdrowia publicznego, autorka ponad 50 publikacji naukowych w dziedzinie oceny technologii medycznych i farmakoekonomii oraz cyfryzacji w ochronie zdrowia. Ma ponad 20 lat doświadczenia w sektorze farmaceutycznym i wyrobów medycznych. Pracowała w Szwecji, Finlandii oraz Szwajcarii, gdzie kierowała m.in. zespołami Market Access. Obecnie pełni funkcję Vice President w firmie Parexel, gdzie kieruję zespołem Health Economics Outcomes Research w Europie.

O cyfryzacji opieki zdrowotnej szczególnie głośno zrobiło się w marcu 2020 roku, kiedy to w Polsce ogłoszono stan epidemii. Jak bardzo doświadczenia ostatnich lat scyfryzowały sektor medyczny? Jak Pani ocenia ten proces?

Posłużę się skalą ocen od 1 do 6. To, jak poradziliśmy sobie z pandemią, oceniam na dobry z plusem. Przede wszystkim dlatego, że przyspieszyliśmy innowacje, które mielibyśmy wdrożyć co najmniej za kilka lat. W perspektywie długoterminowej ten kryzys dał nam olbrzymie przyspieszenie.

A czemu nie szóstka?

Niestety nie wykorzystaliśmy w pełni możliwości do wprowadzenia regulacji, które byłyby wsparciem dla rozwiązań technologicznych. Wiele procedur wdrażaliśmy ad hoc, wyłącznie z potrzeby chwili. Powodem była niewydolność dotychczasowego działania systemu ochrony zdrowia w Polsce. Powiem brutalnie – jesteśmy skazani na klęskę systemu ochrony zdrowia. W tej chwili tylko dzięki cyfryzacji możemy go uratować.

Niestety w czasie pandemii zawiodły mechanizmy regulacyjne. Na te wdrożenia powinniśmy jednak patrzeć dużo szerzej. Dotknęliśmy pewnych rozwiązań i mam nadzieję, że w końcu się obudzimy i zrozumiemy, że innowacje wdrożone w ciągu minionych dwóch latach powstały nie tylko ze względu na pandemię. Ich celem było przede wszystkim przezwyciężenie problemów ochrony zdrowia, które znamy od lat. Dopiero kiedy to do nas dotrze, będziemy mogli w pełni z nich korzystać, rozwijać i wprowadzić je na stałe.

To które rozwiązania dla rozwoju innowacji w służbie zdrowia były kluczowe?

Moim zdaniem to, że telemedycyna okazała się skuteczna w czasie pandemii, było oczywiste. Z pandemią czy bez – to rozwiązanie dalej będzie się rozwijać. Według mnie najbardziej istotne są kwestie wykorzystania danych na ogromną skalę. Pacjent zaczyna pełnić funkcję decydenta w systemie ochrony zdrowia. Cyfryzacja daje nam dostęp do danych i zarządzania swoim zdrowiem na poziomie pacjenta, a nie na poziomie systemu, tak jak to było dotychczas.

Oczywiście wymaga to radykalnych zmian w podejściu do ochrony zdrowia, w celu skoncentrowania procesu leczenia nie na szpitalu czy przychodni, tylko na pacjencie. Co ważne, pozwala rozpocząć ten proces wcześniej, niż zaistnieje choroba. Mówimy tu o zmianie mentalności i zmianie organizacji systemu leczenia, kładąc nacisk na prewencję chorób.

A kto Pani zdaniem jest największym wygranym, a kto przegranym tej przyspieszonej cyfryzacji w służbie zdrowia?

Finalnie wszyscy skorzystamy na cyfryzacji służby zdrowia, nawet jeśli dziś grupa tych osób wciąż jest ograniczona. Nawet jeśli nie skorzystamy na tym wprost w tej chwili, to dostęp do rozwiązań cyfrowych i wykorzystanie innowacji spowoduje, że lekarze będą mieli więcej czasu dla nas.

Jednocześnie należy pamiętać, że kluczowym czynnikiem, jaki daje nam rewolucja cyfrowa w służbie zdrowia, jest automatyzacja i przyspieszenie procesów. Podobnie jak to ma miejsce w przypadku innych branż i dziedzin. Chodzi tu o spore oszczędności czasu w przyjmowaniu pacjentów, diagnozie, leczeniu. I to czasu najbardziej brakuje w systemie ochrony zdrowia.

Drugim ważnym czynnikiem jest ograniczenie liczby błędów popełnianych przez pracowników, co ma niebagatelne znaczenie dla życia i zdrowia pacjentów. Dzięki cyfryzacji liczba takich błędów będzie się sukcesywnie zmniejszać. To właśnie dzięki analizie danych będziemy mogli zwiększać efektywność leczenia, korzystając z twardych danych, a nie intuicyjnego podejścia lekarza do pacjenta.

Pytanie, co na to lekarz?

Lekarz będzie bardziej motywowany do leczenia w oparciu o dane. Będzie miał świadomość, że jego poczynania są w jakiś sposób kontrolowane. Nie przez system, ale bezpośrednio przez posiadane dane o pacjencie, które zawsze może sprawdzić ktoś inny. Eliminacja błędów to efekt cyfrowej rewolucji, na którym wszyscy skorzystamy.

Istotną kwestią jest bezpieczeństwo danych. Czy pacjenci mają dziś większe poczucie, że ich dane są bezpieczne, dobrze wykorzystywane?

Myślę, że na razie takiego poczucia jeszcze nie mają, ale powinno się ono zwiększać. Powiedzmy sobie szczerze – pacjenci zawsze mieli świadomość, że ich dane są wykorzystywane i analizowane przez kadrę medyczną. W tym nie ma nic szczególnego. W jaki sposób – to już inna kwestia. Owszem, nie zawsze lekarze mieli świadomość, jak z tymi danymi postępować. Co więcej, zdarzało się, że profesorowie często posiadali w laptopach niczym niezabezpieczone dane swoich pacjentów. Oczywiście w słusznym celu badań i leczenia, ale to było totalne zagrożenie ochrony danych osobowych. Każda forma zebrania tych danych w jakimś systemie będzie dawała większe bezpieczeństwo niż laptop lekarza.

Dzięki nowym regulacjom zwracamy uwagę na skalę problemu. Istniał on zawsze, ale teraz widzimy większą rolę danych w podejmowaniu decyzji. Wiemy, że rozwiązania cyfrowe funkcjonują tylko w oparciu o dane, które są paliwem dla innowacji. Tak jak dla nowoczesnego systemu ochrony zdrowia. Dlatego o ich bezpieczeństwo należy odpowiednio zadbać.

Uważam też, że kluczowe jest połączenie regulacji, które zabezpieczają dane pacjentów, a równocześnie przyspieszają ich przepływ. To powinny być albo te same przepisy, albo powinny się przenikać, uzupełniać. Mówimy więc o interoperacyjności, która gwarantuje nam dwie podstawowe rzeczy. Po pierwsze, bezpieczeństwo danych. Po drugie, szybsze przesyłanie danych pomiędzy decydentami w obszarze ochrony zdrowia. Kraje takie jak Estonia, czy inne państwa cyfrowo rozwinięte, z powodzeniem wprowadzają tę interoperacyjność. Budują swego rodzaju mosty pomiędzy ośrodkami decyzyjnymi, aby możliwie jak najszybciej wymieniać się danymi pacjentów.

Jakie korzyści przynosi interoperacyjność dla pacjenta?

Oznacza to, że niezależnie do którego lekarza w danym systemie ochrony zdrowia pójdziemy, nie musimy już tłumaczyć historii choroby, leczenia, wniosków i diagnoz. W ciągu kilku sekund lekarz może się z nimi zapoznać i wznowić lub zmienić proces leczenia. Jednocześnie ta budowa mostów zwiększa bezpieczeństwo danych. Nie musimy ich bowiem już nigdzie przesyłać w formie fizycznej, a na dodatek zwiększa poczucie bezpieczeństwa pacjenta co do całego systemu. Musimy dążyć do tego, aby w Polsce poziom interoperacyjności był jak najwyższy.

Dane wykorzystywane przez lekarzy to jedno. Coraz częściej jednak wiele informacji o naszym stanie zdrowia trafia poprzez różne technologie bezpośrednio do nas, pacjentów. Czy będziemy mogli sobie sami stawiać diagnozę, a może zrobią to za nas maszyny?

Dostęp do danych przyczynia się do tego, że poprawiamy naszą zdolność do prewencji chorób, szybszej diagnostyki, zapobiegania pewnym incydentom. Może tego procesu dokonać lekarz. Nic nie stoi na przeszkodzie, aby dokonał tego jednak system wykorzystujący uczenie maszynowe. Za pomocą machine learning dane wykorzystywane są na potrzeby procesów automatyzacji, automatycznego stawiania diagnozy albo tzw. triażowania pacjenta, czyli segregacji, selekcjonowania i sortowania danych.

Jest wiele przykładów wykorzystania uczenia maszynowego, które pokazują nam dobitnie, że mamy do czynienia z szybszą diagnostyką pacjentów, niż ma to miejsce w przypadku działania wyłącznie lekarzy. Co więcej, często ta diagnostyka jest bardziej prawidłowa i skuteczna niż nawet najlepszy specjalista. To jest klucz do sukcesu w służbie ochrony zdrowia i im szybciej to zrozumiemy, tym lepiej.

Czyli dane przyspieszają procesy decyzyjne w leczeniu?

Zdecydowanie tak. Automatyka ma większe znaczenie niż tylko zbieranie danych. Mamy bowiem do czynienia z automatyzacją procesów decyzyjnych. Posiadane i analizowane przez nas dane o chorobach pozwalają na tworzenie kolejnych danych. Na podstawie pozyskanych informacji o zdrowiu pacjenta generujemy nowe bazy i w ten sposób jeszcze bardziej przyspieszamy proces automatyzacji leczenia. Proszę pamiętać, że pozyskane dane są paliwem dla rozwoju innowacji w przyszłości. Oczywiście to otwiera przed nami nowe wartości i nowe możliwości.

Innowacja to nie jest technologia. To właśnie technologia jest nośnikiem innowacji. Natomiast innowacja to tylko rozwiązanie dla zjawisk, które do tej pory nawet znaliśmy i ogólnie rozumieliśmy. Jednak nie rozumieliśmy związku przyczynowo–skutkowego. Dlaczego? Bo mieliśmy za mało danych. Z każdym dniem ten proces decyzyjny przyspiesza, jest bardziej automatyczny.

Jak zatem technologie wpierają personel medyczny? Jak Pani widzi przyszłość tych rozwiązań?

Zacznę od tego, że technologie poprawiają funkcjonowanie pacjenta w systemie służby zdrowia. To automatycznie odciąża personel medyczny. I w tym kierunku musimy dążyć. Oczekuję, że szpitali jako noclegowni już nigdy nie zobaczymy. Będą to natomiast szpitale, które wyłącznie zajmą się leczeniem. Zabiegami, po których to będziemy udawać się możliwe szybko do domu, a nie spędzać czas w łóżku szpitalnym. W domu z kolei będziemy analizować stan swojego zdrowia, zarówno za pomocą wywiadu w ramach telemedycyny, jak i również za pomocą czujników, sensorów, innych zewnętrznych urządzeń i rozwiązań technologicznych. Tymczasem personel będzie wyłącznie operatorem i strażnikiem naszego stanu zdrowia, bazując na dostarczanych danych. Lekarze i pielęgniarki będą monitorować nasze symptomy poprawy zdrowia i na ich podstawie wdrażać odpowiednie procedury. Cyfryzacja służby zdrowia to odciążenie systemu i kadry medycznej. Absolutnie nic nie stoi na przeszkodzie, aby tego typu rozwiązania wdrożyć już dziś, aby ten cały proces zautomatyzować jak najszybciej. Moim zdaniem szpitale staną się w przyszłości salami operacyjnymi i gabinetami zabiegowymi. Do tego właśnie to zmierza i na taką rewolucję czekamy.

Jakich kompetencji od zespołów, lekarzy i personelu medycznego wymagają rozwiązania technologiczne?

System ochrony zdrowia bazujący wyłącznie na jednej funkcji pracownika tej służby już dawno “przeszedł na emeryturę”. Każdy z nas, ale lekarze w szczególności, muszą rozumieć analitykę danych i to, na czym polega uczenie maszynowe. Muszą rozumieć, z jakimi rozwiązaniami na co dzień pracują. Dlatego coraz częściej w służbie zdrowia mówimy o lekarzach, którzy powinni być po części data scientistami. Personel medyczny musi umieć korzystać z digital health utilities. Stąd m.in. tworzymy Digital Health – Start Me Up, czyli specjalny kurs na Akademii Leona Koźmińskiego, aby przybliżyć dynamikę zmian, z jakimi personel medyczny zderza się w swojej pracy. Nie jest to kurs wyłącznie dla startupów planujących wejść na rynek medyczny, ale także właśnie dla personelu medycznego. Również kadra zarządzająca ośrodkami medycznymi jest odbiorcą programu – pokazujemy im, na czym polegają możliwości innowacyjnych rozwiązań cyfrowych.

Co z zagrożeniami związanymi z cyfryzacją w służbie zdrowia? Chodzi nie tylko o kwestie cyberbezpieczeństwa i ataków na systemy.

Takie zagrożenia istnieją i są bardzo realne. Mamy wiele takich przykładów i co ciekawe, nie zawsze są one nagłaśniane w Polsce. Zagrożenie przychodzi przede wszystkim ze strony osób, które kreują technologie cyfrowe i wykorzystują naszą niewiedzę po to, aby wprowadzać na rynek rozwiązania jeszcze niezatwierdzone.

Przykładem jest filmowa historia Elisabeth Holmes, absolwentki Stanforda, która założyła startup Theranos do testowania laboratoryjnego na podstawie badania krwi. Theranos obiecywał, że dzięki prostemu badania z palca będzie w stanie wykryć m.in. raka i cukrzycę – i to wszystko bez użycia igieł. Dzięki niespotykanej umiejętności do występów publicznych i prezentacji udało się jej z sukcesem zebrać ponad miliard dolarów od niebyle jakich inwestorów: m.in. Ruperta Murdocha czy właściciela Walmarta). Ba, nawet trafiła na okładkę Forbesa w 2014 jako pierwsza bilionerka przed 30.

Pomysł został zatwierdzony przez wiele oficjalnych gremiów, a nawet prezydenta USA. Finalnie wszystkie założenia okazały się nieprawdą i w efekcie Holmes została skazana. Grozi jej aż do 20 lat więzienia. To bardzo jaskrawy przykład, ale przecież takich sytuacji może być więcej. To pokazuje, jak ważne jest regulowanie tego rynku i walidacja rozwiązań. W tym pędzie entuzjazmu na rozwiązania cyfrowe nie zapominajmy o ustawieniu procedur zapewniających ich rzetelne sprawdzenie. To nie chodzi już tylko o wiarygodność startupów, ale o wiarygodność systemu ochrony zdrowia, który już dziś na potęgę wprowadza rozwiązania cyfrowe. Amerykański Urząd Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych tylko do końca 2021 roku zatwierdził ponad 340 algorytmów decyzyjnych opartych na uczeniu maszynowym do praktyki klinicznej.

A inne wyzwania dla cyfryzacji w służbie zdrowia?

Problemem może być oferowanie usług cyfrowych dla osób posiadających obniżoną funkcję kognitywną, m.in. część osób starszych. Trzeba będzie stworzyć specjalny system, bezpieczny dla takich osób, aby zapewnić im dobry i skuteczny sposób leczenia w nowych realiach. W szczególności, jeśli już wszystko przełożymy na algorytmy decyzyjne. Pozostaje pytanie: czy te osoby będą w stanie poradzić sobie z obsługą urządzeń, cyfrowym kontaktem z lekarzem i zrozumieniem tego, skąd pojawia się diagnoza. Równość dostępu do cyfrowych metod leczenia może być sporym wyzwaniem dla cyfryzacji w służbie zdrowia.

Ważnym czynnikiem jest też kwestia pewnego poczucia zagrożenia wśród lekarzy, którzy obawiają się, że stracą na znaczeniu. Ich zdaniem rewolucja cyfrowa w służbie zdrowia może zepchnąć ich na margines. Mogą mieć poczucie, że nie zdołają zachować swojej mocnej pozycji czy zostać liderem w aktualnym systemie ochrony zdrowia. Dlatego ważne jest wdrażanie personelu medycznego w innowacje i pokazywanie, jak bardzo mogą być dla nich przydatne. Przyznam, że kwestia zaufania będzie budowana wraz z rozwojem innowacji i z każdym krokiem zarówno pacjenci, jak i lekarze przekonają się o ich wartości.

Jak Pani zdaniem wspierać rozwój innowacji w cyfryzacji na rzecz ochrony zdrowia? Co należy w tym względzie zmienić w systemie?

Przede wszystkim regulacje. Ważne są zmiany legislacyjne, które spowodują, że zaczniemy refundować te rozwiązania, ale też wprowadzać je do procesu klinicznego. Ten jest dziś często hamowany. Odpowiednie regulacje powinny to zmienić.

Trzecia ważna rzecz to współpraca między ośrodkami akademickimi a decydentami. Między innymi po to, aby wdrażać cyfryzację w ramach projektów pilotażowych. Tylko wtedy zapewnimy stopniową integrację i zabezpieczenie przed ewentualnymi błędami. Dane, innowacje, cyfryzacja w służbie zdrowia – to powinien być lek pierwszej potrzeby. Dopiero jak się okaże, że nie można czegoś zrobić cyfrowo, wtedy powinniśmy szukać innych rozwiązań. To jest rewolucja, ale my musimy niej dojrzeć.

Coraz większe i zróżnicowane zbiory danych, a także świadomość korzyści, jakie kryją się za ich analizą, zwiększają popyt na ekspertów w data science. Firmy, chcąc nadążyć za cyfrową rewolucją, poszukują pracowników z doświadczeniem, którzy wspomogą zespoły analityczne i z łatwością będą komunikowali się z kadrą zarządzającą. Sprawdziliśmy, czego dokładnie pracodawcy oczekują od osób na stanowisku senior data scientist.

Senior data scientist odgrywa kluczową rolę w budowaniu kultury danych w organizacji. W codziennej pracy zajmuje się rozwiązywaniem złożonych problemów biznesowych. Projektuje, rozwija i wprowadza systemy zarządzania danymi. Jego aktywność przekłada się na bardziej precyzyjne i oparte na rzetelnych informacjach decyzje biznesowe. Współpracuje też z różnymi działami w przedsiębiorstwie, a także z menedżerami. Zbiera wymagania, przygotowuje rozwiązania, formułuje wnioski i rekomenduje działania. Z tego powodu, poza zdolnościami technicznymi, potrzebuje rozwiniętych kompetencji miękkich, które ułatwią komunikację oraz pracę w interdyscyplinarnych zespołach.

Wykształcenie? Najlepiej wyższe

Jeśli kwestia ukończonej uczelni pojawia się w ofercie, to zazwyczaj dotyczy oczekiwań związanych ze studiami z zakresu matematyki, statystyki, informatyki lub uczenia maszynowego. Niekiedy nawet obrona pracy magisterskiej nie wystarczy, bo część przedsiębiorstw chętniej podejmie współpracę z doktorantami lub osobami ze stopniem doktorskim.

Umiejętności miękkie

Nawet najlepsze studia i tytuły naukowe na niewiele się zdadzą, gdy zabraknie umiejętności miękkich. Potrzeba analitycznego myślenia, dbałości o szczegóły, a także otwartości na nowe projekty. Ponieważ seniorzy często mają pod opieką młodszych stażem kolegów, pracodawcy chcą, by doświadczonych data scientistów cechowały zdolności komunikacyjne i przywódcze. To pomoże w przewodzeniu juniorom, a także odpowiednim przygotowaniu danych i delegowaniu związanych z nimi zadań. Ułatwi też dostosowywanie prac analityków do ogólnej strategii organizacji.

Praca w zespołach wymaga również umiejętności dzielenia się wiedzą, pełnienia roli mentora i nauczyciela. Z kolei poziom stanowiska w firmowej hierarchii wiąże się z dużą dozą niezależności, stąd kluczowe są również: samodzielne rozwiązywanie problemów analitycznych, organizacja własnej pracy oraz podejmowanie decyzji w dziedzinie data science. Od seniora oczekuje się również przygotowywania i realizowana strategii działań zespołu data science, a także okresowej oceny wydajności prac.

Jednym z narzędzi w kontekście pracy w zespole data science, które powinni znać seniorzy, to Git – rozproszony system kontroli wersji ułatwiający pracę z dużymi projektami. Drugim rozwiązaniem jest Jira, której używa się do zarządzania pracą, często z wykorzystaniem metodyki agile zakładającej m.in. bieżące dostosowywanie projektów do zmieniających się wymogów zleceniodawców.

Współpraca z biznesem

Łatwość komunikacji ma znaczenie również w relacjach z klientami, innymi zespołami i kadrą zarządzającą. Senior data scientist powinien umieć opracowywać, ale też jasno przedstawiać pomysły na wykorzystanie potencjału firmy, jaki niosą za sobą gromadzone dane. Duże znaczenie ma zdolność wsłuchiwania się w głos biznesu i gotowość do przekładania wymagań na szybkie prototypowanie, do którego potrzeba również sporej dozy kreatywności.

We współpracy z innymi działami i interdyscyplinarnymi zespołami niezbędne są narzędzia do wizualizacji danych. Pracodawcy często zakładają również, że senior data scientist będzie bardzo dobrze posługiwał się popularnymi na rynku platformami analityki biznesowej i narzędziami do wizualizacji danych.Seniorzy powinni znać również narzędzia ETL, które wspomagają pozyskiwanie, przekształcanie i ładowanie danych do hurtowni.

Wiedza i doświadczenie

Istotne jest podnoszenie własnych kompetencji i poznawanie nowych narzędzi, które pozwalają nadążać za szybkim rozwojem data science. To sprzyja wypracowywaniu nowych modeli biznesowych. Seniorom w pracy przyda się nie tylko wcześniejsze doświadczenie (zwykle co najmniej 3-letnie) w data science, ale również branżowe – pracodawcy zwracają uwagę na tematykę poprzednich projektów i sygnalizują, że chętnie zatrudniliby kogoś, kto dobrze odnajduje się w konkretnym obszarze, takimi jak przemysł, marketing, ochrona zdrowia czy edukacja.

Dobrze też, gdy kandydat na stanowisko senior data scientist, który wdraża algorytmy uczenia maszynowego, może pochwalić się wcześniejszą praktyką w dziedzinie eksploracji i czyszczenia danych. Przydatna jest znajomość zagadnień związanych z big data i platformami programistycznymi, takich jak Spark, Hadoop czy Hive przeznaczony dla hurtowni danych. Cenne są także umiejętności w operowaniu jak największym wachlarzem typów danych – zarówno ustrukturyzowanych, jak i nieustrukturyzowanych, z czym wiąże się wiedza z zakresu jezior danych (ang. data lakes). Dodatkową zaletą jest obycie w platformach chmurowych, głównie Microsoft Azure i Amazon Web Services.

Znajomość języków (nie tylko) programowania

Języki programowania, które najczęściej pojawiają się w ofertach pracy dla senior data scientistów, to: Python, R i SAS. Wymogi odnośnie do pierwszego często idą w parze z takimi bibliotekami jak scikit-learn, NumPy, Pandas, PyTorch, Matplotlib, a także seaborn. Kolejno na liście są Java, Scala oraz SQL. Warto zwrócić uwagę, że w tym zakresie nie ma miejsca na braki – pracodawcy wymagają biegłości. Jeśli chodzi o języki obce, w ogłoszeniach dominuje angielski i to co najmniej na poziomie B2, czyli średniozaawansowanym.

– Neural rendering otworzy większe możliwości dla rozwoju animacji. Aby powstał zaawansowany technologicznie film animowany potrzeba dziś innowacyjnej, wyspecjalizowanej firmy. Jak również potężnych zasobów kadrowych i finansowych. Natomiast w momencie, gdy jesteśmy w stanie zrobić parę zdjęć pokoju i wygenerować model 3D o wysokiej jakości, to tylko wyobraźnia nas ogranicza – uważa Mateusz Wyszyński z Uczelni Łazarskiego.

Mateusz Wyszyński jest analitykiem danych i popularyzatorem data science. Wykłada i opiekuje się zakresem studiów Data Science na Uczelni Łazarskiego w Warszawie. Mając szeroką wiedzę z fizyki i matematyki, zainteresował się wykorzystaniem sieci neuronowych do tzw. renderowania zdjęć i realistycznych scen 3D – dziedziną o nazwie neural rendering. Mateusz to ekspert w obszarze nauczania o technologiach, statystyce i programowaniu. Pracuje też nad doktoratem na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego.

Renderowanie to jeden z końcowych etapów tworzenia wizualizacji. Wiemy, że to proces, w którym program 3D przerysowuje zapisane informacje na dwuwymiarową scenę (zdjęcie lub film). Czyli przekształca trójwymiarowy model sceny na konkretny obraz. Czym jest natomiast neural rendering?

To wykorzystanie głębokich sieci neuronowych do renderowania nowych zdjęć lub filmów w sposób, który umożliwia zmienianie wspomnianych scen przy użyciu interpretowalnych parametrów. Innymi słowy, można to nazwać wyobraźnią przestrzenną lub obrazową. Najlepszym przykładem jest tzw. novel view synthesis – generowanie nowych widoków obiektu, który widzieliśmy jak dotąd tylko z jakiejś perspektywy.

Jak to działa?

Załóżmy, że patrzymy na samochód od strony lewego przedniego koła. Mimo że nie widzieliśmy jeszcze nigdy jego pozostałej części, to możemy sobie wyobrazić, jak wyglądałby, gdybyśmy stali zupełnie po przeciwnej stronie. Wynika to z faktu, że ludzki umysł potrafi „wygenerować” taki trójwymiarowy model samochodu na podstawie kilku dotychczas widzianych perspektyw. Dzięki tej umiejętności jesteśmy w stanie stworzyć całkowicie nowy obraz na podstawie niepełnego modelu.

Od jak dawna zajmuje się Pan tym obszarem?

Wypracowuję od kilku miesięcy temat doktoratu na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. Ma on dotyczyć robotyki i wykorzystywać właśnie technologię neural rendering. Jest to bardzo innowacyjne podejście do grafiki komputerowej (ang. computer graphics). Moja wiedza z matematyki i z fizyki na pewno pomaga mi odnaleźć się w tym temacie.

Czy możemy zdefiniować różnice między neural rendering a renderowaniem trójwymiarowym?

Neural rendering jest próbą osiągnięcia podobnych zastosowań i efektów, które możemy realizować przy pomocy klasycznej grafiki komputerowej. Po prostu w tym procesie angażujemy też sieci neuronowe czy bardziej ogólnie algorytmy uczenia maszynowego. W przypadku klasycznego computer graphics generujemy lub właśnie renderujemy konkretne sceny filmu, wykorzystując trójwymiarowe modele scen utworzone przez grafików. Proces przygotowania takich modeli jest kosztowny i czasochłonny. W przypadku neural rendering proces ten zostaje zautomatyzowany – sieć neuronowa uczy się modelu 3D, na przykład na podstawie zdjęć jakiegoś obiektu. Oczywiście jest to tylko przykładowe rozwiązanie z obszaru neural rendering. Dziedzina jest szeroka i różne firmy oraz zespoły badawcze mają wiele pomysłów na usprawnienie renderowania przy pomocy algorytmów uczenia maszynowego.

Jak zatem możemy opisywać te trójwymiarowe modele?

Na różne sposoby. W klasycznym computer graphics używa się na przykład tzw. meshes (połączonych trójkątów, które składają się na cały trójwymiarowy model obiektu). Zbiór takich trójkątów tworzy pewną powierzchnię. Mając taką strukturę, możemy dodawać wszystkim punktom na powierzchni określone właściwości – np. kolor lub gęstość. Czyli tworzymy funkcję, która przypisuje każdemu punktowi w przestrzeni pewien zbiór własności. Na przykład gęstość odpowiada nam na pytanie, czy w przestrzeni w ogóle coś jest i ile tego tam jest – to jest kluczowe przy renderowaniu. Do tej pory taki trójwymiarowy model musiał ktoś przygotować.

Jeśli spojrzymy na ten problem z perspektywy celu, który chcemy osiągnąć, to tak naprawdę interesuje nas stworzenie funkcji, która będzie przypisywać punktom w przestrzeni interesujące nas własności. Nie interesuje nas, czy będzie to zrobione przy pomocy wspomnianych meshes czy w inny sposób. Skoro tak, to takiej funkcji możemy się nauczyć. I tak na przykład w przypadku algorytmu NeRF – neural radiance fields – wszystko działa w oparciu o sieć neuronową, która uczy się być tą funkcją. Innymi słowy uczy się przypisywać punktom w przestrzeni wybrane własności – w przypadku NeRF jest to właśnie kolor i gęstość.

A zatem neural rendering to zasób narzędzi, gdzie na jakimś etapie zastępujemy dowolny element renderowania czy tworzenia modelu 3D, wykorzystując uczenie maszynowe.

Z punktu widzenia laika to proces dosyć skomplikowany. Pewnie padają pytania, na ile on jest skuteczny i co ze sobą niesie?

Neural rendering ma wiele zalet. Proszę zauważyć, że sam proces produkcji grafiki jest czasochłonny i kosztowny, więc każda idea automatyzacji tworzenia modeli 3D i renderowania jest kluczowa. Nie tylko w obszarze robotyki, nad którym pracuję. Przede wszystkim z punktu widzenia firm, które tworzą animacje 3D. Za możliwością przyspieszenia czy usprawnienia takich procesów stoją olbrzymie oszczędności. Przede wszystkim czasu, ale także pieniędzy przeznaczanych na często żmudną pracę. Dzięki neural rendering te zasoby mogą zostać poświęcone na bardziej kreatywną część pracy lub dać możliwości instytucjom, których dziś na tworzenie różnych projektów nie stać.

Co więcej, trójwymiarowe modele jakiejkolwiek struktury zajmują bardzo dużo pamięci. Okazuje się, że modele oparte na algorytmach uczenia maszynowego, jak choćby wspominany NeRF, zajmują czasem mniej pamięci niż zdjęcia, z których były wygenerowane. Dzięki temu można przechowywać tylko tyle informacji, ile potrzeba. Dzieje się tak dlatego, że na wielu analizowanych zdjęciach jest podobna informacja, a sieć neuronowa potrafi wyciągnąć tylko kluczowe dane dla stworzenia modelu. To kolejna potencjalna korzyść.

Wspomniał Pan o robotyce. Jak te technologie mogłyby przyspieszać pracę w tej dziedzinie?

Robot musi w szybki i skuteczny sposób modelować środowisko, z którym ma do czynienia. Człowiek nie może tego zawsze robić za maszynę. Robot musi generować modele sam na podstawie tego, co widzi. Zwróćmy uwagę, że taki robot, tak jak zresztą i człowiek, odbiera obraz, a nie trójwymiarowy model. Natomiast żeby dobrze działać, musi wytworzyć dobry model trójwymiarowy. Aby proces przebiegał szybko i skutecznie, nie może to trwać zbyt długo. Rozwiązania z obszaru neural rendering wydają się w znacznym stopniu adresować te problemy.

Przede wszystkim potrzeba tu danych. Czy są one specyficzne dla tego rodzaju technologii graficznych?

W renderowaniu najczęściej mamy do czynienia z różnorodnymi zbiorami danych. Idea jest taka, że nie mamy wpływu na to, jakie dane chcemy przetwarzać, jakie obrazy widzimy. Mogą one przedstawiać bardzo różne obiekty i sceny. Co więcej nie zawsze będą to filmy czy zdjęcia wysokiej jakości. Neural rendering powinien oferować przydatne rozwiązania niezależnie od specyfiki problemu. Modele powinny być na tyle uniwersalne, aby radzić sobie z różnymi sytuacjami.

Natomiast jeśli firmy zaczną działać już w konkretnej branży i wyspecjalizują się w produkcji określonych rozwiązań, to może się pojawić konieczność dostarczania bardziej dopasowanych danych.

Z jakich narzędzi korzysta Pan w pracy?

Pierwsze narzędzie raczej nikogo nie zdziwi: Python. Z konkretnych pakietów pewnie warto tu wymienić PyTorch. Z kolei narzędzie bardziej branżowe, które jest mocno wykorzystywane w neural rendering, to CUDA. To specjalny język napisany dla Nvidia, który wspiera działania w obszarze machine learning przy pomocy kart graficznych tej firmy. Warto wiedzieć, że karty graficzne potrafią równolegle wykonywać o wiele więcej procesów niż np. standardowe procesory (ang. CPU).

W jakich obszarach będzie można to wykorzystywać? Wiadomo już o zainteresowanych firmach?

Potencjalnych zastosowań jest co najmniej tyle, ile ma współczesne computer graphics. Wspomniane już firmy tworzące animacje są bardzo zainteresowane tą technologią, bo byłoby to dla nich olbrzymie zmniejszenie kosztów produkcji. Wszelkie dziedziny, w których potrzebna jest szybka interakcja z zewnętrznym środowiskiem na bazie obrazu, to kolejny ogromny obszar zastosowań. Przykładem jest robotyka, gdzie potrzebujemy maszyn, które będą mogły szybko oceniać otaczającą ich rzeczywistość i podejmować na podstawie tej oceny decyzje, wykonywać akcje.

Jednocześnie podejrzewam, że obszarów może być więcej, choć sama dziedzina jest na tyle nowa, że nadal prowadzone są prace w kierunku znalezienia tych zastosowań bezpośrednio w nauce czy biznesie. To się w zasadzie jeszcze nie ugruntowało. Najstarsze dokumenty badawcze, do których się podczas tej rozmowy odnoszę, są sprzed dwóch lat. Mówimy o całkiem młodej dziedzinie.

Oczywiście nie są to rozwiązania tworzone wyłącznie przez szalonych naukowców w przysłowiowych „piwnicach”. Pracują w tej dziedzinie eksperci z wielkich światowych koncernów jak choćby wspomniana Nvidia, ale też Facebook czy Google. Natomiast miejsce, gdzie to się przynajmniej na początku skomercjalizuje, to przede wszystkim produkcja filmów, gier i animacji.

Czy neural rendering to obszar trudniejszy, niż to, czym się do niedawna jeszcze Pan zajmował jako analityk danych?

Trudno powiedzieć. Na pewno jest trochę inny. Nietypowe jest na przykład podejście do uczenia modeli. Posłużę się tu znanym przykładem rozpoznawania zdjęć kotów i psów za pomocą machine learning. Zazwyczaj przy machine learning mamy zbiór wielu obiektów, w tym przypadku zdjęć kotów i psów. Uczymy się później czegoś na temat struktury w tym wielkim zbiorze – w tym przypadku rozpoznawania tego, na którym zdjęciu są koty, a na którym są psy. W przypadku neural rendering w tej chwili jest nieco inaczej: uczymy model jednej konkretnej sceny. Masz kota i kilka jego zdjęć? Na tej podstawie model ma się nauczyć modelu tego jednego kota. Trudno powiedzieć, czy jest to trudniejsze, czy łatwiejsze, ale wymusza trochę inne myślenie. Oczywiście docelowo pojawiać się będzie co raz więcej rozwiązań mających na celu generalizowanie takich modeli.

Zdecydował się Pan na pracę nad projektem z obszaru neural rendering. Dlaczego?

Od zawsze towarzyszyła mi chęć tworzenia nauki i rzucania sobie wyzwań intelektualnych. Zacząłem poszukiwać, gdzie na polskich uczelniach mógłbym zająć się czymś ciekawym, trudnym i pionierskim. Postanowiłem najpierw poszukać na moim macierzystym wydziale, gdzie przeżyłem wspaniałe 5 lat studiów, czyli na Wydziale Matematyki UW. Tam znalazłem lab zajmujący się robotyką. Miałem przyjrzeć się tematowi neural renderingu. Ten obszar na tyle mnie zaciekawił, że postanowiłem szukać tematu na doktorat w ramach tej dziedziny.

Poza wyzwaniem intelektualnym podoba mi się to przecięcie tematów matematyczno-informatyczno-fizycznych. Podobnie jak w samej robotyce, dla mnie łatwe jest przełożenie pewnych trudnych nawet kwestii i problemów na fizykę.

Podałby Pan taki przykład?

W przypadku renderingu kluczowe jest stworzenie modelu, którego celem będzie wygenerowanie dobrej jakości obrazu. Fizyczna wiedza pozwala zrozumieć, od czego taki obraz zależy w przypadku rzeczywistej kamery. Taką wiedzę można później wykorzystać jako inspirację przy tworzeniu czy analizowaniu istniejących już algorytmów.

Możemy to zobaczyć na przykładzie. Zastanówmy się, jak powstaje zdjęcie w aparacie. Mamy promień światła, który odbija się od jakiegoś punktu w przestrzeni i trafia do obiektywu. W zależności od tego, ile energii będzie miał na początku ten promień, ile jej wytraci po drodze oraz jaki kolor światła niesie, tak nagrzeje się odpowiedni piksel.

Przy renderowaniu za pomocą algorytmu NeRF idea jest podobna, tylko promienie są wirtualne – wyobrażamy je sobie. Podczas uczenia próbujemy dowiedzieć się, jak jest rozłożona gęstość w przestrzeni. Jeśli gęstość jest większa w danym miejscu, to tam odbija się więcej światła. Również to, jak gęstość rozłożona jest po drodze od tego miejsca do kamery, zadecyduje, ile energii promień straci po drodze. Mając taką gęstość, możemy sobie wyobrazić wirtualny promień światła i wydedukować, jak powinien się nagrzać wybrany piksel. To czysta fizyka. Wykorzystywane tam formuły matematyczne opowiadają dokładnie tę historię. Takie zrozumienie zachodzących procesów znacznie ułatwia mi zrozumienie samych algorytmów.

A jak wygląda Pana praca nad projektem w ramach doktoratu?

Na razie mamy więcej pracy na poziomie koncepcyjnym i poszukiwań. Na ten moment przeglądam istniejące już modele. Staramy się znaleźć jakiś ciekawy temat.

Czy możemy powiedzieć dziś, że neural rendering to technologia już skuteczna?

Moim zdaniem algorytm NeRF, o którym już wspominałem, robi bardzo duże wrażenie. Z małej liczby zdjęć można tworzyć bardzo realistyczny filmik z pełną gamą szczegółów. Technologia więc działa. Pytanie, jak to usprawnić, aby było to szybkie i możliwe do przetłumaczenia czy konwersji na inne, standardowe modele computer graphics.

Firmy takie jak Facebook na pewno chciałyby wykorzystywać tę technologię chociażby w obszarze metaverse. Z kolei koncerny pokroju Disney widzą tu potencjał do bardziej efektywnego tworzenia dużej liczby animacji.

W którym kierunku pójdzie ta technologia? Czego możemy się po niej spodziewać?

Moim zdaniem neural rendering otworzy większe możliwości dla robienia zaawansowanych animacji dla szerszej grupy osób. To na początek. Dziś, aby stworzyć zaawansowany technologicznie film animowany, trzeba mieć innowacyjną, wyspecjalizowaną firmę. Jak również potężne zasoby kadrowe, finansowe. W momencie, kiedy jesteśmy w stanie zrobić parę zdjęć pokoju i wygenerować model 3D o wysokiej jakości, to już tylko wyobraźnia nas ogranicza.

Data science zmienia sposób, w jaki podchodzimy do wytwarzania – od projektowania linii produkcyjnych i towarów po zarządzanie dystrybucją. Warunkiem skutecznego korzystania z analiz i algorytmów są poprawne i odpowiednio zebrane dane, które napędzają cyfrową transformację firm produkcyjnych. Sprawdźmy, w jaki sposób przedsiębiorstwa mogą wykorzystywać informacje płynące z bitów.

Po raz pierwszy o sztucznej inteligencji i badaniach nad problemami „myślących maszyn” świat usłyszał w latach 50. ubiegłego wieku, kiedy John McCarthy ze współpracownikami zawnioskował o finansowanie dwumiesięcznych prac nad koncepcją programów imitujących ludzką inteligencję. Po okresie nadziei na powodzenie w dziedzinie maszyn myślących, w latach 70. nastała tzw. zima AI. Jednak i ta minęła wraz z rozwojem mocy obliczeniowej z jednej strony i wytwarzaniem coraz większych ilości danych z drugiej. W przemyśle sztuczna inteligencja zawitała na przełomie lat 70. i 80., kiedy algorytmy były stosowane w oprogramowaniu sterującym robotami. Obecnie dane są podstawą cyfrowej gospodarki, a ich analizę i wykorzystanie przez uczenie maszynowe uznaje się za jeden z głównych elementów rewolucji data science w przemyśle.

Powstawanie nowych produktów

Algorytmy uczenia maszynowego mogą posłużyć do projektowania nowych wyrobów. Wykorzystuje się je m.in. w projektowaniu generatywnym, czyli procesie, w którym program komputerowy przygotowuje propozycje produktów, bazując na informacjach dotyczących materiałów, dostępnych metod czy też oczekiwanych parametrów wytrzymałościowych. To pomaga w szybszym tworzeniu prototypów, a tym samym – testowaniu nowych pomysłów i wypuszczaniu towarów na rynek. W tej dziedzinie sztuczna inteligencja dobrze współpracuje z drukiem 3D. Połączenie obu technologii skraca czas projektowania i umożliwia zebranie informacji zwrotnych od potencjalnych klientów.

Zarządzanie produkcją i konserwacja predykcyjna

Kiedy już wiadomo, co produkować, algorytmy wesprą sam proces wytwarzania. Dzięki analizie danych z maszyn produkcyjnych i informacji o pracy przy poszczególnych stanowiskach sztuczna inteligencja może wskazać tzw. wąskie gardła, czyli najmniej sprawne etapy procesów zmniejszające płynność pozostałych. Monitorowanie stanu urządzeń przez AI przydaje się także w wykrywaniu problemów ze sprzętem, jeszcze zanim doprowadzą do przestoju. Na przykład, na podstawie informacji o prawidłowych wartościach drgań i przetwarzaniu bieżących danych z czujników, oprogramowanie może zaalarmować zespół utrzymania ruchu o potrzebie wymiany konkretnego elementu.

Kontrola jakości i bezpieczeństwa

Sprawdzanie poprawności przedmiotów schodzących z taśm produkcyjnych jest czasochłonne i podatne na błędy osób, które po godzinach pracy tracą koncentrację. To zadanie można z powodzeniem powierzyć systemom wizyjnym korzystającym z uczenia maszynowego. Maszyna w ciągu sekundy przetwarza informacje dotyczące kilku lub nawet kilkunastu produktów: sprawdza poprawność etykiety, a także ocenia zgodność przedmiotu ze wzorcem. Innym przykładem zastosowania wizji maszynowej jest poprawa bezpieczeństwa pracy w zakładach produkcyjnych. Urządzenia monitorujące hale sprawdzają m.in., czy ludzie znajdują się w pobliżu niebezpiecznych urządzeń, a nawet – czy mają odpowiednie ubrania ochronne.

Cyfrowe bliźniaki

Dane pochodzące z urządzeń w zakładach przemysłowych można wykorzystać do stworzenia wirtualnych modeli odwzorowujących działanie maszyn, linii produkcyjnych, produktów, a nawet całych fabryk. Cyfrowe bliźniaki (ang. digital twins) służą monitorowaniu działań i stanu urządzeń oraz towarów, ale są także wykorzystywane do przeprowadzania symulacji. Z takim oprogramowaniem przedsiębiorcy mogą np. sprawdzić, czy nowe ustawienie urządzeń zwiększy efektywność działań bez rzeczywistych zmian w fabryce. Z kolei na wirtualnych odpowiednikach produktów można testować zmiany materiałów czy prognozować ich zużycie.

Roboty autonomiczne w wytwarzaniu i intralogistyce

W kontekście braku pracowników, z którym boryka się branża produkcyjna, istotne są roboty przejmujące takie obszary jak sortowanie produktów, pakowanie, spawanie, polerowanie czy lakierowanie. Urządzenia te korzystają z kamer, czujników siły, a także innych sensorów. Oprogramowanie, które steruje robotami, analizuje zbierane informacje, żeby ulepszać pracę maszyn, a także umożliwiać kooperację z ludźmi. Coboty, czyli roboty współpracujące, mogą dzielić przestrzeń z pracownikami firmy, nie narażając ich na niebezpieczeństwo. Przykładowo, urządzenia zwalniają lub zatrzymują się, kiedy w ich pobliżu znajdzie się człowiek. Z kolei autonomiczne maszyny mobilne znajdują zastosowanie w logistyce wewnętrznej – przewożą palety z produktami i dowożą surowce z magazynów do linii produkcyjnych.

Zautomatyzowana robotyzacja procesów

Maszyny przejmują pracochłonne i niesatysfakcjonujące prace fizyczne, ale także działania w innych obszarach. Zrobotyzowana automatyzacja procesów, czyli przekazanie programom czynności wykonywanych wcześniej przez ludzi, jest pomocne w działach zajmujących się zamówieniami, marketingiem czy księgowością. Roboty programowe (ang. software robots) napędzane algorytmami AI mogą przenosić dane pomiędzy aplikacjami, sprawdzać poprawność faktur, porównywać informacje z różnych systemów, jak również planować nowe zamówienia i dystrybucję towarów. Dobrze zaprojektowany system RPA (ang. Robotic Process Automation) pozwoli zaoszczędzić czas, a także uniknąć błędów, które mogłyby się pojawić przy ręcznym przetwarzaniu informacji.

Korzyści z wdrożenia data science w przemyśle

Zbieranie danych analizowanych później przez algorytmy w firmach produkcyjnych przyczynia się do poprawy wydajności wytwarzania, jak również logistyki wewnętrznej i łańcuchów dostaw. Z lepszą efektywnością wiążą się oszczędności i możliwość reinwestowania zysków, a co za tym idzie – zwiększenie konkurencyjności przedsiębiorstwa. Więcej pieniędzy da się wygospodarować za sprawą monitoringu i optymalizacji zużycia mediów. Przejęcie żmudnych zadań od pracowników daje im szansę wykazania się w bardziej wymagających czynnościach oraz czas na podnoszenie kwalifikacji. Stosowanie robotów to dodatkowy plus w postaci ograniczenia liczby popełnianych błędów.

Ryzyka i bariery wdrożeń data science w przemyśle

Mimo zalet z wprowadzania data science w przemyśle przedsiębiorcy powstrzymują się przed wdrożeniami. Wśród powodów wymieniają przede wszystkim brak specjalistów, którzy odpowiednio przygotują i zrealizują strategię stosowania AI. Sygnalizują również, że nie są przygotowani do inwestycji przez brak pieniędzy, a także odpowiednich narzędzi i platform do opracowywania modeli. Kolejne obawy dotyczą zbyt dużej złożoności przedsięwzięć i trudności w skalowaniu rozwiązań. Dodatkowe wątpliwości wiążą się z kwestiami etyki, bezpieczeństwa w zakresie przechowywania i analizy danych oraz zgodności z regulacjami.

– W pracy wykorzystuję bazy danych InStat albo Wyscout. Pozyskany materiał przenoszę do Excela, a następnie do oprogramowania statystycznego. Po zbudowaniu modeli analitycznych dostosowuję je pod poszczególne formacje czy zawodników. Tak, aby na podstawie umiejętności opisanych liczbami mogli w jak najlepszy sposób zrealizować zadania powierzone przez trenera – podkreśla Paweł Chmielowski, analityk sportowy.

Analityka sportowa to obszar, którym Paweł Chmielowski zajmuje się zawodowo od kilkunastu lat. Firmę Analityka Polska – wspierającą kadrę trenerską – założył 12 lat temu. Jest wykładowcą na studiach podyplomowych Menedżer Sportu na Uniwersytecie Ekonomicznym w Poznaniu. Socjolog, przedsiębiorca, specjalista z zakresu badań ilościowych i statystyki. Pracował dla klubów sportowych, wspierając działy analiz i scoutingu.

Analityka sportowa bardzo często kojarzona jest z futbolem amerykańskim. To tam pojawiło się pionierskie wykorzystanie metod analitycznych?

Nie tak od razu. Wszystko zaczęło się od nauki statystycznej nazywanej sabermetrią, która pojawiła się jako jedna z metod analitycznych w baseballu. Następnie przeniosła się na inne amerykańskie sporty, w tym futbol amerykański i koszykówkę.

Ciekawy przykład tego zjawiska pokazuje hollywoodzka kinematografia. Szczególnie polecam obejrzenie filmu pt. „Moneyball” z Bradem Pittem. Jest oparty na faktach i opowiada historię postaci autentycznej – Billy’ego Beane’a, menedżera klubu Oakland Athletics. Przejął on klub w totalnym rozkładzie. Z drużyny zaczęli odchodzić najlepsi zawodnicy, zespół popadł w długi. Pitt, grający Beane’a, postanawia zrezygnować z tradycyjnych metod prowadzenia drużyny i wykorzystać nowe analizy komputerowe.

W tym celu zatrudnił on analityka z Yale, który stworzył specjalny model doboru zawodników do drużyny. Byli to gracze niebrani pod uwagę przez inne kluby, ale każdy z nich miał jakąś cechę na wybitnym poziomie. Na zasadzie synergii stworzono zespół, który zawojował ligę. Owszem, film jest trochę przekoloryzowany, ale na bazie takich właśnie historii powstała nauka nazywana sabermetrią.

A jak się pojawiło to Pana zainteresowanie danymi w sporcie?

Na początku była pasja. Zawsze byłem blisko sportu – najpierw jako kibic, później jako analityk. Kocham liczby i od najmłodszych lat próbowałem wejść w tę rzeczywistość. Cieszę się, że udało mi się dotrzeć do osób, których analityka sportowa interesowała w nieco innym wymiarze. Dodatkowo film „Moneyball” i sabermetria wywarły na mnie spore wrażenie. Moim marzeniem jest tę sabermetrię rozpowszechnić w polskim sporcie. Mam nadzieję, że mi się to uda.

Jest Pan jednym z pionierów takich działań w naszym kraju. Jak to się zaczęło?

Nie nazwałbym się pionierem, bo brzmi to trochę nad wyraz. Trzeba jednak przyznać, że w Polsce tego typu rozwiązania na razie raczkują, a ja zaczynałem jako jeden z pierwszych. Kiedy wiele lat temu pomagałem przy jednym z zespołów kobiecych piłki koszykowej w Poznaniu, zacząłem bawić się liczbami w takich pobieżnych analizach. Wynikało z nich, że jedna z zawodniczek drużyny przeciwnej pod dużą presją podaje piłki w poprzek boiska. W kluczowym momencie meczu trener wziął moje notatki. Następnie skierował dwie nasze zawodniczki do mocnego krycia tej osoby. Z kolei trzecia z naszych zawodniczek była już przygotowana do przecięcia podania. Udało się przejąć piłkę w sposób, jaki oczekiwaliśmy. Nasz zespół wygrał.

To było zwycięstwo klubu, ale i z pewnością znaczący dla Pana sukces. Rozumiem, że wtedy analityka sportowa zaczęła Pana interesować w dużo większym wymiarze?

To był pierwszy moment, kiedy zakochałem się w metodach analitycznych. Stało się tak, ponieważ zauważyłem, że to podejście przynosi namacalne efekty. Zwycięstwo w ważnym meczu na poziomie play-offów dzięki mojej analizie i decyzji trenera stało się faktem.

Jak dużo osób w Polsce może powiedzieć, że analityka sportowa to ich specjalizacja?

Jak na razie niewiele. Jakiś czas temu kończyłem studia podyplomowe u dr. Łukasza Panfila, który prowadzi uczelnię we Wrocławiu. Kierunek studiów to „Analityka gry sportowej”, ale – co ciekawe – nie spotkałem tam nikogo, kto zajmowałby się liczbami w sporcie. Także trener i analityk Andrzej Gomołysek, który pracował w Śląsku Wrocław, wykorzystuje nieco inne metody niż ja w swoich analizach.

I jak Pan ocenia tę współpracę po doświadczeniu pracy w wielu klubach?

Z analityką próbowałem się przebić w różnych miejscach, m.in. w Lechu Poznań. Pracowaliśmy tam przy określaniu modelu gry i ocenie zawodników, którzy mają przychodzić do klubu. Natomiast należy pamiętać, że w piłce nożnej nadal dominuje wyczucie lub instynkt skauta, a nie twarde liczby.

Wyjątkiem w mojej karierze okazała się współpraca z trenerem Piotrem Tworkiem z Warty Poznań. Sztab i ówczesny dyrektor sportowy mi bardzo zaufali, dzięki czemu na każdy mecz udało się tworzyć modele, przygotowane pod danych przeciwników. W efekcie Warcie, która miała potencjał na środek tabeli I ligi, udało się w barażach awansować do Ekstraklasy.

Co polskie kluby myślą o takich przedsięwzięciach? Trenerzy mają raczej własny obraz drużyny, a tu nagle ktoś przychodzi z wnioskami na bazie danych analitycznych…

Nie chcę powiedzieć, że zawsze niechętnie, ponieważ jest kilka drużyn mocno wykorzystujących dane w swojej działalności sportowej – Lech Poznań, Legia Warszawa, wspomniana Warta. Natomiast jeśli chodzi o taką analitykę twardą, to myślę, że w Polsce jeszcze do końca tego nie ma. Oczywiście jest pewne oprogramowanie, które pomaga opisywać liczbowo dane sytuacje w meczu, przygotowywać się do spotkań. Natomiast ten obszar nadal kuleje.

Czasem jest to kwestia doświadczenia i wiedzy analityka, umiejętności jej przekazania czy nawet transformacji danych na pewne propozycje dla trenera. Nadal nie ma tej świadomości liczb w polskich zespołach sportowych, w tym w piłce nożnej. Poza tym dalej analiza jakościowa dominuje nad analizą ilościową. A rzetelną wiedzę można osiągnąć z tzw. triangulacji danych, czyli zwielokrotnienia źródeł. Na zachodzie to jest codzienność, w Polsce takie myślenie o danych dopiero się pojawia.

Jak analityka sportowa kształtuje codzienne obowiązki specjalistów?

Analitycy w sporcie nie są nowością, musimy o tym pamiętać. Od lat pracują w różnych zespołach i wielu dziedzinach sportu. Efekty ich pracy doskonale widać w siatkówce, kiedy siedzą podczas meczu nad zapisanymi kartkami czy wprowadzają nowe dane do komputera. Jeśli chodzi o siatkówkę, baseball czy futbol amerykański sprawa jest o tyle prostsza, bo dyscypliny te złożone są w zasadzie ze stałych fragmentów gry. W innych sportach drużynowych takich jak piłka nożna czy koszykówka jest dużo interakcji, przypadkowości, które bardzo trudno opisać liczbami. Zawsze występuje ta niewiadoma, która w jakiś sposób może zaburzyć analizę.

Dobra, to załóżmy, że już ma Pan wszystkie niezbędne dane. Co dalej można z nimi zrobić?

Można tworzyć prospekty, czyli analizę młodych zawodników. Niestety w tym przypadku problemem jest opis liczbowy. Dlatego cały proces polega na obserwacji i doświadczeniu skautów. Natomiast jeśli chodzi o sprowadzanie zawodników do klubu, którzy już są na rynku, zostali dobrze „opisani” i dotknęli tej piłki zawodowej, to wystarczy stworzyć odpowiednie modele gry, aby idealnie dopasowywać poszczególne elementy układanki.

W jaki sposób?

Załóżmy, że trener czy dyrektor sportowy mówi, że brakuje mu środkowego pomocnika. Wtedy ja jestem w stanie mu go dostarczyć. Na podstawie rozmów z trenerem i ustalenia odpowiedniego modelu wytypować takich zawodników, którzy idealnie będą pasowali do drużyny.

Staramy się również w trakcie takiej analizy statystycznej przeprowadzać testy psychologiczne. Wprowadzając gracza do drużyny, automatycznie dostaje on pakiet badań psychologicznych przez nas przygotowanych. Dzięki temu wiemy, że nie rozbije szatni od wewnątrz, dopasuje się do teamu i w odpowiedni sposób zareaguje na nowe środowisko.

W jakim stopniu możemy kreować politykę klubu i decyzje podejmowane przez trenera czy prezesa za pomocą danych?

Można stworzyć modele, które w odpowiedni sposób zwiększają prawdopodobieństwo tego, czy dany zawodnik zaskoczy w drużynie, czy będzie się rozwijał. Ciekawym przykładem jest klub Ajax Amsterdam, który słynie z „produkcji zawodników” i przez pewien czas oceniano ich np. na podstawie uwarunkowań fizycznych. Zestawiano zawodników z legendami klubu i biorąc pod uwagę proporcje ciała, podobny wzrost i wagę, wskazywano piłkarza jako np. lewego pomocnika, obrońcę, napastnika itd. Życie pokazało, że to się sprawdza. Natomiast trzeba wiedzieć, że za tym działaniem Ajaxu stoi dogłębna analiza danych swoich wychowanków plus odpowiedni model treningowy. Dane mogą kreować politykę klubu dużo bardziej, niż myślą o tym działacze czy trenerzy.

Z jakich narzędzi na co dzień korzysta analityk sportowy?

Ja przede wszystkim wykorzystuję bazy danych InStat albo Wyscout. To międzynarodowe firmy zajmujące się analizą wyników sportowych i dostarczaniem danych o zawodnikach, drużynach, ich potencjale. Pozyskany w ten sposób materiał przenoszę do Excela, a następnie z Excela do oprogramowania statystycznego. Na tej bazie buduję modele analityczne, począwszy od samej regresji. Następnie tworzę modele pod poszczególne formacje czy zawodników, dopasowuję ich do uprzednio stworzonych modeli. W taki sposób, by na podstawie umiejętności opisanych liczbami mogli w jak najlepszy sposób zrealizować zadania, które powierzy im trener.

Ten etap ma miejsce przed meczem?

Tak, natomiast po meczu powinna następować dodatkowa analiza, która jest przekazywana trenerowi. Ten przed kolejnym meczem nanosi odpowiednie poprawki, tak żeby nasze ewentualne rekomendacje znalazły się w treningu pod danego przeciwnika. Po meczu następuje też ewaluacja tego, co zrobiliśmy, a potem kolejna analiza pod kolejny mecz. Nie brzmi to aż tak mocno skomplikowanie, ponieważ skomplikowane nie jest. Natomiast kluczowy jest rytm pracy, aby był nieprzerwany i aby trener ufał swojemu analitykowi.

A co w takim razie ze statystykami?

Dla większości osób w sporcie analityka jest tożsama ze statystykami opisowymi. Wiadomo, że za tymi procentami kryje się dużo informacji, które należy pogłębić. Jednak same procenty mogą mylić. W sporcie zawodowym tego typu przekłamania oparte na procentach wynikających z danych statystycznych burzą zaufanie do analityki danych. Trzeba na to uważać.

Wspomniał Pan o programach dostarczających dane. Natomiast na Zachodzie wykorzystuje się szereg rozwiązań technologicznych, dzięki którym możemy mieć jeszcze więcej danych i lepiej je analizować.

Nie tylko na Zachodzie, w Polsce również. Przecież dane do oprogramowania typu InStat czy Wyscout nie pochodzą ze statystyk czy widzimisię analityka. Opierają się m.in. na automatycznym video trackingu. Dodatkowo zawodnicy często mają założone kamizelki, które w odpowiedni sposób oceniają szybkość, miejsce poruszania się na boisku, przyspieszenia, czas w poszczególnych etapach biegu. Takich danych jest naprawdę mnóstwo.

Miałem przyjemność uczestniczyć w zajęciach na studiach podyplomowych przy klubie FC Barcelona z analityki gry. Muszę przyznać, że kluby zachodnie w szerokim wymiarze wykorzystują takie innowacyjne narzędzia do pozyskiwania danych dla siebie. Na bazie video trackingu można skutecznie określać w dosyć automatyczny sposób pewne zachowania zawodników. Może nie pojedynczych, ale formacji. Dowiadujemy się dzięki temu, w jaki sposób te formacje się zachowują, jak się ustawiają, gdzie pozostawiają wolne miejsca, w jaki sposób powinny się ustawić, by tych wolnych miejsc dla drużyny przeciwnej było jak najmniej.

Co ciekawe, podobne rozwiązania są stosowane także m.in. w Lechu Poznań. W ogóle działacze tej drużyny bardzo pomysłowo podchodzą do wykorzystania liczb. Klub nawet przyciągnął do swojej akademii naukowców z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Dzięki temu mogą w odpowiedni sposób przygotowywać zawodników do gry czy odkrywać talenty. Po to, aby wesprzeć pracę trenera z liczbami. Myślę, że Lech Poznań wyróżnia się na tle naszej piłkarskiej Polski i życzyłbym sobie, aby więcej klubów szło w tym kierunku.

Dlaczego analityka sportowa wciąż interesuje tak niewiele klubów?

Niestety wiele z nich nie widzi potrzeby zatrudniania osób od danych. To jest w gradacji klubu na bardzo odległym miejscu. Bardzo często sam trener lub jego asystenci przeprowadzają analizę danych. Jeśli są jacyś analitycy w klubie, to w większości opierają swoje dane na procentach czy na tabelach krzyżowych. Nie drążą tych danych głębiej, nie badają ich, nie dokonują ewaluacji. Przez to czasami te wdrożenia wniosków nie są do końca skuteczne.

Może problem tkwi też w mentalności trenerów?

Powiem tak: trener zawodowego klubu piłkarskiego powinien mieć przede wszystkim wizję i otaczać się osobami, które tę wizję będą pomagały mu realizować. Jeśli tego nie ma, nie ma analizy danych w klubie sportowym. Takie kluby jak Manchester City czy Liverpool mają swoje małe wydziały naukowe, gdzie pracują matematycy, fizycy, chemicy. Obserwują oni zawodników w trakcie treningu i potrafią ocenić nawet ryzyko wystąpienia kontuzji.

W Polsce brakuje mi tego, by w klubach pracowali naukowcy. Danych jest tak dużo, że asystenci trenerów nie są w stanie sami ich sortować. Często do głównego sztabu i do pierwszego trenera dociera niewielki wycinek danych. Albo odwrotnie – informacji jest tak wiele, że zawodnicy nie są w stanie ich przyswoić. Nie da się wdrożyć wszystkich rekomendacji w czasie meczu. Weźmy jeszcze pod uwagę, że występują emocje, naturalne zachowania zawodników, które blokują albo uniemożliwiają wypełnianie tych założeń. Do momentu, kiedy nauka nie wjedzie bardzo mocno w polską piłkę, to będziemy cały czas w tyle za Europą Zachodnią.

Jakich trudności przysparzają dane w branży sportowej i na co trzeba uważać?

W tych obszarach, o których rozmawiamy, danych jest naprawdę sporo i w odpowiedni sposób można już nimi zarządzać. Problemem jest to, że nadal nie można ich wyeksportować w całości w większych, podzielonych już klastrach. Wskazywałem też na brak świadomości i zaufania do liczb, także do analizy ilościowej. Oczywiście z zastrzeżeniem, że nie stawiałbym analizy ilościowej nad analizę jakościową. Konieczne jest jedno i drugie.

Nie możemy się również opierać wyłącznie na statystykach opisowych. Konieczne jest porządne i uczciwe modelowanie danych. Jeśli chodzi o analizę danych dotyczących kibiców, to przede wszystkim wyzwaniem jest pozyskiwanie danych i ich jakość. W większości klubów nie ma baz danych kibiców, na podstawie których można takie analizy prowadzić i trzeba trochę „szyć”, podobnie jak ma to miejsce w badaniach społecznych.

Czy analityka sportowa przyszłości to sztaby data scientistów, czy raczej aplikacja z interfejsem i modelem subskrypcyjnym?

Nawet jeżeli pojawiłyby się subskrypcje i oprogramowanie, to i tak do oceny końcowych efektów potrzebny jest człowiek, który zna specyfikę klubu. Nie chciałbym, żebyśmy mieli do czynienia z wojną botów do obsługi i analizy danych zawodników. Elementy ludzkie są ważne i przyciągają kibiców na stadiony.

Ciekawym przykładem przyszłości analityki sportowej jest duński klub FC Midtjylland, który poświęcił wszystko analityce. Tam każdy aspekt zarządzania klubem oparty jest na pogłębionych analizach danych. Co ciekawe, dzięki tym działaniom klub potrafił trochę zamieszać w tej średniej, europejskiej piłce. Zatrudniali piłkarzy, których teoretycznie nikt nie chciał u siebie w drużynie, a oni stworzyli modele, gdzie ci zawodnicy się niesamowicie rozwijali i dawali w grze dużą wartość.

Czyli powtórka z „Moneyball”?

Można tak powiedzieć. FC Midtjylland jest przykładem skrajnego wykorzystania analizy danych. Warto pamiętać, że same liczby nie osiągną sukcesu. Potrzebujemy również jakościowej analizy.

Zatem na jak dużą skalę analityka sportowa będzie wykorzystywana w przyszłości?

Mądry trener musi korzystać ze sztabu. W nim powinien być pierwszy, drugi trener, trenerzy bramkarzy, trenerzy od stałych fragmentów gry, analitycy. Najlepiej, żeby to byli analitycy od poszczególnych elementów, tak żeby jeden skupiał się np. na stałych fragmentach, inny na wyprowadzeniu piłki, jeszcze inny na obronie.

Dzięki temu, że będą skupieni tylko na jednym, maksymalnie dwóch aspektach, potrafią efektywnie nad nimi pracować. Efekty ich pracy później powinny spływać do asystentów. Jako łącznicy pomiędzy data scientistami a trenerami odgrywają bardzo ważną rolę. Muszą bowiem przesiewać informacje od analityków i mieć też wiedzę z tego zakresu. Liczę na to, że w przyszłości w każdym klubie będzie przynajmniej jeden data scientist pracujący na co dzień z danymi tylko dla tego klubu.

Udostępnij link

https://www.datasciencerobie.pl/analityka-sportowa-od-kartek-do-dzialow-naukowych/