— Zaletą analizowania danych behawioralnych jest fakt, że nie wymagają żadnego dodatkowego, specjalistycznego sprzętu, jak np. kamery. Ponadto, jeśli uzyskamy zgodę  użytkownika, takie dane można zbierać podczas jego codziennej pracy. Monitorowanie przebiega w tle, w zupełnie niewidoczny sposób — wyjaśnia dr inż. Agata Kołakowska z Katedry Inteligentnych Systemów Interaktywnych Politechniki Gdańskiej.

Dr inż. Agata Kołakowska jest adiunktem na Wydziale Elektroniki, Telekomunikacji i Informatyki PG. Tematyka prowadzonych przez nią badań dotyczy budowy komputerowych systemów rozpoznawania z uwzględnieniem wszystkich etapów ich powstawania, tj. zbierania i reprezentacji danych, selekcji i ekstrakcji cech, wyboru algorytmu uczenia, właściwego uczenia i testowania systemu. Jednym z obszarów zastosować badanych metod jest biometria, w szczególności wykorzystująca dane behawioralne do weryfikacji tożsamości użytkowników, rozpoznawania emocji oraz wykrywania i monitorowania zaburzeń emocjonalnych lub rozwojowych.

Na czym dokładnie polega biometria?

Chodzi o różnego rodzaju pomiary i analizę cech człowieka. Mogą to być cechy fizyczne, ale też behawioralne. Ja w swojej pracy jestem zainteresowana drugimi z wymienionych. Biometria oparta na cechach fizycznych to np. analiza twarzy, odcisków palca czy geometrii dłoni, znana choćby z bankowości czy systemów bezpieczeństwa. Ale są też dane behawioralne, które opierają się na informacji, w jaki sposób osoba wykonuje pewne czynności.  

Jako ludzie mamy różnorodne umiejętności, style, preferencje, samopoczucie, a od tych kwestii zależy, jak będziemy wykonywać daną czynność. Przykładami danych behawioralnych są: nasz podpis, sposób, w jaki korzystamy z klawiatury, w jaki poruszamy myszką, głos, sposób chodzenia. Należy pamiętać, że są to dane, które jesteśmy w stanie zmieniać, w odróżnieniu choćby do danych fizycznych, które są niezmienne. Za pomocą cech behawioralnych możemy badać także emocje człowieka i nad tym pracuję na co dzień. 

W jakim celu chcemy analizować emocje człowieka?

Jeśli chodzi o rozpoznawanie emocji, to obszar, który od ponad dwudziestu lat jest eksplorowany dość chętnie przez badaczy. Powstała nawet dziedzina nauki nazywana informatyką afektywną, która ma uwzględniać emocje użytkownika. Chodzi nie tylko o to, aby je rozpoznać, ale także reagować na emocje. Powodów poszukiwania narzędzi do rozpoznawania emocji jest sporo. Można je wykorzystać w grach komputerowych, gdzie w zależności od emocji gracza można odpowiednio dopasowywać poziom gry. Także do celów edukacyjnych, gdzie w analogiczny sposób w zależności od emocji podsuwamy uczniom odpowiednie zadania, aby nie zniechęcać ich do nauki, ale żeby też nie ułatwiać zadań. 

Jednym z ciekawych zastosowań jest wykorzystywanie tych narzędzi w komunikacji pomiędzy użytkownikami, którzy wysyłają sobie wiadomości tekstowe. Model na podstawie analizy treści może automatycznie podpowiadać znaki w stylu emotikonów, które sugerują, że na użytkownika oddziałują takie, a nie inne emocje. Niezwykle ciekawym zastosowaniem jest system wspomagający prowadzenie mediacji. Mediator za pomocą odpowiednich narzędzi rozpoznaje ewentualny stres wśród osób, pomiędzy którymi próbuje rozwiązać konflikt.

Do analizy emocji potrzebne są dane. Skąd i jak je pozyskać?

Kamera i mikrofon są podstawowymi źródłami informacji o emocjach, czyli mamy do czynienia z analizą twarzy, mimiki, głosu. Natomiast mniej oczywiste, które stanowią mój obszar zainteresowań, to klawiatura, myszka komputerowa czy ekran dotykowy. Ponadto źródłem wielu danych mogą być czujniki zawarte w urządzeniach mobilnych, jak akcelerometr czy żyroskop, ale także dane lokalizacyjne z GPS-u.

Ja badam właśnie tego rodzaju informacje, zbierane podczas codziennej pracy użytkownika. Na ich podstawie wyznaczam  parametry do analizy. Jeżeli chodzi o klawiaturę, są to różnego rodzaju charakterystyki czasowe i ilościowe.

Proszę podać przykład.

Mierzy się m.in. czas, w jakim klawisz jest wciśnięty, jak również czas pomiędzy wciskaniem kolejnych klawiszy. Te wartości są rejestrowane przez pewien czas i uśredniane, a następnie każda z nich stanowi jeden parametr wejściowy dla modeli, które będą uczone na podstawie tych danych. Mamy też częstotliwościowe charakterystyki, które mówią, jak często ktoś używa konkretnych klawiszy. 

Z kolei jeśli chodzi o myszkę, mamy tu jeszcze większe pole do popisu. To nie tylko kliknięcia dostępnymi klawiszami, na podstawie których można wyznaczyć szybkość klikania lub czas reakcji od najechania na jakiś obiekt na ekranie do kliknięcia, ale także parametry opisujące sposób poruszania myszą. W przypadku ekranów dotykowych możemy zdefiniować wiele parametrów opisujących poszczególne gesty, jak choćby dla skrolowania pionowego jego szybkość, rozmiar i położenie. Ekran dotykowy pozwala ponadto na pomiar siły nacisku.

Na czym polega trudność w zbieraniu takich danych?

Ze względu na to, że do uczenia rozpoznawania emocji stosuje się metody uczenia nadzorowanego, zebrane od użytkownika dane uczące muszą mieć etykiety. Pomimo że mamy próbkę danych zebranych od użytkownika z klawiatury, myszki czy ekranu, musimy wiedzieć, jakiej emocji towarzyszyło pisanie czy rysowanie. Musimy wiedzieć, że w tym czasie użytkownik był przykładowo znudzony albo zły.

Do tego trzeba stworzyć odpowiednie narzędzie, które damy użytkownikowi, aby taką etykietę pozyskać. Dzięki niemu przynajmniej od czasu do czasu będzie mógł nam przekazać, jak się czuł w danym momencie. Ta informacja jest dołączana jako etykieta do próbki danych zebranych z jego urządzenia.

A co, jeśli odpowiednich danych nie mamy od użytkownika, a chcemy analizować styl jego pracy i korelację z odczuwanymi emocjami?

Jeżeli chodzi o rozpoznawanie emocji, to są oczywiście dla badaczy dostępne bazy danych. Najwięcej jest baz zdjęć lub fragmentów wideo. Wśród nich są takie, gdzie emocje są udawane, pozowane. Opisana metoda na pewno nie jest równie skuteczna, jak odwołanie do naturalnych emocji, ale dostępne są również bazy zawierające naturalne obrazy. Bazy z danymi z klawiatury, które mają etykiety, niestety są dużo mniej popularne.

Czyli musimy stworzyć najpierw aplikację do zbierania danych, która od czasu do czasu będzie pobierać dane o użytkowniku. Jak buduje się takie modele?

Po zebraniu odpowiednio dużej liczby próbek danych wraz z etykietami wyznaczamy parametry zależne od źródła danych. W ten sposób surowe dane zebrane za pośrednictwem klawiatury, myszki czy ekranu dotykowego zamienione zostają na tzw. wektory cech. Wektory stanowią dane, na podstawie których uczymy wybrany przez nas model klasyfikacyjny lub regresyjny, wykorzystując do tego celu odpowiedni algorytm uczenia.

Ile takich danych potrzebujemy, aby stworzyć model?

Wiadomo, że im więcej danych zbierzemy, tym lepiej. Najlepsze rezultaty uzyskuje się, jeśli stworzymy dla użytkownika indywidualny system. Innymi słowy, jeżeli dany model nauczymy wyłącznie na podstawie danych pochodzących od jednego użytkownika. Niestety zazwyczaj, danych pochodzących od jednej osoby mamy zbyt mało. 

Dlatego model budujemy na podstawie wszystkich dostępnych danych pochodzących od różnych użytkowników. Z czasem, kiedy informacji na temat konkretnej osoby przybywa, możemy je nieco bardziej profilować, doskonalić, dopasowywać pod kątem jednego użytkownika, na jego urządzeniu. Jeśli odpowiednią ilość danych uda się zebrać, oczywiście jest szansa, że taki system rozpoznający wskazany stan emocjonalny czy kilka stanów uda się nauczyć bardziej skutecznej detekcji. 

Stworzyliśmy model rozpoznawania emocji. Jak on wygląda?

Model rozpoznający emocje zależy m.in. od tego, w jaki sposób reprezentujemy emocje. Są dwa podstawowe sposoby reprezentacji emocji. Pierwszy to model dyskretny, w którym mamy zdefiniowanych kilka stanów emocjonalnych. Wybieramy emocje, które nas interesują, i przeprowadzamy uczenie dla tych emocji. Drugi rodzaj to model przestrzenny, w którym emocje są reprezentowane za pomocą trzech składowych. Jedna wartość mówi, czy to emocja pozytywna, czy negatywna. Druga składowa mówi o pobudzeniu człowieka, a trzecia – o dominacji, czyli o tym, czy mamy kontrolę, czy wręcz przeciwnie. Każdą emocję w podobnej trójwymiarowej przestrzeni da się zaprezentować. Jednak jest to trudne do interpretacji, a tym samym do nadania etykiety.

W przypadku analizy behawioralnej powiązanej z rozpoznawaniem emocji najprostsze modele, jakie powstają, to modele dla konkretnej emocji. Wtedy mamy do czynienia z binarnymi klasyfikatorami, które rozpoznają przykładowo, czy użytkownik był zły, czy nie. I co ważne, będą działały z pewnością skuteczniej niż klasyfikatory wieloklasowe, które rozpoznają kilka stanów emocjonalnych.

Z jakich metod korzysta się do analizy emocji? 

Jeśli chodzi o tworzenie modeli, można się spotkać zarówno z klasycznymi metodami, jak i opartymi na głębokim uczeniu. Choć akurat te drugie nie zawsze można wykorzystać ze względu na brak odpowiedniej ilości danych. Trudno wystartować, mając kilkaset próbek danych związanych z danym działaniem na klawiaturze, myszce czy ekranie. Chociaż już na podstawie danych z czujników, jak żyroskop czy akcelerometr, mamy możliwość zebrania dużej liczby przebiegów czasowych i jeśli będziemy w stanie z pomocą użytkownika przypisać im etykiety, pozwoli to na wykorzystanie głębokiego uczenia do budowy modelu.

Podsumowując, przy danych behawioralnych stosujemy te same metody, co w przypadku innych danych, czyli np. lasy losowe, sieci neuronowe. Postępujemy podobnie jak w każdym przypadku, gdzie mamy do czynienia z uczeniem nadzorowanym, w szczególności uczeniem klasyfikacji.

Z jakich narzędzi korzysta pani w codziennej pracy? Czy do danych behawioralnych potrzebne są wyspecjalizowane biblioteki? 

W moich projektach korzystam z ogólnodostępnych, darmowych narzędzi. Programuję przede wszystkim w języku Python. Z bibliotek, których używam, najbardziej popularna jest Scikit-learn, w której zaimplementowanych jest wiele algorytmów uczenia różnego rodzaju modeli. Wcześniej korzystałam z biblioteki Weka. To z kolei biblioteka napisana w języku Java, w pewnych obszarach dużo bardziej rozbudowana niż Scikit-learn. W przypadku wykorzystania sieci neuronowych używam biblioteki PyTorch.

Jakie są wady i zalety stosowania analizy danych behawioralnych?

Zdecydowaną zaletą jest fakt, że dane te nie wymagają korzystania z dodatkowego, specjalistycznego sprzętu, jak np. kamera. Ponadto, jeśli uzyskamy zgodę użytkownika, takie dane można zbierać podczas jego codziennej pracy. Monitorowanie odbywa się w tle, w zupełnie niewidoczny sposób. 

Wadą jest, że na dane behawioralne możemy świadomie lub nieświadomie wpływać. Te dane są bardzo zmienne w czasie. Wystarczy złe samopoczucie lub zmiana narzędzia pracy i ta sama osoba, pisząc na jednej klawiaturze, może mieć inny styl pisania, niż kiedy korzysta z drugiej. Tym samym trudniej jest rozpoznać użytkownika.

Jednak analizę wykorzystującą dane behawioralne stosuje się podobnie jak w przypadku analizy twarzy, zarówno do weryfikacji tożsamości użytkownika, jak i rozpoznawania ludzkich emocji, a także monitorowania nastroju. Powiem więcej, czasem można jej użyć też do analizy pewnych stanów czy wręcz zaburzeń psychicznych, emocjonalnych.

Jak działają takie aplikacje?

Aplikacje przeznaczone dla każdego monitorują nastrój, aby wykrywać pewne stany emocjonalne i informować użytkownika, że być może powinien się z kimś spotkać, może powinien wypocząć itp. Sugerują w ten sposób potrzebne działania. Można się posunąć nawet nieco dalej. Aplikacje specjalistyczne nie tylko monitorują nastrój, ale wręcz diagnozują zaburzenia i tutaj powstają modele, które są w stanie wykrywać stany depresyjne, stresowe, niektóre z nich są stosowane w przypadku osób z chorobą afektywną dwubiegunową.

Czyli analiza danych behawioralnych może diagnozować choroby?

W pewnym zakresie zapewne tak. Jako Politechnika Gdańska braliśmy udział w projekcie, gdzie wykorzystywaliśmy omówione przeze mnie metody do monitorowania terapii dzieci z autyzmem. W ramach współpracy z jednym z krakowskich startupów, gdzie w zespole był m.in. psycholog i osoby pracujące z dziećmi z autyzmem, zrodził się pomysł zbudowania czegoś, co będzie pomagało w pracy terapeutów dzieci autystycznych. Zaczęliśmy od prób diagnozowania, następnie projekt się rozrósł i wzięliśmy udział w tworzeniu narzędzia do monitorowania postępów terapii.

Jak działa to narzędzie?

W trakcie projektu powstała aplikacja składająca się z kilku bardzo prostych gier na tablet, przeznaczonych dla dzieci. Gry zostały zaprojektowane we współpracy z terapeutami i psychologami. Badano umiejętności dzieci poddanych terapii, związane m.in. z poprawnym wykonywaniem poleceń, samodzielnością, komunikacją, precyzją. W ramach zadań, które realizowane były podczas tych gier, w tle zbierane były dane z czujników, w które wyposażone są tablety. Zatem z ekranu dotykowego, ale i z akcelerometru czy żyroskopu. W projekcie brało udział 40 dzieci, z kilku ośrodków w Polsce. Spotkania odbywały się co miesiąc, dzieci grały za każdym razem w te same gry przez kilka minut. 

Zbieraliśmy dane, które opisywały sam przebieg gry, czyli jak dziecko szybko wykonuje zadania, ile błędów popełnia, ile razy powtarza pewne akcje, jakie przerwy robi itd. Druga grupa danych to parametry z ekranu dotykowego. Na ich podstawie wyznaczyć można było wiele charakterystyk, związanych z tym, jak długo grający przytrzymuje palec, jak mocno, jak szybko nim porusza po ekranie, jaki kształt mają rysowane przez niego ścieżki oraz dane bezpośrednio z akcelerometru i żyroskopu wskazujące np. na intensywność wstrząsania tabletem lub wychylania go. Podczas gdy my zbieraliśmy dane, terapeuci wypełniali ankiety, w których oceniali dzieci w dziesięciu różnych sferach rozwojowych jak komunikacja, motoryka, samodzielność i innych.  

Nasze zadanie polegało na tym, aby z danych wyznaczyć szereg parametrów i sprawdzić, czy jest korelacja pomiędzy zmianami w czasie tychże parametrów z gier a zmianami wartości ocen terapeutów. Drugim naszym celem była próba nauczenia modelu rozpoznawania na podstawie danych zebranych podczas gry, czy nastąpił postęp w terapii w ciągu paru miesięcy. 

Jaki był efekt? 

Zidentyfikowaliśmy parametry, które w poszczególnych sferach rozwojowych można byłoby potraktować jako miary postępu terapii. Ponadto przetestowaliśmy wiele klasycznych metod uczenia nadzorowanego i w niektórych obszarach udało się uzyskać całkiem przyzwoite wyniki rozpoznawania postępów terapii. Najlepsze widoczne były w sferze tzw. motoryki małej dzieci, co było zgodne z naszą intuicją. Zaproponowane rozwiązanie mogłoby stanowić pomoc dla rodziców, informując ich o przebiegu terapii, a także dla terapeutów, udostępniając obiektywne miary postępów. Natomiast firma, z która współpracowaliśmy, udostępniła narzędzie do wstępnej diagnozy autyzmu u dzieci.

Wydaje się, że to bardzo optymistyczny prognostyk dla badań behawioralnych. Mówimy  jednak o testach. W jakich obszarach  już dziś rozpoznawanie emocji jest wykorzystywane, jaka jest przyszłość analizy tego rodzaju danych?

Rozpoznawanie emocji ma zastosowanie przede wszystkim w grach komputerowych, gdzie można na podstawie analizy konkretnych działań gracza na klawiaturze czy na padzie dostosować w danym momencie do niego poziom gry. Mówimy wtedy o takim pojęciu jak “affect aware video games”, gdzie przebieg gry zależy właśnie od dostosowania się do emocji samego gracza. Poza tym zastosowanie rozpoznawania emocji jest na porządku dziennym w wielu aplikacjach mobilnych, np. tych monitorujących nastrój czy rzadziej – w programach edukacyjnych. Prawdziwym wyzwaniem, ale jednocześnie szansą na rozwój analizy emocji w grach i programach komputerowych, zapewne będzie fakt coraz szerszego zastosowania urządzeń VR.

— Od kilku lat rozwijamy dziedzinę AI, która nazywa się sztuczną inteligencją neuro-symboliczną. Łączymy uczenie maszynowe z przetwarzaniem symbolicznym, opartym o wnioskowanie. To pozwala na maksymalizację precyzji detekcji. Chodzi o to, żeby AI popełniała możliwie niewiele błędów. Jeśli chcemy naprawdę zapobiegać szkodliwym zjawiskom w sieci, system musi działać autonomicznie, podejmować samodzielne decyzje o tym, czy zablokować rozmowę, czy wysłać interwencję w czasie rzeczywistym – opowiadają współtwórcy Samurai Labs, Gniewosz Leliwa i Patrycja Tempska.

Patrycja Tempska – impact co-founder Samurai Labs. Prowadzi badania nad metodami zapobiegania przemocy w internecie. Wraz z platformą pomocowo-edukacyjną Życie Warte jest Rozmowy tworzą projekt o nazwie One life, w ramach którego docierają do osób w kryzysie wykorzystując algorytmy neurosymboliczne, analizujące setki milionów konwersacji online. Współautorka patentu i publikacji naukowych z obszaru sztucznej inteligencji i nauk społecznych, z wykształcenia filozofka. Ujęta w zestawieniu Top 100 Women in AI w 2022 roku.

Gniewosz Leliwa – CTO i współzałożyciel Samurai Labs. Współtwórca rozwiązań AI chroniących przed cyberprzemocą miliony użytkowników internetu na całym świecie. Z wykształcenia fizyk teoretyk zajmujący się kwantową teorią pola, który porzucił doktorat na rzecz pracy nad sztuczną inteligencją. Autor wielu patentów i publikacji naukowych z obszaru neuro-symbolicznej AI oraz jej zastosowania w wykrywaniu i przeciwdziałaniu takim zjawiskom jak cybernękanie, ideacje samobójcze czy child grooming. Współzałożyciel Fido.AI i współtwórca technologii rozumienia języka naturalnego wyróżnionej w rankingu TOP 100 AI przez CB Insights oraz Gartner’s Cool Vendor.

Czym zajmuje się Samurai Labs?

Patrycja Tempska: Naszą misją jest dbanie o dobrostan społeczności online poprzez wykrywanie i zapobieganie różnym niebezpiecznym zjawiskom w internecie. Mam tu na myśli zarówno cybernękanie, ataki personalne na tle rasistowskim, seksualnym, szantaże, czy groźby. W ostatnim czasie zajmujemy się też wykrywaniem intencji, myśli, czy deklaracji samobójczych. Docieramy do osób w kryzysie suicydalnym oferując im wspierającą interwencję, która zawiera odpowiednie materiały samopomocowe i miejsca, do których mogą się zwrócić o pomoc. System współtworzymy w ścisłej współpracy z zespołem ekspertów – suicydologów z platformy pomocowo-edukacyjnej „Życie warte jest rozmowy”. Są to osoby, które specjalizują się w badaniach nad zachowaniami samobójczymi, wspierają osoby w kryzysie, a także na co dzień pracują w obszarze ich profilaktyki.

W kontekście cyberprzemocy, kiedy ta pojawi się w danej społeczności, w zależności od zasad w niej panujących i szkodliwości zjawiska możemy wykonać różne akcje. W niektórych przypadkach pisemne komunikaty są blokowane, zanim dotrą do odbiorcy i wydarzy się potencjalna krzywda. W innych może być wysłana interwencja, która ma na celu pozytywne modelowanie dyskusji w sieci. Takie komunikaty projektujemy w oparciu o nauki społeczne, psychologię i filozofię. Wszelkie te działania dążą do edukacji użytkowników i promowania pożądanych norm komunikacji. Jak pokazują nasze badania, skutkują obniżoną ilością ataków w ramach danych społeczności online.

Na podstawie jakich danych wykrywacie takie zjawiska?

Gniewosz Leliwa: W zasadzie w grę wchodzi każda komunikacja tekstowa. Jeśli mówimy o Discordzie, czatach czy grach online, to analizujemy krótkie wiadomości tekstowe, jakie użytkownicy wymieniają między sobą. W przypadku forów i serwisów takich jak Reddit, analizie podlegają dłuższe formy wypowiedzi, ale też komentarze na tych forach. Z kolei na Twitchu system przetwarza wiadomości z czatu podczas streamingu. Możemy również dokonywać transkrypcji z plików audio i wideo, ale przede wszystkim skupiamy się na analizie i przetwarzaniu języka naturalnego w tekście.

Porozmawiajmy o technologiach. Z jakich rozwiązań korzystacie do wykrywania przemocy w sieci?

GL: Od kilku lat rozwijamy dziedzinę SI, która nazywa się sztuczną inteligencją neuro-symboliczną (ang. neuro-symbolic AI – przyp. red.). Łączymy uczenie maszynowe z przetwarzaniem symbolicznym, opartym o wnioskowanie. To pozwala na maksymalizację precyzji detekcji. Chodzi o to, żeby SI popełniała możliwie niewiele błędów. Warto zauważyć, że jeśli chcemy naprawdę zapobiegać szkodliwym zjawiskom w sieci, system musi działać autonomicznie, podejmować samodzielne decyzje o tym, czy zablokować rozmowę, czy wysłać interwencję w czasie rzeczywistym. 

W naszym podejściu system symboliczny trzyma pod kontrolą komponenty oparte o uczenie maszynowe. W ten sposób machine learning lepiej “rozumie” język, a wnioskowanie symboliczne powstrzymuje komponenty statystyczne przed popełnianiem typowych dla nich błędów. Na przykład, zbytnio wyczulony na wulgaryzmy model mógłby zacząć je wykrywać jako mowę nienawiści czy ataki personalne. 

A co, jeśli nie będzie precyzyjny? 

GL: W przeciwnym razie będzie reagował na to, na co nie powinien. Wystarczy, że ktoś użyje wulgarnego słowa, ale nie po to, aby kogoś obrazić, tylko żeby podkreślić emocje. Takie interwencje, monity czy blokady mogłoby się spotkać z brakiem akceptacji po stronie społeczności wśród których działamy. Jak ochroniarz w klubie, który wyrzuca normalnie bawiące się osoby.

Ile osób pracuje w Waszym zespole?

GL: Przy tworzeniu i wdrażaniu modeli pracuje ponad 20 osób. Praca ta realizowana jest przez trzy zespoły inżynierów. Pierwszy to zespół produktowy, który “opakowuje” wszystkie tworzone przez nas modele w API, buduje systemy do konfiguracji, panele analityczne i kolejki moderacyjne. Drugi i trzeci to zespoły AI, jeden bardziej nastawiony na tę część symboliczną i wnioskującą, a drugi na uczenie maszynowe. 

Jak wygląda praca z danymi w Samurai Labs?

GL: Tak jak wspominałem, dane wsadowe to przede wszystkim rzeczywiste rozmowy uczestników wszelkiego rodzaju czatów, forów czy innych społeczności internetowych. Korzystamy z otwartych źródeł takich jak Reddit, ale jeśli możemy wykorzystywać dane partnerów czy klientów, to oczywiście też to robimy. Wszystkie zebrane dane są przekazywane do anotacji, gdzie specjalnie przeszkolone osoby, anotatorzy oznaczają, w dedykowanym narzędziu i zgodnie z przygotowaną wcześniej instrukcją, fragmenty wypowiedzi zawierające poszukiwane przez model zjawiska. Np. ataki personalne lub myśli samobójcze.

Zbudowaliśmy własny zespół ponad 20 anotatorów, których staramy się rekrutować spośród osób z doświadczeniem w psychologii i pedagogice, ale zwracamy też uwagę na zróżnicowanie geograficzne (część zespołu pochodzi z Ameryki Południowej – przyp. red.) oraz znajomość danej tematyki. Np. staramy się, aby treści z gier online anotowali gracze. Cały framework anotacyjny wypracowaliśmy sami. Na początku naszej drogi próbowaliśmy wykorzystywać dostępne zbiory danych, ale bardzo szybko okazywało się, że niestety nie są tak dobrej jakości, jakiej potrzebujemy. 

Wykorzystujemy też sztuczną inteligencję w samym procesie anotacji. Stworzyliśmy tzw. wirtualnego anotatora, specjalny model AI, którego decyzje zestawiamy z ludzkimi anotatorami. Jesteśmy wtedy w stanie wychwycić nawet niewielkie różnice i poddać takie przykłady ponownej anotacji. 

Jak wygląda trenowanie takich modeli AI?

GL: Kiedy startujemy z nowym projektem tworzymy instrukcję anotacji danych we współpracy z ekspertami z danej dziedziny, np. suicydologii oraz zespołem zajmującym się sztuczną inteligencją. Instrukcja jest później wielokrotnie aktualizowana, żeby wychwycić i uwzględnić wszystkie niuanse. Następnie zaczyna się proces anotacji danych i trenowania pierwszych modeli, które mają nam pomagać w doborze przypadków do kolejnych rund anotacji. 

Każdą anotację wykonujemy co najmniej w modelu 3+1. Oznacza to, że trzech niezależnych anotatorów ocenia każdą wiadomość, następnie “superanotator” podejmuje ostateczną decyzję w przypadkach dyskusyjnych. Kiedy pojawia się problem, który powinien być uwzględniony w instrukcji, zostaje ona zaktualizowana. Bardzo dużą wagę przykładamy do jakości danych, bo jak wiemy — model uczenia maszynowego jest tak dobry, jak dane, na których został wyuczony. 

Oznaczone dane trafiają do obu zespołów AI i rozpoczyna się praca nad docelowymi modelami.

Z jakich narzędzi korzystacie?

GL: Jeśli chodzi o system symboliczny i jego sprzężenie z uczeniem maszynowym, to jest to nasze autorskie podejście i rozwiązanie. Zbudowaliśmy własny framework i mamy swoje patenty w tym zakresie.

Jeśli chodzi o samo uczenie maszynowe to oczywiście transformery i duże modele językowe (LLM). Korzystamy przede wszystkim z bibliotek Transformers (Hugging Face), Torch, Sklearn. Do kwantyzacji modeli sieci neuronowych używamy ONNX, do logowania eksperymentów – MLFlow, a do automatyzacji procesów – DVC. Naszym środowiskiem do uruchamiania eksperymentów jest SageMaker, a do prototypowania używamy Jupyter Notebook.

Jak wygląda użycie modeli w praktyce? Na jakie problemy podczas analizy danych i późniejszej detekcji natrafiacie?

GL: Ciekawym elementem jest wykorzystanie dużych modeli językowych do odsiewania wyników fałszywie pozytywnych. Kiedy mamy już działający model detekcji, a chcemy wziąć pod uwagę większy kontekst wypowiedzi, to możemy to zrobić. Wyobraźmy sobie, że mamy na forum post na temat jakiegoś przestępstwa, a osoby komentujące niechętnie odnoszą się do przestępcy. Normalnie system mógłby zareagować na te komentarze, “myśląc”, że chodzi o innego użytkownika forum, ale dzięki szerszemu kontekstowi może podjąć decyzję o zaniechaniu reakcji.

A co ze skutecznością modeli? 

GL: Wszystkie nasze modele produkcyjne posiadają precyzję na poziomie co najmniej 95 procent. To jest główny parametr, który nas interesuje, ponieważ modele te działają autonomicznie, bez ingerencji człowieka. W przypadku rozwiązań konkurencyjnych, nawet połowa zwracanych wyników to wyniki fałszywie pozytywne. 

Każda społeczność jest inna. Jak wygenerować model detekcji szyty na miarę? 

GL: Zdecydowanie inaczej powinna wyglądać moderacja kanałów dla dorosłych, gdzie użytkownicy nie życzą sobie żadnej cenzury, a zależy im wyłącznie na utrzymaniu odpowiedniego poziomu dyskusji, a inaczej moderacja kanałów dla dzieci. W tym drugim przypadku chcemy wyeliminować wszystkie potencjalnie szkodliwe elementy, wliczając w to wulgaryzmy czy na przykład rozmowy o seksie. W Samurai Labs przyjmujemy podejście kompozycyjne. Każdy duży problem dzielimy na mniejsze, tak jak cyberprzemoc, którą dzielimy na ataki personalne, nękanie na tle seksualnym, wykluczenie, groźby czy szantaże. Następnie każdy z tych mniejszych problemów jest dzielony na jeszcze mniejsze. W ten sposób budujemy wąskie i bardzo precyzyjne modele, które są łatwe w rozwijaniu i utrzymaniu oraz dużo lepiej radzą sobie z tzw. biasami, czyli  systematyczną stronniczością lub uprzedzeniem modeli ML. Chodzi zwłaszcza o te end-to-end, które próbują rozwiązywać duże i złożone problemy, takie jak mowa nienawiści lub cybernękanie. 

Jak działa Samurai Cyber Guardian?

GL: To system do zaprojektowania i wdrożenia całego moderacyjnego workflow, skrojonego dla danej społeczności internetowej. Produkt składa się z kilku komponentów. Mamy modele AI odpowiedzialne za detekcję poszczególnych zjawisk i “centrum sterowania”, do którego loguje się użytkownik (np. moderator – przyp.red.), na które składają się poszczególne narzędzia i panele. Panel konfiguracyjny pozwala użytkownikowi zdecydować na co system ma reagować automatycznie i w jaki sposób, a co przekazywać do moderacji manualnej. Kolejka moderacyjna pozwala na obsługę przypadków skierowanych do moderacji manualnej. Z kolei panele analityczne pozwalają na śledzenie działania systemu i obserwowanie zmian zachowań użytkowników i ogólnego poziomu przemocy w danej społeczności. Produkt jest dostarczany w formie API i może być wykorzystany do sterowania botem moderacyjnym lub dowolnym innym systemem moderacji. Oferujemy również bezpośrednie integracje z platformami i serwisami, takimi jak Discord czy Twitch.

Moderacja treści na forum to działanie na żywym organizmie, który zmienia się w czasie rzeczywistym. Czy Wasze systemy są aktualizowane?

GL: Wychodzimy z założenia, że nie da się zbudować modelu, który będzie działał zawsze i wszędzie. Podobnie jak ma to miejsce w przypadku systemów antywirusowych. Nasze modele są aktualizowane średnio raz na dwa tygodnie – zbieramy logi, analizujemy dane i na tej podstawie wprowadzamy poprawki do modeli. 

Klasycznym sposobem utrudniania detekcji jest tzw. leet speak, czyli zamiana liter na inne, podobnie wyglądające symbole, np. S na symbol dolara. Nasz system również jest na to bardzo odporny, co wynika po części z podejścia neuro-symbolicznego. Co więcej, jeśli użytkownicy wiedzą, że system moderacji jest sterowany przez sztuczną inteligencję, to tym chętniej próbują go oszukać. Ale im bardziej kreatywny jest użytkownik, tym lepiej nasz system uczy się radzić sobie z takimi próbami obejścia systemu. 

PT: Jednym z takich przykładów są komentarze, które nastolatki wymieniały między sobą na anonimowym forum Formspring. Dziś ta strona jest zamknięta z powodu powszechnego na niej cybernękania na skutek którego doszło do kilku prób samobójczych młodych osób. Część komentarzy oznaczonych przez ludzi jako neutralne, po przetworzeniu naszym systemem okazała się być w całości zawoalowanymi w leet speak atakami.

Algorytmy w walce z cybernękaniem to jedno, ale też próbujecie edukować społeczności?

PT: Oprócz wykrywania cyberprzemocy przy użyciu algorytmów neuro-symbolicznych niezwykle ważną kwestią są badania nad wykorzystaniem tych metod. Prowadzimy je aby stworzyć kompleksowe strategie dla wspólnot online, w ramach których sztuczna inteligencja wykorzystywana jest nie tylko do wykrywania cyberprzemocy, ale też do jej proaktywnego zapobiegania. Badamy różne strategie odpowiadania użytkownikom na ich komentarze, celem obniżenia ilości ataków personalnych. Jedno z takich badań, które przeprowadzaliśmy miało miejsce na anglojęzycznym forum Reddit. Stworzyliśmy bota Jamesa, który wyposażony był w modele detekcji ataków personalnych oraz w system do generowania licznych interwencji, odwołujących się do empatii lub konkretnych norm. Za każdym razem, kiedy ktoś atakował członka dyskusji, James wykrywał atak w czasie rzeczywistym i reagował przy pomocy jednego z komunikatów, np. “Hej, większość z nas zwraca się tutaj do siebie z szacunkiem.” Same takie komentarze wystarczyły, aby James, w jednej z bardziej zradykalizowanych wspólnot na Reddicie, obniżył poziom ataków o 20%.

GL: Warto dodać, że użytkownik nie wiedział, że ma do czynienia z botem. Nasz James przedstawiał się jako zwykły użytkownik forum, miał też stworzoną swoją historię aktywności i legendę. Jego interwencje musiały wyglądać naturalnie i nie mogły się powtarzać. 

PT: Dokładnie tak. Dlatego też liczba unikalnych interwencji wynosiła ponad 100 tysięcy, a stworzona została na kanwie kilkunastu wypowiedzi bazowych. To badanie, jak i szereg innych prowadzonych przez nas czy inne instytucje pokazują, że na styku sztucznej inteligencji, nauk społecznych i data science możemy empirycznie walidować skuteczność konkretnych metod przeciwdziałania zjawiskom szkodliwym i maksymalizować ich społecznie pozytywny wpływ. 

Czy ma to jakiś wymiar finansowy dla Waszych klientów? 

PT: Wskaźniki impaktowe (związane ze społecznie pozytywnym wpływem – przyp.red.) są ważne, ale te biznesowe również. W końcu wdrażamy nasze rozwiązania w społecznościach, których właściciele chcą zarabiać. Okazuje się, że wskaźniki impaktowe są powiązane z tymi biznesowymi poprzez zaangażowanie. Jeszcze 10 lat temu dominowało przeświadczenie, że więcej agresji implikuje więcej zaangażowania użytkowników – komentarzy, kliknięć, itp. Dziś mamy dowody na to, że jest inaczej. Według badania Riot Games gracze League of Legends, którzy przy pierwszej ekspozycji na grę doświadczyli toksycznych interakcji, ponad trzykrotnie częściej nie wracali do rozgrywek w porównaniu do tych, którzy takich treści nie napotkali.

W Samuraju z kolei w jednym z naszych badań obserwacyjnych na podstawie ok. 200 tysiącach komentarzy na Reddicie, pokazaliśmy, że ataki znacząco obniżają aktywność osób atakowanych. Korzystaliśmy z metod klasycznej statystyki i estymacji Bayesowskich, 

Świadomość problemu społecznego rośnie proporcjonalnie do motywacji związanej z dbaniem o dobrostan wspólnot online. Ma to związek z szeregiem negatywnych konsekwencji behawioralnych czy psychologicznych związanych z doświadczeniem cyberprzemocy, które są coraz liczniej badane i opisywane.

GL: Dodatkowo zmienia się też otoczenie prawne. Weźmy moduł do detekcji ideacji samobójczych. Gdy zaczynaliśmy nad nim pracę w 2020 roku, był to jeszcze temat tabu. Przykładowy rodzic był w stanie uwierzyć, że jego dziecko może spotkać w internecie coś złego, typu atak pedofilski, ale większość rodziców nie była w stanie nawet pomyśleć, że ich dziecko może popełnić samobójstwo, między innymi na skutek kontaktu z treściami w sieci dotyczącymi samookaleczania czy samobójstw. Dzięki regulacjom prawnym ta świadomość rośnie. 

PT: Tutaj jednym z katalizatorów do zmian polityki działania mediów społecznościowych i pracy nad nową legislacją jest przykład z Wielkiej Brytanii. Chodzi o nagłośniony medialnie przypadek Molly Russell, 14-latki która odebrała sobie życie po ekspozycji na treści związane z zachowaniami samobójczymi, których widoczność wzmacniały algorytmy portali społecznościowych.

Jaka przyszłość czeka tworzone przez Was systemy? Idziemy w kierunku pełnej autonomii decyzji?

GL: Samurai Labs jest pionierem, jeśli chodzi o zapobieganie i autonomiczną moderację treści. Wydaje mi się, że jest to naturalny kierunek i cała branża będzie bardzo mocno skręcać w tę stronę. Jeżeli reakcja następuje dużo po tym, jak ktoś został zaatakowany, to ofiara, a być może również inni uczestnicy rozmowy, zdążyli to przeczytać i krzywda już się wydarzyła. Szkodliwe zjawiska należy wykrywać maksymalnie szybko i reagować natychmiast. 

Jest też kwestia legislacji, jeśli chodzi o dostęp do danych. W przypadku wykrywania treści samobójczych to często same wiadomości lub listy pożegnalne są wysyłane poprzez publiczne fora. Natomiast w przypadku ataków pedofilskich najczęściej jest to prywatna komunikacja, a napastnik dąży do jak najszybszej zmiany platformy na kanały szyfrowane. 

Myślę, że złotym środkiem będą systemy autonomiczne, gdzie to sztuczna inteligencja będzie analizować wysyłane treści i nie będzie potrzeby, aby ktokolwiek czytał te wiadomości. Jeżeli AI wykryje coś niepokojącego, to zareaguje blokując komunikację tego predatora (sprawca przestępstw seksualnych – przyp. red.) i poinformuje właścicieli serwisu lub organy ścigania. 

PT: Zmiana paradygmatu, żeby działać automatycznie, bez udziału człowieka lub z jego częściową ingerencją spowoduje, że możemy zapobiec wielu negatywnym konsekwencjom cyberprzemocy. Warto pamiętać, że dziś mamy do czynienia z dużym obciążeniem, które spoczywa głównie na moderatorach. Systemy oparte o metody uczenia maszynowego w większości nie działają automatycznie, tylko flagują posty do dalszej weryfikacji przez człowieka, który podejmuje ostateczną decyzję co do tego czy post usunąć czy nie. 

Podejmując te decyzje, codziennie stykają się z treściami ekstremalnie drastycznymi, z okrucieństwem tego świata, jaki my jako ludzkość generujemy. To wszystko spoczywa na nich. Dlatego też widzimy wielką potrzebę, aby moderatorów odciążyć, pozwalając skupić się im na tym, jak pozytywnie zwiększać zaangażowanie użytkowników w ramach serwisów online. 

Rozwiązania z obszaru analityki kognitywnej łączą uczenie maszynowe i technologie sztucznej inteligencji, umożliwiając wyciąganie wniosków zbliżonych do ludzkich. Wymaga to zrozumienia kontekstu i znaczenia poszczególnych danych, a nie bazowania na suchych liczbach. Jak wygląda to w praktyce?

Analityka kognitywna może być wykorzystywana przez firmy do monitorowania zmian w zachowaniu klientów i trendów pojawiających się na rynku. Pozwala na porządkowanie danych uwzględniając szerszy kontekst, znaczenie zdań lub całych akapitów, a nawet rozpoznanie pewnych obiektów na obrazie. Jest to pod pewnym względem połączeniem dwóch światów: z jednej strony “maszynowego” przetwarzania danych, a z drugiej strony procesów kognitywnych charakterystycznych dla naszego mózgu. Zrozumienie danych, które często są nieustrukturyzowane i rozproszone, jest jednym z najważniejszych wyzwań, przed którymi stoją organizacje w skali globalnej.

AI wyposażona w systemy poznawcze

Analiza kognitywna znajduje szerokie zastosowanie w różnych obszarach, zarówno w prostych czynnościach, jak i w skomplikowanych zestawach zadań. Jednym z przykładów wykorzystania analizy kognitywnej są chatboty, które dzięki technikom uczenia maszynowego są w stanie przeprowadzić rozmowę, rozumiejąc kontekst komunikacji. Dzięki przetwarzaniu języka naturalnego programy mogą pobierać dane wejściowe, takie jak głos lub tekst, analizować je i udzielać odpowiedzi. Dzięki rozwiązaniom kognitywnym chatboty mogą osiągnąć wysoki poziom inteligencji w komunikacji, co pozwala im na lepsze zrozumienie potrzeb użytkownika, a nawet na udzielanie rekomendacji.

Większość telefonów, a także tabletów wyposażona jest w funkcje odblokowywania urządzenia poprzez rozpoznawanie twarzy. Systemy poznawcze wykorzystują różne dane, takie jak kolor oczu, struktura i kontury twarzy, aby odróżnić je od innych. Generowany obraz twarzy może być używany do identyfikacji. Tradycyjnie, do tego celu wykorzystywano obrazy 2D, jednak teraz możliwe jest również wykorzystanie technologii 3D, które zapewniają większą dokładność. Taka technologia również bazuje na analizie kognitywnej.

Lepsze decyzje dzięki analityce kognitywnej

Organizacje korzystające z projektów opartych na danych są w dużym stopniu uzależnione od źródeł nieustrukturyzowanych informacji, takich jak e-maile, dokumenty MS Word, obrazy, zdjęcia, materiały audio i wideo, dane z czujników (IoT), etc. Mogą one pochodzić zarówno z wewnętrznych zasobów, jak i otwartych źródeł zewnętrznych, takich jak na przykład media społecznościowe. Zastosowanie technologii analizy kognitywnej umożliwia automatyczne przetwarzanie, klasyfikację i wyodrębnienie istotnych informacji z różnych źródeł. Narzędzia te mogą identyfikować wzorce i rozpoznawać kluczowe tematy lub wykrywać powiązania między nimi. Analityka kognitywna stosuje inteligencję podobną do ludzkiej. Przede wszystkim do zadań, takich jak rozumienie nie tylko słów w tekście, ale także pełnego kontekstu tego, co jest pisane, mówione, a także rozpoznaje obiekty na obrazach o dużym zagęszczeniu informacji.

Dzięki temu firmy mogą bazować na szerszym zakresie informacji, podejmować bardziej świadome decyzje biznesowe oraz lepiej dostosować się do potrzeb otoczenia. Zastosowanie analizy kognitywnej pozwala również na optymalizację procesów w organizacji, co prowadzi do zwiększenia efektywności i obniżenia kosztów. Zainteresowanie w tym kierunku w szczególności widać wśród menedżerów w sektorze bankowości, usług finansowych i ubezpieczeń (BFSI). Instytucje finansowe na całym świecie wdrażają technologie oparte o analitykę kognitywną, aby zwiększyć swoje możliwości predykcyjne, poprawić prognozy przychodów, a w szczególności wspierać planowanie biznesowe i budżetowanie. Pomaga im ono również w skuteczniejszym zarządzaniu ryzykiem i przeciwdziałaniu nadużyciom.

Lepsza analiza dzięki rozwiązaniom opartym na chmurze

Dobrym przykładem analizy kognitywnej jest usługa Google Images. Wykorzystuje ona Cloud Vision API Google do analizowania i kategoryzowania zdjęć lub filmów dla użytkowników. Częściowo opiera się to na danych wejściowych użytkownika, oznaczając każdy plik nazwami i opisami. Cloud Vision API jest szkolony na miliardach zdjęć z Google Images – za każdym razem, gdy wypełniamy CAPTCHA (rodzaj zabezpieczenia, którego zadaniem jest ochrona przed spamem i botami) w internecie, przyczyniamy się do szkolenia sztucznej inteligencji.

Analityka kognitywna może być też wykorzystywana w inicjatywach społecznych. Przykładem jest projekt crowdsourcingowy realizowany przez firmę SAS, który wykorzystuje sztuczną inteligencję, w tym techniki rozpoznawanie obrazów, aby pomóc przeciwdziałać wylesianiu lasów deszczowych w Amazonii. Rozwiązanie wykorzystuje otwarte narzędzie analityczne SAS Viya, działające w chmurze, które pozwala na ocenę zmian środowiskowych w czasie niemal rzeczywistym na podstawie analizy tysięcy zdjęć satelitarnych. Do udziału w projekcie są zaproszeni wolontariusze z całego świata, którzy pomagają trenować modele AI, identyfikując ślady wylesiania, których model nie nauczył się jeszcze wykrywać. Dzięki temu przedstawiciele władz i organizacji pozarządowych mogą odpowiednio wcześnie interweniować w celu ochrony lasów przed nielegalną wycinką. 

Analityka kognitywna może być pomocna w realizowaniu wizji inteligentnych miast. SAS i Microsoft stworzyli rozwiązanie, którego celem jest między innymi przewidywanie powodzi. Rozwiązanie oparte jest na SAS Analytics IoT i Azure IoT. Łączy w sobie łatwe do wdrożenia czujniki zasilane energią słoneczną, a dostępne z nich dane telemetryczne są przesyłane za pośrednictwem komunikacji komórkowej do chmury i łączone z danymi pogodowymi. Uczenie maszynowe służy do przewidywania możliwych zdarzeń powodziowych i ostrzegania mieszkańców z wyprzedzeniem.

Rozwiązania z obszaru analityki kognitywnej mają coraz większe znaczenie dla sektora opieki zdrowotnej. Zastosowanie tej technologii przyczynia się nie tylko do udoskonalenia opieki medycznej, ale również do poszerzenia jej korzyści w dziedzinie badań naukowych. Badacze z Instytutu Odkrywców na Uniwersytecie College of Dublin stworzyli AI PREMie. Jest to rozwiązanie oparte na sztucznej inteligencji, które identyfikuje kobiety ze stanem przedrzucawkowym (zaburzenie związane z nadciśnieniem tętniczym w ciąży) i określa jego stadium. AI PREMie pozwala lekarzom planować zagrożone ciąże, identyfikując, kiedy konieczne jest zaplanowanie porodu. Rozwiązanie również oparte jest na platformach SAS Viya i Microsoft Azure. Dzięki temu lekarze mają gwarancję eliminacji jednego z największych wyzwań dla ochrony zdrowia, czyli reagowania w czasie rzeczywistym. 

Przyszłość analityki kognitywnej

Według raportu Cognitive Analytics – Global Strategic Business Report, na globalnym rynku analizy kognitywnej, skumulowany roczny wskaźnik wzrostu (CAGR) w latach 2022-2030 będzie na poziomie 38,4 proc. Oznacza to wzrost wartości rynku z 2,7 mld dolarów w 2022 roku do 36,2 mld dolarów do 2030 roku. Ma to związek z coraz większym wykorzystaniem urządzeń opartych na IoT, wzrostem zbieranych danych i rozwojem sztucznej inteligencji.

Patrząc na liderów tej transformacji, bardzo duży wzrost przewidywany jest w Chinach. Rynek analityki kognitywnej w drugiej co do wielkości gospodarce świata będzie wynosił 6 mld dolarów do 2030 roku, utrzymując CAGR na poziomie 36,9 proc. w okresie analizy 2022-2030. Wśród innych godnych uwagi rynków geograficznych są Japonia i Kanada, z których każdy przewiduje wzrost odpowiednio o 34,9 proc. i 33,2 proc. w tym samym przedziale czasowym. W Europie najlepiej prosperują Niemcy. Ich CAGR do 2030 roku wzrośnie o 26,7 proc.

– Przez wiele lat uczyłam na studiach magisterskich i podyplomowych data miningu oraz analizy danych, prezentując praktyczne rozwiązania dla przedsiębiorstw. Z mojego doświadczenia wynika, że wiedza z obszaru statystyki stanowi podstawę do przyszłej pracy analityków i ekspertów data science – tłumaczy dr hab. Wioletta Grzenda ze Szkoły Głównej Handlowej w Warszawie.

Dr hab. Wioletta Grzenda jest profesorem uczelni i kierownikiem Zakładu Metod Statystycznych i Analiz Biznesowych w Instytucie Statystyki i Demografii Szkoły Głównej Handlowej w Warszawie. W pracy naukowo-dydaktycznej koncentruje się na modelowaniu zjawisk społeczno-ekonomicznych z wykorzystaniem podejścia klasycznego i bayesowskiego oraz metod uczenia maszynowego. Jej pasją jest szeroko rozumiana analiza danych.

Wspólnym mianownikiem data science i biznesu są dane. Czy istnieje potrzeba ich dodatkowego generowania?  

W przeszłości pozyskanie danych do potrzeb naukowych wymagało sporego wysiłku. Obecnie na ogół nie ma już potrzeby generowania syntetycznych danych, ponieważ rzeczywistych jest tak dużo, że wyzwaniem jest raczej możliwość ich efektywnego przetwarzania. 

Istnieje wiele stron internetowych z ogólnodostępnymi danymi. Wiele przedsiębiorstw, a nawet instytucji finansowych, bardzo skrupulatnie podchodzi do kwestii udostępniania danych. Organizacje anonimizują swoje dane i udostępniają je do celów dydaktycznych i naukowych. O ile na początku mojej kariery naukowej, zaawansowana analiza danych była domeną dużych przedsiębiorstw i instytucji finansowych, dziś obszar analityki i data science, jest obecny niemal w każdej firmie. 

Do kogo skierowane są studia podyplomowe Data Science w biznesie?

Studia te kierowane są zarówno do osób, które nie posiadają jeszcze kompetencji z obszaru data science, jak i analityków, którzy posiadają już doświadczenie w tej dziedzinie. Mając na uwadze zmiany, które zachodzą na rynku pracy, wiele osób chce się przekwalifikować lub wręcz musi zdobywać nowe umiejętności. Chcemy dać szansę wszystkim.  

Ale jak dobrze rozumiem, nie są to tylko studia dla ekspertów z dziedziny IT czy data science?

Zdecydowanie kierujemy tę ofertę do szerszej grupy kandydatów, choć trzeba pamiętać o kilku kwestiach. Dzwonią do nas osoby, które ukończyły np. socjologię i pytają, czy dadzą sobie radę na tym kierunku? Trudno jest nam na to pytanie odpowiedzieć, bo to zależy od otwartości kandydata na nowe wyzwania, jak i jego nakładu pracy własnej.

Oczywiście studia te kierujemy również do osób, które nie posiadają wiedzy statystycznej, gdyż wiedzę w tym obszarze stopniowo będziemy dostarczać i uzupełniać. Trzeba jednak pamiętać, że u podstaw analizy danych leży statystyka i matematyka. Dlatego nastawienie studenta ma duże znaczenie.

Ucząc przez wiele lat na studiach podyplomowych z metod data miningu, zauważyłam, że studenci okazują zainteresowanie statystyką, jako podstawa do pracy analityków czy ekspertów data science. Chciałabym, aby słuchacze naszych studiów unikali błędów w analizie danych, które wynikają z braku wiedzy z obszaru statystyki.

Z jakich narzędzi data science będą umieli korzystać studenci kończąc te studia podyplomowe?

Technologie i języki programowania bardzo dynamicznie się rozwijają. Obecnie najpopularniejsze są języki programowania R i Python, dlatego włączamy je do programu jako podstawę. Dodatkowo chcemy nauczyć studentów korzystać ze środowiska SAS Viya, ponieważ ta platforma umożliwia zarówno pracę w dowolnie wybranym języku programowania, jak i posiada własne rozwiązania dedykowane dla analizy danych. Przede wszystkim zdajemy sobie sprawę, że szczególnie analitycy biznesowi muszą na bieżąco aktualizować swoją wiedzę. W związku z tym musimy stale obserwować, jakie jest zapotrzebowanie rynku na konkretne kompetencje i narzędzia analityczne, aby dostosowywać program studiów do bieżących potrzeb.

Dobrze, a z jakimi kompetencjami wyjdą absolwenci studiów Data Science w biznesie?

Jeśli ktokolwiek chce zostać specjalistą data science, umiejętność wykorzystania nowych technologii będzie kluczową kompetencją, którą powinien dysponować. Absolwenci tych studiów będą z pewnością ją posiadać. Drugim punktem jest zdobycie wiedzy statystycznej, która pozwala unikać wielu błędów w modelowaniu czy analizie danych, a także daje przepustkę do drugiego etapu, którym jest budowa modeli sztucznej inteligencji i uczenia maszynowego. W tym przypadku wychodzimy od regresji liniowej i logistycznej, czyli podstawowych modeli wykorzystywanych w marketingu, czy też w instytucjach finansowych choćby z uwagi na regulacje KNF. Następnie będziemy uczyć modeli czasu trwania, czyli rozszerzymy wiedzę o modelach regresji biorąc pod uwagę również moment, w którym zaszło badane zdarzenie. Wiedza ta jest niezbędna osobom, które chciałyby prowadzić analizę danych medycznych i farmaceutycznych, jak również pracować w firmach ubezpieczeniowych.

Podczas studiów będziemy omawiać także szeregi czasowe, a następnie przejdziemy do uczenia maszynowego i modeli data miningu, skupiając uwagę na drzewach decyzyjnych, lasach losowych, a następnie metodach takich jak bagging i boosting oraz sztucznych sieciach neuronowych.  

Biorąc pod uwagę, że wszyscy wykładowcy posiadają duże doświadczenie, będziemy dzielić się naszymi pomysłami na rozwiązania, które nie są standardowe. Pokażemy, jak łączyć modele, o których wspominałam. Będziemy podawać oryginalne przykłady zastosowań, a także wskazywać, jakich błędów należy unikać. Nasi wykładowcy to osoby, z których większość na co dzień łączy naukę, dydaktykę i biznes. 

A co z praktyką?

Temu służyć będą konkretne przykłady zarówno związane z dziedzinami zastosowań np. w credit scoringu, jak i przykłady zastosowania konkretnych technik np. zaawansowanych modeli uczenia głębokiego. Taki jest zamysł tych studiów, aby zawsze łączyć teorię z praktyką. Każde zagadnienie omówimy na konkretnym przykładzie, najczęściej biznesowym. Absolwent tych studiów będzie potrafił pozyskiwać dane i odpowiednio przygotować je do analizy, przeprowadzić modelowanie, jak również wyciągać wnioski i oceniać koszty podejmowanych decyzji. 

Wiedza, którą przekażemy słuchaczom będzie w odpowiedni sposób usystematyzowana. Mam przekonanie, które wynika z mojego doświadczenia, że z pewnością osoba, która będzie uczestniczyła w zaplanowanych przez nas zajęciach, poradzi sobie z analizą danych w pracy zawodowej.

Czy poza wiedzą i umiejętnościami jest coś, co mogą te studia przynieść absolwentom?

W przypadku osób, które już pracują w biznesie, te studia dają szansę na poszerzenie posiadanych kwalifikacji i kompetencji oraz dostosowanie ich do aktualnych potrzeb rynku. Stwarzają one również możliwość zupełnego przekwalifikowania się.

Dodatkowym atutem tych studiów jest fakt, że są one zdalne. Osoby mieszkające w różnych częściach Polski będą mogły w nich uczestniczyć w modelu online. Mając już doświadczenie w prowadzeniu tego typu zajęć, mogę zapewnić, że zajęcia online nie będą polegały na obserwowaniu tego, co robi wykładowca z drugiej strony ekranu, ale na wspólnym aktywnym działaniu.

Czy studenci, którzy zdobywają takie umiejętności, mają realne szanse na znalezienie satysfakcjonującej pracy?

Zarówno na studiach dziennych, jak i niestacjonarnych, większość studentów SGH już pracuje. Jak wynika z rozmów, przyszli oni na ten kierunek, aby się rozwijać i podnieść swoje kompetencje oraz znaleźć ciekawszą pracę. Zapotrzebowanie na specjalistów z obszaru data science jest ogromne i osoby z tymi kompetencjami nie mają żadnych problemów ze znalezieniem pracy w Polsce, jak i na świecie. 

Ostatnio z pierwszych stron gazet nie schodzi temat chatGPT. W jakim stopniu ta technologia wpływa na pracę studentów?

Technologia generatywnej sztucznej inteligencji, jak chatGPT, daje szansę rozwoju, ale musimy uważać, aby nie ulec złudnemu wrażeniu, że już nie trzeba uczyć się języków programowania i analizy danych. 

Z moich doświadczeń, a nieco już eksperymentowałam, mogę powiedzieć, że to narzędzie w części przypadków myli się, np. nie sprawdza założeń dla wszystkich modeli. Nawet jeśli ta technologia zostanie dopracowana i błędy zostaną wyeliminowane, to należy pamiętać, że nie posiada ona intuicji. Co więcej nie zna faktów, które w obszarze biznesowym, niekoniecznie są spisane, a mają ogromne znaczenie dla uzyskania poprawnego wyniku analiz, a w konsekwencji podjęcia właściwej decyzji biznesowej. 

Studia Podyplomowe Data Science w biznesie dostarczają gruntownej wiedzy i umiejętności z obszaru statystyki oraz uczenia maszynowego niezbędnych do analizy danych w biznesie z wykorzystaniem języków programowania R i Python oraz środowiska SAS Viya.

— Żeby umożliwić interpretację zbieranych informacji, potrzebni są inżynierowie, którzy budują tzw. ciąg przetwarzania danych. Data processing pipeline integruje szereg algorytmów dostarczonych przez analityków danych. To scalanie, filtrowanie, korekcja i synchronizacja informacji w taki sposób, by przekazać je osobom odpowiedzialnym za interpretowanie w przystępnej formie. Można powiedzieć, że inżynierowie danych działają na etapie pośrednim, pomiędzy gromadzeniem danych a ich interpretacją — opisuje swoje obowiązki data engineer w Roche Informatics, Michał Maciejewski.

Dr inż. Michał Maciejewski opracowuje platformy, które usprawniają proces projektowania i analizy złożonych systemów inżynierskich, takich jak m.in. akceleratory cząstek elementarnych. Przygotowuje też oprogramowanie do modelowania i analizy danych. Wcześniej był związany z Europejską Organizacją Badań Jądrowych CERN oraz ETH Zürich. Skończył Politechnikę Łódzką, a następnie uczestniczył w kursach podyplomowych: Top 500 Innovators na Uniwersytecie Stanforda oraz Program on Negotiation na Harvard Law School.

Co robi data engineer w firmie medycznej?

Roche Informatics jest spółką przedsiębiorstwa farmaceutycznego Roche. W międzynarodowych zespołach zajmujemy się rozwojem i utrzymaniem rozwiązań informatycznych w ramach badań nad nowymi lekami oraz piszemy oprogramowanie medyczne, z którego na co dzień korzystają lekarze i pacjenci na całym świecie. A ja jako inżynier danych jestem w zespole, który przygotowuje projekt cyfrowych biomarkerów.

Czym są cyfrowe biomarkery?

Najprościej mówiąc, to informacje zbierane głównie przez urządzenia mobilne w trakcie badań klinicznych. Urządzenia te wspierają gromadzenie i przetwarzanie danych zdrowotnych w taki sposób, aby zarówno pacjent, jak i wszystkie osoby zaangażowane w proces terapeutyczny miały wgląd w jego stan zdrowia, co przełoży się na bieżące i efektywne podejmowanie decyzji dotyczących leczenia. Mówimy tu o sprzęcie, jaki każdy z nas ma na co dzień przy sobie, jak telefony komórkowe czy zegarki, ale także np. sprzęt do ćwiczeń czy maty do spania. Cyfrowe biomarkery mogą pomagać w leczeniu pacjenta oraz w procesie diagnostycznym. Jakościowych danych medycznych dostarczają już proste aktywności, takie jak wykonanie zadania w aplikacji, napisanie tekstu, wypowiedzenie określonych słów lub wykonanie prostego ruchu.

Na czym polega rola inżyniera danych w procesie przetwarzania biomarkerów?

Danych pozyskanych ze wspomnianych urządzeń nie mógłby łatwo interpretować ani lekarz ani pacjent – ze względu na ich formę. Z uwagi na bezpieczeństwo, informacje mają postać zaszyfrowanej bazy danych. Aby umożliwić ich interpretację, potrzebni są inżynierowie, którzy tworzą ciąg przetwarzania danych (ang. data processing pipeline) integrujący szereg algorytmów dostarczonych przez analityków danych. To scalanie, filtrowanie, korekcja i synchronizacja informacji w taki sposób, by dostarczyć je osobom odpowiedzialnym za interpretowanie w przystępnej formie. Można powiedzieć, że inżynierowie danych działają na etapie pośrednim, pomiędzy pozyskaniem i gromadzeniem danych a ich interpretacją.  

Jaka jest rola cyfrowych danych, pozyskiwanych z urządzeń, w procesie leczenia?

Zarówno w Polsce, jak i na świecie od wielu lat mówi się o rosnącym znaczeniu narzędzi cyfrowych oraz dobrej jakości danych zdrowotnych. Ich rolę uwydatniła szczególnie pandemia COVID-19, która zmusiła do utrzymania funkcjonowania opieki nad pacjentami w sposób zdalny. Jednak, aby narzędzia cyfrowe faktycznie służyły pacjentom, opiekunom i społeczeństwu, potrzebna jest edukacja i budowanie świadomości o rozwiązaniach cyfrowych w zdrowiu. Jako firma od lat współpracująca z pacjentami, lekarzami i organizacjami pacjentów zdajemy sobie sprawę, że jedną z największych obaw budzi jest kwestia bezpieczeństwa danych oraz to, przez kogo i w jakim celu będą one wykorzystywane. Dlatego cieszy nas, że jesteśmy świadkami odgórnych inicjatyw mających prowadzić do ustrukturyzowania tych kwestii, m.in. za sprawą rozporządzenia ustanawiającego europejską przestrzeń danych zdrowotnych, którą przygotowuje Komisja Europejska. Z jednej strony zapewni to bezpieczeństwo i anonimowość pacjentom, możliwość kontrolowania, co dzieje się z ich danymi, z drugiej zaś umożliwi lekarzom i naukowcom korzystanie z danych przy użyciu zaufanych i bezpiecznych metod. Finalnie pozyskiwanie wartościowych, dobrej jakości danych zdrowotnych przyczyni się do lepszej opieki nad pacjentami.

I w jaki sposób pomogą w tym biomarkery?

Cyfrowe biomarkery, dostarczając jakościowe dane medyczne, mogą wspierać badania, diagnostykę czy postęp w terapii. Dlatego, obok wykorzystania w badaniach klinicznych, warto pracować nad ich rozwojem. Niejednokrotnie trudno ocenić, jakie informacje pozyskane z cyfrowych biomarkerów mogą mieć znaczenie medyczne. Tymczasem już sama zmiana aktywności ruchowej, czy też częstsze popełnianie błędów podczas pisania w telefonie mogą świadczyć o problemach zdrowotnych, którymi należy się zająć.

A jak one konkretnie działają?

Większość parametrów w naszym organizmie ma pewną zmienność zależną od samopoczucia, kondycji psychofizycznej, stresu, etc. W przypadku klasycznych badań wyszczególnia się parametry, które mogą świadczyć o chorobie (tzw. biomarkery), a następnie bada się je ponownie i na podstawie otrzymanych wyników lekarz wyciąga wnioski. Problemem jest fakt, że są one wykonywane dość rzadko i potrzeba więcej czasu, by zebrać statystycznie znaczące wyniki. Cyfrowe biomarkery, dla których wykazano korelację z klasycznymi biomarkerami, pozwalają natomiast zbierać te informacje regularnie, nawet każdego dnia, w komfortowych dla pacjenta warunkach bez konieczności wyjazdu do szpitala lub przychodni. Przykładem możliwości biomarkerów cyfrowych jest np. choroba Parkinsona. Pacjenci za pomocą telefonu trzymanego w ręce, przy użyciu wbudowanego akcelerometru mogą zmierzyć drżenie ręki i na tej podstawie da się ocenić, czy dochodzi do progresji drżeń.

Jakich narzędzi i technik używa pan w tym przedsięwzięciu do zadań analitycznych?

Programuję w języku Python, korzystając z bibliotek do przetwarzania danych (pandas, numpy, sqlalchemy), jak również z uczenia maszynowego (scikit learn i pytorch). W projekcie, o którym rozmawiamy, wykorzystujemy też bazy danych SQL (PostgreSQL) oraz NoSQL (MongoDB). W poprzednich projektach używałem natomiast technologii Apache: Spark, Hadoop i Airflow.

Dane danymi, ale przecież trzeba sprawić, że państwa rozwiązanie osiągnie odpowiednią dokładność. Co jest kluczowe z punktu widzenia data engineera w tym obszarze?

Interpretacja zadań w ramach badań z wykorzystaniem cyfrowych biomarkerów może być różna i aby zapewnić spójność oraz jakość danych – potrzebna jest edukacja osób korzystających z takich urządzeń bądź ich opiekunów. Ważne są np. długość wykonywania testu, sposób w jaki został zrealizowany czy jego kolejność. W tym momencie pozyskujemy dane spełniające określone kryteria i mogą one być wykorzystywane do dalszych analiz i obliczeń. Obecnie w branży taki trend nazywamy data-driven AI. To odejście od procesu skupionego na algorytmie, w którym przyjmowano, że zbiór danych jest stały i niezmienny, w efekcie czego dopracowywano algorytm w taki sposób, aby uzyskać najlepszą wydajność na tym konkretnym zbiorze danych. Jednak przy wzroście złożoności algorytmu sztucznej inteligencji – trudniej jest wytłumaczyć, dlaczego algorytm podjął taką, a nie inną decyzję. Spotykamy się już z tym na co dzień, kiedy algorytmy SI decydują, komu przyznać ubezpieczenie, w jakiej kwocie itd.

Tymczasem algorytmy powinny być wytłumaczalne?

Algorytmy powinny być w stanie wskazać, z czego wynika dana decyzja i jakie dane wejściowe na nią wpłynęły. Niemniej ten etap skupienia na algorytmie w rozwoju sztucznej inteligencji był bardzo ważny, jeśli chodzi o ich optymalizację czy wręcz tworzenie nowych architektur. Pojawiło się uczenie głębokie, uczenie głębokie ze wzmocnieniem czy tzw. reinforcement learning with human feedback, które możemy zaobserwować np. w działaniu ChatuGPT. Niemniej, jeśli spojrzymy z drugiej strony, czyli na komplementarną perspektywę, gdzie zbiór danych jest zmienny, rozszerzalny, uzupełniany o dobre dane, a algorytm jest w miarę stały – i jednocześnie ograniczamy rozmiar tego modelu, aby być w stanie zrozumieć jego właściwości – to okazuje się, że jest to równie dobre rozwiązanie. Należy przy tym jednak pamiętać o klasycznym problemie rubbish in, rubbish out – jeżeli na wejściu są niezbyt dobre dane wejściowe, to trudno cokolwiek sensownie na ich podstawie wywnioskować.

Jakie są największe zalety stosowania cyfrowych biomarkerów?

Realizacja badań klinicznych jest bardzo kosztowna. Jeżeli zbieramy informacje częściej, potrzeba mniej czasu, aby otrzymać dostateczną ilość danych, która pozwoli wesprzeć decyzję o zakończeniu konkretnych badań. To wpływa bezpośrednio na ich koszt końcowy. Z drugiej strony, jeżeli takie badania są skuteczne, to w momencie zgłaszania konkretnych terapii do agencji zajmujących się rejestracją leków, mamy dodatkowe potwierdzenie skuteczności określonej terapii. Wówczas zgłoszenie rozszerza się o raporty, które pokazują na grupie badawczej, jak mierzalnie pewne wskaźniki się poprawiły. Nie można też zapominać o potencjale detekcji pewnych zmian, zwłaszcza neurologicznych na podstawie korzystania z urządzeń mobilnych. Algorytmy są w stanie coraz lepiej wyłapywać wszelkie anomalie czy odstępstwa od normy w naszym zachowaniu, mowie, gestach, ruchach. Na koniec warto dodać, że rozwój tego typu analizy pozwala kontrolować stan zdrowia także osobom, które nie mają łatwego dostępu do opieki medycznej.

Udostępnij link

https://www.datasciencerobie.pl/inzynier-danych-medycznych-przetwarza-cyfrowe-biomarkery/