– Data science w neuronauce pozwala badać aktywność mózgu na podstawie fal sczytywanych z EEG. Fale mózgu z różnych punktów czaszki zapisywane są w komputerze jako sygnał. Każda elektroda jest przedstawiona jako osobny wykres, a nasze „myśli” są zaprezentowane w sposób matematyczny – mówi dr Leon Ciechanowski z Akademii Leona Koźmińskiego.

Dr Leon Ciechanowski jest pracownikiem Katedry Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Z wykształcenia psycholog kognitywista, a zawodowo – badacz sztucznej inteligencji i data scientist. Specjalizuje się między innymi w analizie sieci społecznych, automatycznych botach w mediach społecznościowych. Do jego zainteresowań należą również data science w neuronauce, a także badania relacji i interakcji zachodzących na linii człowiek – komputer.

Dlaczego jako psycholog zacząłeś pracować z danymi? Fascynacja, konieczność?

Zawsze interesowało mnie to, w jaki sposób ludzie myślą. Zastanawiałem się, jak działa świadomość. Swoją drogę naukową zaczynałem od filozofii, później była kognitywistyka, następnie neuropsychologia, a w tej chwili zajmuję się algorytmami sztucznej inteligencji, czyli „cyfrowym mózgiem”. Fascynuje mnie to, że data science jest często kluczem do zrozumienia pewnych idei w pracy naukowej, a jednocześnie jest narzędziem, które wspiera pracę naukowca, ale i rozwiązania biznesowe.

Tworzysz rozwiązania, które pomagają w rozwiązywaniu problemów tu i teraz.

Jest coś magicznego w tym, że można nauczyć maszynę, aby rozumiała działanie naszego mózgu. Pomijam to, że niemal każdy data scientist chciałby się zbliżyć do stworzenia takiej formy sztucznej inteligencji, która by pozwoliła ze sobą porozmawiać, zaprzyjaźnić się, ale także zrozumieć nas samych. Gdy myślę o sztucznej inteligencji, to mam ogromną nadzieję, że – wbrew obawom wielu – nie podbije nas, lecz nami pokieruje.

No właśnie. Dziś technologie AI i ML zmieniają nie tylko nasze codzienne życie, ale również rolę pracownika w firmach. Rosną oczekiwania szefów firm, mimo że możliwości technologiczne nadal są ograniczone.

Rzeczywistość nie jest taka kolorowa. Nie wszyscy to pamiętają, ale mieliśmy już jedną tzw. zimę AI, kiedy ludzie zawiedli się na umiejętnościach algorytmów sztucznej inteligencji. Powodem były zbyt wygórowane oczekiwania. W latach 90. wielu ekspertów wróżyło, że już za 5-10 lat będziemy mieli superinteligentne maszyny, boty, a może nawet roboty. Zapowiadali, że wszyscy będziemy rozmawiać z nimi na dowolne tematy. Jednak te przewidywania się nie sprawdziły.

Dzisiaj mamy powtórkę z rozrywki. Fascynujemy się np. chatbotami, choć nadal są to bardzo proste rozwiązania. Generalnie technologia, z którą dzisiaj styka się człowiek, wygląda dosyć ubogo. Natomiast w prostych czynnościach i rutynowych zadaniach te narzędzia jak najbardziej spełniają swoją funkcję.

Czy to znaczy, że mamy do czynienia z modą na AI?

Tak, przy czym ten medal ma dwie strony. Współpracując z biznesem, widziałem firmy, które – mówiąc kolokwialnie – jedynie nawijały klientom makaron na uszy. Po zrobieniu doktoratu z neuropsychologii miałem sporo doświadczeń z urządzeniami typu wearables, eye trackerami, kamerami czy czujnikami sczytującymi emocje z twarzy. Widziałem rozwiązania, które są świetne od strony technicznej, jednak biznesowo nie rozwiązują żadnych problemów. Menedżer dostaje wykres, ale nie wie, co z nim zrobić.

Gdybyśmy skupili się nie tylko na „data”, ale trochę też na „science”, czyli na poprawnej metodologii użycia AI, to moglibyśmy stawiać lepsze pytania w biznesie, lepsze hipotezy i móc je w końcu skutecznie sprawdzać.

To dlaczego wiele firm jedynie prześlizguje się po AI czy machine learning, zamiast tworzyć rozwiązania odpowiadające na potrzeby użytkownika?

Wynika to z tego, że próg wejścia w tę technologię jest bardzo wysoki. To dlatego specjaliści AI oraz data science należą do jednych z najlepiej opłacanych w branży technologicznej. Liczba specjalistów, którzy potrafią jednocześnie programować, rozumieją algorytmy i statystykę, jest stosunkowo mała. Dodatkowo, żeby tworzyć sensowne rozwiązania, trzeba znać metodologię, czyli potrafić stawiać hipotezy oraz je potwierdzać.

Obecnie wiele mówi się o rozwiązaniach AI, ale w zasadzie na nic się to nie przekłada. A z drugiej strony w przemyśle, energetyce, medycynie istnieją zaawansowane technologie, które odpowiadają za milionowe oszczędności. Tylko nie zawsze głośno się o nich mówi.

Wspomniałeś o medycynie. Porozmawiajmy więc o wpływie technologii na ludzki mózg. Czy narzędzia sztucznej inteligencji potrafią „zajrzeć” do naszego umysłu?

Poniekąd. Na rynku są rozwiązania, które na podstawie działania kory motorycznej mózgu  pozwalają nieinwazyjnie odczytać, co dzieje się w głowie pacjenta, który ze względu na chorobę nie jest w stanie tego powiedzieć. Wystarczy mieć założony czepek EEG. Te systemy w pewnym sensie odczytują ludzkie intencje – człowiek wyobraża sobie, co chce powiedzieć, a specjalny syntezator przetwarza odebrane sygnały na mowę. Technologie data science w neuronauce są już bardzo rozwinięte.

Dlatego moim zdaniem w ciągu kilku-kilkunastu lat osoby, które nie mogą mówić, np. ze względu na paraliż, będą mogły się komunikować za pomocą technologii. Wykorzystanie algorytmów uczenia maszynowego do rozwiązywania realnych problemów ludzi to olbrzymia wartość. Na całym świecie w podobnych obszarach nieustannie pracują tysiące zespołów naukowych i naukowo-biznesowych.

Z drugiej strony mamy wizjonerów, którzy mówią nam, że w ciągu kilku czy kilkunastu lat będziemy podłączać nasz mózg do interfejsu mózg komputer celem „wgrywania” czy rozszerzania pamięci. Jednak z punktu widzenia data science w neuronauce jest to bardzo mało prawdopodobne w najbliższym czasie.

W którym momencie jesteśmy?

Powiedziałbym, że w momencie przejściowym. Tworzymy lepsze maszyny, roboty i czatboty niż 10, 20 czy 30 lat temu. Jednak cały czas nie są one idealne. Ale kiedyś się staną. Budując te systemy, musimy pamiętać, aby nie wpaść w tzw. dolinę niesamowitości. Im bardziej podobny do nas system tworzymy, tym bardziej pozytywne emocje on wywoła. Do pewnego momentu oczywiście. Wtedy osiągamy swego rodzaju „sweet spot”, lecz nigdy nie wiemy, gdzie dokładnie on się znajduje. I tu nagle pojawia się załamanie naszych emocji – roboty, które są bardzo do nas podobne, ale nie idealnie podobne, zaczynają budzić lęk, strach, niepokój. Dlatego w interakcji z ludźmi celem powinna być próba nietworzenia idealnej technologii. Uważam, że mimo wszystko powinna to być nieco gorsza wersja niż potencjalnie możliwa do stworzenia.

Czy tworzone technologie nie powinny przejść np. testu Turinga?

Czatbot Eugene Goostman kilka lat temu zdał pozytywnie test Turinga, mimo że nie najlepiej mówił po angielsku. Za sukcesem projektu stał fakt, że Eugene okazał się niedoskonały, bo bardziej ludzki niż maszynowy.

Tak więc z jednej strony są komputery, które potencjalnie mają do dyspozycji całą wiedzę internetu i różnych encyklopedii. Jednocześnie żeby komputer sprawiał wrażenie bardziej „ludzkiego” i nie budził lęku, wciąż musi pozostać odrobinę niedoskonały, czyli taki jak wszyscy ludzie.

Zajmujesz się kognitywistyką. Czy tam jest miejsce na data science? Czy ludzkie myśli da się sprowadzić do postaci liczb rozpoznawalnych dla maszyn?

Algorytmy sztucznej inteligencji są częścią data science w neuronauce. W ramach mojego doktoratu zajmowałem się badaniem reakcji psychologicznych na podstawie aktywności mózgu sczytywanej z EEG. Urządzenie sczytuje fale mózgu z różnych punktów czaszki i zapisuje w komputerze jako sygnał. Każda elektroda jest przedstawiona jako osobny wykres, a nasze „myśli” są zaprezentowane w sposób matematyczny. Zaznaczę, że stosuję tu pewne uproszczenie. Obecnie nikt nie wie do końca, jak procesy elektrochemiczne prowadzą do powstania myśli czy świadomości w mózgu. Natomiast np. dzięki elektroencefalografii, czyli badaniu bioelektrycznej czynności mózgu, mamy zdecydowanie większą wiedzę o prostszych procesach tam zachodzących, jak powstawanie ruchu, uczuć, mowy itp.

Uzyskany w ten sposób sygnał neuronalny mogę przekształcać i traktować jako bazę danych. Na ich podstawie mogę np. przewidywać, jaką decyzję podejmie osoba badana: czy „pod wpływem” sygnału mózgowego naciśnie guzik prawy, czy lewy. Na ten temat są już prowadzone zaawansowane badania, które pokazują, że dzięki takim rozwiązaniom można przewidzieć działanie osoby badanej nawet kilkanaście sekund przed jej decyzją.

Ale już numeru konta bankowego czy PIN-u danej osoby nie wyciągniemy z jej mózgu?

Akurat w przypadku konta bankowego zrealizowano badania, które udowodniły, że jest to możliwe. Przy czym naukowcy musieli długo i wnikliwie trenować algorytm, aby takie działanie było skuteczne. Zadaniem osoby, która brała udział w eksperymencie, było intensywne myślenie o każdej kolejnej cyfrze konta. W tym czasie obraz fal mózgowych był szczegółowo sczytywany za pomocą elektrod. Na co dzień nikt nie myśli o numerach w taki sposób, nie mówiąc już o tym, że wiele PIN-ów jest automatycznie zapisywanych na naszych urządzeniach.

Czy w takim razie kwestie etyki sztucznej inteligencji będą ograniczały pracę specjalistów data science?

Te ograniczenia już są. Samo RODO dużo zmieniło, również w praktyce laboratoryjnej. Mimo że to w pewnym stopniu utrudnia naszą pracę, to jednak indywidualnie czujemy się chronieni. Mam na myśli zarówno badaczy, data scientistów, jak i osoby badane.

Z uwagi na regulacje w obszarze sztucznej inteligencji pojawiła się koncepcja Explainable AI, czyli zestaw metod i procesów, które pozwalają użytkownikom zrozumieć efekty działania algorytmów i zaufać im. To wymusza na ich twórcach takie podejście do konstruowania algorytmów, aby decyzje, które są podejmowane z ich udziałem, były wytłumaczalne, a nie zawierzane w „czarnej skrzynce”.

Przygotowanie modelu uczenia maszynowego i prezentacja danych to tylko ostatnie etapy pracy projektowej specjalistów data science. W międzyczasie muszą bacznie przyglądać się źródłom danych, a także ich jakości. Wyjaśniamy, przez jakie etapy należy przejść, aby udany projekt data science był na wyciągnięcie ręki.

1. Zrozumienie potrzeb biznesowych

Udany projekt w data science jest możliwy wtedy, gdy data scientist ściśle współpracuje z klientami. Bez tego dużo trudniej zrozumieć problemy biznesowe, z którymi mierzy się firma, a tym samym sformułować cele, do których dąży. Warto bazować na pięciu podstawowych pytaniach, na jakie odpowiedzi znajdziemy za pomocą właściwych metod machine learning. Jako przykład pytań weźmy kwestię relacji z klientami.

• Regresja: Ile? Jak dużo? – Ile umów zawrzemy w przyszłym miesiącu?

• Klasyfikacja: Do jakiej kategorii należy X? – Czy nowa opinia w mediach społecznościowych należy do kategorii pozytywnych, czy negatywnych?

• Grupowanie: Do jakiej grupy należy Y? – Czy klient zawarł umowę przez internet, czy stacjonarnie?

• Wykrywanie anomalii: Czy jest w tym coś dziwnego? – Czy to dziwne, że klienci zaczęli kupować dużo więcej kart graficznych?

• Rekomendacja: Jaki wariant wybrać? – Czy danej grupie klientów powinniśmy zaproponować zniżkę, czy prezent?

Po ustaleniu pytań i wątpliwości, które zostaną rozwiane dzięki wnikliwym analizom i rekomendacjom ekspertów, warto skupić się na miernikach sukcesu. Przy określaniu celów można posiłkować się np. zasadą SMART. To akronim od angielskich słów: specific, measurable, achievable, relevant, time-bound – konkretny, mierzalny, osiągalny, istotny i określony w czasie. Cele spełniające te kryteria będzie łatwo poddać weryfikacji.

Na tym etapie data scientist powinien także skompletować zespół projektowy, gdzie każdy będzie miał przypisaną rolę i obowiązki.

2. Pozyskanie danych

Skoro już wiadomo, do czego potrzeba danych, nadszedł czas, żeby zakasać rękawy i je zebrać. Dobrze zacząć od konsultacji z osobą wyspecjalizowaną w danej dziedzinie – jej wkład we wskazanie możliwych i najbardziej właściwych źródeł informacji będzie nieoceniony. W zależności od projektu dane będą pochodziły z jednego lub wielu miejsc.

Pośród typowych źródeł możemy wyliczyć: automatyczne funkcje wbudowane w aplikacje, czujniki wykorzystywane w technologiach internetu rzeczy, monitoring mediów społecznościowych, badania ilościowe i jakościowe prowadzone wśród użytkowników, klientów i pracowników, a nawet bezpośrednią obserwację. Proces zbierania danych dobrze jest monitorować pod kątem istotności informacji, które sprawią, że udany projekt data science będzie na wyciągnięcie ręki. Jeśli tej informacji nie ma, nie warto marnować czasu zespołu na gromadzenie kolejnych bajtów.

3. Czyszczenie danych

Samo zebranie danych to początek drogi do sukcesu. Trzeba pamiętać o możliwych problemach, związanych choćby z jakością pozyskanych danych – nieprzetworzone mogą zawierać nieścisłości i nie być kompletne, przez co wszelkie wnioski wyciągnięte na ich podstawie można łatwo poddać w wątpliwość.

Tym kłopotom może zaradzić kolejny krok – czyszczenie danych. Na tym etapie należy wykryć błędne, niedokładne, nieaktualne, a także powielone lub zbędne informacje. Dodatkowo trzeba ustandaryzować formaty danych. Faza czyszczenia, choć nie zawsze lubiana przez data scientistów, jest kluczowa dla powodzenia całego projektu. Dane o niewystarczającej jakości mogą prowadzić do błędów w rozumowaniu czy tworzyć fałszywy obraz sytuacji. W biznesie może się to skończyć złymi decyzjami skutkującymi np. utratą klientów lub kapitału.

4. Eksploracyjna analiza danych

Kiedy dane są już wyczyszczone, przychodzi czas na półautomatyczną lub automatyczną analizę, która umożliwia określenie nieznanych wcześniej wzorców i tendencji. W tej fazie trzeba skupić się na właściwym zrozumieniu danych, by były przydatne w decyzjach biznesowych. Metody nie są z góry narzucone – data scientiści mogą bowiem korzystać z drzew decyzyjnych, metod ewolucyjnych, regresji, uczenia maszynowego czy zbiorów przybliżonych. Dzięki tej pracy da się spostrzec również wartości odstające i sprawdzić, co się za nimi kryje.

Poddanie danych analizie to krok niezbędny do sformułowania hipotez dotyczących problemu biznesowego. Co ciekawe, eksploracyjną analizę danych od lat 70. ubiegłego wieku promował John Tukey, amerykański matematyk i statystyk. Tukey zachęcał do stawiania hipotez mogących prowadzić do zbierania nowych danych i wykonywania nowych eksperymentów.

5. Inżynieria cech

Cecha jest mierzalną właściwością lub atrybutem obserwowanego zjawiska, zaś inżynieria cech pozwala wskazać dane wyjściowe używane w modelach uczenia maszynowego. Często potrzeba wiedzy z danej dziedziny, bo im lepsze określenie charakterystyk, tym większe szanse na zrozumienie świata przez maszynę.

Na tym etapie specjaliści data science sięgają zazwyczaj po dwa działania: selekcję i konstrukcję cech. Selekcja polega na wyeliminowaniu charakterystyk, które dają więcej szumu niż informacji. Umożliwia też uniknięcie tzw. klątwy wielowymiarowości, czyli sytuacji, w której algorytm, zamiast uczyć się docelowych funkcji, musi zmagać się z wykładniczo rosnącymi danymi. Konstrukcja cech z kolei dotyczy tworzenia nowych cech na podstawie już istniejących charakterystyk.

6. Modelowanie predykcyjne

Wybór algorytmu uczenia maszynowego jest zależny m.in. od wielkości zbiorów danych, ich rodzaju i ilości, a także dostępnego czasu i oczekiwanych danych wyjściowych. Warto przetestować kilka modeli, żeby wybrać najbardziej odpowiedni. Selekcję można przeprowadzić, posiłkując się dostępnymi w sieci schematami blokowymi (na przykład “Machine Learning Algorithms Cheat Sheet“). Dzięki nim można szybko ocenić, czy lepiej sięgnąć po metody nadzorowanego, czy też nienadzorowanego uczenia maszynowego.

Po wytrenowaniu algorytmu należy przyjrzeć się jego skuteczności, przeprowadzając choćby walidację krzyżową polegającą na podziale próby na podzbiory, gdzie część jest poddawana analizie, a reszta służy potwierdzeniu wyników przetwarzania. Inżynier uczenia maszynowego Sudeep Agarwal zaleca sprawdzian k-krotny, gdzie algorytmy trenowane są kolejno na wszystkich podzbiorach poza jednym, a wyniki są na końcu łączone.

7. Wizualizacja danych

Pokazanie danych może wydawać się zadaniem prostym, ale tak naprawdę wcale do takich nie należy. Wizualizacja ma na celu prostą, skuteczną i atrakcyjną prezentację wniosków wyciągniętych dzięki uczeniu maszynowemu. Spełnienie tych warunków sprawia, że dane zostaną użyte przy podejmowaniu odpowiednich decyzji biznesowych. Z kolei zbyt zawiłe i nieczytelne informacje mogą skutkować niewykorzystaniem efektów pracy data scientistów w procesach decyzyjnych. Taka sytuacja rodzi frustrację, więc tym bardziej należy skupić się na tej fazie pracy. Warto pamiętać, że wizualizacja danych wymaga kompetencji nie tylko statystycznych, ale również z takich dziedzin, jak komunikacja czy psychologia.

8. Korekta

Zaraz, zaraz… przecież miało być 7 kroków! I to się w pewnym sensie zgadza, jednak praca z danymi, tak samo jak projektowanie aplikacji, jest procesem iteracyjnym. Przejście wszystkich etapów nie oznacza końca zadań związanych z konkretnym projektem. Być może pojawiły się nowe spostrzeżenia, lub – zwyczajnie – wypracowany model nie do końca spełnia wszystkie warunki. Jeśli pojawiają się nowe zagadnienia, należy ponownie usiąść ze wszystkimi zainteresowanymi i zweryfikować, co i na którym etapie można poprawić. Nierzadko będzie tak, że nowe elementy będą wymagały wprowadzenia zmian tylko w części kroków.

W tekście posiłkowaliśmy się „Cyklem życia data science” zaproponowanym przez Sudeepa Agarwala, inżyniera uczenia maszynowego.

– Kiedy pytam osoby z branży technologicznej o przyczyny zmian zawodowych, to najczęściej odpowiedź sprowadza się do jednego: sposób zarządzania projektami w organizacji. Pracownicy pytają wprost: co stoi za zadaniami, które realizujemy? Dla większości istotne jest poczucie sensu wykonywanej pracy. To jeden z czynników wpływających na dobrostan w pracy.

Joanna Piechocka to coach i trener dobrostanu z ponad 12-letnim doświadczeniem na styku psychologii, edukacji i biznesu. Nasza rozmówczyni wspiera pracowników, menedżerów i przedsiębiorców w zadbaniu o siebie i zaopiekowaniu się 5 sferami, które wpływają na ogólny dobrostan w pracy.

Dobrostan… czyli o czym dokładnie mówimy?

Nie ma jednej odpowiedzi na to pytanie. Definicji jest co najmniej kilka, ale możemy się posłużyć oficjalną wersją Światowej Organizacji Zdrowia. Mówi ona, że: „dobrostan to jeden z elementów ludzkiego zdrowia, który definiujemy nie tylko na podstawie obiektywnych mierników stanu zdrowia, takich jak brak choroby lub niepełnosprawności, lecz również jako subiektywnie postrzegane przez człowieka zadowolenie z fizycznego, psychicznego i społecznego stanu własnego życia”.

Pewnie wiele osób nadal odnosi wrażenie, że pracownicy branży technologicznej są bardzo dobrze „zaopiekowani” – wysokie pensje, elastyczny czas pracy, możliwość ucieczki od korporacyjnego stylu pracy. Czego chcieć więcej?

Stanowisko, że przedstawiciele świata IT nie mają na co narzekać również pod względem dobrostanu wynika z tego, że często utożsamiamy dobrostan w pracy z benefitami pozapłacowymi. Są one jednym z czynników, które później sprawiają, że w pracy czujemy się dobrze. Jednak myśląc o długoterminowym budowaniu sprzyjającego środowiska pracy, należy patrzeć na pracownika szerzej – jako na człowieka dążącego do samorealizacji i poszukującego sensu swoich działań na co dzień.

Czego oczekują dziś specjaliści z branży technologicznej? Mają jakieś szczególne potrzeby?

Na rozmowach rekrutacyjnych kandydaci częściej pytają o rozwiązania systemowe, które pozwalają im zadbać o siebie, niż o benefity w stylu super catering czy konsola do gier. Przyszli pracownicy są zainteresowani tym, jak się pracuje w danej firmie, jaki jest styl zarządzania. Doceniają też indywidualne podejście.

Przykładem może być np. system pracy w organizacji. Ważne jest, żeby pozwalał na zachowanie równowagi między życiem prywatnym a zawodowym. Z kolei do benefitów pozapłacowych z czasem się przyzwyczajamy. Następuje tzw. hedonistyczna adaptacja, , czyli szybkie przyzwyczajanie się do dobrego. To, co na początku sprawia nam radość, z czasem przestaje robić na nas wrażenie i staje się codziennością. Wówczas dany czynnik nie wpływa pozytywnie na nasz poziom zadowolenia w znaczący sposób.

Dlatego jeżeli na starcie kompleksowo nie zadbamy o dobrostan w pracy, to wspomniane dodatki będą tylko krótkoterminową ucieczką, które na dłuższą metę nie zbudują satysfakcji z pracy. Firmy pracują – a przynajmniej powinny – nad wypracowaniem atrakcyjnych trwałych systemowych rozwiązań. To one będą decydować, czy pracownik zostanie w firmie, czy nie. Szczególnie trudne zadanie stoi przed organizacjami zatrudniającymi specjalistów z branży technologicznej, w tym data scientistów, którzy dziś mogą niemalże przebierać w ofertach.

To co tak naprawdę wpływa na dobrostan w pracy?

Jednym ze źródeł dobrostanu jest tzw. dopasowanie. Po pierwsze na poziomie człowiek-praca. Mówi nam o tym, w jakim stopniu to, co pracownik robi na co dzień, jest zgodne z jego preferencjami, kompetencjami i osobowością. W świecie technologii są specjaliści, którzy będą chcieli tylko pisać kod, koniec. Ale są i tacy, którzy potrzebują patrzeć i działać szerzej: przeanalizują problem, stworzą model i napiszą kod, a później przygotują rekomendacje i będą chcieli je przedstawić klientowi. Po jakimś czasie z takich specjalistów często wyrastają liderzy zespołów. Nie chodzi o to, że któraś z tych ścieżek jest lepsza. Ważne jest, by właściwy człowiek był na właściwym miejscu w zgodzie ze sobą.

Drugim typem dopasowania jest człowiek-organizacja. Tu odpowiadamy sobie na pytanie: w jakim stopniu moja praca jest zgodna z moimi wartościami. Nie chodzi o to, co firma ma wypisane na stronie internetowej. Tylko o to, czy i jak bardzo moje potrzeby są przez firmę i moją pracę zaspokojone. I to w wielu obszarach, nie tylko w finansowym.

A jeśli się okaże, że dopasowania nie ma?

Może być tak, że coś poszło nie tak w czasie rekrutacji, albo menedżerowie za to odpowiedzialni nie podołali zadaniu. Dopasowanie nie jest czymś danym w dniu przyjęcia do pracy. To ciągły i dynamiczny proces, w którym odpowiedzialność jest po obu stronach: firmy i pracownika. Kiedy nie ma dopasowania lub jest ono w jakimś stopniu zmniejszone, to długofalowo odczuwamy skutki zniechęcenie, utraty motywacji, mniejszej chęci wykonywania zadań, obciążenia psychicznego czy większego ryzyka wypalenia. W efekcie traci i pracownik, i firma. Pamiętajmy, że ludzie często odchodzą z firm. Wiele osób potrafi podjąć pracę w branży, z podobnym zakresem obowiązków, ale w innym miejscu, w innej kulturze organizacyjnej.

Głęboko wierzę, że niezależnie od obszaru biznesu najważniejszy zawsze pozostaje człowiek. Oczywiście obudowujemy się w zadania, projekty, targety, które dowozimy albo nie dowozimy. Jednak na koniec dnia, gdy kładziemy się spać, jesteśmy ludźmi. Każdy ma swoją biologię, o którą musi zadbać. Ma też swoją psychikę, która wpływa na to, jak realizuje zadania.

Jakie niespełnione potrzeby mogą mieć np. specjaliści data science, skoro są „zaopiekowani” w tych kluczowych, a zarazem tradycyjnych czynnikach ważnych dla pracowników, jak chociażby pensja?

Kiedy pytam osoby z branży technologicznej o przyczyny zmian zawodowych, to najczęściej odpowiedź sprowadza się do jednego. I nie chodzi tu wcale o niespełnienie zawodowe, tylko sposób zarządzania projektami w organizacji. Pracownicy pytają wprost: co stoi za zadaniami, które realizujemy? Dla większości niezwykle ważne jest doświadczanie poczucia sensu wykonywanej pracy. To jeden z czynników wpływających na dobrostan w pracy.

Czy to też rola menedżerów, team leaderów, aby ten cel wskazać?

Rola, ale i ogromne wyzwanie. Muszą uświadomić sobie, na ile dają zespołom perspektywę wspólnej realizacji projektu. Jeśli pracownicy nie będą tego czuli, to odejdą do organizacji, która im tę perspektywę zapewni.

Rzeczywiście brzmi to bardzo pięknie. Ale jest też proza życia w postaci stawianych zadań, ich realizacji, deadline’ów. Pracownik by pewnie chciał myśleć o dobrostanie, ale gdzieś tam jest przełożony, gdzieś pracodawca, nie mówiąc już o raportach i scoringach.

Tu dotykamy bardzo ważnego i ciekawego tematu: za co odpowiadamy i na co mamy wpływ w pracy. Łatwo powiedzieć, że „w mojej firmie to się nie uda”. Rozumiem obiektywne ograniczenia wynikające ze struktury, procedur. Menedżerowie znajdują się między młotem a kowadłem, między zespołem a szefem. I ta pozycja zdecydowanie nie należy do komfortowych. Jednak przy obecnej fragmentaryzacji pracy pojawiają się całkiem nowe oczekiwania wobec szefów.

Głównym oczekiwaniem pracowników często jest to, aby szef im zwyczajnie nie „przeszkadzał”. Menedżer ma zapewnić sprawny przepływ informacji, dobrą komunikację, platformę do zarządzania projektem. Musi pozwolić robić swoje i wykazywać się odpowiednimi kompetencjami zarządczymi.

Mówiła Pani o poczuciu sensu w pracy. Jak go wzbudzić w pracownikach z branży technologicznej, skoro projekt za projektem płynie niemal nieprzerwanie? To czasem praca jak przy taśmociągu.

Wcale nie potrzebujemy do tego specjalnego systemu czy programu rozwojowego, wielkich struktur w organizacjach. Chodzi bowiem o to, aby zatroszczyć się o człowieka, przekazać mu szerszy kontekst zadania, które wykonuje. Delegowanie zadań w postaci wyciągnięcia danych z systemu może się zakończyć na poziomie zlecenia i przyjęcia do realizacji. Ale można też uzmysłowić pracownikowi, że włożony właśnie wysiłek nie pójdzie na marne, bo stworzony przez niego raport będzie omawiany na spotkaniu zarządu, który zamierza podjąć ważną decyzję biznesową. To jest tylko jedno zdanie więcej, które daje pracownikowi kontekst jego pracy i wyjaśnia sens zadania, które dostał.

Czyli jest Pani zwolenniczką drobnych usprawnień w firmie, a nie zmian strukturalnych czy poważnie brzmiących programów naprawczych?

Zdecydowanie tak, ale bez udziału samego pracownika to się nie uda. Dlatego coraz więcej firm wprowadza stosuje tzw. job-craftingowe podejście do pracy. Polega ono na wprowadzaniu małych zmian do obowiązków wykonywanych na co dzień. Po to, żeby osiągać z niej większą satysfakcję. Wtedy i firma zaczyna osiągać lepsze rezultaty.

Job crafting zakłada, że oddajemy pracownikowi odpowiedzialność za dostosowanie pracy do osobistych potrzeb, celów i umiejętności. Wierzymy w jego kompetencje i nie mówimy, co ma robić krok po kroku. Pracownik powinien mieć możliwość wprowadzania oddolnych zmian i wywierania wpływu na to, jak pracuje. A to z kolei ma wpływ na całą firmę.

Jakie argumenty przemawiają za efektywnością tego podejścia?

Intuicyjnie podejmujemy pewne drobne zmiany, żeby nam się lepiej pracowało. Przykładem są proste, codzienne rytuały, bez których nie zaczynamy dnia pracy, jak np. poranne picie kawy. To są drobiazgi, które robimy intuicyjnie, ale pomagają nam w pracy. I tym procesem możemy nauczyć się zarządzać.

Jeżeli chodzi o branżę technologiczną, to możemy mówić o tzw. craftowaniu pracy w różnych wymiarach. Przykładowo na poziomie zadań, czyli ilości i kolejności tasków przy zachowaniu wysokiej intensywności projektów. Dostosowywać własną pracę możemy także na poziomie relacji między pracownikami – w jaki sposób się kontaktujemy, jak dbamy o budowanie relacji. Czas pandemii pokazał nam dużo nowych możliwości, a zespoły oddolnie wykazywały się kreatywnością.

Ostatni poziom job craftingu to tzw. crafting poznawczy. I tu wracamy do kwestii nadawania sensu swojej pracy, czyli tego, jak postrzegamy naszą rolę w firmie.

Wskazuje Pani na dużą odpowiedzialność nas samych za swój dobrostan. Jaki mamy na to wpływ, oczywiście poza właściwym ułożeniem sobie pracy?

Na przykład wykonując pracę przy komputerze, zapominamy o tym, że my nie jesteśmy zadaniem, celem czy targetem. Przecież mamy też ciało i umysł. Niestety, często zapominamy o swoich potrzebach. O przerwach w pracy, o dobrym samopoczuciu psychicznym i fizycznym. Dlatego ważne są choćby zmiany trybu z siedzącego na stojący w trakcie dnia. Należy też pamiętać o higienie oczu, jeśli spędzamy większość czasu pracy przed monitorem.

To co z dobrostanem psychicznym?

Powinniśmy zapytać sami siebie: co u mnie słychać. Może to brzmi zabawnie, ale spójrzmy na to z innej perspektywy – cały dzień jesteśmy wkręceni w pracę analityczną, trudności związane z brakiem działania jakichś rozwiązań. To wywołuje frustrację, nerwy, jeszcze większe napięcie mięśni. Męczymy się we własnym ciele przy wykonywanej pracy. Męczy się zarówno nasze ciało, jak i umysł.

Wtedy musimy znaleźć w sobie siłę i odpowiedzieć na pytania: Jak w tej chwili się czujemy? Czy możemy coś dla siebie zrobić? To mogą być proste rzeczy takie jak krótki spacer, wyjście do parku, ale także jakieś przerywniki w postaci automasażu czy np. wykorzystania olejków eterycznych do spokojnego oddechu.

Kiedyś pracując na etacie, wstawałam od biurka i po prostu co kilka godzin sobie żonglowałam piłeczkami. I mówiąc szczerze, zupełnie mnie nie obchodziło, co ktoś o tym pomyśli. Wiedziałam, że jak usiądę do pracy koncepcyjnej po takiej minucie żonglowania, to jestem pięć razy bardziej wydajna, niż jakbym tej przerwy sobie nie zrobiła. Taka aktywność bardzo pobudza nasz mózg i wspiera synergię między lewą i prawą półkulą.

Tu chodzi o znalezienie kilku skutecznych metod, które trzeba wdrażać małymi krokami. Bo moim zdaniem rewolucja się nie sprawdza. Tylko ewolucja się sprawdza.

A jeśli za chwilę ktoś powie tak: „Nawet jeśli teraz intensywnie realizuję zadania, to przecież odpocząć mogę po pracy. Poza tym w branży technologicznej tak się nie da, bo ludzie czekają na efekty mojej pracy”?

Cóż, do każdej branży trzeba się trochę dopasować. Jeśli nie ma innego wyjścia, to czas na wspomniane już rytuały czy przerywniki w pracy trzeba sobie zarezerwować w kalendarzu, dodatkowo ustawić budzik na telefonie. Pamiętajmy, że jeśli nie zaplanujemy sobie dnia, to ktoś na pewno to zrobi za nas. Poza tym dobrostanu nie da się budować tylko po pracy, gdy w pracy spędzamy tak dużą część naszego życia. To jest błędny sposób myślenia, a do tego mało efektywny.

Czy w sytuacji, gdy organizacja stawia przed pracownikiem ścianę, ma on szansę na wprowadzenie tych wszystkich usprawnień?

Jeśli ktoś mówi, że to się nie uda, to trzeba zapytać, czy próbował. Mamy różne przekonania o tym, co jest możliwe w naszych firmach, a co nie jest. To jak z danymi i pracą analityczną – zawsze trzeba zweryfikować, a nie pochopnie wyciągać wnioski.

Zastanówmy się, czy rzeczywiście jest tak, że jeśli zrobię sobie trzy przerwy po kilka minut na spokojny oddech, to świat się zawali? Wiadomo, systemy organizacyjne mają w sobie pewne obostrzenia, reguły gry. Pamiętajmy jednak, że nikt nam nie zabrał wolności i możliwości samostanowienia o sobie. Z mojego doświadczenia wynika, że ludzie widzą masę ograniczeń, dopóki nie zaczną  świadomie dbać o swój dobrostan w pracy.

W życiu każdego człowieka następuje moment, kiedy chce poprawiać swoją sytuację życiową, zawodową. W trakcie sesji indywidualnych czy szkoleń zadaję uczestnikom pytanie: „Wyobraź sobie, że przez najbliższy rok nic nie zmienisz. Będzie tak, jak jest teraz. To gdzie będziesz za rok? Jak się będziesz czuł? Jak będzie funkcjonowało twoje ciało?” Wtedy często pojawia się pierwsza energia do zmian i zrobienia kroku w stronę świadomego dbania o siebie. Niekiedy działania podejmowane są z obaw przed spełnieniem wizji z naszego wyobrażenia. A kolejne kroki odkrywają przed nami nowe możliwości, z których istnienia na początku nie zdajemy sobie sprawy.

A czy data scientiści mają więcej możliwości niż inni pracownicy, żeby zawalczyć o swój dobrostan w pracy?

Według mnie specjaliści z branży technologicznej mają o tyle dobrą sytuację, że ich pozycja na rynku jest mocna. Mogą sygnalizować swoje potrzeby i rynek wydaje się reagować, niejako spełniając te potrzeby szybciej i kreując trendy, dobre praktyki. Jednak nie wszystko zależy od specyfiki pracy czy konkretnej specjalizacji.

„Moja branża jest specyficzna” – słyszałam to setki razy. Jednak powtarzam jak mantrę: za każdym projektem, modelem, wykresem bądź technologią kryje się człowiek. To on decyduje, czy chce zadbać o siebie, czy tkwić przez lata w sytuacjach, które do końca mu nie odpowiadają. Jeśli sami nie chcemy poprawić sobie poziomu satysfakcji z pracy, to branża nie ma znaczenia.

Badanie zaprezentowane w raporcie „Accelerated digital transformation”, o którym przeczytasz na naszym blogu, pokazało, że poszerzanie i aktualizowanie wiedzy w dziedzinie data science jest zawsze na topie. Dotyczy to zarówno adeptów nauki o danych, jak i fachowców. Dlatego dziś przyjrzymy się popularnym kursom i pokażemy, gdzie możesz szkolić się z data science. Poniżej znajdziesz odnośniki do kompleksowych, a także specjalistycznych szkoleń. Co istotne, do każdego dołączysz, nie ruszając się sprzed ekranu.

Przegląd zaczniemy od kursów przekrojowych, które znaleźliśmy na kilku platformach (m.in. Udemy), z którą być może mieliście już do czynienia. Jeśli jesteś nowicjuszem, z pewnością zgłębisz meandry dziedziny. Tylko pamiętaj, aby nie przewijać materiału zbyt pochopnie! Jeżeli jednak szkolić się z data science będziesz już po raz kolejny – poniższy zbiór i tak może się przydać. Choćby po to, żeby uporządkować wiedzę i poznać nowe narzędzia.

Bootcamp z Udemy

Autorzy szkolenia “The Data Science Course 2022: Complete Data Science Bootcamp” zaczynają od omówienia różnych dziedzin nauki, które nie tylko zajmują się danymi, ale także pracują nad technikami i narzędziami popularnymi zwłaszcza wśród osób, które chcą szkolić się z data science. Drugą część poświęcili prawdopodobieństwu, a w jego ramach poruszają zagadnienia: kombinatoryki, wnioskowania bayesowskiego oraz funkcji rzeczywistej, która wyznacza miarę prawdopodobieństwa, czyli dystrybuanty.

Następnie przechodzą do statystyki i podstawowych zagadnień związanych z programowaniem w Pythonie. Jednak nie poprzestają na zagadnieniach podstawowej składni, instrukcji warunkowych, funkcji i iteracji – skupiają się także na zaawansowanych metodach statystycznych w Pythonie. Nie możemy też zapomnieć o rozdziale dotyczącym głębokiego uczenia, które poprzedzane jest omówieniem matematyki stojącej za machine learning. Jeśli weźmiesz udział w kursie, zdobytą wiedzę sprawdzisz na przykładach z biznesu wziętych.

10 kursów w Courserze

Propozycja amerykańskiej spółki edukacyjnej to szkoleniowy multitool – w ramach “Data Science Specialization” przerobisz w sumie 10 kursów. Kompendium przygotowane przez Uniwersytet Johna Hopkinsa rozpoczyna się wyjaśnieniem, w jaki sposób przekształcić dane w użyteczną wiedzę uzupełnioną o prezentację niezbędnych narzędzi. Drugi etap to nauka kodowania w R, wczytywania danych czy pisania funkcji. Następne szkolenia są poświęcone zbieraniu i czyszczeniu informacji, eksploracyjnej analizie danych, wnioskowaniu statystycznemu oraz regresji. Jeden z działów traktuje o ważnej kwestii, jaką jest pokazanie wyników analizy masowemu odbiorcy tak, aby były dla niego zrozumiałe i czytelne. Ostatnim etapem są projekty, którymi można uzupełnić portfolio.

Data science jak w Harvardzie

Certyfikat Uniwersytetu Harvarda będzie Ci przysługiwał, kiedy ukończysz program “HarvardX’s Data Science” w platformie edX. Twórcy tego szkolenia również postawili na R i zaczynają naukę od podstaw języka. Następnie pokazują, jak wykorzystać Ggplot2, czyli open source’owy pakiet służący wizualizacji danych. Z kolei rachunku prawdopodobieństwa uczą, wykorzystując przykłady z kryzysu ekonomicznego w 2008 roku. Tym razem też nie obejdzie się bez wnioskowania i modelowania statystycznego, a także przetwarzania i przekształcania surowych danych w formaty potrzebne do analizy. W trakcie nauki dowiesz się, jak używać systemu Unix/Linux jako narzędzia do zarządzania plikami i katalogami oraz utrzymania porządku w projektach. Zapoznasz się z systemem kontroli wersji git, a także zgłębisz tajniki R Markdown, dzięki czemu w jednym dokumencie połączysz tekst z kodem.

Szybki kurs dla każdego z datacamp

15 krótkich filmów i 48 praktycznych ćwiczeń w kursie “Data Science for Everyone” to dobry start, jeśli chcesz się dowiedzieć, czym jest nauka o danych, ale raczej stronisz od kodowania. Szkolenie jest podzielone na cztery części. Pierwsza, poświęcona podstawom, traktuje m.in. o zastosowaniach data science, różnicach w zadaniach inżynierów danych, analityków czy specjalistów uczenia maszynowego, jak również o narzędziach, z których korzystają. Następny moduł pokazuje, skąd czerpać dane i objaśnia metody ich przechowywania. W trzecim etapie poznasz podstawy przygotowywania zgromadzonych danych, np. sposoby radzenia sobie z brakującymi wartościami, oraz zaznajomisz się z zagadnieniami eksploracji i wizualizacji informacji. Na końcu dowiesz się, co zrobić, aby prognozować przyszłe zdarzenia.

Akademia dla data scientistów

Program SAS Academy for Data Science to trzy ścieżki nauki. Jeśli zdecydujesz się zostać kuratorem danych, czekają na ciebie cztery szkolenia – pierwsze wyjaśnia, czym jest tego rodzaju kuratela i jak w jej ramach korzystać z SAS. W kolejnym opanujesz narzędzia do swobodnego zarządzania danymi i ich przekształcania, a także zapewnienia ich spójności i wiarygodności. W trzecim module poznasz platformy Apache Hadoop, Apache Hive i Apache Pig. Jednym z zagadnień w tej ścieżce jest kwestia używania SAS Federation Server do utrzymania, monitorowania i konfigurowania dostępu do danych.

Drugi segment Akademii SAS to dziewięć kursów na temat zaawansowanej analityki. W czasie nauki dowiesz się, jak odkrywać wzorce w danych i korzystać z modelowania predykcyjnego. Zrozumiesz działanie popularnych algorytmów sieci neuronowych i zajmiesz się big data. Poznasz SAS Text Miner, dzięki któremu staniesz się mistrzem przeszukiwania nieustrukturyzowanych danych tekstowych. Trzecia ścieżka w ramach Akademii uczyni cię fachowcem w dziedzinie inteligentnych algorytmów. Podczas 5 kursów zdobędziesz wiedzę o konwolucyjnych i rekurencyjnych sieciach neuronowych, jak również poznasz narzędzia potrzebne do wczytywania danych do pamięci i wizualizowania szeregów czasowych.

Szkolenia specjalistyczne

Dość już holistycznych podejść i popularnych narzędzi. Teraz przejdziemy do kursów, które nie tylko pomogą szkolić się z data science, ale też wyspecjalizować się w jego konkretnych zagadnieniach.

Wstęp do uczenia maszynowego

W kursie “Data Science: Machine Learning“poznasz podstawy machine larning. Między innymi dowiesz się, jak przeprowadzić sprawdzian krzyżowy (tzw. kroswalidację), żeby wykorzystać zbiory danych zarówno do uczenia, jak i walidacji modeli oraz uniknąć przetrenowania. Jako uczestnik szkolenia przyswoisz sobie popularne algorytmy uczenia maszynowego i sprawdzisz ich zastosowanie w systemach rekomendacji używanych w platformach VOD i sklepach internetowych. Elementem kursu jest zagadnienie regularyzacji ułatwiającej redukcję błędów w modelu bez konieczności jego przebudowy.

Machine learning z PyTorchem

Jeśli swoją znajomość Pythona określasz jako średniozaawansowaną i masz już podstawową wiedzę z zakresu prawdopodobieństwa i statystyki, możesz dołączyć do szkolenia “Intro to Machine Learning with PyTorch“w serwisie Udacity. Podczas około trzymiesięcznego treningu opanujesz techniki czyszczenia danych i zaznajomisz się z tematami nadzorowanego i nienadzorowanego uczenia maszynowego oraz uczenia głębokiego. W tej ostatniej części autorzy przybliżają podstawy projektowania i trenowania sieci neuronowych w PyTorchu – otwartoźródłowej bibliotece Pythona używanej w aplikacjach machine learning. Co ciekawe, PyTorcha opracowali specjaliści FAIR – Facebook’s AI Research.

Sieci neuronowe i głębokie uczenie

Po ukończeniu szkolenia “Neural Networks and Deep Learning” zyskasz umiejętności potrzebne do budowania, trenowania i stosowania głębokich sieci neuronowych. Nauczysz się identyfikować kluczowe parametry w architekturze sieci neuronowych oraz wdrażać deep learning we własnych aplikacjach. Kurs rozpoczyna się od zagadnień ogólnych dotyczących np. trendów, które przyczyniły się do rozwoju głębokiego uczenia, a także przykładów zastosowania technologii. Na koniec autorzy przygotowali interesujący projekt – budowę i wytrenowanie sieci neuronowych do zadań związanych z rozpoznawaniem obrazów.

R po polsku

Propozycja Grupy Helion to “Analiza danych w środowisku R“. Robiąc kurs dostępny na Udemy, poznasz składnię języka R oraz metody agregacji, filtrowania i sortowania danych. Korelacja, regresja czy analiza szeregu czasowego to tylko niektóre zagadnienia z poruszanych w dziale „Analiza danych i modelowanie statystyczne”. Osobna sekcja dotyczy tworzenia wykresów i map. Na końcu nauczysz się wykorzystywać Shiny, czyli pakiet służący tworzeniu interaktywnych aplikacji webowych.

Buduj kompetencje z SAS jeszcze na studiach

SAS Skill Builder to propozycja dla studentów. Po rejestracji z uczelnianego adresu uzyskasz dostęp do środowiska programistycznego SAS Studio oraz platformy SAS Viya. To narzędzia wykorzystywane w wielu przedsiębiorstwach do efektywnego i wygodnego wykonywania zadań związanych z modelowaniem analitycznym, a także organizowania danych tak, by stały się podstawą procesów decyzyjnych. Materiały w programie SAS dotyczą programowania i zarządzania danymi, tworzenia modeli predykcyjnych, analizy danych, opracowywania interaktywnych raportów, a także praktycznego wykorzystania uczenia maszynowego. Zdobyte umiejętności możesz potwierdzić certyfikatem.

– Naszym celem jest stworzenie takiego interfejsu komputerów kwantowych, który maksymalnie obniży próg wejścia w tę technologię dla biznesu. Dzięki przejrzystemu i łatwemu w obsłudze narzędziu firmy nie będą musiały szukać kogoś, kto jest jednocześnie fizykiem kwantowym i programistą odpowiedzialnym za obliczenia kwantowe – podkreśla Piotr Migdał, fizyk kwantowy i założyciel Quantum Flytrap.

Piotr Migdał jest fizykiem kwantowym, współzałożycielem Quantum Flytrap – firmy, która tworzy interfejsy użytkownika pod obliczenia kwantowe. Piotr założył społeczność Data Science PL – największą grupę specjalistów, adeptów i miłośników data science w polskim Facebooku. Wcześniej pracował jako niezależny konsultant wizualizacji danych, machine learning i deep learning. Jego motto brzmi: „Making hard things easy”. Ukończył Wydział Fizyki Uniwersytetu Warszawskiego w ramach MISMaP oraz uzyskał stopień doktora w ICFO w Castelldefels pod Barceloną w grupie Macieja Lewensteina.

Jest Pan fizykiem kwantowym. Nie będzie przesadą, jeśli powiemy, że dla wielu osób przedstawicielem elity naukowej. Tymczasem chce Pan oddać biznesowi wiedzę o obliczeniach kwantowych niczym mityczny Prometeusz ludziom ogień. Jak to się wszystko zaczęło?

Przygodę z biznesem rozpocząłem po doktoracie z fizyki kwantowej, który zrobiłem w 2014 roku. Wówczas tworzyłem m.in. wizualizacje danych dla branży medycznej, doradzałem dużym firmom w obszarze machine learning i deep learning. Zrobiłem też wtedy niewielki, acz bardzo udany projekt w postaci symulacji – “Quantum Game with Photons”. To gra kwantowa, w której chodziło o jednoczesne ustawienie laserów i lusterek, tak aby wiązką światła trafiały w odpowiedni sposób w fotony.

Obliczenia kwantowe przerzuciłem na komputer, a sama gra szybko zyskała globalną popularność, gromadząc wokół siebie blisko 100 tys. użytkowników. Uznawane na całym świecie pisma techniczne pisały o tym projekcie, opublikowano na jego temat wiele artykułów naukowych. Tym projektem chciałem udowodnić, że fizyka kwantowa jest jak taniec. Żeby być mistrzem, trzeba spędzić lata na nauce i ćwiczeniach, ale potańczyć sobie dla przyjemności może każdy. I taki cel mi przyświeca – uczynić fizykę kwantową dostępną dla każdego.

W 2018 roku dostałem maila od jednego z profesorów, który zapytał, czy nadal tę grę rozwijam. Odpowiedziałem, że nie. Na co ów profesor odparł: „A czy chcesz rozwijać?”. Efektem tej rozmowy była propozycja wyjazdu do Centre for Quantum Technologies w Singapurze i budżet pozwalający zatrudnić pięć osób w celu kontynuowania projektu.

Zabrzmiało zbyt dobrze, aby było prawdziwe?

Tym profesorem był Artur Ekert, jeden z twórców kryptografii kwantowej. Nie było więc mowy o żartach. Przystałem na jego propozycję. Wtedy zacząłem szukać osób, które mogłyby wesprzeć projekt. Rozpocząłem współpracę m.in. z Klem Jankiewicz – designerką, która także rozwija swoje umiejętności w obszarze fizyki kwantowej. Klem to ekspertka od wzornictwa przemysłowego oraz tworzenia interfejsów skupionych na użytkowniku. W tej chwili pracuje z nami kilka osób i stale powiększamy zespół.

Pierwotnie miał to być projekt naukowy. W którym momencie pojawił się pomysł na start-up wspierający obliczenia kwantowe?

Doszliśmy do wniosku, że pozostawienie projektu na poziomie akademickim skutecznie uniemożliwiłoby nasz dalszy rozwój i komercjalizację pomysłu. Bo edukację wszyscy lubią, ale mało kto za nią płaci. Z kolei gry, zwłaszcza tak niszowe, są w biznesie swoistą ruletką. W tym segmencie rynku bardzo trudno stworzyć skuteczny model biznesowy – po prostu jest zbyt wiele zmiennych losowych, na które nie mamy wpływu.

Skoro nie w edukacji, to gdzie chcieliście szukać klientów?

Zaobserwowaliśmy ogromne zapotrzebowanie na nasz produkt wśród firm zajmujących się obliczeniami kwantowymi. Rozmawialiśmy również z producentami komputerów kwantowych. Mimo że dysponują wysokiej klasy sprzętem, zmagają się z wyzwaniem w dotarciu do klientów. Mogą przedstawić wykresy, obliczenia, badania… Ale potencjalny klient nie ma możliwości przetestowania rozwiązania. Zanim przedsiębiorca zainteresowany zakupem sprzętu nauczy się jego obsługi, aby sprawdzić technologię w praktyce, zdąży się zniechęcić. A nawet gdy uzna, że rozwiązanie jest przydatne, to praktycznie nie ma szans, aby szybko wdrożyć zespół w taki projekt.

Dlatego potrzebna jest symulacja, która jeszcze przed wdrożeniem sprawdzi, czy dane rozwiązanie wykonujące obliczenia kwantowe zadziała?

Tak. Przy czym aby skutecznie symulować obliczenia kwantowe, trzeba mieć ku temu łatwe w obsłudze i skuteczne narzędzie. To, co tworzymy w Quantum Flytrap, to specjalne interfejsy użytkownika, czyli graficzne narzędzia do tworzenia algorytmów kwantowych. Chcemy, aby było to rozwiązanie intuicyjne, tak żeby każdy mógł otworzyć przeglądarkę i korzystać z narzędzia bez instalacji czegokolwiek – niezależnie, czy analizuje problem biznesowy lub akademicki, czy symuluje jego lokalne rozwiązanie. Chcemy sprawić, aby każdy użytkownik naszego interfejsu miał świadomość zachodzących w nim procesów i tego, jak przełożyć kod kwantowy na komputery kwantowe.

Czy to oznacza, że dzięki Wam nie trzeba będzie być ekspertem od fizyki kwantowej?

Dążymy do tego, aby maksymalnie obniżyć próg wejścia do wykorzystania fizyki kwantowej dla użytkowników biznesowych. Aby wdrożyć tę technologię, nie trzeba będzie znać się jednocześnie na fizyce kwantowej i programowaniu. Wystarczy mieć wiedzę techniczną. Z drugiej strony zależy nam na tym, aby tworzone rozwiązania można było łatwo przetestować. Podsumowując, chcemy usunąć barierę pomiędzy komputerami kwantowymi a biznesem.

Należy też pamiętać, że dla zwykłych programistów, nawet dość dobrych, obliczenia kwantowe to skomplikowana materia. A nawet jeśli wiedzą, to różnica pomiędzy prostym przykładem szkoleniowym a zastosowaniem rozwiązania w firmie jest ogromna.

To może firmy powinny zatrudniać fizyków kwantowych?

To tak nie działa. Nawet fizycy kwantowi, mając ogromną wiedzę i doświadczenie w swojej branży, nie zainstalują i nie wdrożą programów kwantowych. Mają wiedzę z fizyki, ale brak im zaawansowanych kompetencji programistycznych. Wielu programistów i fizyków może się pewnych umiejętności nauczyć w toku prac, ale firmy nie mają tyle czasu i możliwości, aby te kompetencje zdobyć.

Nasze narzędzie będzie łatwe w obsłudze jak Excel. Aby używać Excela do prostych obliczeń, nie trzeba być programistą. Ale nawet programiści, zamiast od razu pisać kod do obliczeń, będą mogli skorzystać z interfejsu graficznego. Podobnie jak w wyszukiwarce Google: wpisujemy hasło czy lokalizację i automatycznie otrzymujemy efekt. Dzięki temu będziemy mogli się skupić na problemie, który nas interesuje, nie zaprzątając sobie głowy detalami technicznymi.

Czy tworzenie takiego interfejsu jest trudne?

Zrobienie jakichkolwiek interfejsów jest trudne. Idealne są te rozwiązania, o których użytkownik nie myśli. Jeżeli coś dobrze działa, to tego po prostu nie zauważamy. I taka jest nasza idea – zaprojektować jak najbardziej przyjazny użytkownikowi i niewidoczny interfejs pozwalający na obliczenia kwantowe.

Gdy słyszymy terminy takie jak „komputery kwantowe” czy „fizyka kwantowa”, to odruchowo myślimy, że nie jest to temat dla szerszej grupy odbiorców. Trudno jest stworzyć przyjazny interfejs użytkownika i niewielu ekspertów na świecie się tym zajmuje. Tymczasem my w Quantum Flytrap to robimy i dzięki temu możemy się wyróżnić.

Odczuwacie ogromne oczekiwania i wymagania ze strony naukowców i przedsiębiorców, które ciążą na Was jako pionierach w tej dziedzinie?

Ten fakt, że już tworzymy tego typu interfejsy, sam w sobie jest ogromną wartością dla wielu firm. Pomimo że nasz pomysł jest nowością, dążymy do tego, aby ta innowacja stała się standardem. Krokiem, który nas od tego dzieli, jest stworzenie produktu lepszego niż to, co do tej pory funkcjonowało na rynku.

Jakiś przykład?

Wyobraźmy sobie, że ktoś projektuje związek chemiczny. Ma interfejs graficzny w postaci widocznej molekuły oraz różne możliwości interakcji. Dokładnie widzi schemat, który jest w jego zainteresowaniu – napięcia, energię absorpcji światła. Tym samym nie interesuje go już to, co się dzieje „pod spodem”. To, czy symulacja przebiega na komputerze, superklastrze kart graficznych, czy na komputerze kwantowym, to rzecz drugorzędna. Zależy ona wyłącznie od potrzeby inżyniera.

Druga kwestia to tworzenie osobnych interfejsów dla poszczególnych komputerów kwantowych do konkretnych obliczeń. Chcemy stworzyć narzędzie uniwersalne i dostosowane do różnych rozwiązań i projektów. Powinno służyć głównie interakcji z komputerami kwantowymi na świecie. Niedawno otworzyliśmy rundę inwestycyjną i poszukujemy inwestorów, w szczególności tych deeptechowych. Zależy nam zwłaszcza na takich, którzy już inwestują w branżę kwantową lub mają w swoim portfolio firmy, które mogą stać się naszymi klientami.

A kto skorzysta z interfejsu graficznego do komputerów wykonujących obliczenia kwantowe?

Na początku głównie branża finansowa, zwłaszcza pod kątem optymalizacji finansowych i logistycznych. To nie jest zmiana jakości, ale zmiana efektywności – w przedsięwzięciach na dużą skalę nawet kilka procent przewagi daje olbrzymie zyski. Nawet wczesne komputery kwantowe, ze sporą ilością szumu, mogą mieć praktyczne zastosowanie.

W następnej kolejności skupimy się na wykorzystaniu obliczeń kwantowych w branży biotechnologicznej. Głównie w celu przewidywania reakcji chemicznych i właściwości potencjalnych leków. Gdy jedna firma zacznie korzystać z takich symulacji, a następnie wdroży rozwiązania kwantowe, to konkurencja również będzie zmobilizowana do rozwoju w tym kierunku.

Jednocześnie kluczem do rozpoczęcia pracy z komputerami kwantowymi będzie stworzenie narzędzia, dzięki któremu kilka tysięcy pracowników laboratoriów, inżynierów biotechu zacznie używać tej technologii. Właśnie to jest naszym celem – pomóc firmom wdrożyć możliwości obliczeń kwantowych w firmie od ręki, niemal z dnia na dzień.

Udostępnij link

https://www.datasciencerobie.pl/obliczenia-kwantowe-tak-samo-dostepne-jak-praca-w-excelu/