— Ponad dwie dekady temu miały padać systemy bezpieczeństwa, systemy finansowe i produkcyjne z powodu „problemu roku 2000”. Teraz z punktu widzenia ryzyk i bezpieczeństwa systemy kwantowe to właśnie taki “rok 2000”, tyle że na większą skalę — porównuje w rozmowie z serwisem “Data Science robię” Artur Derwiszyński z Intela, a Łukasz Libuda z SAS uzupełnia. — Mamy dwie strony medalu. Jedna czysto technologiczna, dotycząca bezpieczeństwa, a druga to fakt, że komputery kwantowe przyniosą nam większe moce obliczeniowe. Przyczyni się to do zwiększenie liczby operacji oraz prawdopodobnie będzie można taniej szybciej podjąć decyzję biznesową.

Artur Derwiszyński pracuje w firmie Intel jako FSI Lead na region EMEA. Wcześniej był związany z sektorem bankowym i ubezpieczeniowym. Jest absolwentem SGH oraz University of Minnesota.

Łukasz Libuda to ekspert w zakresie zarządzania ryzykiem, w SAS pracuje na stanowisku Head of Risk Practice na Europę Środkową. Specjalizuje się w zagadnieniach dotyczących ryzyka finansowego i operacyjnego. Zajmuje się również optymalizacją procesów wewnętrznych w organizacjach.

Kilka lat temu wiązano wielkie nadzieje z wpływem blockchainu, zwłaszcza kryptowalut, na rynek finansowy. Dziś o realnej skali tego wpływu można dyskutować, tymczasem pojawił się inny istotny czynnik zmiany – działania nazywane Cybercrime as a Service. Jak oceniacie znaczenie tego zjawiska?

Artur Derwiszyński, Intel: To jest niezwykle groźny, a jednocześnie interesujący, z perspektywy biznesowej, kierunek rozwoju cyberprzestępczości. Od strony technologicznej, warto odnieść się tutaj do modelu Software as a Service, który obniżył ceny dostępu do usług, zwiększył ich dostępność i tym samym przyspieszył rozwój w wielu obszarach. I tak samo Cybercrime as a Service “demokratyzuje” rynek przestępczy i obniża koszty cyberprzestępczości, a zatem usług takich, jak Ransomware as a Service, DDoS as a Service czy Phishing as a Service. W konsekwencji działania cyberprzestępców będą coraz lepsze, szybsze i łatwiej dostępne. Phishing as a Service w połączeniu z AI będzie oznaczał hiperpersonalizację wiadomości. Usługi hakerskie wejdą na jeszcze wyższy poziom i staną się dostępne dla milionów ludzi na świecie.

Czy to są przyszłe wyzwania, a może te metody już dziś są stosowane, tylko my z pewnym opóźnieniem dowiadujemy się o szczegółach technicznych?

A. D.: Oczywiście, one działają już od paru lat. Część ataków na szpitale i inne jednostki służby zdrowia w Wielkiej Brytanii z 2022 i 2023 roku było prawdopodobnie realizowanych nie tylko przez „grube ryby” świata przestępczego, jak BlackCat, ale także za pomocą usług platformowych cyberkryminalistów. Natomiast wydaje się, że “złoty wiek” w tej gałęzi cyberprzestępczości jest jeszcze przed nami. Mówię w czasie przyszłym, bo skupiam się na tym, że zastosowanie sztucznej inteligencji będzie kolejnym poziomem zaawansowania działań przestępców. Jednak niewątpliwie tego tupu praktyki są już realizowane, tylko na razie w stosunkowo małym zasięgu.

Łukasz Libuda, SAS: Ja mogę dodać, że to, o czym mówi Artur, jest naprawdę straszącą perspektywą. Technologia zwykle jest albo szansą, albo zagrożeniem. W tym przypadku to ogromne zagrożenie, bo jeżeli da się spersonalizować przekaz, czyli już nie mamy wiadomości napisanej przez oszusta łamaną polszczyzną, tylko dopracowaną, wiarygodnie brzmiącą wypowiedź, to jest to bardzo poważne zagrożenie. A dodam, że już dzisiaj możemy w łatwy sposób doprowadzić do zmiany głosu rozmówcy lub podmienić obraz. Trend postępuje i musimy liczyć się z tym, że go nie zatrzymamy. Dlatego bardzo ważna jest podstawowa edukacja konsumentów i użytkowników dotycząca najnowszych form ataków oraz włączenie mechanizmu ograniczonego zaufania.

Natomiast patrząc z perspektywy organizacji mamy dwie opcje – aktywne i pasywne zabezpieczenia. Aktywne, czyli instalowanie najnowszych technologii, hardware’u i oprogramowania, które będą jak ściana i pozwolą zabezpieczyć dane, systemy i procesy przetwarzania informacji. Druga opcja to zabezpieczenia pasywne, czyli ubezpieczenia. Coraz częściej firmy ubezpieczają cyber ryzyka. Jeżeli organizacja nie chce lub nie może z jakiegoś powodu dokupić sprzętu, który pozwoli jej wdrożyć wyższy poziom zabezpieczeń, to decyduje się na ubezpieczenie. Zapewniają one odpowiednią rekompensatę potencjalnych strat dla firmy i jej klientów.

Rozmawialiśmy na początku o blockchainie. Z perspektywy rynku finansowego na razie nie spełnił oczekiwań czy może trzeba oceniać tę technologię spokojniej, przez pryzmat Krzywej Gartnera?

A. D.:  Ja nie uważam, że nie spełnił oczekiwań, tylko po prostu wyobrażenia co do szybkości adaptacji tej technologii w biznesie były przesadzone. Blockchain, czy szerzej Distributed Ledger, według mnie, ma się całkiem dobrze i powoli rośnie liczba jego produkcyjnych zastosowań, szczególnie jeśli chodzi o smart kontrakty oraz szybkie płatności transgraniczne. Oprócz tego wiele banków centralnych pracuje nad wprowadzeniem walut cyfrowych i w niektórych gospodarkach to może znacząco zwiększyć tempo wdrażania usług opartych o blockchain. Na Krzywej Gartnera mamy obszar nazywany “zboczem oświecenia”. I chyba właśnie tak jest z blockchainem w tej chwili. Być może jesteśmy już nawet na początku drogi pod górę, za poważnym dołkiem. Dlatego ja akurat bardzo optymistycznie patrzę na tę technologię. Uważam, że w zakresie zastosowań międzybankowych, nawet niekoniecznie dotykających klienta, przypadki stosowania blockchainu będą coraz częstsze.

Ł. L.: Zgadzam się, że do tej pory mieliśmy do czynienia z zachłyśnięciem się potencjalnymi możliwościami. Poszliśmy do góry, ale ostatnio spadaliśmy. To nowinka technologiczna, na której można było zarobić, ponieważ blockchain wielu osobom kojarzy się właśnie z zarobkiem. Być może nie jesteśmy jako społeczeństwo jeszcze aż tak bardzo zdigitalizowani i może pod kątem zastosowań korporacyjnych było jeszcze za wcześnie, żeby szerzej stosować blockchain. Widzę jednak tutaj pewną analogię z tematem ESG, czyli uwzględnieniem czynników Środowiskowych, Społecznych i Ładu Gospodarczego w prowadzeniu działalności. Pięć lat temu nikt nie mówił o ESG. Później firmy deklarowały, że są mocno zaawansowane w tej dziedzinie, ale w realu nie było sprawdzonej metodyki, nie było planu przejścia czy mapowania pomiędzy czynnikami ryzyka ESG a zyskownością prowadzenia działalności. Wszystko było rozmyte, więc podobnie spadliśmy. Ale od pewnego czasu pojawiają się nowe źródła danych, bardziej szczegółowe koncepcje, jak wykorzystać czynniki dotyczące ESG do modelowania ryzyka klienta czy ryzyk rynkowych.

Czy z ESG nie jest tak, że poważne potraktowanie raportowania niefinansowego zostało po prostu wymuszone na firmach przez administrację europejską? Mamy dodatkowo Europejski Zielony Ład, a w kontekście rynku finansowego przede wszystkim Taksonomię UE.

A. D.: Moim zdaniem, temat rozwija się głównie z powodu czynników ekonomicznych, ale oczywiście nacisk regulacyjny też jest istotny.

Taksonomia Unii Europejskiej to chyba już super mocny nacisk, prawda?

Ł. L..: Zgadza się. Tylko trzeba zaznaczyć, że prowadzenie działalności z uwzględnieniem czynników środowiskowych, społecznych i gospodarczych było realizowane od dawna. Firmy prowadziły akcje CSR-owe, pomagały szkołom, chciały pokazać, że rzeczywiście robią coś poza samym generowaniem biznesu i pieniędzy, czyli miały tę twarz społeczną. To po pierwsze, a po drugie, na pewno ESG jest też modą z tego względu, że dużo się o tym mówi.

Robiliśmy sporo wokół ESG od dawna, tylko trochę inaczej to było wcześniej nazywane i mniejszy nacisk był kładziony na literę E (Environment), czyli na uwzględnienie czynników środowiskowych w prowadzeniu biznesu. I po trzecie, myślę, że przedsiębiorstwa boją się dodatkowo wykluczenia z powodu ewentualnego napiętnowania, że nie zajmują się ESG – obecnie to swoisty wyróżnik i oferta oceniana przez innych.

Dziś przez wszystkie przypadki odmienia się sztuczną inteligencję, mnożąc możliwe zastosowania i czyhające zagrożenia. Ale, o ile AI możemy już sobie wyobrazić, zresztą używamy jej w wielu czynnościach, to perspektywą znacznie bardziej enigmatyczną jest technologia kwantowa. Jak wejście do użytku komputerów kwantowych wpłynie na rynek finansowy, m.in. w zakresie bezpieczeństwa?

A. D.: Niektórzy z nas pamiętają moment w historii, kiedy był problem roku dwutysięcznego, gdy narosła ogromna bańka informacyjna, że będzie światowy paraliż komputerów z datami w formacie dwucyfrowym. Miały padać systemy bezpieczeństwa, systemy finansowe i produkcyjne. I myślę, że teraz z punktu widzenia ryzyk i bezpieczeństwa systemy kwantowe to właśnie taki “rok 2000”, tyle że na większą skalę. A przede wszystkim nie wiemy, kiedy ten “rok 2000” nastąpi, jest to duży wzrost niepewności – i pod tym względem, z mojej perspektywy, to znacznie trudniejszy temat niż problem roku dwutysięcznego.

Z dużą satysfakcją mogę powiedzieć, że Intel jest jednym z liderów prac nad komputerami kwantowymi i chętnie dzielimy się wiedzą w tym zakresie z instytucjami finansowymi i regulatorami. Konieczne jest, aby te instytucje były przygotowane na dzień, kiedy może się okazać, że większość zabezpieczeń kryptograficznych, rozwijanych przez ostatnie lata, z dnia na dzień może okazać się przestarzała.

Jak to kwantowe wyzwanie wygląda z perspektywy zarządzania ryzykiem?

Ł. L.: Mamy dwie strony medalu. Jedna jest czysto technologiczna, dotycząca bezpieczeństwa, czyli to, o czym mówił Artur – prace trwają, nie wiadomo kiedy, ale na pewno to nastąpi. Komputery kwantowe przyniosą większe moce obliczeniowe, czyli będzie się dało wykonać więcej operacji, prawdopodobnie taniej i szybciej podjąć decyzję biznesową. Już nie będzie trzeba tak uogólniać. Będziemy mogli agregować dane, aby bardzo precyzyjnie podejmować decyzje. Z perspektywy zarządzania ryzykiem finansowym i ryzykiem bilansu podejmowania decyzji. W kontekście współpracy z klientem ta technologia pozwoli jeszcze bardziej precyzyjnie wykorzystać nowinki technologiczne i przełożyć je na korzyści merytoryczne, procesowe i analityczne. Zastosowań widzę dużo: przeliczenie całego bilansu w różnych scenariuszach rozwoju czynników ryzyka, wycena instrumentów finansowych czy uwzględnienie różnych czynników ryzyka w ubezpieczeniach. Wierzę, że technologia kwantowa pomoże menedżerom ryzyka podejmować lepsze decyzje.

Ale zanim na rynek wejdą komputery kwantowe, w oparciu o aktualne rozwiązania działa już model nazywany Confidential Computing.

A. D.: Technologie Intela od lat pomagają w szyfrowaniu danych w sieci i na dyskach. Natomiast w ostatnim czasie wykreowaliśmy i zostaliśmy liderem w zakresie szyfrowania danych w czasie przetwarzania, czyli obszarze Confidential Computing. To podejście ma duże znaczenie dla bezpieczeństwa danych, ale również jest niezwykle istotne w zakresie regulacyjnym. Cała koncepcja Intel Trust Authority polega na izolacji danych i aplikacji od reszty systemu w czasie przetwarzania. Nawet jeśli inne elementy systemu zostaną przejęte przez atakującego, przetwarzane dane będą nadal zabezpieczone. To dziś nasza główna przewaga, jeśli chodzi o przetwarzanie danych.

Ł. L.: Trzeba zastanowić się – po co to wszystko? Na poziomie klienta oczywiście chodzi o to, żeby zapewnić mu jak najlepsze Customer Experience. Jeśli ta technologia, o której mówił Artur, jest już bezpieczna i sprawdzona, to klient czuje się doceniony i mówimy teraz o podejściu klientocentrycznym. A z perspektywy firmy? Stosujemy tę technologię po to, żeby uwolnić potencjał wzrostu, czyli potraktować klienta bardziej indywidualnie i hiperpersonalizować to podejście. Chcemy poprawiać zyski, chcemy być odporni na fluktuacje rynku.

A przede wszystkim, znowu wracam do AI, potrzebujemy tych wszystkich metod analitycznych, które zapewniają lepszą ocenę ryzyka klienta, jego zdolności kredytowej. Mamy modele zbudowane szybciej, z lepszą operacjonalizacją i mamy więcej modeli, czyli możemy w sposób indywidulany obsłużyć konkretne segmenty klientów. A czego oczekuje rynek? Szybkiego działania. Klient oczekuje szybkiej decyzji, nie chce czekać, potrzebuje spersonalizowanego produktu. W tej chwili technologie są w stanie spełnić te wszystkie oczekiwania, poprawiając Customer Experience i de facto też współpracę. Czyli mamy sytuację win-win.

Wracając do kwestii regulacyjnych, ale związanych z CX, żyjemy teraz w rzeczywistości pomiędzy unijnymi dyrektywami PSD 2 (Payment Services Directive)  i PSD 3. Co to oznacza dla Open Bankingu?

A. D.: Dalszy rozwój. Kilka lat temu, współpracując z European Payments Council, byłem włączony w prace nad PSD2 i mogę powiedzieć, że niewątpliwie to właśnie ta dyrektywa w kluczowy sposób wpłynęła na dynamiczną zmianę w zakresie obsługi klienta i cyfryzację usług bankowych w Europie i na świecie. W latach 2016-2019 mieliśmy wysyp fintechów i nowych usług. Z czasem okazało się, że rynek dokonał weryfikacji modeli biznesowych. To spowodowało, że część startupów zbankrutowała, inne zbudowały własne silne marki, a kolejni zmienili profil z oferty ukierunkowanej na obsługę klienta detalicznego na współpracę z bankami i optymalizację ich procesów. Warto też zauważyć, że ostateczny kształt samej dyrektywy odbiega od pierwszej, w niektórych zapisach, jeszcze bardziej rewolucyjnej propozycji.

Obecnie opracowywana kolejna wersja Payment Services Directive (PSD3) też podlega podobnym działaniom ze strony interesariuszy. W obszarze CX zakłada jeszcze szersze otwarcie dostępu do danych klientów, nie tylko w zakresie rachunków płatniczych ale także innych kont, w szczególności oszczędnościowych czy inwestycyjnych. Zatem z punktu widzenia możliwości oceny klienta, czy szacowania ryzyk związanych z tym klientem – będzie znacznie więcej dostępnych danych na ten temat niż dzisiaj.

Ł. L.: Z perspektywy danych, mogę dodać, że PSD 2 i zapewne PSD 3 to Open Banking, w którym mamy nowy wektor informacji tłumaczący nam zachowanie klienta i to, co jest dla nas najważniejsze w kontekście zarządzania ryzykiem. Mam na myśli dodatkowe dane, które wrzucamy po to, aby zasilić zaawansowaną analitykę, która pracuje na zaawansowanym sprzęcie. To wszystko pomaga nam podejmować dobre decyzje. A dobre decyzje to zadowolony klient i dobrze prosperujące przedsiębiorstwo. Oczywiście cały czas pamiętamy, że pracujemy na bardzo szczegółowych informacjach, dotyczących wrażliwych aspektów finansowych każdego klienta, więc bezpieczeństwo jest tu priorytetem. I pamiętajmy, że klient może, ale nie musi udzielić nam zgody na wykorzystanie konkretnych danych. Ale zasadniczo klienci chcą mieć lepszą usługę, więc zwykle robią klik – i to stanowi potencjał z perspektywy zarządzania ryzykiem. Czekamy na rozszerzenie zakresu informacji, który ma przynieść PSD 3.

Na koniec jeszcze pytanie – nie o klientów czy korporacje – ale o przyszłych pracowników. W przemyśle 4.0 i 5.0 powtarza się tezę, że teraz ważniejsze od kompetencji twardych są te miękkie. Jakie kompetencje będą najbardziej poszukiwane na rynku pracy w 2024 roku?

A. D.: To zależy między innymi od tego, jakie stanowisko rozpatrujemy. Bo czy myślimy o roku 2000, 2024, czy 2035, oczekiwania wobec specjalisty do spraw zabezpieczeń sieciowych pewnie będą trochę inne, niż wobec specjalisty do spraw obsługi klienta. Ciekawa zmiana następuje w zakresie oczekiwań dotyczących umiejętności współpracy wewnątrz firmy. Silosy departamentowe, charakterystyczne dla biznesu sprzed 20 lat, znikają. Firmy oczekują, że, na przykład, pracownicy działu technicznego i biznesowego będą wspólnie omawiali rozwój usług czy potrzeby klientów. W takim krajobrazie miękkie kompetencje wydają się szczególnie istotne i coraz więcej firm zwraca uwagę na inteligencję emocjonalną pracowników, ich adaptowalność i komunikatywność. Dodatkowo, wraz z rozwojem technologii, o których rozmawialiśmy wcześniej, oczekuje się szeroko pojętej biegłości cyfrowej czy wiedzy o cyberbezpieczeństwie. Nawet u pracowników, którzy do tej pory nie musieli się na tym znać. Oczywiście nie na poziomie eksperckim, ale takim, który pozwoli zabezpieczyć się przed phishingiem lub  włamaniem przez konto pracownika do zasobów całej firmy.

Ł. L.: Mamy nowe technologie, zbiory danych, pomysły na ich wykorzystanie, use case’y i wiele więcej. Czyli szeroko rozumiana otwartość na zmiany w zakresie technologii, procesów, sposobów współpracy będzie miała kluczowe znaczenie dla innowacyjnego rozwoju. Bardzo ważna jest umiejętność wyjścia z własnego silosu i zrozumienie, z czym wiąże się każda z podejmowanych decyzji, jakie są zagrożenia, jakie są możliwości, jakie są szanse? Taka elastyczność i wszechstronność jest dziś potrzebna, ponieważ technologia to tylko narzędzia. To tylko funkcjonalność, którą trzeba umiejętnie wykorzystać, aby ostatecznie uzyskać wymierny efekt w postaci na przykład zwiększenia CI/CX lub zwiększenia rentowności prowadzenia działalności. Nie jest tak, że technologia nam automatycznie zapewni lepszą wydajność, innowacyjność i wzrost sprzedaży. Natomiast niewątpliwie wymaga ona rozwoju nowych kompetencji, aby wykorzystać jej potencjał w sposób optymalny dla rozwoju i konkurencyjności organizacji. Czyli otwartość, elastyczność, umiejętność adaptacji do nowych wyzwań z jednej strony oraz biegłość cyfrowa z drugiej – to główne kompetencje, których pracodawcy będą oczekiwać od pracowników w 2024 roku.

–  More than two decades ago, security, financial, and production systems were supposed to be in a crisis because of the Y2K bug. Now, from the point of view of risks and security, quantum systems are in a “Year 2000,” only on a larger scale,” Artur Derwiszyński of Intel says in an interview with the Data Science blog, and Łukasz Libuda of SAS adds: – We have two sides of the coin. One is purely technological, concerning security, and the other is the computing power quantum computers will bring, meaning it will be possible to perform more operations and probably cheaper and faster to make business decisions.  

Artur Derwiszyński works at Intel as FSI Lead for EMEA. Previously, he worked in  the banking and insurance sectors. He graduated from the Warsaw School of Economics and the University of Minnesota.

Łukasz Libuda is an expert in risk management, working at SAS as Head of Risk Practice for Central Europe. He specializes in financial and operational risk issues. He is also involved in the optimization of internal processes in organizations.

A few years ago, great hopes were pinned on blockchain’s impact on the financial market, especially cryptocurrencies. Today, the real scale of this impact can be debated. Meanwhile, another important trend has emerged – activities called Cybercrime as a Service. How do you assess the significance of this phenomenon?

Artur Derwiszyński, Intel: This is an extremely dangerous, and at the same time interesting from a business perspective, the development of cybercrime. From the technological side, it is worth referring to the Software as a Service model, which has reduced the price of access to services, increased their availability, and thus accelerated development in many areas. Similarly, Cybercrime as a Service also “democratizes” the criminal market and lowers the cost of cybercrime, and therefore, related services such as Ransomware as a Service, DDoS as a Service, or Phishing as a Service. As a result, cybercriminals’ operations will become better, faster, and more pervasive. Phishing as a Service combined with AI will mean hyper-personalized messages. Hacking services will enter an even higher level and become accessible to millions of people around the world.

Are these future challenges, or are these methods already in use today? Is it just now that we are learning about the technical details but with some delay?

Of course, they have been in operation for a few years now. Some of the 2022 and 2023 attacks on hospitals and other healthcare entities in the UK were likely carried out not only by the “big shots” of the criminal world, like BlackCat but also through the platform services of cybercriminals.

On the other hand, it seems that the “golden age” in this branch of cybercrime is yet to come. And I’m speaking in the future tense, because I’m focusing on the use of artificial intelligence which will be the next level of sophistication in the activities of criminals. But undoubtedly, this type of practice is already underway, only at a relatively small scale right now.

Łukasz Libuda, SAS: I might add that what Artur is talking about is a really scary prospect. Technology is usually either an opportunity or a threat. In this case, it’s a huge threat because if it’s possible to personalize the message, that is, we no longer have a message written by a crook in broken Polish, but a correct, believable-sounding statement – and we can today easily change the caller’s voice or the image, this is a very serious threat, which is accelerating, and we have to realize that we cannot stop it. Therefore, it is very important to provide basic education to consumers and users about the latest forms of attacks and to include a limited trust mechanism.

On the other hand, looking from an organization’s perspective, we have two options – active and passive security. Active means installing the latest technology, hardware, and software, which will act like a wall and allow secure data, systems, and information processing. The second option is passive security or insurance. Increasingly, companies are insuring against cyber attack. If an organization is unwilling or unable, for some reason, to buy the hardware that will allow it to implement a higher level of security, it opts for insurance to provide adequate compensation for potential losses to the company and its customers.

We talked about blockchain at the beginning. From the perspective of the financial market, it has so far failed to live up to expectations, or is it necessary to evaluate this technology more calmly through the prism of the Gartner Hype Cycle Curve?

A. D.: I don’t think it hasn’t lived up to expectations. It’s just that notions about the speed of adoption of this technology in business were exaggerated. Blockchain, or Distributed Ledgers more broadly, in my opinion, are doing quite well, and its productive applications are slowly growing, especially when it comes to smart contracts and fast cross-border payments. In addition to this, many central banks are working on introducing digital currencies.  In some economies, this could significantly increase the pace of deployment of blockchain-based services. On the Gartner Hype Cycle Curve, we have an area called the “slope of enlightenment.” And I think that’s what’s happening with blockchain right now. We may even already be at the beginning of the uphill road, past the rock bottom, so I am very optimistic about the technology. Regarding interbank applications, blockchain use cases will increase even if they do not necessarily touch the customer.

Ł. L.: I agree that we have had spending on potential opportunities so far. We went up, we went down recently. It’s a technological innovation that you could make money on because blockchain is what many people associate with making money. Perhaps we, as a society, are not yet so digitized, and perhaps, in terms of corporate applications, it was too early to use blockchain more widely.

But I see a parallel here with the topic of ESG, that is, the consideration of Environmental, Social, and Economic Governance factors in doing business. Five years ago, no one was talking about ESG. Later, companies declared that they were well advanced in this area, but in the real world, there was no proven methodology, no transition plan, or mapping between ESG risk factors and the profitability of doing business. Everything was fuzzy, so we similarly succombed. But for some time now, there have been new data sources and more detailed concepts on using ESG factors to model customer or market risks.

And with ESG, isn’t it the case that taking non-financial reporting seriously has been forced on companies by the European administration? In addition, we have the European Green Deal and, in the context of the financial market, primarily the EU Taxonomy.

A. D.: In my opinion, the topic is developing mainly because of economic factors, but of course, regulatory pressure is also important.

The taxonomy of the European Union is probably already a super strong push, right?

Ł. L.: That’s right. It should be noted that doing business with environmental, social, and economic factors in mind has been done for a long time. Companies ran CSR campaigns, helped schools, and wanted to show that they were actually doing something beyond just generating business and money. That is, they had this social face. That’s first, and secondly, certainly, ESG could be a fad there is a lot of talk about it.

We’ve been doing quite a bit around ESG for a long time, only it was called a little differently before, and there was less emphasis on the letter E (Environment), i.e., the consideration of environmental factors in business conduct. Thirdly, I think companies are also afraid of being excluded because of the possible stigma of not dealing with ESG – nowadays, it’s a differentiator and an offering judged by others.

Today, artificial intelligence is associated with all the cases, multiplying possible applications and lurking dangers. But, while we can already imagine AI, moreover, we use it in many activities. A much more enigmatic prospect is quantum technology. How will the entry into the use of quantum computers affect the financial market, among other things, in terms of security?

A. D.: Some of us remember a moment in history when there was a theme of the Year 2000 problem, when a huge information bubble had built up that there would be a worldwide paralysis of computers with dates in double digits. Security, financial, and production systems were going to go down. And I think that now, from the point of view of risks and security, quantum systems are such a “Year 2000”, only that on a larger scale. And above all, we don’t know when this “Year 2000” will happen, it’s a big increase in uncertainty – and in this respect, from my perspective, it’s a much more difficult topic than the Year 2000 problem.

I am very pleased to say that Intel is one of the leaders in the work on quantum computers, and we are happy to share our knowledge in this area with both financial institutions and regulators. It is necessary for these institutions to be prepared for the day when it may turn out that most of the cryptographic safeguards developed in recent years may become obsolete overnight.

How does this quantum challenge look from a risk management perspective?

Ł. L.: We have two sides of the coin. One is purely technological, concerning security, which is what Artur was talking about – we don’t know when the work is going on, but it will definitely happen. Quantum computers will bring more computing power, making it possible to perform more operations, and cheaper and faster decisions. It will no longer be necessary to generalize so much to aggregate data – we can make decisions very precisely. From the perspective of financial management, the balance sheet rist of making decisions regarding how much to work with customers, this technology will allow even more precise use of technological innovations and translate them into substantive, process, and analytical benefits. I see many applications: recalculating the entire balance sheet under different risk factor development scenarios, valuation of financial instruments or consideration of different risk factors in insurance. I believe that quantum technology will help risk managers make better decisions.

But before quantum computers come to market, a model called Confidential Computing is already in operation based on current solutions.

A. D.: Intel’s technologies have been helping to encrypt network and disk data for years. In contrast, we have recently carved out and become a leader in data encryption during processing time, the area of Confidential Computing. This approach is important for data security but also extremely important in terms of regulation. The whole concept of Intel Trust Authority is to isolate data and applications from the rest of the system at processing time. Even if an attacker takes over other parts of the system, the processed data will still be protected. This is one of Intel’s main strengths.

Ł. L.: One has to think – what is it all for? At the customer level, it’s about providing the best possible customer experience. If the technology Artur was talking about is already secure and proven, then the customer feels valued, and we are now talking about a customer-centric approach. And from the company’s perspective? We are using this technology to unlock the potential for growth, that is, to treat the customer more individually and hyper-personalize this approach. We want to improve profits, and we want to be resilient to market fluctuations.

Above all, again, I come back to AI. We need all these analytical methods that provide a better assessment of the customer’s risk, their creditworthiness, with models built faster, better operationalization, and even more models. That is, we can serve specific customer segments in a customized way. And what does the market expect? Quick action. The customer expects a quick decision, doesn’t want to wait, and needs a personalized product. Now, technologies can meet all these expectations, improving customer experience and the de facto cooperation as well. That is, we have a win-win situation.

Returning to regulatory issues related to CX, we now live in the reality between the EU directives PSD 2 (Payment Services Directive) and PSD 3. What does this mean for Open Banking?

A. D.: Further development. A few years ago, working with the European Payments Council, I was involved in the work on PSD2. I can say that this directive has undoubtedly had a key impact on the dynamic change in customer service and digitization of banking services in Europe and the world. From 2016-2019, we had a rash of Fintechs and new services. Over time, it turned out that the market revised its business models, which caused some startups to go bankrupt, some to build their own strong brands, and others to change their profile from offerings focused on retail customer service to working with banks and optimizing their processes. It is also worth noting that the final shape of the directive itself deviates from the first one in some of its provisions and is an even more revolutionary proposal.

The next version of the Payment Services Directive (PSD3), currently under development, is also subject to similar efforts from stakeholders. CX assumes an even wider opening of access to customer data, not only for payment accounts but especially for savings or investment accounts. So, from the point of view of being able to assess a customer or estimate the risks associated with that customer – there will be much more data available on this subject than today.

Ł. L.: From a data perspective, I might add that PSD 2 and probably PSD 3 is Open Banking, where we have a new vector of information explaining customer behavior and what is most important to us regarding risk management. What I mean by that is the additional data that we are throwing to feed advanced analytics that are running on advanced hardware. All this helps us make good decisions. And good decisions mean a satisfied customer and a thriving company. Of course, we always keep in mind that we work on very detailed information regarding sensitive financial aspects of each customer, so security is a priority. And remember that the customer may or may not give us permission to use specific data. But fundamentally, customers want better service, so they tend to make a click – which represents potential from a risk management perspective. We look forward to the expansion of information that PSD 3 is expected to bring.

Finally, another question is not about customers or corporations but future employees. Industry 4.0 and 5.0 repeats the thesis that soft skills are now more important than hard ones. What competencies will be most in demand in the labor market in 2024?

A. D.: It depends, among other things, on what kind of position we are considering. Because whether we’re thinking about the year 2000, 2024 or 2035, the expectations for a network security specialist will probably be slightly different than for a customer service specialist. An interesting shift is occurring in the expectations for in-house collaboration skills. Departmental silos, characteristic of business 20 years ago, are disappearing, and companies expect, for example, technical AND business staff to discuss service development or customer needs together. In such a landscape, soft skills seem particularly important, and more and more companies are paying attention to employees’ emotional intelligence, adaptability, and communication skills. In addition, with the development of the technologies we discussed earlier, digital proficiency or knowledge of cybersecurity is widely expected – even in employees who, until now, did not need to know about it. Not at an expert level, of course, but one that will protect against phishing or hacking through an employee’s account into company-wide resources.

Ł. L.: We have new technologies, new datasets, new ideas for their use, new use cases, and so on. That is, broadly speaking, openness to change in terms of technologies, processes, and collaboration will be crucial for innovative development. It is very important to be able to step out of one’s silo and understand what each decision entails, what are the risks, what are the opportunities, and what are the possibilities? Such flexibility and versatility are needed today because technology is just a tool. It’s just functionality that needs to be used skillfully to ultimately have a measurable effect in terms of, for example, increasing CI/CX or increasing the profitability of doing business. It’s not that technology will automatically give us better productivity, innovation, and increased sales. On the other hand, it undoubtedly requires the development of new competencies to use its potential optimally for the development and competitiveness of the organization. That is, openness, flexibility, and the ability to adapt to new challenges on the one hand and digital proficiency on the other – these are the main competencies employers will expect from employees in 2024.

— Odróżniamy podtypy komórek. W tym celu wykorzystujemy informacje, które pozyskujemy z jądra komórkowego. To jest ważna różnica w porównaniu do tego, co teraz najczęściej ma miejsce w terapiach, gdzie wykorzystuje się białka zewnątrzkomórkowe. Czyli, mówiąc dużo prostszym językiem, dziś patrzy się na zewnętrzną część komórki, na to, co tam widać albo co można zablokować. A my zaglądamy już do jądra i patrzymy, jak wygląda trójwymiarowa chromatyna, czyli DNA i białka, które do tego DNA się przyłączyły — tłumaczy dr hab. Jakub Mieczkowski, współzałożyciel Genegoggle.

Dr hab. Jakub Mieczkowski jest bioinformatykiem, analitykiem danych i matematykiem. Studiował na Uniwersytecie Warszawskim, a naukowo pracuje na Uniwersytecie Medycznym w Gdańsku. Po doktoracie przez 3 lata był związany z Harvard Medical School, gdzie współtworzył nowe metody analizy komórkowo-specyficznych aktywności chromatyny. Po powrocie do Polski uczestniczył w opracowaniu nowatorskiej metody oceny dostępności DNA, służącej ocenie zmian chromatyny pod wpływem bodźców zewnętrznych. Pracował też w Instytucie Nenckiego nad terapiami epigenetycznymi pomagającymi w leczeniu nowotworów. Jest współzałożycielem firmy Genegoggle, która przygotowała narzędzie umożliwiające projektowanie związków nowej generacji do tworzenia leków.

Zajmuje się pan na co dzień analizą danych jednokomórkowych i analityką celowaną. A w praktyce Genegoggle dostarcza raczej usługi czy narzędzie?

Tak naprawdę robimy jedno i drugie. Analizując komuś dane, często spotykamy się z potrzebą, że te analizy będą później odtwarzane na potrzeby podobnego badania, ale na bazie innej substancji farmakologicznej. Jeśli potrzeby analityczne są jasno określone, klient może chcieć dostać narzędzie, dzięki któremu sam poradzi sobie z analizą W takich przypadkach tworzymy software, który licencjonujemy.

Czyli to jest model Software as a Service?

Nie do końca. Dzięki naszemu narzędziu możemy rozwijać relacje z firmami farmaceutycznymi. Natomiast punktem docelowym w modelu biznesowym, jaki przyjęliśmy, jest dostarczanie usługi polegającej na identyfikacji celów terapeutycznych. A dalej – opracowywanie nowych terapii. Dostarczanie usług i narzędzi analitycznych to krok pośredni, który umożliwia nam budowanie marki, relacji z klientami, rozwijanie zespołu i naszych wewnętrznych narzędzi.

Na czym konkretnie polega identyfikacja celów terapeutycznych?

Są różne sposoby, ale w naszym przypadku oznacza to zidentyfikowanie komórkowo-specyficznych, trójwymiarowych struktur łańcucha DNA. W uproszczeniu, w każdej komórce naszego ciała mamy taką samą sekwencje DNA, która ma około 2 metrów długości. To że nasze komórki różnią się od siebie wynika z innego zwinięcia łańcucha DNA. Jeśli DNA to książka kucharska, to różne komórki czytają różne przepisy. W Genegoggle umiemy rozróżnić nie tylko komórki zdrowe, ale dodatkowo wskazać komórki, w których pojawiają się nieprawidłowe procesy, np. komórki nowotworowe. Część identyfikowanych przez nas różnic może być celem terapeutycznym.

To analiza danych omicznych?

Tak, bo do charakterystyki komórek wykorzystujemy kilka cech, takich jak wspomniana wcześniej trójwymiarowa struktura chromatyny, ale też całogenomowa ekspresja genów, aktywność miejsc regulatorowych czy inne fizyczne właściwości chromatyny.

Analizują państwo m.in. komórki nowotworowe. Z poziomu pacjenta leczenie nowotworów wygląda dziś tak, że człowiek dostaje chemię, która przy okazji uszkadza też zdrowe komórki. W skuteczności leczenia wiele zależy od konfiguracji chemicznej wlewu. Jak, z perspektywy tego, czym pan się zajmuje, wygląda przyszłość leczenia tego typu chorób?

Myślę, że dobór terapeutyków bardzo się zmieni i wejdziemy w etap celowany. Tylko też trzeba dobrze zdawać sobie sprawę, co takie celowanie i personalizowanie oznacza. Dziś jesteśmy bardzo daleko od tego, żeby dobierać lek pod konkretnego pacjenta. Jesteśmy z kolei znacznie bliżej miejsca, w którym będziemy mogli pacjentów lepiej klasyfikować. Dla wszystkich zajmujących się nowotworami jest już zrozumiała heterogeniczność nowotworów. To oznacza, że nawet w masie jednego guza nie wszystkie komórki są takie same. One różnią się wieloma procesami i najczęściej, jeśli chodzi o leki, które dzisiaj są stosowane, jeden lek nie zabija wszystkich komórek nowotworowych. Nawet często nie celuje we wszystkie z nich. W tej chwili to, co jest nam najbardziej potrzebne, to, żeby odpowiednio tych pacjentów sklasyfikować i odpowiednio określić nowotwór.

Jakich narzędzi analitycznych używają państwo do obróbki danych pozyskanych z komórek?

Większość naszych prac jest wykonywana w środowisku R. Trochę korzystamy też z narzędzi pythonowych.

Jak pan widzi kwestię podejmowania decyzji na podstawie danych? To sformułowanie charakterystyczne dla biznesu, a jak ten problem wygląda z perspektywy bardziej naukowej?

Nie jestem religijny, ale Edward Deming powiedział kiedyś: “Bogu wierzymy, a wszyscy inni muszą przynieść dane” (ang. In God we trust. All others must bring data.), nawiązując do sentencji na banknotach dolarowych. Ja się tego trzymam. Natomiast ważne, żeby te dane były dobrej jakości i żeby rzeczywiście były reprezentatywne dla procesu, wydarzeń czy obiektów, o których chcemy wnioskować. Dzisiaj jest bardzo łatwo pozyskiwać przeróżne dane, ale dużo trudniej jest zweryfikować ich wiarygodność.

Właśnie – co oznacza niska jakość danych w przypadku komórek?

Bardzo często związana jest z tym, że dane są za słabo opisane. Stosunkowo łatwo jest zmierzyć w komórkach ekspresję genów. Ale żeby ta informacja, czyli uzyskany profil ekspresji, była dla nas wiarygodny, musimy wiedzieć, co się z tymi komórkami wcześniej wydarzyło. Różne czynniki stresowe, czas procesowania komórek i inne elementy mogą po prostu wpłynąć na wynik i jeśli nie będziemy tego wiedzieli, taki profil niesie ze sobą ryzyko wyciągnięcia niewłaściwych wniosków.

Jeśli chodzi o tę jakość danych, np. niewłaściwie opisanych, chodzi o to, że ktoś to po prostu źle zrobił czy, że nie miał odpowiednich narzędzi?

Najczęściej bywa, że ten, kto opisuje, nie wie, co może mieć znaczenie. To najczęściej nie jest błąd ludzki, tylko niedostateczna komunikacja pomiędzy analitykiem a osobą wykonującą eksperyment, dla której część rzeczy jest oczywista. Inna sprawa: często chcielibyśmy wielokrotnie wykorzystywać te same dane. Jeśli robimy eksperyment w zamkniętym środowisku, gdzie wykorzystujemy go do odpowiedzi na proste pytanie, które znaliśmy przed eksperymentem i po prostu z naszej perspektywy zrobienie tego eksperymentu służy odpowiedzi na konkretne pytanie – wtedy możemy pewne rzeczy pomijać, jeśli są takie same w całym obszarze eksperymentu, bo są specyficzne dla tej próby. Ale jeżeli chcemy później zebrać dane z różnych miejsc i zrobić metaanalizę, zmiany będą inne i nie nazwałbym tego błędem. To raczej brak standardów, które są potrzebne, żeby dane opisywać.

Na koniec szersze pytanie, wychodzące poza analitykę komórkową, ale nadal związane z bioinformatyką. Na świecie od co najmniej kilku lat trwają intensywne prace nad interfejsem mózg-komputer. To jedna z prób ustanowienia trwałej komunikacji pomiędzy systemem informatycznym a biologicznym. Z perspektywy tego, co pan wie o charakterystyce komórkowej, to się uda?

Na tak ogólnie postawione pytanie chyba trzeba odpowiedzieć twierdząco, ale pytanie, co to znaczy, i jaka będzie cena oraz co będziemy z tego w praktyce mieli. Już teraz umiemy za pomocą fal mózgowych ruszać kursorem na ekranie. Umiemy poprawiać komunikację osoby sparaliżowanej, więc tego typu rzeczy już się dzieją. Natomiast jeżeli chodzi o działania bardziej zaawansowane, wydaje mi się, że dla maszyny, która potrafi analizować wiele wątków na raz, a za chwilę mogą być jeszcze komputery kwantowe – trzeba powiedzieć, że my będziemy za wolni. Urządzenie będzie w stanie szybciej samo sobie odpowiedzieć na zadane pytanie, rozwiązując wszystkie możliwe scenariusze, niż my usłyszeć pytanie do końca.

Kiedyś samochód służył tylko do tego, żeby przewieźć kierowcę i pasażerów z jednego miejsca w drugie. Dziś, jak można usłyszeć w branży motoryzacyjnej, z fabryk wyjeżdżają nie samochody, ale platformy z usługami. I zarówno po opuszczeniu zakładu produkcyjnego, jak przed tym momentem – centralną rolę spełniają zbiory danych. Zapraszamy na krótką podróż po analityce z perspektywy sektora automotive.

Zanim przyjrzymy się, jak dziś powstają prototypy aut, wcześniej naukowe spojrzenie na dane w gospodarce. W ostatnich latach popularność zyskał pogląd, że dane stały się strategicznym zasobem, takim jakim w początkach ery przemysłowej były węgiel i stal, a później ropa. Surowce nadal pełnią ważną rolę, ale obok nich pojawił się na przełomie XX i XXI wieku bardzo specyficzny “surowiec” pod postacią big data. Prof. Katarzyna Śledziewska i prof. Renata Włoch z Uniwersytetu Warszawskiego zauważają w książce pt. “Gospodarka cyfrowa”, że dane “są czynnikiem produkcji wpływającym na efektywność prowadzenia działalności gospodarczej, ale też determinują rozwój nowych modeli, rozwiązań i relacji gospodarczych”. Ale o ich specyficzności decydują przede wszystkim trzy cechy, które odróżniają je od węgla, stali i paliw.

Dane przekształcają znaną nam gospodarkę

Jak wyliczają badaczki, dane są niezastępowalne, to znaczy – jednego zbioru nie można zastąpić innym, bo zawiera inne informacje. Tymczasem tonę węgla da się bez problemu zastąpić inną toną węgla. Dalej – dane mają charakter nierywalizacyjny. Chodzi o to, że konkretny zestaw informacji może być w tym samym momencie wykorzystywany przez wiele podmiotów, algorytmów lub usług i nie będzie tracił swojej wartości. Banknot wydawany przez przedstawiciela jednej organizacji nie może być w tym samym momencie wydawany przez inną osobę. I trzecia wyróżniająca cecha. Wartość informacji jest równoznaczna z tym, co zawiera. Przedsiębiorca ma szansę użyć informacji i replikować ją, nie będąc jej właścicielem. Tymczasem, żeby użyć dobra trwałego, takiego jak surowce, trzeba je posiadać. Sama informacja o nich jest bezużyteczna lub daje ograniczone możliwości.

Prototyp z danych dzięki cyfrowemu bliźniakowi

Zmianę, która zaszła w gospodarce, w tym w branży automotive, celnie opisuje raport “The Rise of Data Capital” przygotowany przez MIT Technology Review. Autorzy akcentują: “Kiedyś sprzęt komputerowy traktowano jako zasób podstawowy, o danych nie myślano w ten sposób. Dziś hardware staje się usługą kupowaną w czasie rzeczywistym, a dane – trwałym zasobem”. Co to oznacza w praktyce procesu produkcyjnego?

Volkswagen już 3 lata temu po raz pierwszy opracował nowy model samochodu, w ogóle nie budując fizycznego prototypu. Koncern użył w tym celu technologii digital twin i, co ciekawe, zaprojektował nie tylko nowy pojazd, ale przeniósł do cyfrowego modelu całą fabrykę. Żeby było to możliwe, musiał pobrać precyzyjne dane o realnym obiekcie, skanując w 3D oraz z użyciem kamer i laserów całą przestrzeń zakładu. Później oprogramowanie AI uczyło się rozpoznawać obiekty, sprawdzało, które elementy są zamontowane na stałe, a które mogą zmieniać miejsce.

Procesy montażowe dotyczące prototypu auta były testowane i ulepszane w przestrzeniach VR. Model uwzględniał rodzaje materiałów, części wyposażenia, jak również narzędzia niezbędne w tym procesie. Eksperci projektowali też np. kontenery do transportowania i magazynowania podzespołów. W efekcie, cyfrowe planowanie produkcji pozwoliło zmniejszyć zużycie materiałów i ograniczyło ilość odpadów. A przy okazji, jako że wszystko przebiegało w pamięci komputerów, firma motoryzacyjna oszczędzała także na służbowych podróżach pracowników.

Wnioski w czasie rzeczywistym

Sednem zbierania i przetwarzania danych w procesie produkcyjnym w fabryce samochodów jest dostarczanie za ich sprawą jak największej wartości. Punkt wyjścia to określenie źródeł danych. W fabryce będą nimi m.in. maszyny, linie produkcyjne i pracownicy. Informacje zbierane z czujników lub bezpośrednio z urządzeń muszą być segmentowane, selekcjonowane i sprawdzane. Do najważniejszych kwestii należy real time – informacje o procesach produkcyjnych mają pełną wartość wtedy, kiedy są zbierane na bieżąco i tak samo przetwarzane z minimalnymi tylko opóźnieniami. Latencja w przesyle danych jest liczona w milisekundach. Sieć 5G pozwala zakładom na ograniczenie tego opóźnienie do około 10 ms, w porównaniu z około 50 ms w technologii 4G. Dla przemysłu, także motoryzacyjnego, to znaczna różnica.

Zbieranie danych w fabryce umożliwia ocenę faktycznej efektywności pracy linii produkcyjnej, szybkości działania maszyn i wydajności pracowników. Analiza statystyczna z wykorzystaniem zaawansowanych systemów informatycznych pozwala z kolei na bieżąco optymalizować procesy i usprawniać dostawy podzespołów. Nowoczesny przemysł zakłada koncepcję tzw. otwartej fabryki, co oznacza, że zakład produkcyjny nie tylko komunikuje się w czasie rzeczywistym wewnętrznie, ale ma też stały kontakt z podwykonawcami i poszczególnymi elementami łańcucha dostaw. I to nie wszystko.

Znowu digital twin

Koncepcja cyfrowego bliźniaka wykorzystywana w nowoczesnych fabrykach motoryzacyjnych nie kończy swojego oddziaływania w momencie, kiedy auto opuszcza zakład. Żeby produkt satysfakcjonował klienta, a firma miała świadomość poziomu tej satysfakcji i mogła poprawiać błędy oraz rozwijać model samochodu – musi mieć informacje także z etapu posprzedażowego. Właściciel nowego pojazdu używa go, a cyfrowy bliźniak auta rejestruje wszystko, co dzieje się z samochodem. Ma informacje o nim już od momentu prototypu, zna materiały, wytrzymałość, żywotność i inne cechy podzespołów.

Dlatego – do gry wchodzi teraz technologia predictive maintenance – analiza danych z czujników pozwoli przewidzieć awarie, zanim nastąpią, i zasugerować kierowcy wizytę w serwisie. A dodatkowo koncern motoryzacyjny będzie zbierał informacje, przekształcone potem we wnioski, na temat tego, co trzeba zmienić w konstrukcji podczas prac nad prototypem kolejnego modelu. Np. jeśli 9% pojazdów nadmiernie zużywa prawą tylną oponę w ciągu pierwszych 2 lat użytkowania, prawdopodobnie trzeba te dane połączyć z informacjami o pracy elementów zawieszenia.

Ciężarówki Volvo i Mack używają technologii predictive maintenance, żeby ograniczyć ryzyka strat finansowych koncernu AB Volvo, do którego należą obydwie marki. Nagłe awarie samochodów, wykluczające pojazdy z komercyjnego transportu, mogą oznaczać koszty na poziomie tysięcy dolarów dziennie. Zastosowanie PdM z wykorzystaniem internetu rzeczy, sztucznej inteligencji i analityki, na bazie rozwiązań dostarczonych przez SAS, pozwala wyeliminować niezaplanowane przestoje. Kiedy czujniki zasygnalizują zbliżające się zużycie jednego z podzespołów, samochód trafia do naprawy, ale jego właściciel ma szansę zorganizować zastępstwo tak, żeby operacja nie powodowała dodatkowych strat. W tej chwili 175 tysięcy ciężarówek Volvo i Mack dysponuje wsparciem predictive maintenance.

Autonomiczna przyszłość

I nawet jeżeli to, co powyżej, brzmi trochę futurystycznie – jeszcze większe zmiany, oparte o zaawansowaną analitykę, mamy cały czas przed sobą. Rynek od kilku lat czeka na wejście na rynek samochodów autonomicznych. Trudno powiedzieć, ile to oczekiwanie jeszcze potrwa, do najtrudniejszych przeszkód należą nie aspekty technologiczne, ale prawne i infrastrukturalne. Natomiast najwięksi producenci pracują nad autami autonomicznymi z poziomu 4 i 5 klasy, czyli tymi, w których kierowca nie musi być w ogóle zaangażowany (4) i nie może być (5). Liderzy prawdopodobnie są już gotowi.

Autonomiczny samochód, w którym wszyscy będą podróżowali w roli tylko pasażerów, musi mieć precyzyjne, pewne, dobrze zinterpretowane i przekazywane z opóźnieniami bliskimi 0 informacje. Chodzi o dane na temat podstawowych parametrów pojazdu, otoczenia, innych uczestników ruchu, warunków atmosferycznych, zwierząt i pieszych na drodze oraz oczywiście przebiegu trasy: zakrętów, łuków, rond, skrzyżowań, brzegów drogi itd. Samochody autonomiczne muszą komunikować się między sobą, żeby ruch był płynny i bezpieczny. A skoro mowa o bezpieczeństwie, puentujemy jednym z największych wyzwań dla autonomicznych pojazdów. Bezpieczeństwo tego rodzaju samochodów zaczyna się od prawidłowego udziału w ruchu, biegnie przez kwestię decyzji w sytuacjach nieuniknionych kolizji (tzw. dylemat staruszki), a kończy się na cyberbezpieczeństwie systemów. Wszystko tutaj opiera się o analizę danych.

— Prawda jest taka, że to proces w placówce medycznej i realne potrzeby zatrudnionych tam osób powinny nam narzucać określoną technologię, a nie odwrotnie. Pracownik do tej technologii nie powinien się dostosowywać. Oczywiście musi się jej nauczyć, ale nie powinien być niewolnikiem danego rozwiązania — zaznacza dr Anna Gawrońska z Sieci Badawczej Łukasiewicz – Poznańskiego Instytutu Technologicznego.

Anna Gawrońska jest doktorem nauk ekonomicznych i ekspertką w zakresie transformacji cyfrowej. Od kilkunastu lat wspiera polskie szpitale w poprawie zarządzania przepływem produktów medycznych. Współpracuje z firmami IT, pomaga wdrażać rozwiązania, które zwiększają bezpieczeństwo pacjentów, a także mają wpływ na komfort pracy personelu medycznego. Realizowała projekty cyfrowe m.in. dla Uniwersyteckiego Centrum Klinicznego w Warszawie i dla Szpitala Uniwersyteckiego w Krakowie. Opracowywała także mechanizmy elektronicznej recepty transgranicznej w Europie.

Czym różni się cyfryzacja szpitala od cyfryzacji na przykład firmy produkcyjnej?

Podstawowa różnica jest taka, że w obszarze ochrony zdrowia istnieje szereg regulacji prawnych, których nie mamy w biznesie. To znaczy biznes oczywiście też musi brać pod uwagę różne uwarunkowania prawne, natomiast ich liczba jest zdecydowanie mniejsza niż w przypadku ochrony zdrowia. Dlatego, projektując rozwiązania cyfrowe w szpitalu, musimy mieć to na względzie.

A co to oznacza w praktyce procesu wdrożeniowego?

To znaczy, że nie możemy szpitalowi proponować rozwiązań, które są sprzeczne z obowiązującym prawem. W szpitalu typowym systemem jest oprogramowanie klasy HIS (Hospital Information System – red.), które pozwala zarządzać przepływem danych medycznych, ale też niemedycznych na terenie placówki. Dostawcy tych systemów muszą je projektować z uwzględnieniem obowiązującego prawa. Ale nie jest tak, że programiści mogą dziś usiąść i zaprogramować ostatecznie poszczególne funkcje w takim rozwiązaniu teleinformatycznym. Prawo się zmienia i to dość dynamicznie, powiedziałabym, bo mamy do czynienia nie tylko z wymogami krajowymi, ale również europejskimi, a w związku z tym dostawca systemu klasy HIS musi liczyć się z tym, że każdą nową zmianę będzie trzeba wprowadzić do oprogramowania.

Cyfryzacja w szpitalach musi objąć tzw. część szarą i białą. W pani ocenie, powinna być między nimi wyraźna granica czy to niemożliwe?

Moim zdaniem, podział na część białą i szarą jest trochę sztuczny. Jeśli mówimy o lekach i dystrybucji, a mamy w głowie dane mówiące o tym, że terapia lekiem jest najczęściej stosowaną terapią w szpitalu, to nie sposób nie zgodzić się, że dystrybucja (czyli część szara – red.) w bardzo istotnym stopniu rzutuje na sferę medyczną (czyli białą – red.). Mamy dzisiaj do czynienia z dużą liczbą startupów – i zagranicznych, i polskich, które tworzą i chcą wdrażać różne rozwiązania teleinformatyczne w szpitalach np. z obszaru telemedycyny, który może przyczynić się do poprawy jakości świadczonych usług medycznych. I to jest przyszłość. To znaczy odchodzimy od jednego systemu na rzecz wielu różnorodnych systemów, które powinny ze sobą rozmawiać. No i tutaj kluczowa jest interoperacyjność, czyli tworzenie tych wszystkich systemów w oparciu o standardy, które pozwolą, żeby one komunikowały się między sobą bezproblemowo. I to jest dużo ważniejsze niż rozdzielanie części białej i szarej w placówkach medycznych.

A jak wygląda w praktyce zdobywanie, gromadzenie i przetwarzanie danych dotyczących zaopatrzenia – np. jeśli chodzi o ścieżkę leków na terenie szpitala?

Mimo że tak dużo mówi się o cyfryzacji, zarówno części medycznej, jak i niemedycznej, największy problem, jaki szpitale mają, to właśnie początek wewnętrznego łańcucha, dystrybucji leków i wyrobów medycznych. O ile mamy uwarunkowania prawne, które nakazują każdemu wytwórcy leku oznaczenie go kodem kreskowym, liniowym albo dwuwymiarowym pod kątem automatyzacji czynności, to nie ma analogicznych wymogów prawnych w stosunku do opakowań pośrednich zbiorczych, czyli tzw. wyższych form opakowaniowych. W konsekwencji pracownicy bardzo często muszą wprowadzać dane do systemu ręcznie. Sporo mówi się o elektronicznej fakturze, to jest podstawowy dokument, w którym zapisywane są dane dodatkowe dotyczące produktów leczniczych. Obserwujemy postęp w obszarze dokumentów transakcyjnych, a mimo wszystko pracownicy, farmaceuci czy technicy muszą wprowadzać dane ręcznie, ponieważ jeśli otrzymujemy fakturę papierową, to nie sposób tę czynność zautomatyzować. Możemy zrobić skan albo zdjęcie dokumentu, ale to nadal nie jest elektroniczna faktura. Papierowy dokument nie tylko nie pozwala na żadną automatyzację i cyfryzację procesu, ale też powoduje ryzyko, że pojawią się błędy w wyniku tak przeprowadzanego procesu.

Błędy, jak rozumiem, wynikające z tego “ręcznego systemu”?

Zgadza się. Jeśli pielęgniarka kompletuje lek w dyżurce pielęgniarskiej i ona sobie odhacza z systemu, że pobiera dany lek, potem idzie do szafy lekowej i już może nie pamiętać numeru partii. Najważniejsze są tutaj rodzaj asortymentu i data ważności. Natomiast numer partii często się nie zgadza albo nie jest w ogóle weryfikowany, bo brakuje na to czasu.

O jakich systemach mówimy w przypadku tego rodzaju procesów? Wspomniała pani o HIS. Jakie jeszcze są wdrażane w placówkach medycznych?

Systemem, który często wprowadza się w szpitalach, jest klasyczne rozwiązanie magazynowe, czyli WMS (Warehouse Management System – red.). Bardzo dobrze sprawdza się w przypadku magazynów wyrobów medycznych. Oczywiście wiele zależy od tego, jak zorganizowany jest szpital, to znaczy, czy wyroby medyczne są w tej samej lokalizacji, co produkty lecznicze, czy nie. W dużych szpitalach to jest zazwyczaj rozgraniczone, ponieważ wyrobów medycznych jest tak dużo, również w sensie gabarytowym, że potrzeba zupełnie innej infrastruktury, żeby efektywnie zarządzać przepływem tego typu produktów. Oprócz HIS i WMS stosuje się też rozwiązania ERP (Enterprise Resource Planning – red.), czyli znowu typowe narzędzie, które funkcjonuje na rynku biznesowym. Poza wymienionymi kompleksowymi systemami, szpitale korzystają z mniejszych aplikacji dostarczanych przez startupy.

A jakich narzędzi pani używa w ramach procesów cyfryzacyjnych lub analitycznych?

Jeśli analizujemy na przykład dane dotyczące przepływów leków, czasem wystarczy zwykły Excel, żeby przejrzeć dane historyczne i zweryfikować, jaki był wolumen dostaw z apteki czy z magazynu na konkretny oddział albo do kliniki. Natomiast jeżeli pomagamy szpitalowi, który chce przeprowadzić analizę, mającą wykazać na przykład, z jaką zmianą wiąże się wdrożenie określonego systemu, jak zmiana wpłynie na czas pracy pracownika, albo na czas obsługi określonego procesu, albo na poziom wykorzystania określonych zasobów – wtedy mapujemy procesy zgodnie ze standardem BPMN 2.0 (Business Process Model and Notation – red.). Natomiast dane liczbowe i parametry dotyczące liczby pracowników, czasu trwania określonych czynności itd. – analizujemy w oprogramowaniu iGrafx. Tam możemy zbudować z jednej strony modele, czyli mapy procesowe, a z drugiej strony możemy nałożyć na to określone parametry. A jeśli jeszcze do tego dołożymy mapę procesu, ale w ujęciu docelowym, czyli, co by było, gdybym zamiast wpisywać dane ręcznie, gromadziła je za pomocą skanowania kodów kreskowych, to możemy porównać, jaka będzie różnica czasowa. Wprowadzamy dane dotyczące średniego czasu trwania określonych czynności, średniej liczby pracowników, możemy wprowadzać oczywiście też parametry finansowe. I jeśli widzimy, że ktoś zamiast poświęcać półtorej godziny na określoną czynność, będzie mógł ją wykonać w ciągu 45 minut, to dla nas oznacza, że pracownik ten uwolniony czas będzie mógł poświęcić na inne rzeczy. Czyli mamy namacalną korzyść – identycznie jak w biznesie.

Na podstawie przetwarzanych tak danych można potem podejmować decyzje zarządcze dotyczące organizacji lub wprost wpływające na pacjentów. Jak wygląda kwestia podejmowania decyzji opartych na danych w rzeczywistości placówek medycznych?

Jeśli mamy komplet danych dotyczących leków, które są na terenie placówki medycznej, dostęp do nich przy użyciu odpowiednich narzędzi pozwala nam na realizację szeregu czynności. Po pierwsze możemy zautomatyzować cały obszar dotyczący składania zamówień, a następnie przyjmowania dostaw. Możemy liczyć materiałowe koszty leczenia pacjenta. Możemy usprawnić całą część logistyczną, ale też taką stricte ekonomiczną funkcjonowania placówek. Mamy obszar zarządzania zapasami. W systemie informatycznym, jeśli są określone dane, możemy tworzyć poziomy minimalne dla leków, czyli poziomy bezpieczeństwa, w zależności od tego, jaki model zarządzania zapasami w szpitalu wybierzemy. Dodatkowo, gromadząc dane w systemie informatycznym odnośnie poziomu zapasów, dbamy też o bezpieczeństwo pacjenta, bo wiemy z jakim asortymentem mamy do czynienia i wiemy, czego nam brakuje, dlatego tak ważne jest gromadzenie danych nie w tak zwanym wolnym czasie tylko w czasie rzeczywistym. Pamiętam projekt w jednym ze szpitali w Poznaniu, gdzie dowiedziałam się od pielęgniarki, że bywają sytuacje, kiedy jeden oddział zamawia określony lek, bo mu go brakuje, a drugi oddział oddaje ten sam lek do utylizacji, bo minęła data ważności. Gdyby dane były współdzielone na bieżąco, można by było podobnych problemów uniknąć.

Jakie błędy najczęściej pani zauważa, jeśli chodzi o przeprowadzanie procesów cyfryzacyjnych w placówkach medycznych?

Zdarza się niestety, że zmiany nie są konsultowane z pracownikami, a wiadomo, że w każdym z nas jest naturalny opór przed nowym. Nie chcemy, żeby nam coś narzucano. W cyfryzacji procesów dotyczących zaopatrzenia i wewnętrznej dystrybucji widocznym problemem są obawy pracowników. Niezwykle ważne jest, żeby pokazywać im realne korzyści. Prawda jest taka, że to proces i realne potrzeby pracowników powinny nam narzucać określoną technologię, a nie odwrotnie. To znaczy pracownik do tej technologii nie powinien się dostosowywać. Oczywiście musi się jej nauczyć, ale nie powinien być jej niewolnikiem. A często jest tak, że w przypadku źle przeprowadzonych wdrożeń cyfryzacja nie pomaga, nie przyspiesza, tylko wręcz wydłuża procesy. I takie przeszkody wymagają dużego nakładu cierpliwości. Rozwiązania cyfrowe z założenia przyśpieszają pewne rzeczy, skracają czas realizacji działań. A w środowisku szpitalnym, mimo że przecież mamy ogromny problem z kadrami medycznymi, czasami spotykam się z pytaniem: “czy to znaczy, że jak wdrożymy rozwiązanie cyfrowe, to określona grupa personelu zostanie zwolniona?” A tu chodzi o coś zupełnie innego. Ludziom ma się pracować szybciej, efektywniej i wygodnej. Tylko żeby to było możliwe, nie mogą być pomijani w procesie cyfrowej zmiany.

Udostępnij link

https://www.datasciencerobie.pl/analityka-w-szpitalu-pracownik-nie-moze-byc-niewolnikiem-technologii/