Automatyzacja zadań, analizowanie procesów i optymalizacja kosztów. Wreszcie przewidywanie ryzyka oraz wykrywanie anomalii i potencjalnych zagrożeń, np. ataków cyberprzestępców. To tylko kilka obszarów, w których biznes może wykorzystywać generatywną AI. Jak zastosowanie GAI wpłynie na funkcjonowanie przedsiębiorstw i gdzie czekają zagrożenia?

Wystarczyło kilkanaście miesięcy, żeby Generatywna Sztuczna Inteligencja (GAI) podbiła świat. Dla większości użytkowników, pierwszym kontaktem z takimi narzędziami była premiera ChatGPT w listopadzie 2022 r. Od tej pory niemal wszystkie największe firmy technologiczne opublikowały własne modele GAI. A wyścig zbrojeń między ich twórcami sprawił, że ich możliwości rosną z miesiąca na miesiąc.

Ta rewolucja była jednak skutkiem bardzo długiego procesu badawczego, którego korzenie sięgają nawet… XVII w. Za początek badań nad podstawami sztucznej inteligencji można uznać prace matematyków takich, jak Gottfried Leibniz czy George Boole, którzy opracowali “mechaniczne” metody logicznego rozumowania, stosowane dziś w sztucznie inteligentnych systemach. W 1950 roku legendarny brytyjski matematyk Alan Turing opublikował pracę “Computing Machinery and Intelligence”, w której jako pierwszy stwierdził jasno, że cyfrowe komputery mogą “myśleć”. Położył w ten sposób fundament pod współczesną AI.

Już w latach 60. XX w. powstały pierwsze systemy rozpoznawania obrazu i mowy czy pierwsze czatboty, które można uznać za dalekich przodków dzisiejszych systemów GAI. Dalszy rozwój AI napotkał jednak przeszkodę. Aby działać efektywnie, takie systemy wymagają ogromnej ilości danych i mocy obliczeniowej. Mimo że w kolejnych dekadach dokonano postępów w dziedzinach takich, jak sieci semantyczne, ontologia czy rekurencyjne sieci neuronowe, “Zima AI” trwała, z krótkimi przerwami, do początku XXI. Zakończył ją dopiero gwałtowny rozwój Internetu, oferujący algorytmom ogromną ilość danych do analizy, a przede wszystkim szybki wzrost mocy obliczeniowej komputerów.

Badacze zastosowali też nowatorskie podejścia do problemu. Jednym z nich są tak zwane “Generatywne Sieci Antagonistyczne” (GAN). To model, opracowany w 2014 r. przez Iana Goodfellowa opierający się na dwóch, stale rywalizujących ze sobą sieciach neuronowych, z których jedna stara się generować realistyczne obrazy, a druga odróżniać je od prawdziwych. Dzięki tej rywalizacji, system generuje coraz bardziej realistyczne dane. Innym przełomowym rozwiązaniem okazały się tzw. transformatory. To sieci zdolne do “samo-uwagi”, czyli oceny relatywnej wagi poszczególnych danych. Pozwalają one na przetwarzanie języka naturalnego, ułatwiając tłumaczenie maszynowe, generowanie tekstu czy tworzenie odpowiedzi na pytania.

Skutkiem tych przełomów było powstanie pierwszych systemów dostępnych dla każdego użytkownika. ChatGPT, pierwszy powszechnie dostępny wielki model językowy (LLM) firmy OpenAI, w ciągu kilku dni od premiery w listopadzie 2022 r. wykorzystywało już milion użytkowników. W ciągu dwóch miesięcy było ich już 100 milionów.

GAI w służbie biznesowi

Generatywna AI szybko znalazła zastosowania w biznesie. GAI pozwala usprawnić aplikacje biznesowe poprzez automatyzację zadań, uczenie się zachowań użytkowników czy analizę danych. Umożliwia automatyczne generowanie raportów, przewidywanie trendów czy wykrywanie anomalii.

To wszystko istotnie wpływa na efektywność pracy. Opublikowane w ubiegłym roku badania Sloan School of Management Massachusetts Instutite of Technology wykazało, że pracownicy call center korzystający z opartego na wielkim modelu językowym “asystenta” zwiększyli swoją produktywność średnio o 14 proc. Co ważne, największy wzrost produktywności dotyczył pracowników najmniej doświadczonych. Jak stwierdzili autorzy badania, “technologia ta sprawiła, że pracownicy podwyższyli swoje kwalifikacje, a nie zostali zastąpieni”.

W praktyce, narzędzia GAI mogą zwiększać efektywność pracy na kilka sposobów. Mogą np. ułatwiać gromadzenie wielu źródeł danych w jednej aplikacji. Pozwalają automatyzować proces tworzenia notatek z dokumentów tekstowych, asystować w tworzeniu raportów i prezentacji, mogą wreszcie tworzyć transkrypty i podsumowania spotkań online, co znacząco usprawnia komunikację wewnątrz organizacji.

To jednak zaledwie najbardziej podstawowy sposób wykorzystania tych narzędzi w biznesie. W sektorze zdrowotnym, narzędzia GAI mogą być używane do wsparcia diagnoz pacjentów (np. do analizy badań radiologicznych), układania spersonalizowanych planów leczenia czy projektowania nowatorskich leków. Narzędzia takie, jak GitHub Copilot usprawniają także proces tworzenia oprogramowania. Inteligentny “asystent” pomaga programistom tworzyć, analizować i testować kod, skracając czas trwania procesu i poprawiając jakość gotowego produktu. Wyspecjalizowane modele GAI mogą służyć do analiz scenariuszy, przewidywania ryzyka i modelowania strategii. Przemysł może wykorzystywać je do optymalizacji procesów, ciągów logistycznych czy zużycia energii. Handel – do analizy zachowań i potrzeb kupujących oraz alokacji zasobów.

Bezpieczeństwo, siła i zagrożenia GAI

Szczególnie istotną rolę generatywne modele AI mogą odegrać w finansach i bankowości. W branżach w znacznym stopniu narażonych na działania przestępców, inteligentne narzędzia mogą być wykorzystywane do uczenia się wzorców i wykrywania anomalii. Przykładem wykorzystania GAI w praktyce biznesowej jest zaawansowana analityka i sztuczna inteligencja SAS, która ułatwia wykrywanie oszustw finansowych w czasie rzeczywistym. Techniki uczenia maszynowego identyfikują potencjalnie ryzykowne zjawiska, szybko je analizują i interweniują. Rozwiązania SAS, wprowadzone we włoskim Poste Italiane pozwoliły np. drastycznie zmniejszyć liczbę fałszywych alarmów i zwiększyć zdolność instytucji do radzenia sobie z nietypowymi płatnościami.

To ważne, bo narzędzia GAI są także stosowane przez przestępców. Generatywna sztuczna inteligencja jest wykorzystywana do generowania przekonujących wiadomości phishingowych czy nagrań deepfake, które mogą być stosowane przez przestępców do wyłudzeń i innych oszustw. Obrona przed takimi zagrożeniami wymaga zastosowania zaawansowanych rozwiązań, które ułatwiają wykrywanie potencjalnych ataków cyberprzestępców i ochronę organizacji przed ich konsekwencjami.

Stosowanie narzędzi generatywnej sztucznej inteligencji wiąże się jednocześnie z wyzwaniami, z których powinny sobie zdawać sprawę organizacje i ich pracownicy. Jednym z najlepiej znanych z nich jest problem “halucynacji”, występujący w wielkich modelach językowych. Polega on na tym, że LLM dostrzega w danych pozorne wzorce, na podstawie których produkuje błędne odpowiedzi. To z kolei może prowadzić do podejmowania złych decyzji biznesowych, a w rezultacie utraty zaufania klientów. Badania firmy Vectara wskazują, że w zależności od zastosowanego modelu, publicznie dostępne LLM „halucynują” przy od 3 do 27 proc. odpowiedzi generowanych przez system.

Przyczyna tego zjawiska może leżeć w nietypowym zapytaniu użytkownika, ale często u podstaw halucynacji leżą problemy z danymi, na których wyszkolony został system. W jaki sposób ograniczyć wiążące się z halucynacjami zagrożenia? Poprzez szkolenie systemów AI na wysokiej jakości, reprezentatywnych i dobrze oznakowanych zestawach danych, regularne testowanie oraz walidację modeli i ustalenie ograniczeń, które zapobiegają generowaniu nierealistycznych wyników. W kluczowych zastosowaniach istotne jest także tworzenie hybrydowych systemów decyzyjnych, w których AI działa z ludzkim nadzorem, pozwalającym wykrywać i korygować błędy.

Niedostatecznie zabezpieczone i przetestowane modele generatywnej sztucznej inteligencji mogą również być narażone na ataki z zewnątrz, w ramach których napastnicy wykorzystują luki w oprogramowaniu do zmuszenia modelu do wykonywania szkodliwych działań, np. ujawniania poufnych danych. Tutaj także kluczową metodą zabezpieczenia się przed negatywnymi konsekwencjami jest dokładna weryfikacja, monitorowanie działania modelu i wprowadzanie ograniczeń, które blokują potencjalnie niebezpieczne działania.

Nie zapominajmy o etyce

Stosowanie GAI wiąże się także z wyzwaniami etyczno – prawnymi. Wyszkolone na ograniczonych, niereprezentatywnych zestawach danych modele mogą, zamiast podejmować racjonalne decyzje, wzmacniać jedynie istniejące w danej organizacji tendencje. W 2018 r. Amazon zrezygnował z systemu wykorzystującego AI w procesie rekrutacji nowych pracowników, gdy wyszło na jaw, że model wytrenowany na zestawie danych dotychczasowych kandydatów do pracy, dyskryminował kobiety, które wcześniej stanowiły zdecydowaną mniejszość aplikantów.

Innym problemem są potencjalne naruszenia praw autorskich dokonywane przez takie systemy. To istotny problem, bo większość publicznie dostępnych modeli GAI jest szkolona na ogromnych ilościach danych pobranych z Internetu. Wiąże się to z ryzykiem nieumyślnego naruszenia praw intelektualnych oryginalnych autorów treści, obrazów czy kodu komputerowego. Sposobem na ograniczenie ryzyka jest stosowanie wyspecjalizowanych modeli, szkolonych na dobrze dobranych zestawach danych pozbawionych ryzyka prawnego.

Rozwój rynku narzędzi GAI

Nic nie wskazuje na to, by wyzwania związane z zagrożeniami stanowiły problem nie do przezwyciężenia. Analiza Bloomberg Intelligence pokazuje, że rynek modeli generatywnej sztucznej inteligencji w najbliższych latach czeka ekstremalnie szybki rozwój. Analitycy prognozują, że rynek narzędzi GAI, w 2022 r. wart 40 mld dol., do 2032 roku ma osiągnąć wartość 1,3 bln dolarów. Firma consultingowa McKinsey szacuje, że wykorzystanie generatywnej AI w 63 zastosowaniach biznesowych może przynieść globalnej gospodarce zyski rzędu 2,6 do 4,4 bln dolarów rocznie. Jedną z przyczyn jest fakt, że narzędzia GAI są w stanie zautomatyzować działania, które dziś absorbują 60-70 proc. czasu pracowników.

Nie ma w zasadzie branży, na której generatywna sztuczna inteligencja nie odciśnie w najbliższych latach swojego wpływu. Coraz powszechniejsze jest stosowanie narzędzi wizji komputerowej, wspomagających lekarzy, odpowiadających za bezpieczeństwo autonomicznych pojazdów czy monitorujących stan linii produkcyjnych w fabrykach.

Firma analityczna Gartner przewiduje, że w 2024 r. 40 proc. wszystkich aplikacji biznesowych będzie zawierać “konwersacyjną sztuczną inteligencję”, do 2025 r. 30 proc. firm wprowadzi strategię rozwoju wspieranego przez AI, a do 2026 r. generatywna sztuczna inteligencja zautomatyzuje 60 proc. pracy związanej z projektowaniem stron internetowych czy aplikacji. Aż 15 proc. nowych aplikacji ma być automatycznie generowanych przez AI bez udziału człowieka. W tym samym roku aż 100 mln pracowników ma współpracować ze sztuczną inteligencją.

Oznacza to gwałtowny wzrost efektywności pracowników, spadek kosztów i możliwość dynamicznego reagowania na zmieniające się warunki. Najpierw jednak i firmy, i pracownicy muszą nauczyć się skutecznie wykorzystywać możliwości oferowane przez te nowe narzędzia. Jednocześnie pamiętając, że choć generatywna sztuczna inteligencja posiada szerokie umiejętności, nie jest w stanie wykonywać wszystkich zadań.

– Doskonale wiem, że sztuczna inteligencja może być ogromną szansą na postęp, rozwinięcie działalności czy zdobycie przewagi konkurencyjnej. Jednak wiem też dobrze, że jest to tylko technologia, a wszystko zależy od sposobu jej wdrożenia i wykorzystania przez ludzi – przyznaje Hana Kvartová, dyrektor regionu Europa Centralna w SAS.

Hana Kvartová od ponad 10 lat zajmuje najwyższe stanowiska kierownicze na poziomie lokalnym i regionalnym w SAS. Od stycznia 2020 roku jest Dyrektorką Regionalną SAS na Europę Centralną, a wcześniej przez blisko 7 lat była Country Leaderem na Słowacji oraz w Czechach. Posiada rozległe doświadczenie w kierowaniu zróżnicowanymi, międzynarodowymi zespołami oraz wiedzę w zakresie sprzedaży, doradztwa biznesowego, planowania strategicznego, zarządzania operacjami i komunikacji. Dzisiaj opowiada nam o szansach i zagrożeniach związanych z coraz powszechniejszym wykorzystaniem sztucznej inteligencji w biznesie i innych obszarach naszego życia.

Skrócona angielska nazwa sztucznej inteligencji – AI – została uznana za Słowo Roku 2023 przez wydawcę słownika Collinsa. Czy AI nadal będzie topowym tematem w 2024 roku?

Rzeczywiście nie trzeba być wysokiej klasy ekspertem, ściśle śledzącym technologiczne trendy rynkowe, by orientować się, jaki temat najsilniej rezonuje dziś nie tylko wśród specjalistów z branży IT, ale także znacznie szerzej, pośród przedstawicieli biznesu czy generalnie w społeczeństwach. Jest nim oczywiście sztuczna inteligencja i jej szerokie zastosowanie w gospodarce, w sektorze publicznym, w ochronie zdrowia i wielu innych obszarach naszego życia. U jednych wzbudza on duże nadzieje, u innych obawy, niemniej jest tym, na czym dziś wszyscy skupiamy swoją uwagę i będziemy się zajmować w tym roku.

Jakie powinno być zatem podejście do tego zagadnienia?

Spokojne i wyważone. Doskonale wiem, że jak każda technologia, także sztuczna inteligencja może być ogromną szansą na postęp, rozwinięcie działalności czy zdobycie przewagi konkurencyjnej. Jednak wiem też dobrze, że jest to tylko technologia, a wszystko zależy od sposobu jej wdrożenia i wykorzystania przez ludzi.

Jeszcze kilka lat temu o cyfryzacji mówiliśmy, że nie polega ona jedynie na wdrożeniu odpowiednich rozwiązań, ale jest procesem, który należy zacząć od modyfikacji kultury organizacji tak, by cyfrowa tożsamość stała się jej częścią. Dokładnie to samo dotyczy sztucznej inteligencji. Tak naprawdę nie jest ona samodzielną technologią, która przynosi korzyści sama z siebie. By tak się stało, musi zostać osadzona w strategii organizacji, która zamierza ją wykorzystać.

Nie wystarczy więc po prostu podpiąć model AI pod firmowe systemy, by miał dostęp do danych, i zlecić mu wykonywanie zadań? Oczywiście spłycam to zagadnienie tak postawionym pytaniem, ale chciałbym tu zapytać o wyzwania, które wiążą się z wykorzystaniem AI w różnych organizacjach.

Zdecydowanie nie wystarczy! Po pierwsze musimy wiedzieć, co ta sztuczna inteligencja ma dla nas robić, czego od niej oczekujemy. Kiedy już to określimy, musimy wytrenować dany model na wybranych, reprezentatywnych danych tak, by jego działania były zgodne z naszymi oczekiwaniami. Tu zaś dotykamy istotnej kwestii, czyli jakości danych gromadzonych i przetwarzanych w organizacji. Bez doskonałego zarządzania nimi i zapewnienia ich wysokiej jakości, AI nie odniesie sukcesu w żadnej firmie, bo wyniki jej działań wprost zależą od tego, na jakich danych model został wytrenowany i jakie informacje są mu następnie dostarczane do przetwarzania. Jeśli model AI zostanie wytrenowany na tendencyjnych danych, wyniki jego pracy mogą okazać się mocno chybione.

Wyobraźmy sobie, że chcemy powierzyć sztucznej inteligencji opracowywanie spersonalizowanych planów leczenia pacjentów. Model wytrenowany na tendencyjnych danych może zlecać różne rodzaje leczenia tej samej choroby w tym samym stadium w zależności od płci, statusu ekonomicznego czy rasy pacjenta. Może więc okazać się rasistowski, seksistowski lub stosować tzw. ageizm, a w efekcie jego zalecenia będą szkodliwe dla pacjentów. W branży finansowej z kolei wytrenowany na nieodpowiedniej jakości danych model AI, któremu powierzymy np. ocenę zdolności kredytowej klientów, może mocno zachwiać kondycją finansową firmy, jeśli zacznie przyznawać pożyczki osobom, które nie będą w stanie spłacić zaciągniętych zobowiązań. Chcąc uniknąć tego typu sytuacji musimy zadbać o jakość danych.

Co więcej, w obu przedstawionych przeze mnie przykładach generatywna AI wykorzystuje dane wrażliwe. Ważne jest zatem zapewnienie i przestrzeganie odpowiednich regulacji i etycznych ram prawnych dla stosowania AI, aby uniknąć nadużyć oraz zapewnienie prywatności i bezpieczeństwa danych. Ponadto niezbędna jest edukacja i odpowiednie przygotowanie pracowników do pracy z nowymi technologiami.

Sporo tych wyzwań. Niemniej widzimy, że coraz więcej instytucji, firm, jednostek badawczych itd. prowadzi działania zmierzające do opracowania i wdrożenia różnorodnych modeli sztucznej inteligencji, przeznaczonej do wielu zadań. Co ich do tego skłania?

Mówiąc najprościej: korzyści i przewagi konkurencyjne. Weźmy pod lupę na przykład branżę retail. Wykorzystanie sztucznej inteligencji może wzmocnić odpowiedzialny marketing, pozwalając na prawdziwą personalizację działań sprzedażowych oraz oferty, którą będzie można w pełni dostosować do preferencji klienta. AI, śledząc łańcuchy dostaw, pozwoli także na skrócenie czasu dostaw produktów do nabywców.

Technologie sztucznej inteligencji znajdą zastosowanie również w branży ubezpieczeń. Dzięki nim ubezpieczyciele będą mogli wprowadzić dynamiczną wycenę składek i ocenę ryzyka. Pomogą im one także zautomatyzować i usprawnić przetwarzanie roszczeń, wykrywanie oszustw i nadużyć, obsługę klienta itd. Sektorowi bankowemu poprzez wykorzystanie AI łatwiej będzie np. przeciwdziałać praniu brudnych pieniędzy, a proces ten ponadto ulegnie optymalizacji kosztowej.

W ochronie zdrowia sztuczna inteligencja pozwoli posługiwać się awatarami pacjentów do prowadzenia badań klinicznych i wdrażania indywidualnych planów leczenia. Sięgnie po nią także sektor publiczny, by zwiększyć produktywność, zautomatyzować proste zadania i ograniczyć skutki niedoboru wykwalifikowanych pracowników, którzy coraz rzadziej wybierają karierę w tym obszarze. Sektor ten będzie się jednocześnie mierzył z wyzwaniem zwiększenia bezpieczeństwa w zakresie coraz bardziej powszechnych cyfrowych usług publicznych i tożsamości cyfrowej.

Wreszcie branża produkcyjna, gdzie AI jest nieodzownym elementem inteligentnych fabryk. Wg raportu Society of Manufacturing Engineers z 2022 r. zastosowanie w nich tzw. konserwacji predykcyjnej opartej o sztuczną inteligencję i uczenie maszynowe może zmniejszyć liczbę nieoczekiwanych awarii aż o 90 proc. To zaś przekłada się na wymierną korzyść finansową – zarówno poprzez zmniejszenie liczby kosztownych napraw, jak i w efekcie ograniczenia przestojów generujących straty.

To wszystko brzmi zarówno fascynująco, jak i niepokojąco. Bo z jednej strony korzyści są oczywiste: AI się nie zmęczy, dobrze wytrenowana nie popełni błędów, wyniki jej pracy będą w pełni powtarzalne i uzasadnione. Jednak wychodzi na to, że człowiek przestaje być potrzebny.

Zdecydowanie jestem przeciwna stwierdzeniu, że AI zabierze nam pracę. Nie zabrała jej maszyna parowa podczas pierwszej rewolucji przemysłowej, nie zabrały komputery, teraz też nie musimy się tego obawiać. Oczywiście na rynku pracy nastąpi zmiana – już dziś ją obserwujemy. Wchodzimy w etap powstawania zupełnie nowych zawodów i specjalizacji, a równocześnie obserwujemy, jak AI zastępuje pracowników w czynnościach powtarzalnych, nie wymagających kreatywności. To oczywiście, jak każda zmiana, budzi obawy. Jednak wiem dobrze, że w powyższym obszarze powstanie także wiele nowych miejsc pracy.

Ale z „wymieraniem” zawodów i powstawaniem innych będziemy mieli do czynienia chyba głównie w tych organizacjach, w których sztuczna inteligencja zostanie wdrożona? Tam, gdzie się ona nie pojawi, chyba nie ma się czym przejmować?

Tylko że organizacji, do których nie zostanie wprowadzona sztuczna inteligencja, będzie z roku na rok coraz mniej. Musimy się tu spodziewać efektu śnieżnej kuli. Eksperci od technologii informatycznych dobrze znają zjawisko shadow IT, które polega na używaniu przez pracowników na firmowym sprzęcie oprogramowania, które nie zostało oficjalnie zaimplementowane w organizacji. Dziś ci sami specjaliści zgłaszają zjawisko shadow AI, polegające na wykorzystywaniu w firmach modeli AI, które nie są w nich oficjalnie wdrożone. Źródłem tych zjawisk jest m.in. naturalna chęć każdego z nas do wykonywania swych zadań w sposób jak najprostszy, jak najskuteczniej, przy optymalnym zaangażowaniu środków. A skoro jakieś oprogramowanie czy model AI to oferuje, to pracownik chętnie po niego sięga.

Z drugiej zaś strony wszyscy musimy być gotowi na to, że po AI coraz częściej sięgać będą także cyberprzestępcy, aby dokonać oszustw, wyłudzeń czy włamań do infrastruktury IT. Do ochrony przed nimi trzeba będzie użyć zabezpieczeń także bazujących na modelach AI, co może skutkować swego rodzaju „wyścigiem zbrojeń”. To wszystko razem sprawi zaś, że obszarów nie dotkniętych wpływem algorytmów nie tylko w biznesie, ochronie zdrowia, ale i sektorze publicznym będzie coraz mniej. Każdy z nas coraz częściej w codziennym życiu będzie miał kontakt ze sztuczną inteligencją, a obrona przed nią przypominać będzie walkę z wiatrakami.

Czyli tej zmiany, którą niesie AI, nic już nie zatrzyma?

Obserwując obecną sytuację geopolityczną oraz mając w pamięci to, czego doświadczaliśmy w ostatnich latach, wolałabym, aby nie pojawiły się tego typu przeszkody, ponieważ do głowy przychodzą mi tylko takie czynniki, które mogłyby nas cofnąć w rozwoju o całe dekady lub nawet stulecia. Ale zamiast snuć wizje katastroficzne lepiej pomyśleć o tym, jakie szanse otwiera przed nami sztuczna inteligencja. Może nie tylko usprawnić i przyspieszyć pracę każdego z nas, przynieść przewagi konkurencyjne wielu firmom oraz korzyści ich klientom, ale także doprowadzić do odkryć i innowacji naukowych, na które czeka cały świat. Może poprawić jakość naszego życia, zwiększyć jego komfort i poziom, pozostawiając nam więcej czasu na to, co naprawdę lubimy i co nas interesuje. Sama w sobie jest zaś tylko kolejną technologią – sposób i zakres jej zastosowania zależy tylko od nas.

Artificial intelligence can be a huge opportunity to advance, develop business, or gain a competitive advantage. However, I am also well aware that it is just a technology, and everything depends on how people implement and use it, says Hana Kvartová, director of the Central Europe region at SAS.

Hana Kvartová has held top management positions at SAS’s local and regional levels for over ten years. Since January 2020, she has been SAS Regional Director for Central Europe, and before that, she was the Country Leader in Slovakia and the Czech Republic for nearly seven years. She has extensive experience leading diverse international teams and expertise in sales, business consulting, strategic planning, operations management, and communications. Today, she tells us about the opportunities and risks of the increasingly widespread use of artificial intelligence in business and other areas of our lives.

The abbreviation of Artificial Intelligence (AI) has been named the Word of the Year for 2023 by the Collins Dictionary publisher. Will AI still be a top topic in 2024?

Indeed, one does not have to be a high-level tech expert closely following market trends to know what topic resonates most strongly today, not only among IT professionals but also much more broadly, among business representatives or societies. It is artificial intelligence and its wide application in business, the public sector, health care, and many other areas of our lives. It raises high hopes and fears in some, but it is what we are all focusing on today and will deal with this year.

So, what is your approach to this issue?

Calm and balanced. Like any technology, I know artificial intelligence can be a huge opportunity to advance, grow a business, or gain a competitive advantage. However, I am also well aware that it is only a technology, and everything depends on how people implement and use it.

Just a few years ago, regarding digitization, we said that it is not just about implementing the right solutions but is a process that must start with modifying the organization’s culture so that digital identity becomes part of it. The same applies to artificial intelligence. It is not a standalone technology that brings benefits on its own. For that to happen, it must be embedded in the organization’s strategy that intends to use it.

So, isn’t it enough to hook up an AI model to a company’s systems so it can access data and have it perform tasks? Of course, I’m making it shallow with such a question, but I’d like you to say more about the challenges of using AI in different organizations.

First of all, we need to know what AI is supposed to do for us and what we expect from it. Once we determine this, we need to train the model in question on selected, representative data to align with our expectations. Here, we touch on an important issue – the quality of the data collected and processed in the organization. Without perfect management and ensuring their high quality, AI will not succeed in any company because the results of its activities directly depend on what data the model has been trained on and what information is then provided to it for processing. If an AI model is trained on biased data, the results of its work may be well-matched.

Imagine we want to entrust artificial intelligence to develop personalized patient treatment plans. A model trained on biased data may prescribe different treatments for the same disease at the same stage depending on the patient’s gender, age, economic status, or race. So, it may turn out to be racist, sexist, or apply so-called ageism, and as a result, its recommendations will be harmful to patients. In the financial industry, on the other hand, an AI model trained on inadequate data quality, to which we entrust, for example, the evaluation of a customer’s creditworthiness, can firmly shake the company’s financial condition if it starts granting loans to people who will not be able to repay their debts. To avoid this type of situation, we must consider data quality.

Moreover, in both examples I presented, AI uses sensitive data. It is, therefore, essential to ensure and adhere to an appropriate regulatory and ethical framework for using AI to avoid abuse and ensure data privacy and security. In addition, it is essential to educate and adequately prepare employees to work with new technologies.

A lot of challenges. Nevertheless, we see that more and more institutions, companies, research units, etc., are leading efforts to develop and implement various artificial intelligence models designed for a wide range of tasks. What is driving them to do so?

Simply put, benefits and competitive advantages. Take the retail industry, for example. Artificial intelligence can enhance responsible marketing, allowing true personalization of sales activities and offers that are fully customizable to customer preferences. By tracking supply chains, AI will also enable shorter delivery times for products to buyers.

AI technologies will also find applications in the insurance industry. They will enable insurers to introduce dynamic premium pricing and risk assessment. They will also help them automate and improve claims processing, fraud and abuse detection, customer service, etc. The banking sector, through the use of AI, will find it easier to counter money laundering, for example, and the process will be cost-optimized.

In health care, artificial intelligence will allow the use of patient avatars to conduct clinical trials and implement individualized treatment plans. The public sector will also reach for it to increase productivity, automate simple tasks, and reduce the impact of a shortage of skilled workers increasingly choosing careers in this area. At the same time, the sector will grapple with the challenge of increasing security for increasingly common digital public services and digital identities.

Finally, the manufacturing industry is where AI is an indispensable part of intelligent factories. According to a 2022 report by the Society of Manufacturing Engineers, their use of predictive maintenance based on AI and machine learning can reduce the number of unexpected failures by as much as 90 percent. This, in turn, translates into a measurable financial benefit – both by reducing the number of costly repairs and, as a result, reducing loss-generating downtime.

All that you say sounds both fascinating and disturbing. On the one hand, the benefits are apparent: AI won’t get tired, well-trained AI won’t make mistakes, and the results of its work will be fully reproducible and reasonable. However, it comes out that humans are no longer needed.

I strongly oppose the statement that AI will take away our jobs. The steam engine didn’t take it away during the first industrial revolution; computers didn’t, and we don’t have to fear that now. Of course, there will be a change in the labor market – we are already seeing it. We are entering a stage of the emergence of entirely new professions and specializations. At the same time, AI replaces workers in repetitive activities that do not require creativity. This, of course, like any change, raises concerns. However, I know many new jobs will also be created in the above area.

But with the “extinction” of professions and the emergence of others, we will probably have to deal mainly with those organizations where artificial intelligence will be implemented. Where will it not appear? There is nothing to worry about.

It’s just that the organizations to which artificial intelligence will not be introduced will be fewer and fewer every year. We must expect a snowball effect here. IT experts are familiar with shadow IT, which involves employees using software on company hardware that has yet to be officially implemented in the organization. Today, the same experts report the phenomenon of shadow AI, which involves using AI models in companies that have not been formally implemented. The source of these phenomena is, among other things, the natural desire of each of us to perform our tasks in the simplest, most efficient way possible, with the optimal commitment of resources. And if some software or AI model offers this, the employee is eager to take advantage of it.

On the other hand, we all must be ready that AI will also be increasingly used by cybercriminals looking to commit fraud, phishing, or hacking into IT infrastructure. Security measures also based on AI models will have to be used to protect against them, which may result in an arms race. All this together, in turn, will make areas unaffected by algorithms, not only in business and health care but also in the public sector, increasingly scarce. We will increasingly come into contact with artificial intelligence daily, and defending against it will resemble a tilt at windmills.

So, will this change that AI brings no longer be stopped by anything?

Observing the current geopolitical situation and considering what we have been experiencing in recent years, I prefer not to see such obstacles arise, as I can only think of factors that could set us back in our development by decades or even centuries. But instead of spinning catastrophic visions, it is better to think about what opportunities artificial intelligence offers us. It can improve and speed up everyone’s work, bring competitive advantages to many companies and benefits to their customers, and lead to scientific discoveries and innovations that the world is waiting for. It can improve the quality of our lives, make them more comfortable and more enjoyable, leaving us more time for what we like and what interests us. In turn, it is just another technology – how and to what extent it can be used is up to us.

— Bez narzędzi data science na pewno rozwój motocykla trwałby zdecydowanie dłużej, bo wtedy polegalibyśmy tylko na informacjach zwrotnych od kierowcy. A ich nie dałoby się jednoznacznie zweryfikować, zwizualizować, poddać analizie i ocenić w szerszym kontekście. Bez zaawansowanej analityki realizacja nowoczesnego projektu nie byłaby możliwa w takim kształcie — doktorant z Politechniki Warszawskiej, Jan Biniewicz, przybliża rozwój projektu WUT SiMR Racing Technology.

Jan Biniewicz przygotowuje doktorat w Instytucie Pojazdów i Maszyn Roboczych Politechniki Warszawskiej. Od 6 lat współtworzy projekt budowy motocykla wyścigowego z udziałem studentów swojej uczelni. W 2019 roku maszyna zdobyła 2. i 3. miejsce w wyścigu Alpe Adria Vintage. Rok później w Pucharze Polski w klasie Sport250 zajęła 2. miejsce, a w tym roku 3. podczas Mistrzostw Śląska rozgrywanych na Torze Poznań.

Zbudowaliście oczujnikowany motocykl wyścigowy, podpięty do platformy analitycznej. To przedsięwzięcie ma związek ze studiami na Wydziale Samochodów i Maszyn Roboczych?

Motocykl rozwijamy od 2017 roku w ramach koła naukowego. Oczywiście zakres projektu mieści się w kompetencjach, które zdobywają studenci naszego wydziału, ale na początku udział w tej inicjatywie nie był powiązany z możliwością zaliczania konkretnych przedmiotów. To była bardziej realizacja naszych zainteresowań i wykorzystanie tego, co umiemy, do skonstruowania motocykla na zawody studenckie. Wcześniej uczestniczyliśmy w podobnych projektach i zajmowaliśmy się na przykład tworzeniem bolidu wyścigowego, ale bardziej interesowały nas motocykle.

Dlaczego?

To była i jest nasza pasja. Wielu z nas jeździło motocyklami, śledziliśmy transmisje różnych serii wyścigowych i w końcu podjęliśmy decyzję, że chcemy zbudować własną maszynę i wystartować w akademickich zawodach MotoStudent.

Czyli projekt pozwala pogłębić w praktyce teoretyczną wiedzę zdobytą podczas studiów?

Dokładnie tak. Na naszym wydziale są poruszane tematy związane z mechaniką, projektowaniem maszyn i pojazdów, z dynamiką tych pojazdów oraz wytrzymałością materiałów. Wszystkie wspomniane zagadnienia są kluczowe w projektowaniu pojazdów, a uczestnictwo w kole naukowym to z kolei sposób na wykorzystanie teoretycznej wiedzy w praktyce. Na studiach mamy ćwiczenia praktyczne i projekty. Nie dochodzą one jednak do fazy wykonawczej i testów, czyli etapów, które jednoznacznie weryfikują przeprowadzone wcześniej prace. Zatem zaletą naszej inicjatywy dotyczącej budowy motocykla wyścigowego jest możliwość sprawdzenia swoich umiejętności w prawdziwym projekcie produkcyjnym.

Jak duży jest zespół zaangażowany w prace nad rozwojem maszyny?

Zaczynaliśmy jako grupa ze studiów magisterskich, zespół liczył siedem osób. Później przyszły czasy pandemii, które wiązały się z problemami z pozyskiwaniem nowych uczestników projektu. Grupa pozostawała liczebnie bez zmian. Teraz trochę zmieniliśmy kryteria, ponieważ studenci dość wcześnie zaczynają pracę zawodową i trudno jest angażować do podobnych przedsięwzięć osoby ze studiów magisterskich, czyli takie, które już mają ugruntowaną wiedzę. Dlatego rekrutujemy osoby ze studiów inżynierskich, a nawet studentów pierwszego roku. Niesie to pewne wyzwania związane z brakiem wiedzy teoretycznej, ale jest to też szansa na szybszy rozwój kompetencji. Obecnie zespół liczy 11 osób i jest podzielony na działy konstrukcji podwozia, elektroniki, aerodynamiki, silnika oraz obsługi medialnej i administracyjnej.

Przejdźmy do kwestii technicznych. Motocykl jest wyposażony w 30 czujników. Na których podzespołach są one zamontowane i za co dokładnie odpowiadają?

Część czujników jest związana z silnikiem. Za ich obsługę odpowiada sterownik, który na podstawie chwilowych wskazań sensorów podejmuje decyzje między innymi o dawce paliwa czy kącie wyprzedzenia zapłonu. Trafiają do niego informacje o prędkości obrotowej silnika, kącie otwarcia przepustnicy, ciśnieniu oleju oraz paliwa, temperaturze cieczy chłodzącej oraz zawartości tlenu w spalinach. Pomiary ze sterownika silnika trafiają kolejno do minikomputera Raspberry Pi 4, który pełni w naszym systemie akwizycji danych funkcję dataloggera. Mierzymy także przyspieszenie motocykla w trzech prostopadłych kierunkach, jego kąt przechyłu, ugięcie zawieszenia, kąt skrętu kierownicy, a nawet temperaturę opon. Poza tym za pomocą systemu nawigacji satelitarnej oraz czujników prędkości obrotowej kół kontrolujemy prędkość pojazdu. Uniwersalność minikomputera Raspberry Pi umożliwia swobodne komponowanie całego układu oraz integrację niemalże dowolnej liczby sensorów. Kompaktowe rozmiary urządzenia oraz jego niewielka masa bardzo dobrze wpisują się w koncepcję lekkiego motocykla wyścigowego.

Dalej dane zebrane z czujników układ Raspberry Pi przesyła do platformy analitycznej SAS.

Raspberry Pi zbiera informacje z czujników i przetwarza każdą pojedynczą informację „w locie”, wykorzystując oprogramowanie SAS. W ramach analizy danych w czasie rzeczywistym wyświetlamy kierowcy informacje o czasie ostatniego okrążenia oraz o bieżącej różnicy czasu względem referencyjnego okrążenia zapisanego w pamięci urządzenia. Uzyskaliśmy te funkcjonalności, adaptując do naszych potrzeb narzędzia geofencingu dostępne w ramach technologii SAS Event Stream Processing. Nasz dział elektroniki wspierany przez międzynarodowy zespół ekspertów zebranych przez SAS Poland pracuje obecnie nad przesyłaniem danych bezpośrednio do chmury oraz przygotowuje rozwiązania, które mają umożliwić obsłudze motocykla podgląd na żywo wszystkich wskaźników pracy pojazdu. Tak zaprojektowany system akwizycji danych będzie można nazwać prawdziwą telemetrią.

Co potem dzieje się z danymi?

Po zjeździe motocykla do boksu przygotowujemy dane do analizy za pomocą wspomnianego SAS Event Stream Processing oraz dodatkowych narzędzi napisanych w SAS Studio. Wyliczamy wtedy pochodne wybranych wielkości, wyznaczamy przyspieszenia pojazdu z danych GPS oraz stosujemy geofencing, który ułatwia późniejszą analizę porównawczą dwóch lub więcej okrążeń toru. Odpowiednio przygotowane dane przeglądamy za pomocą narzędzia SAS Visual Analytics, w którym przygotowaliśmy raporty pod kątem analizy jazdy kierowcy, pracy zawieszenia, przyczepności opon czy wskaźników pracy silnika. Przeglądamy dane zwizualizowane za pomocą tabelarycznych podsumowań oraz różnorodnych grafów, wykresów i histogramów. Następnie wyciągamy wnioski i podejmujemy decyzje o modyfikacji trajektorii przejazdu, zmianie geometrii podwozia czy nastawów tłumików w zawieszeniu. Analiza danych pozwala nam wyciągać cenne wnioski, na podstawie których rozstrzygamy nie tylko bieżące kwestie techniczne, ale możemy też planować kolejne kroki projektowe czy określać odleglejsze cele dla całego przedsięwzięcia.

Jaka technologia odpowiada za łączność w czasie rzeczywistym? To jest po prostu łączność komórkowa?

Posiadamy moduł LTE 4G i za jego pomocą przesyłamy dane.

A 5G? Niższe opóźnienia nie byłyby tu walorem?

Obecnie za pomocą łączności komórkowej przesyłamy do chmury gotowe pakiety zarejestrowanych danych oraz odbieramy tzw. korekty RTK, które umożliwiają nam osiągnięcie centymetrowej dokładności satelitarnego pozycjonowania. 4G okazuje się być do tych zastosowań wystarczające. Wyższa prędkość transmisji danych w sieci 5G może okazać się nieoceniona przy planowanych nowych funkcjonalnościach systemu, o których wcześniej wspominałem. Rosnący zasięg 5G powoduje, że wykorzystanie tej technologii do naszych zastosowań staje się coraz bardziej realne.

Jak wyglądałoby konstruowanie motocykla wyścigowego bez wykorzystania analityki?

Na pewno rozwój motocykla trwałby zdecydowanie dłużej, bo wtedy polegalibyśmy tylko na informacjach zwrotnych od kierowcy, których nie dałoby się jednoznacznie zweryfikować, zwizualizować, poddać analizie i ocenić w szerszym kontekście. Zmiany w pojeździe wprowadza się pojedynczo, w szczególności na początkowym etapie rozwoju motocykla. Jednoczesna modyfikacja kilku ustawień pojazdu utrudnia identyfikację głównego czynnika prowadzącego do poprawy lub pogorszenia działania maszyny. Brak narzędzi data science wiązałby się z koniecznością weryfikacji znacznie większej liczby konfiguracji pojazdu, a każdy dodatkowy dzień spędzony na torze wyścigowym przekłada się na wzrost kosztów projektu. W przypadku zawodów sytuacja jest jeszcze bardziej skomplikowana, ponieważ napięte harmonogramy ograniczają czas przejazdów treningowych. Każda sekunda musi zostać spożytkowana w możliwie najlepszy sposób. Bez zaawansowanej analityki realizacja nowoczesnego projektu nie byłaby możliwa w takim kształcie. Bez dostępu do szerokiego zakresu danych z czujników oraz zaawansowanych narzędzi do ich analizy, nie moglibyśmy podjąć pewnych decyzji i sprawdzić ich na przykład symulacyjnie, aby wprowadzić istotne usprawnienia w pojeździe w tak krótkim czasie.

Czy można zaliczyć ten innowacyjny projekt do obszaru przemysłu 4.0?

Widać w ostatnim czasie znaczny wzrost zainteresowania koncepcją przemysłu 4.0 i rozwiązaniami, które się w niej mieszczą. Nasz projekt to dobra okazja dla studentów do poznawania najnowszych technologii i zdobywania przyszłościowych kompetencji. Dodam, że na Wydziale Samochodów i Maszyn Roboczych Politechniki Warszawskiej powstała specjalność na studiach magisterskich, która dotyczy właśnie czwartej rewolucji przemysłowej. Autorzy jej programu uwzględnili m.in. wykorzystanie analityki danych do projektowania oraz optymalizacji procesów i maszyn. Mamy również na Politechnice Warszawskiej studia podyplomowe z tego zakresu.

A co będzie dalej z motocyklowym projektem?

Planujemy zebrać jak najwięcej danych z obecnej maszyny, żeby móc je wykorzystać w przyszłości. Mam na myśli cel w postaci opracowania kolejnego motocykla na następne zawody MotoStudent. Chcielibyśmy także wziąć udział w wybranej rundzie klasy Moto4 w serii Trofei MES we Włoszech w 2024 roku. Coraz śmielej myślimy też o wykorzystaniu sztucznej inteligencji w procesie doskonalenia naszych projektów.

— Ponad dwie dekady temu miały padać systemy bezpieczeństwa, systemy finansowe i produkcyjne z powodu „problemu roku 2000”. Teraz z punktu widzenia ryzyk i bezpieczeństwa systemy kwantowe to właśnie taki “rok 2000”, tyle że na większą skalę — porównuje w rozmowie z serwisem “Data Science robię” Artur Derwiszyński z Intela, a Łukasz Libuda z SAS uzupełnia. — Mamy dwie strony medalu. Jedna czysto technologiczna, dotycząca bezpieczeństwa, a druga to fakt, że komputery kwantowe przyniosą nam większe moce obliczeniowe. Przyczyni się to do zwiększenie liczby operacji oraz prawdopodobnie będzie można taniej szybciej podjąć decyzję biznesową.

Artur Derwiszyński pracuje w firmie Intel jako FSI Lead na region EMEA. Wcześniej był związany z sektorem bankowym i ubezpieczeniowym. Jest absolwentem SGH oraz University of Minnesota.

Łukasz Libuda to ekspert w zakresie zarządzania ryzykiem, w SAS pracuje na stanowisku Head of Risk Practice na Europę Środkową. Specjalizuje się w zagadnieniach dotyczących ryzyka finansowego i operacyjnego. Zajmuje się również optymalizacją procesów wewnętrznych w organizacjach.

Kilka lat temu wiązano wielkie nadzieje z wpływem blockchainu, zwłaszcza kryptowalut, na rynek finansowy. Dziś o realnej skali tego wpływu można dyskutować, tymczasem pojawił się inny istotny czynnik zmiany – działania nazywane Cybercrime as a Service. Jak oceniacie znaczenie tego zjawiska?

Artur Derwiszyński, Intel: To jest niezwykle groźny, a jednocześnie interesujący, z perspektywy biznesowej, kierunek rozwoju cyberprzestępczości. Od strony technologicznej, warto odnieść się tutaj do modelu Software as a Service, który obniżył ceny dostępu do usług, zwiększył ich dostępność i tym samym przyspieszył rozwój w wielu obszarach. I tak samo Cybercrime as a Service “demokratyzuje” rynek przestępczy i obniża koszty cyberprzestępczości, a zatem usług takich, jak Ransomware as a Service, DDoS as a Service czy Phishing as a Service. W konsekwencji działania cyberprzestępców będą coraz lepsze, szybsze i łatwiej dostępne. Phishing as a Service w połączeniu z AI będzie oznaczał hiperpersonalizację wiadomości. Usługi hakerskie wejdą na jeszcze wyższy poziom i staną się dostępne dla milionów ludzi na świecie.

Czy to są przyszłe wyzwania, a może te metody już dziś są stosowane, tylko my z pewnym opóźnieniem dowiadujemy się o szczegółach technicznych?

A. D.: Oczywiście, one działają już od paru lat. Część ataków na szpitale i inne jednostki służby zdrowia w Wielkiej Brytanii z 2022 i 2023 roku było prawdopodobnie realizowanych nie tylko przez „grube ryby” świata przestępczego, jak BlackCat, ale także za pomocą usług platformowych cyberkryminalistów. Natomiast wydaje się, że “złoty wiek” w tej gałęzi cyberprzestępczości jest jeszcze przed nami. Mówię w czasie przyszłym, bo skupiam się na tym, że zastosowanie sztucznej inteligencji będzie kolejnym poziomem zaawansowania działań przestępców. Jednak niewątpliwie tego tupu praktyki są już realizowane, tylko na razie w stosunkowo małym zasięgu.

Łukasz Libuda, SAS: Ja mogę dodać, że to, o czym mówi Artur, jest naprawdę straszącą perspektywą. Technologia zwykle jest albo szansą, albo zagrożeniem. W tym przypadku to ogromne zagrożenie, bo jeżeli da się spersonalizować przekaz, czyli już nie mamy wiadomości napisanej przez oszusta łamaną polszczyzną, tylko dopracowaną, wiarygodnie brzmiącą wypowiedź, to jest to bardzo poważne zagrożenie. A dodam, że już dzisiaj możemy w łatwy sposób doprowadzić do zmiany głosu rozmówcy lub podmienić obraz. Trend postępuje i musimy liczyć się z tym, że go nie zatrzymamy. Dlatego bardzo ważna jest podstawowa edukacja konsumentów i użytkowników dotycząca najnowszych form ataków oraz włączenie mechanizmu ograniczonego zaufania.

Natomiast patrząc z perspektywy organizacji mamy dwie opcje – aktywne i pasywne zabezpieczenia. Aktywne, czyli instalowanie najnowszych technologii, hardware’u i oprogramowania, które będą jak ściana i pozwolą zabezpieczyć dane, systemy i procesy przetwarzania informacji. Druga opcja to zabezpieczenia pasywne, czyli ubezpieczenia. Coraz częściej firmy ubezpieczają cyber ryzyka. Jeżeli organizacja nie chce lub nie może z jakiegoś powodu dokupić sprzętu, który pozwoli jej wdrożyć wyższy poziom zabezpieczeń, to decyduje się na ubezpieczenie. Zapewniają one odpowiednią rekompensatę potencjalnych strat dla firmy i jej klientów.

Rozmawialiśmy na początku o blockchainie. Z perspektywy rynku finansowego na razie nie spełnił oczekiwań czy może trzeba oceniać tę technologię spokojniej, przez pryzmat Krzywej Gartnera?

A. D.:  Ja nie uważam, że nie spełnił oczekiwań, tylko po prostu wyobrażenia co do szybkości adaptacji tej technologii w biznesie były przesadzone. Blockchain, czy szerzej Distributed Ledger, według mnie, ma się całkiem dobrze i powoli rośnie liczba jego produkcyjnych zastosowań, szczególnie jeśli chodzi o smart kontrakty oraz szybkie płatności transgraniczne. Oprócz tego wiele banków centralnych pracuje nad wprowadzeniem walut cyfrowych i w niektórych gospodarkach to może znacząco zwiększyć tempo wdrażania usług opartych o blockchain. Na Krzywej Gartnera mamy obszar nazywany “zboczem oświecenia”. I chyba właśnie tak jest z blockchainem w tej chwili. Być może jesteśmy już nawet na początku drogi pod górę, za poważnym dołkiem. Dlatego ja akurat bardzo optymistycznie patrzę na tę technologię. Uważam, że w zakresie zastosowań międzybankowych, nawet niekoniecznie dotykających klienta, przypadki stosowania blockchainu będą coraz częstsze.

Ł. L.: Zgadzam się, że do tej pory mieliśmy do czynienia z zachłyśnięciem się potencjalnymi możliwościami. Poszliśmy do góry, ale ostatnio spadaliśmy. To nowinka technologiczna, na której można było zarobić, ponieważ blockchain wielu osobom kojarzy się właśnie z zarobkiem. Być może nie jesteśmy jako społeczeństwo jeszcze aż tak bardzo zdigitalizowani i może pod kątem zastosowań korporacyjnych było jeszcze za wcześnie, żeby szerzej stosować blockchain. Widzę jednak tutaj pewną analogię z tematem ESG, czyli uwzględnieniem czynników Środowiskowych, Społecznych i Ładu Gospodarczego w prowadzeniu działalności. Pięć lat temu nikt nie mówił o ESG. Później firmy deklarowały, że są mocno zaawansowane w tej dziedzinie, ale w realu nie było sprawdzonej metodyki, nie było planu przejścia czy mapowania pomiędzy czynnikami ryzyka ESG a zyskownością prowadzenia działalności. Wszystko było rozmyte, więc podobnie spadliśmy. Ale od pewnego czasu pojawiają się nowe źródła danych, bardziej szczegółowe koncepcje, jak wykorzystać czynniki dotyczące ESG do modelowania ryzyka klienta czy ryzyk rynkowych.

Czy z ESG nie jest tak, że poważne potraktowanie raportowania niefinansowego zostało po prostu wymuszone na firmach przez administrację europejską? Mamy dodatkowo Europejski Zielony Ład, a w kontekście rynku finansowego przede wszystkim Taksonomię UE.

A. D.: Moim zdaniem, temat rozwija się głównie z powodu czynników ekonomicznych, ale oczywiście nacisk regulacyjny też jest istotny.

Taksonomia Unii Europejskiej to chyba już super mocny nacisk, prawda?

Ł. L..: Zgadza się. Tylko trzeba zaznaczyć, że prowadzenie działalności z uwzględnieniem czynników środowiskowych, społecznych i gospodarczych było realizowane od dawna. Firmy prowadziły akcje CSR-owe, pomagały szkołom, chciały pokazać, że rzeczywiście robią coś poza samym generowaniem biznesu i pieniędzy, czyli miały tę twarz społeczną. To po pierwsze, a po drugie, na pewno ESG jest też modą z tego względu, że dużo się o tym mówi.

Robiliśmy sporo wokół ESG od dawna, tylko trochę inaczej to było wcześniej nazywane i mniejszy nacisk był kładziony na literę E (Environment), czyli na uwzględnienie czynników środowiskowych w prowadzeniu biznesu. I po trzecie, myślę, że przedsiębiorstwa boją się dodatkowo wykluczenia z powodu ewentualnego napiętnowania, że nie zajmują się ESG – obecnie to swoisty wyróżnik i oferta oceniana przez innych.

Dziś przez wszystkie przypadki odmienia się sztuczną inteligencję, mnożąc możliwe zastosowania i czyhające zagrożenia. Ale, o ile AI możemy już sobie wyobrazić, zresztą używamy jej w wielu czynnościach, to perspektywą znacznie bardziej enigmatyczną jest technologia kwantowa. Jak wejście do użytku komputerów kwantowych wpłynie na rynek finansowy, m.in. w zakresie bezpieczeństwa?

A. D.: Niektórzy z nas pamiętają moment w historii, kiedy był problem roku dwutysięcznego, gdy narosła ogromna bańka informacyjna, że będzie światowy paraliż komputerów z datami w formacie dwucyfrowym. Miały padać systemy bezpieczeństwa, systemy finansowe i produkcyjne. I myślę, że teraz z punktu widzenia ryzyk i bezpieczeństwa systemy kwantowe to właśnie taki “rok 2000”, tyle że na większą skalę. A przede wszystkim nie wiemy, kiedy ten “rok 2000” nastąpi, jest to duży wzrost niepewności – i pod tym względem, z mojej perspektywy, to znacznie trudniejszy temat niż problem roku dwutysięcznego.

Z dużą satysfakcją mogę powiedzieć, że Intel jest jednym z liderów prac nad komputerami kwantowymi i chętnie dzielimy się wiedzą w tym zakresie z instytucjami finansowymi i regulatorami. Konieczne jest, aby te instytucje były przygotowane na dzień, kiedy może się okazać, że większość zabezpieczeń kryptograficznych, rozwijanych przez ostatnie lata, z dnia na dzień może okazać się przestarzała.

Jak to kwantowe wyzwanie wygląda z perspektywy zarządzania ryzykiem?

Ł. L.: Mamy dwie strony medalu. Jedna jest czysto technologiczna, dotycząca bezpieczeństwa, czyli to, o czym mówił Artur – prace trwają, nie wiadomo kiedy, ale na pewno to nastąpi. Komputery kwantowe przyniosą większe moce obliczeniowe, czyli będzie się dało wykonać więcej operacji, prawdopodobnie taniej i szybciej podjąć decyzję biznesową. Już nie będzie trzeba tak uogólniać. Będziemy mogli agregować dane, aby bardzo precyzyjnie podejmować decyzje. Z perspektywy zarządzania ryzykiem finansowym i ryzykiem bilansu podejmowania decyzji. W kontekście współpracy z klientem ta technologia pozwoli jeszcze bardziej precyzyjnie wykorzystać nowinki technologiczne i przełożyć je na korzyści merytoryczne, procesowe i analityczne. Zastosowań widzę dużo: przeliczenie całego bilansu w różnych scenariuszach rozwoju czynników ryzyka, wycena instrumentów finansowych czy uwzględnienie różnych czynników ryzyka w ubezpieczeniach. Wierzę, że technologia kwantowa pomoże menedżerom ryzyka podejmować lepsze decyzje.

Ale zanim na rynek wejdą komputery kwantowe, w oparciu o aktualne rozwiązania działa już model nazywany Confidential Computing.

A. D.: Technologie Intela od lat pomagają w szyfrowaniu danych w sieci i na dyskach. Natomiast w ostatnim czasie wykreowaliśmy i zostaliśmy liderem w zakresie szyfrowania danych w czasie przetwarzania, czyli obszarze Confidential Computing. To podejście ma duże znaczenie dla bezpieczeństwa danych, ale również jest niezwykle istotne w zakresie regulacyjnym. Cała koncepcja Intel Trust Authority polega na izolacji danych i aplikacji od reszty systemu w czasie przetwarzania. Nawet jeśli inne elementy systemu zostaną przejęte przez atakującego, przetwarzane dane będą nadal zabezpieczone. To dziś nasza główna przewaga, jeśli chodzi o przetwarzanie danych.

Ł. L.: Trzeba zastanowić się – po co to wszystko? Na poziomie klienta oczywiście chodzi o to, żeby zapewnić mu jak najlepsze Customer Experience. Jeśli ta technologia, o której mówił Artur, jest już bezpieczna i sprawdzona, to klient czuje się doceniony i mówimy teraz o podejściu klientocentrycznym. A z perspektywy firmy? Stosujemy tę technologię po to, żeby uwolnić potencjał wzrostu, czyli potraktować klienta bardziej indywidualnie i hiperpersonalizować to podejście. Chcemy poprawiać zyski, chcemy być odporni na fluktuacje rynku.

A przede wszystkim, znowu wracam do AI, potrzebujemy tych wszystkich metod analitycznych, które zapewniają lepszą ocenę ryzyka klienta, jego zdolności kredytowej. Mamy modele zbudowane szybciej, z lepszą operacjonalizacją i mamy więcej modeli, czyli możemy w sposób indywidulany obsłużyć konkretne segmenty klientów. A czego oczekuje rynek? Szybkiego działania. Klient oczekuje szybkiej decyzji, nie chce czekać, potrzebuje spersonalizowanego produktu. W tej chwili technologie są w stanie spełnić te wszystkie oczekiwania, poprawiając Customer Experience i de facto też współpracę. Czyli mamy sytuację win-win.

Wracając do kwestii regulacyjnych, ale związanych z CX, żyjemy teraz w rzeczywistości pomiędzy unijnymi dyrektywami PSD 2 (Payment Services Directive)  i PSD 3. Co to oznacza dla Open Bankingu?

A. D.: Dalszy rozwój. Kilka lat temu, współpracując z European Payments Council, byłem włączony w prace nad PSD2 i mogę powiedzieć, że niewątpliwie to właśnie ta dyrektywa w kluczowy sposób wpłynęła na dynamiczną zmianę w zakresie obsługi klienta i cyfryzację usług bankowych w Europie i na świecie. W latach 2016-2019 mieliśmy wysyp fintechów i nowych usług. Z czasem okazało się, że rynek dokonał weryfikacji modeli biznesowych. To spowodowało, że część startupów zbankrutowała, inne zbudowały własne silne marki, a kolejni zmienili profil z oferty ukierunkowanej na obsługę klienta detalicznego na współpracę z bankami i optymalizację ich procesów. Warto też zauważyć, że ostateczny kształt samej dyrektywy odbiega od pierwszej, w niektórych zapisach, jeszcze bardziej rewolucyjnej propozycji.

Obecnie opracowywana kolejna wersja Payment Services Directive (PSD3) też podlega podobnym działaniom ze strony interesariuszy. W obszarze CX zakłada jeszcze szersze otwarcie dostępu do danych klientów, nie tylko w zakresie rachunków płatniczych ale także innych kont, w szczególności oszczędnościowych czy inwestycyjnych. Zatem z punktu widzenia możliwości oceny klienta, czy szacowania ryzyk związanych z tym klientem – będzie znacznie więcej dostępnych danych na ten temat niż dzisiaj.

Ł. L.: Z perspektywy danych, mogę dodać, że PSD 2 i zapewne PSD 3 to Open Banking, w którym mamy nowy wektor informacji tłumaczący nam zachowanie klienta i to, co jest dla nas najważniejsze w kontekście zarządzania ryzykiem. Mam na myśli dodatkowe dane, które wrzucamy po to, aby zasilić zaawansowaną analitykę, która pracuje na zaawansowanym sprzęcie. To wszystko pomaga nam podejmować dobre decyzje. A dobre decyzje to zadowolony klient i dobrze prosperujące przedsiębiorstwo. Oczywiście cały czas pamiętamy, że pracujemy na bardzo szczegółowych informacjach, dotyczących wrażliwych aspektów finansowych każdego klienta, więc bezpieczeństwo jest tu priorytetem. I pamiętajmy, że klient może, ale nie musi udzielić nam zgody na wykorzystanie konkretnych danych. Ale zasadniczo klienci chcą mieć lepszą usługę, więc zwykle robią klik – i to stanowi potencjał z perspektywy zarządzania ryzykiem. Czekamy na rozszerzenie zakresu informacji, który ma przynieść PSD 3.

Na koniec jeszcze pytanie – nie o klientów czy korporacje – ale o przyszłych pracowników. W przemyśle 4.0 i 5.0 powtarza się tezę, że teraz ważniejsze od kompetencji twardych są te miękkie. Jakie kompetencje będą najbardziej poszukiwane na rynku pracy w 2024 roku?

A. D.: To zależy między innymi od tego, jakie stanowisko rozpatrujemy. Bo czy myślimy o roku 2000, 2024, czy 2035, oczekiwania wobec specjalisty do spraw zabezpieczeń sieciowych pewnie będą trochę inne, niż wobec specjalisty do spraw obsługi klienta. Ciekawa zmiana następuje w zakresie oczekiwań dotyczących umiejętności współpracy wewnątrz firmy. Silosy departamentowe, charakterystyczne dla biznesu sprzed 20 lat, znikają. Firmy oczekują, że, na przykład, pracownicy działu technicznego i biznesowego będą wspólnie omawiali rozwój usług czy potrzeby klientów. W takim krajobrazie miękkie kompetencje wydają się szczególnie istotne i coraz więcej firm zwraca uwagę na inteligencję emocjonalną pracowników, ich adaptowalność i komunikatywność. Dodatkowo, wraz z rozwojem technologii, o których rozmawialiśmy wcześniej, oczekuje się szeroko pojętej biegłości cyfrowej czy wiedzy o cyberbezpieczeństwie. Nawet u pracowników, którzy do tej pory nie musieli się na tym znać. Oczywiście nie na poziomie eksperckim, ale takim, który pozwoli zabezpieczyć się przed phishingiem lub  włamaniem przez konto pracownika do zasobów całej firmy.

Ł. L.: Mamy nowe technologie, zbiory danych, pomysły na ich wykorzystanie, use case’y i wiele więcej. Czyli szeroko rozumiana otwartość na zmiany w zakresie technologii, procesów, sposobów współpracy będzie miała kluczowe znaczenie dla innowacyjnego rozwoju. Bardzo ważna jest umiejętność wyjścia z własnego silosu i zrozumienie, z czym wiąże się każda z podejmowanych decyzji, jakie są zagrożenia, jakie są możliwości, jakie są szanse? Taka elastyczność i wszechstronność jest dziś potrzebna, ponieważ technologia to tylko narzędzia. To tylko funkcjonalność, którą trzeba umiejętnie wykorzystać, aby ostatecznie uzyskać wymierny efekt w postaci na przykład zwiększenia CI/CX lub zwiększenia rentowności prowadzenia działalności. Nie jest tak, że technologia nam automatycznie zapewni lepszą wydajność, innowacyjność i wzrost sprzedaży. Natomiast niewątpliwie wymaga ona rozwoju nowych kompetencji, aby wykorzystać jej potencjał w sposób optymalny dla rozwoju i konkurencyjności organizacji. Czyli otwartość, elastyczność, umiejętność adaptacji do nowych wyzwań z jednej strony oraz biegłość cyfrowa z drugiej – to główne kompetencje, których pracodawcy będą oczekiwać od pracowników w 2024 roku.

Udostępnij link

https://www.datasciencerobie.pl/komputery-kwantowe-sa-dla-rynku-finansowego-jak-kiedys-rok-2000-dla-pierwszych-pc/