Nie ufamy AI. Państwa i organizacje międzynarodowe opracowują zestawy etycznych reguł dla twórców algorytmów sztucznej inteligencji. Określają w nich, jakich zasad muszą przestrzegać w swoim funkcjonowaniu systemy, poza realizacją celów biznesowych. Światowe Forum Ekonomiczne policzyło, że mamy już blisko 200 osobnych kodeksów etycznych dla SI.

Pierwotną cechą algorytmów komputerowych, a potem algorytmów SI było wykonanie określonego zadania lub rozwiązanie postawionego problemu. Kiedy te informatyczne rozwiązania, wraz z rozwojem mocy obliczeniowych sprzętu, zaproponowały bogate możliwości, zaczął intensywnie korzystać z nich biznes, a także instytucje publiczne. Odpowiedzialność AI w sensie społecznym i gospodarczym rosła – i tak w orbicie problemu zjawiła się etyka.

Etyka AI: Księgi, Akty i Sojusze

Kolejne państwa i organizacje – biznesowe oraz międzynarodowe – uruchomiły dyskusje nad zasadami dla tzw. etycznej sztucznej inteligencji. W Unii Europejskiej powstała “Biała Księga AI”, opisująca ramy polityczne i współpracę sektora publicznego z prywatnym na rzecz tzw. ekosystemu doskonałości, który ma pomóc rozwijać SI służącą ludziom. Potem przygotowano “The Artificial Intelligence Act” sugerujący m.in. kategoryzowanie systemów pod względem nieakceptowalnego oraz wysokiego ryzyka. Światowe Forum Ekonomiczne powołało z kolei Global AI Action Alliance zrzeszające ponad 100 organizacji. Sojusz koncentruje się na rozwoju transparentnych aplikacji, które stosują zasadę human-centric. Również Watykan wystosował manifest dotyczący etycznej SI.

Na krajowym gruncie kwestią zajmuje się rządowa „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”. Przy Kancelarii Premiera działa też Grupa Robocza ds. AI. Regulacja wśród kilku zasadniczych punktów akcentuje istotność ochrony prywatności, odpowiedzialności i dobrego wpływu na społeczeństwo. Eksperci World Economic Forum policzyli, że na świecie powstało dotąd co najmniej 175 kodeksów etycznych dla sztucznej inteligencji.

Zrozumieć AI

Bryan Harris, Executive Vice President i Chief Technology Officer w SAS zaznacza, że dla oceniania etyczności lub nieetyczności AI, krytycznie ważne jest uzmysłowienie sobie, jak algorytmy prowadzą operacje. Menadżer podkreśla – SI bazuje na analizie przeszłości, zatem jeśli historyczne dane są zniekształcone, podobnie będzie z efektem działania sztucznej inteligencji:

– Analityka nie rozumie naszych założonych społecznych celów. Kiedy dążymy do usprawnienia opieki zdrowotnej, wymiaru sprawiedliwości, gospodarki albo chcemy zadbać o środowisko, musimy “poinformować” analitykę o naszych celach. Ponadto, w miarę jak analityka, uczenie maszynowe i sztuczna inteligencja stają się wszechobecne, są podejmowane zautomatyzowane decyzje, które wpływają na wielu ludzi. Organizacje wykorzystujące AI muszą się stale uczyć. Każdy, kto opracowuje technologię, która automatyzuje decyzje za człowieka, powinien ponosić odpowiedzialność za to, by efekty były przejrzyste i sprawiedliwe – przekonuje Bryan Harris.

Nie ma prostej odpowiedzi

Na czym miałaby polegać ta odpowiedzialność i kto konkretnie powinien ją ponosić za ewentualne błędy AI? Dr Dominika Kaczorowska-Spychalska z Uniwersytetu Łódzkiego, która należy do GRAI przy Kancelarii Premiera RP, uważa, że odpowiedź nie jest prosta:

– Z jednej strony odpowiedzialność dotyczy twórców rozwiązań opartych na sztucznej inteligencji, z drugiej firm, które potem te rozwiązania zastosowały w swojej strategii biznesowej czy oferowanych produktach. Nie możemy też zapominać o finalnych użytkownikach np. konsumentach, którzy mogli w niewłaściwy sposób korzystać ze wspomnianych produktów opartych na AI, co np. wynikało z ich niewiedzy. Istotne jest uświadomienie sobie, że różne zastosowania AI obarczone są różnym ryzykiem, co znalazło odzwierciedlenie w unijnym “AI Act” – wyjaśnia ekspertka w wywiadzie opublikowanym w serwisie Data Science robię.

Model odpowiedzialności AI

Niezależnie od tego, jaki ostatecznie powstanie wspólny model odpowiedzialności za skutki działań sztucznej inteligencji, na pewno część tej odpowiedzialności spoczywa na firmach. Chodzi zarówno o dostawców, jak i użytkowników tego typu algorytmów. W SAS istnieje specjalne stanowisko poświęcone etyce danych. Reggie Townsend, który pracuje jako Director of the Data Ethics Practice, jest również członkiem powołanego przez prezydenta USA Komitetu Doradczego ds. Sztucznej Inteligencji.  Firma SAS wypracowała wewnętrzne reguły i wartości dotyczące odpowiedzialnych innowacji. Model etyczny opiera się na sześciu ideach: człowiek w centrum, włączanie, przewidywalność, transparentność, odporność oraz prywatność i bezpieczeństwo.

Więcej o etyce w AI przeczytacie TUTAJ.

Musimy dzisiaj zbierać dane tak, by koncentrować się nie tylko na jednym projekcie, ale zastanawiać się, w jaki sposób mogłyby one przydać się nam w przyszłości. Biznes akcentuje wątek współpracy i współdzielenia zbiorów z różnymi grupami interesariuszy, niezależnie, czy są to firmy, instytucje naukowo-badawcze czy podmioty administracji publicznej przekonuje dr Dominika Kaczorowska-Spychalska z Uniwersytetu Łódzkiego.

Dr Dominika Kaczorowska-Spychalska pracuje na stanowisku Dyrektora Centrum Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego. Jest liderką Podgrupy Badań, Innowacyjności i Wdrożeń Grupy Roboczej ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów. Bada problematykę transformacji cyfrowej i technologii cyfrowych, w szczególności sztucznej inteligencji, w wymiarze biznesowym i społecznym. Współtworzyła „Założenia do strategii AI w Polsce”.

Sztuczna inteligencja to jeden z terminów najczęściej używanych w kontekście nowoczesnych technologii. Czy ta nazwa jest właściwa, w kontekście tego, co realnie za nią się kryje na poziomie technicznym?

Gdybyśmy zastanowili się, czym w ogóle jest inteligencja i jak jest postrzegana, to najczęściej rozumiemy ją jako umiejętność robienia określonych rzeczy we właściwym czasie. A zatem z jednej strony adaptowania się do tego, co wokół nas, z drugiej strony kreowania nowej rzeczywistości. Jeżeli sztuczną inteligencję traktujemy jako pewne odwzorowanie ludzkiej inteligencji, jej nazwa jest dla mnie czymś zupełnie naturalnym – przeciwwagą do tego, co charakterystyczne i tożsame dla człowieka. AI zawiera tak wiele elementów, że patrzę na nią przez pryzmat tego, co ją odróżnia od ludzkiej inteligencji. A w takim ujęciu termin nie budzi moich wątpliwości.

A czy nie jest ona zbyt “poetycka”, skoro dotyczy narzędzi technologicznych? I w konsekwencji oczekiwania wobec AI mogą być nie techniczne, ale “magiczne”?

Mnie ta “poetyckość”, jak ją Pan nazwał, nie przeszkadza. Wydaje mi się, że to dobrze, że nie nazywamy sztucznej inteligencji tylko w kategoriach technicznych, bo przecież nie jest ona zarezerwowana tylko dla sektora technologicznego czy biznesowego. Potencjał AI jest widoczny właściwie wszędzie. Mówimy o związanych z nią korzyściach, wyzwaniach, konsekwencjach i możliwościach, które odnoszą się do wielu dziedzin życia. Czy to jednak oznacza, że jako np. konsument, pacjent, użytkownik określonego rozwiązania muszę wiedzieć, jak ona powstaje, jak została zbudowana czy wyszkolona? Nie. W związku z tym, może owa “poetyckość” w nazwie jest właśnie tym, co daje nam szansę lepszego zrozumienia, czym sztuczna inteligencja jest dla zwykłego człowieka.

Działa Pani w Grupie Roboczej ds. Sztucznej Inteligencji przy Kancelarii Premiera, jako liderka zespołu, który zajmuje się badaniami, innowacyjnością i wdrożeniami. Na czym dokładnie polegają te prace?

GRAI zrzesza przedstawicieli różnych sektorów rynku – mamy tutaj zarówno biznes, jak i jednostki administracji publicznej czy świat nauki. Wszystkie działania są ukierunkowane na to, aby w jak najlepszym stopniu doprowadzić do realizacji założeń strategii rozwoju sztucznej inteligencji w Polsce. Tu wypracowywane są raporty pozwalające zweryfikować obecny poziom przygotowania różnych sektorów rynku do wdrożenia AI, a także rekomendacje i sugestie wspierające ten proces, między innymi w oparciu o realizowane projekty. W ramach GRAI działa kilkanaście podgrup, które koncentrują się np. na sektorze finansowym, transporcie i mobilności, energetyce, rolnictwie, medycynie, danych czy umiejętnościach cyfrowych. Bardzo wnikliwie analizują poszczególne obszary, które z punktu widzenia możliwości zastosowania sztucznej inteligencji dają spore perspektywy. Ja jestem liderką podgrupy ds. badań, innowacyjności i wdrożeń. Zajmuję się m.in. problematyką zacieśniania współpracy między światem nauki a biznesu w obszarze AI, wynikającymi z tego możliwościami zwiększenia absorpcji AI w polskich przedsiębiorstwach i rozpoznawalności polskiej nauki na arenie międzynarodowej.

Działanie sztucznej inteligencji, tak w usługach, jak i w biznesie, przynosi pewne skutki, a wśród nich mogą też pojawić się błędy. Kto powinien, w sensie modelowym, ponosić odpowiedzialność za szkody, które mogą powstać z powodu działania algorytmów AI?

Odpowiedź nie jest prosta, dlatego, że z perspektywy chociażby zastosowań AI, odpowiedzialność może dotyczyć różnych podmiotów działających na rynku. Z jednej strony dotyczy to twórców rozwiązań opartych na sztucznej inteligencji, z drugiej firm, które potem te rozwiązania zastosowały w swojej strategii biznesowej czy oferowanych produktach. Nie możemy też zapominać o finalnych użytkownikach np. konsumentach, którzy mogli w niewłaściwy sposób korzystać ze wspomnianych przeze mnie produktów opartych na AI, co wynikało chociażby z ich niewiedzy. Ponadto istotne jest uświadomienie sobie, że różne zastosowania AI obarczone są różnym ryzykiem, co znalazło odzwierciedlenie w AI Act. To dokument zaproponowany przez Komisję Europejską, który będzie regulował kwestie dopuszczalności określonych rozwiązań AI, biorąc pod uwagę poziom związanego z nimi ryzyka, a także wymaganych w tym zakresie praktyk dotyczących np. ewidencjonowania systemów, ich certyfikacji, nadzoru czy ewentualnych kar i roszczeń.

Jak cyfrowe rozwiązania zmieniają nasz sposób myślenia, podejmowania decyzji, funkcjonowania w pracy?

Cyfrowe rozwiązania, coraz bardziej wszechobecne w naszym życiu, niewątpliwie zmieniają postawy i zachowania. Mnie intryguje wizja człowieka, w tym w szczególności konsumenta, ery post human. To nurt dość często kojarzony z apokaliptyczną wizją świata, gdzie człowiek jest stopniowo zastępowany przez inteligentne maszyny w kolejnych sferach jego aktywności, stając się w ostatecznym rozrachunku mało istotnym elementem otaczającego go wszechświata. Uważam, że wizja przyszłości post human powinna koncentrować się przede wszystkim na zrozumieniu tego, jak bardzo i jak szybko jesteśmy skłonni przesuwać granicę obecności technologii w naszym życiu, nie obarczając jednak tego procesu negatywną konotacją. Prowadzone przeze mnie w tym obszarze badania są próbą znalezienia odpowiedzi na pytanie, jak zmieniamy się w kontakcie z różnymi, coraz bardziej zaawansowanymi, technologiami – mam na myśli chociażby wykorzystanie AI w urządzeniach wearables, chipy płatnicze czy poziom akceptacji AI jako twórcy w reklamie.

Myślę, że jako społeczeństwo nabyliśmy już umiejętności balansowania między tym, co dla nas ważne w świecie analogowym, a tym, co definiuje świat cyfrowy, często wykraczając poza dotychczasową strefę komfortu. Jesteśmy twórcami technologii i rozwiązań na nich opartych, adaptujemy je do własnych potrzeb, ale to jak je kreujemy i użytkujemy wpływa na nas jako ludzi i nasze decyzje.

Technologie, o których rozmawiamy, opierają się na analityce danych. Czy są potrzebne jakieś udoskonalenia w tym obszarze, na przykład w zakresie zbierania i przetwarzania dużych zbiorów informacji?

W ramach Podgrupy ds. Badań, Innowacyjności i Wdrożeń GRAI przeprowadziłam razem z Sebastianem Kondrackim z firmy Deviniti wstępne badania dotyczące wykorzystania danych i ich ewentualnego współdzielenia. Okazało się, że oczekiwania biznesu dotyczą nie tylko systematycznego poszerzania ilości i zróżnicowania gromadzonych danych, ale przede wszystkim poprawy ich jakości i zwiększenia możliwości wykorzystania w różnych projektach ukierunkowanych na rozwój AI.

Według mnie, powinniśmy jednak koncentrować się nie tylko na obecnie realizowanych projektach, ale zastanawiać się, w jaki sposób te same dane mogłyby pozwolić nam działać efektywniej i skuteczniej w przyszłości, nie znając jeszcze niejednokrotnie projektów, których mogłyby dotyczyć. Umiejętność bowiem wykorzystania dostępnych danych, a także potencjalne urzeczywistnienie koncepcji ich współdzielenia przez różne podmioty rynkowe będzie wymagało zarówno coraz większego poziomu dojrzałości cyfrowej poszczególnych uczestników rynku, jak i dalszych prac nad akceptowalnymi rozwiązaniami w tym zakresie, z uwzględnieniem potrzeb i specyfiki poszczególnych branż czy sektorów. Dane to bardzo cenny zasób, ale zasób, który wymaga ogromnej wiedzy i odpowiedzialności, jeśli chcemy, aby stanowił o naszej przewadze konkurencyjnej, nie naruszając jednocześnie praw innych podmiotów rynkowych.

Data science w sektorze publicznym można wykorzystywać do usprawnienia administracji, poprawy cyberbezpieczeństwa czy opracowywania nowych usług dla obywateli. Rządy coraz częściej sięgają po techniki nauki o danych i przyjmują strategie pod kątem rozwoju tej dziedziny. Przyjrzyjmy się przykładom stosowania zaawansowanej analityki, a także temu, co w instytucjach publicznych przeszkadza we wdrażaniu m.in. sztucznej inteligencji.

Strategii odnoszących się do data science w sektorze publicznym nie sposób zrealizować bez zapewnienia dostępu do danych publicznych oraz kooperacji sektora publicznego z prywatnym. Informacje muszą być udostępniane jak najszerzej i w najprostszy możliwy sposób, aby ludzie pracujący ze zbiorami mogli projektować skuteczne i pozbawione uprzedzeń algorytmy. W Polsce tego typu dane umieszcza się w serwisie Dane.gov.pl, skąd każdy ma szansę je pobrać. Strona jest ciągle rozbudowywana, a korzystający z niej programiści mogą posiłkować się interfejsami API, żeby wygodnie używać zbiorów.

Algorytmy w walce z przemytem towarów przez granicę

Konieczność analizy dużych zestawów danych w czasie rzeczywistym wymaga technik data science, a w szczególności algorytmów AI. Tak jest m.in. w przypadku ruchu granicznego oraz towarów objętych akcyzą i transportowanych przez terytorium RP. Ministerstwo Finansów i Krajowa Administracja Skarbowa wprowadziła system do analizy zdjęć RTG. Rozwiązanie wspiera Straż Graniczną, identyfikując przedmioty, które znajdują się w pojazdach przekraczających granicę. Model oparty na sieciach neuronowych i uczeniu maszynowym usprawnia pracę funkcjonariuszy i pomaga walczyć z przemytnikami. System powstał w 3 edycji projektu MinFinTech, części programu GovTech Polska.

Wirtualny konsultant zamiast wizyty w urzędzie

Istotność partnerstw publiczno-prywatnych w wykorzystaniu data science w sektorze publicznym pokazał czas pandemii koronawirusa. Ministerstwo Zdrowia codziennie obsługiwało zapytania nawet 37 tysięcy osób. Byłoby to niemożliwe, gdyby nie system dostarczający odpowiedzi na ponad 100 najczęściej zadawanych pytań dotyczących zachorowań, symptomów, informacji o najbliższych placówkach medycznych, a także aktualnych statystyk na temat pandemii. Problem w nieco mniejszej skali występował w Gdyni, gdzie pracownicy miejskiego urzędu potrzebowali wsparcia w obsłudze kilku tysięcy rozmów telefonicznych miesięcznie. Z pomocą przyszedł voicebot. Wdrożone w 1,5 miesiąca narzędzie podczas pierwszych 8 tygodni pracy pozwoliło umówić spotkania z 14 tysiącami mieszkańców miasta.

Wśród innych przykładów wykorzystania data science w sektorze publicznym w Polsce znajdziemy oprogramowanie TRAPPER używane do klasyfikacji zdjęć i nagrań z Puszczy Białowieskiej. Jest też system wstępnie analizujący zdjęcia z fotoradarów, aplikacja dialogowa “Wirtualny Doradca Mieszkańca” działająca we Wrocławiu czy narzędzie iVoting ułatwiające samorządom organizowanie ankiet, sondaży i przeprowadzenie głosowania w ramach budżetu obywatelskiego.

Data science w sektorze publicznym UE

Wspólne Centrum Badawcze Unii Europejskiej przyjrzało się 686 projektom dotyczącym sztucznej inteligencji i inicjatywom prowadzonym lub zainicjowanym przez instytucje poszczególnych państw. 29 z nich pochodziło z Polski. Katalog Joint Research Centre nie obejmuje wszystkich przypadków zastosowania SI, a jedynie te, które udało się odnaleźć w portalach informacyjnych, artykułach naukowych, specjalistycznej literaturze lub z pomocą instytucji. Autorzy publikacji pt. “AI Watch. European Landscape on the Use of Artificial Intelligence by the Public Sector” przyznają, że choć zebrane informacje nie są kompletne, wyraźnie pokazują wzrost zainteresowania instytucji publicznych algorytmami. Ponad 2/3 przeanalizowanych projektów zainicjowano w latach 2019-2021.

54% przeanalizowanych przypadków to przedsięwzięcia krajowe, 27% zorganizowano na szczeblu lokalnym, co 10 dotyczyło regionów. Pozostałe angażowały minimum 2 państwa. Jeśli chodzi o techniki, 58% projektów zakładało stosowanie uczenia maszynowego, 30% wykorzystało zautomatyzowane wnioskowanie (automated reasoning). Na podium uplasowało się również planowanie i harmonogramowanie, czyli projektowanie zestawów działań służących wykonaniu jakiejś czynności przez inteligentne systemy. Kolejne techniki to m.in. przetwarzanie języka naturalnego, wizja komputerowa czy robotyzacja i automatyzacja. Autorzy publikacji przyjrzeli się też stopniowi zaawansowania projektów. I tak 38% inicjatyw wdrożono, a 30% było na etapie pilotażu. Rozwijano jedną czwartą, z kolei 3% przedsięwzięć dopiero planowano. Pozostałe 4% to programy już zakończone.

Obszary wykorzystania

Katalog JRC grupuje rozwiązania data science w sektorze publicznym pod kątem obszaru wsparcia. Najczęściej występuje kategoria ogólne usługi publiczne, która odnosi się do działań organów wykonawczych i ustawodawczych, zagadnień fiskalnych czy polityki zagranicznej. Kolejne są sprawy gospodarcze, zdrowie, a także porządek publiczny i bezpieczeństwo. Precyzując, data science przydaje się instytucjom publicznym np. do: wykrywania oszustw, ustalania progów podatkowych, śledzenia aktywności przedsiębiorców i określania, czy są one podejmowane przez istniejące podmioty, usprawniania procesów decyzyjnych w zakresie obronności, czuwania nad morską i powietrzną przestrzenią i analizy danych z kamer miejskich w czasie rzeczywistym, monitorowania prób cyberataków.

Korzyści z wykorzystania data science w sektorze publicznym

Zastosowanie data science przyczynia się do poprawy jakości usług poprzez ocenę podejmowanych działań. Zaawansowana analityka sprzyja lepszej komunikacji z obywatelami, optymalnemu i zgodnemu z zapotrzebowaniem wykorzystywaniu publicznych pieniędzy, skuteczniejszemu prognozowaniu oraz usprawnianiu pracy administracji publicznej. Zaletą użycia technik nauki o danych są oszczędności wynikające z pracy na tych samych zbiorach informacji przez różne instytucje. Przejrzyście wykorzystywane algorytmy i otwarte dane mają szansę budować zaufanie ludzi do samorządów i krajowych instytucji.

Bariery

Bardzo ważnym zagadnieniem w kontekście sztucznej inteligencji są kwestie dotyczące ochrony danych osobowych oraz stosowania modeli, które są uczciwe i niedyskryminujące. Kluczem do sukcesu jest odpowiednie przygotowanie danych oraz zapewnienie transparentności podczas wszystkich etapów uczenia modelu — w ten sposób już na wczesnym etapie da się wykryć nieprawidłowości i skorygować działanie algorytmu. Jedną z barier stosowania data science w sektorze publicznym są właśnie zagadnienia etyczne. Poza tym, instytucjom nierzadko brakuje specjalistycznej wiedzy, co sprawia, że kupują gotowe rozwiązania lub zamawiają nowe systemy, ale nie stają się ich właścicielami — prawa mają autorzy rozwiązań. Przeszkody wynikają też z braku pieniędzy nie tyle na systemy, ile na ich utrzymanie, kontrolowanie, testowanie i audytowanie.

Rekomendacje

Firma analityczna IDC w dokumencie “Jak AI zmienia sektor publiczny”, przygotowanym we współpracy z SAS Institute, dzieli rekomendacje wdrożeń na dwie grupy. Pierwsza odnosi się do budowania zaufania, a druga – do eliminowania luki kompetencyjnej. W kontekście zaufania eksperci doradzają: pozyskiwanie poparcia osób, które mają autorytet w organizacjach i społeczeństwie, przedstawianie przykładów użycia i wynikających z tego szans, ale też ryzyk, wielotorową komunikację oraz możliwość wyjaśniania decyzji podejmowanych przez algorytmy. Rekomendacje kompetencyjne obejmują natomiast programy szkoleniowe dla pracowników, jak również współpracę z uczelniami, dostawcami oraz organizacjami pozarządowymi.

– Europejskie przepisy dotyczące sztucznej inteligencji przewidują poszerzone wymagania w zakresie przejrzystości w działaniu systemów, które wchodzą w interakcje z człowiekiem. Chodzi o asystentów głosowych, chatboty, które są wykorzystywane coraz częściej w sektorze finansowym. Dostawca czy operator rozwiązania wyposażonego w SI będzie musiał przekazywać użytkownikowi określone informacje na temat zastosowanej technologii. Jeśli rozmawia z nami chatbot, powinniśmy dowiedzieć się, że mamy do czynienia z systemem sztucznej inteligencji, a nie z człowiekiem – podkreśla radca prawny Michał Nowakowski.

Michał Nowakowski jest doktorem nauk prawnych oraz radcą prawnym. Pełni funkcję Counsel’a w kancelarii prawnej Maruta\Wachta, jak również jest CEO w spółce ceforai, która zajmuje się wsparciem przy wdrażaniu rozwiązań opartych o etyczną sztuczną inteligencję. Specjalizuje się w zagadnieniach nowych technologii, w tym prawnych aspektach wykorzystania uczenia maszynowego oraz zastosowaniem technologii w sektorze finansowym. Pasjonat wszystkiego, co nowe.

Usługi finansowe wykorzystujące nowe technologie są w tej chwili pod względem prawnym uporządkowane?

Klasyczne usługi finansowe można powiedzieć, że są już uregulowane, to znaczy istnieją przepisy prawa bankowego, jest ustawa o usługach płatniczych, ustawa o obrocie instrumentami finansowymi i oczywiście akty unijne, które regulują wiele z tych kwestii. Natomiast jest przynajmniej kilka obszarów, które jeszcze wymagają uporządkowania lub zmiany w związku z postępującą cyfryzacją. Skupiłbym się na trzech tematach, które wydają mi się istotne. Po pierwsze, zautomatyzowane sposoby przetwarzania danych i szeroko rozumiana sztuczna inteligencja. Mamy kwestię tzw. cyfrowej odporności operacyjnej, która pojawia się w kontekście projektowanego rozporządzenia. Niedawno zostało zawarte wstępne porozumienie dotyczące DORA (czyli Digital Operational Resilience Act – red.), to będzie akt prawny skierowany do bardzo szerokiego kręgu podmiotów sektora finansowego. On oczywiście nie ma charakteru produktowego, ale będzie nakładał dodatkowe obowiązki w zakresie różnych sfer cyfrowych. A skoro usługi finansowe migrują do świata cyfrowego, zatem jest to ściśle powiązane. Trzecim obszarem są też finanse zdecentralizowane, które budzą emocje nie tylko ze względu na ochronę konsumentów, ale także ryzyka związane z praniem pieniędzy i finansowania terroryzmu.

Na czym ma polegać cyfrowa odporność operacyjna?

Chodzi głównie o zakres zabezpieczeń cyfrowych, ale też o kwestie związane z chmurą obliczeniową, która jest coraz intensywniej wykorzystywana w sektorze finansowym. Może mniej dynamicznie w sektorze bankowym, co jest wynikiem pewnych ograniczeń wynikających chociażby z prawa bankowego, ale i pewnej awersji lub dystansu rynku do cloud computingu. Częściej po tę technologię sięgają mniejsze instytucje finansowe. W odporności chodzi również o systemy informatyczne, przeprowadzanie testów, o infrastrukturę w kontekście incydentów oraz o kwestie stricte osobowe. Te ostatnie dotyczą specjalistów odpowiadających bezpośrednio za sferę cyfrową czy też outsourcing usług. I tu pojawia się bardzo ciekawy wątek, o którym mało się mówi, mianowicie, że DORA będzie nakładała pewne obowiązki i wymagania względem dostawców usług IT, czyli podmiotów, które świadczą usługi o charakterze technicznym. Tu mamy bezpieczeństwo przetwarzania informacji, stabilność infrastruktury czy powierzenie pewnych czynności operacyjnych innym podmiotom.

Powiedział pan, że jednym z obszarów, które potrzebują prawnego doregulowania, jest stosowanie sztucznej inteligencji. Może pan podać przykład – gdzie brakuje porządku?

Akt w sprawie sztucznej inteligencji przewiduje zwiększone wymagania w zakresie przejrzystości i transparentności w odniesieniu do systemów, które wchodzą w interakcje z człowiekiem.

O co tutaj chodzi?

O różnych asystentów głosowych, o chatboty, które są wykorzystywane coraz częściej w sektorze finansowym. Dostawca czy operator rozwiązania wyposażonego w sztuczną inteligencję będzie musiał użytkownikowi przekazywać określone informacje, jeśli chodzi o tę technologię. Jeśli rozmawia z nami chatbot, powinniśmy dowiedzieć się, że mamy do czynienia z systemem sztucznej inteligencji, a nie z żywym człowiekiem. Temu może towarzyszyć instrukcja, jak skontaktować się z pracownikiem, jeślibyśmy tego potrzebowali. Rzecz więc w tym, aby człowiek miał jasność, w jakiej jest sytuacji, żeby warunki były przejrzyste. Dodatkowo, Unia Europejska uchwala akty prawne, które pośrednio będą miały wpływ na zastosowanie rozwiązań opartych o Machine Learning. Jest np. European Data Governance Act, który wprowadza wymogi w odniesieniu do pośredników w zakresie obrotu danymi, to znaczy, jakie będą musieli spełnić wymagania organizacyjno-techniczne. Chodzi o dane, które dostarczają, powiedzmy, na potrzeby trenowania modeli ML dla firm i instytucji. Dane muszą być wysokiej jakości, bezpieczne i spełniać standardy, które wynikają z przepisów o ochronie danych osobowych. Zatem to też coś, co na pewno przełoży się na sektor finansowy, tym bardziej, że UE pracuje nad nową koncepcją tak zwanych otwartych finansów, która ma uzupełnić koncepcję otwartej bankowości.

Otwarta bankowość akcentuje m.in. transparentne wykorzystywanie nowych technologii. A co z kryptowalutami?

Rynek kryptoaktywów coraz mocniej się rozwija. Oczywiście, choćby ostatnio, widzimy, jak bywa niestabilny, ale w dalszym ciągu mamy świadomość, że sektor finansowy czy, szerzej, społeczeństwo nie może go ignorować. W 2020 roku pojawiła się strategia dla cyfrowych finansów, jest też rozporządzenie dotyczące technologii rozproszonego rejestru na potrzeby infrastruktury rynkowej, która ma umożliwiać handlowanie instrumentami finansowymi opartym o DLT. Jest jeszcze rozporządzenie, które ma uregulować status przynajmniej wybranych kryptoaktywów, na przykład stablecoinów. Oczywiście założeniem projektu jest wprowadzenie nadzoru nad, nazwijmy to, instrumentami oraz ich „dostawcami”. Nie mówimy tutaj oczywiście o instrumentach finansowych, bo gdyby dane kryptoaktywa wykazywały cechy charakterystyczne dla instrumentu finansowego, podlegałyby wprost regulacji właściwej dla nich.

A jak oceniłby pan aktualną dojrzałość prawa, jeśli chodzi o blockchain? Tyle że mam na myśli nie tylko kryptowaluty, ale w ogóle biznesowe zastosowania łańcuchów blokowych.

Myślę, że to jest sinusoida. Można aktualny moment porównać z sytuacją machine learningu kilkanaście lat temu. Czyli są chwile większej albo mniejszej euforii w zakresie tego typu technologii. Natomiast, w mojej ocenie, brak pewnych rozwiązań prawnych w zakresie wykorzystania blockchainu plus problemy o charakterze infrastrukturalnym i brak systemowego podejścia powodują, że poziom adaptacji tych rozwiązań jest jeszcze niski. Kilka lat temu często zdarzało się, że różne podmioty, nie tylko z sektora finansowego, przychodziły do konsultantów i firm świadczących usługi w tym obszarze, nie mówiąc, jaki problem biznesowy chcą rozwiązać, tylko deklarowały: chcemy mieć u siebie blockchain. I dopiero wtedy zaczynano szukać jakiegoś procesu, który można by było połączyć z tego rodzaju rozwiązaniami. Czyli tak naprawdę wszystko było na odwrót. A blockchain oczywiście ma potencjał, ale ma też pewne obszary, które wymagają większego zainteresowania ze strony regulatorów. Przykładowo kwestie dotyczące prywatności są tutaj dużym i ważnym zagadnieniem. Niełatwa do rozstrzygnięcia jest także koncepcja tak zwanego trwałego nośnika. Natomiast instytucje, w tym finansowe, zaczęły trochę bardziej interesować się wykorzystaniem blockchainu nie tylko w kontekście kryptoaktywów, ale też do tworzenia wewnętrznych systemów obiegu dokumentacji. Dzięki takiemu rozwiązaniu można zapewnić po pierwsze integralność dokumentów, a po drugie wiarygodność podpisów.

Rozmawiamy o regulacjach europejskich dotyczących data science. A jest coś ważnego, specyficznego dla polskiego sektora finansowego w tym obszarze, na co warto zwrócić uwagę?

Brakuje nam przepisów prawnych, poza pewną ich namiastką. Weźmy przykład artykuł 105a ust. 1a z prawa bankowego, który odnosi się do zautomatyzowanych systemów oceny zdolności kredytowej. Jest dla mnie oczywiste, że to przepis, który odnosi się właśnie do zautomatyzowanego przetwarzania danych na potrzeby tych procesów, czyli wykorzystania sztucznej inteligencji. Ale nie mamy dookreślenia, z czego możemy korzystać, jakie są wymagania do spełnienia po stronie dostawcy, który wybiera podobne narzędzie – de facto to odpowiedzialność banku. Mamy określone wprawdzie jakie prawa musi zapewnić użytkownikom, którzy są poddawani procesowi, oczywiście do tego dochodzi RODO, w którym jest artykuł 22 dotyczący zautomatyzowanych procesów decyzyjnych czy profilowania, ale to jak wyjaśniać działanie modeli jest już pewną zagadką. Dziś nie mamy tak naprawdę żadnych regulacji, na przykład wytycznych ze strony Komisji Nadzoru Finansowego, nie licząc istniejących od wielu lat rekomendacji, odnoszących się do modeli oceny ryzyka czy obszaru IT. One pośrednio oczywiście dotykają sfery modelowania danych, ale sektorowi finansowemu przydałyby się bardziej precyzyjnie określone zasady. 

Jakie praktyczne konsekwencje ma brak precyzyjnych przepisów?

Dane mogą być wykorzystywane w sposób nieetyczny albo niezgodny z prawem. Jeżeli nie ma aktów prawnych, pojawia się pytanie, czy jesteśmy w stanie cokolwiek sprawdzić? Oczywiście Komisja Nadzoru Finansowego może zrobić inspekcję, w jaki sposób podchodzimy do kwestii zbierania danych na potrzeby modeli, które wykorzystujemy. Może sprawdzić, jak działa proces przetwarzania, jak wygląda proces trenowania. Ale jeżeli nie ma jasnych wytycznych w tym zakresie albo oczekiwań, to KNF może de facto tylko pogrozić palcem.

A dlaczego nie ma przepisów? Nikt nie był zainteresowany ich wprowadzeniem? Sektor finansowy też nie?

Pewnie nie, prawdopodobnie branża obawiała się, że dostanie dodatkowe obowiązki, co w świetle tzw. tsunami regulacyjnego jest czymś raczej niepożądanym, ponieważ oznacza nowy koszt – jednorazowy i stały równocześnie. Pytanie także o to, czy sam nadzór jest gotowy na zmiany i czy zwyczajnie posiada odpowiednie zasoby. Nie jest to „przypadłość” wyłącznie polskiego sektora, a na takie wyzwania wskazuje chociażby Financial Stability Board. Taka jest moja opinia.

Może trudnością jest też materia tych regulacji. Wspominał pan wcześniej o SI. To rozwiązania, które wymagają dużej wiedzy, a ta wiedza szybko się dezaktualizuje. Opracowane dziś przepisy, jutro mogą być anachroniczne.

Nie do końca się z tym zgodzę, ponieważ koncepcja tworzenia prawa, przynajmniej na poziomie Unii Europejskiej, zakłada trzy podstawowe zasady, na które zawsze zwracam uwagę. Pierwsza to zasada proporcjonalności, druga – neutralności technologicznej i trzecia – podejście oparte na ryzyku (ang. risk-baased approach). Jeżeli połączymy te trzy elementy i stworzymy akt prawny, który jest neutralny technologicznie, to znaczy nie narzuca konkretnych rozwiązań, i zadbamy, aby przepisy w jakiś sposób dostosowywały się do zmieniającego się otoczenia – wtedy jesteśmy w stanie w odpowiedni sposób zabezpieczyć rynek i konsumentów.

Poglądy i opinie wyrażone w niniejszym artykule stanowią wyłącznie osobiste poglądy autora i nie mogą być utożsamiane z poglądami lub opiniami instytucji, z którą autor jest lub był związany.

Dla wielu z nas muzyka jest nieodłącznym towarzyszem każdego dnia. Wybór odpowiedniej ścieżki dźwiękowej ułatwiają algorytmy data science wbudowane w serwisy streamingowe, które na podstawie preferencji konkretnego słuchacza automatycznie ustawiają playlisty i proponują nowe utwory. Zgromadzone dane pozwalają również ocenić, czy użytkownik przesłucha daną piosenkę do końca.

Odgadywanie gustów słuchaczy nie jest wynalazkiem XXI wieku. Zanim nastała era serwisów streamingowych, z tym wyzwaniem mierzyły się linearne rozgłośnie radiowe. Jednak było im trudniej, ponieważ musiały trafić w gust jak najszerszego grona odbiorców, mając zdecydowanie mniej precyzyjne dane niż te, którymi dziś dysponują Spotify, Deezer, czy Google. Koncerny posiłkują się takimi narzędziami, jak badania focusowe, a także listy przebojów wskazujące aktualne trendy. Pierwsze zestawienia powstawały w oparciu o głosy przesyłane na kartkach pocztowych. Dziś listonoszy wyręczają wirtualne plebiscyty w serwisach internetowych, jednak w ten sposób nie dogodzi się wszystkim. Co innego, gdy za oręż ma się algorytmy data science.

Osobisty DJ

Serwisy streamingowe, zamiast opracowywać ofertę dla “uśrednionego” słuchacza, używają algorytmów data science, które przyglądają się zachowaniom każdego użytkownika. Dzięki temu możliwe jest stworzenie spersonalizowanej playlisty uwzględniającej nie tylko takie czynniki jak pora dnia czy ulubione gatunki muzyczne, ale nawet nasz nastrój. W ten sposób Spotify i YouTube zautomatyzowały pracę redaktorów muzycznych, skutecznie ich zastępując i stając się wirtualnymi DJ-ami, pomagającymi odkrywać nowe dźwięki i melodie, które idealnie wpasowują się w gusta.

“Odkryj w tym tygodniu”

Przyjrzyjmy się jednej z usług oferowanych przez szwedzki serwis strumieniowy Spotify. “Odkryj w tym tygodniu” to uruchomiony w 2015 roku system rekomendacji firmy — co tydzień użytkownicy Spotify dostają składankę nowych utworów. Najważniejszym elementem usługi jest gust… innych osób. Algorytm bazuje na powiązaniach między użytkownikami, poszukując ludzi podobnych pod kątem przesłuchanych piosenek. Dodatkowo, przedsiębiorstwo używa technik przetwarzania języka naturalnego, żeby odnaleźć związki i skojarzenia w słowach list odtwarzania, a także poszukuje anomalii w zachowaniu użytkowników. Kolejnym elementem są konwolucyjne (czyli splotowe) sieci neuronowe przetwarzające spektrogramy piosenek i poszukujące analogii we wzorach akustycznych. Całość dopełnia konfrontacja z wcześniejszymi wynikami algorytmów data science, czyli sprawdzenie, ile utworów z poprzedniej listy użytkownik przesłuchał i polubił.

Algorytmy data science mogą przewidzieć nawet pomijanie utworów

Serwis muzyczny stawia na społeczność, udostępniając biblioteki programistyczne i zanonimizowane dane użytkowników, na podstawie których powstają nowe funkcje i modele. Jeden z nich potrafi analizować dane pochodzące z bazy 130 milionów zarejestrowanych sesji użytkowników Spotify. Celem jest sprawdzenie możliwości przewidywania, czy użytkownik pominie kolejny utwór. Model opracowany na niewielkim podzbiorze wspomnianej bazy danych z prawdopodobieństwem 78 proc. poprawnie wskazuje, czy użytkownik pominie kolejny utwór, czy jednak dosłucha go do końca. W konsekwencji, kiedy użytkownik zaczyna pomijać piosenki, serwis może podsunąć mu utwory w innym nastroju, co zwiększy szansę, że kolejna pozycja nie zostanie pominięta.

Muzyka na YouTube’ie popularniejsza niż Spotify

Spotify ma 381 milionów użytkowników i wielu myśli, że to najpopularniejszy muzyczny serwis streamingowy, jednak w rzeczywistości zajmuje 3 miejsce w tej kategorii. Pierwszy jest YouTube z 2 miliardami aktywnych użytkowników. Może to nieintuicyjne, jednak 7 na 10 najczęściej wyświetlanych “filmów” w portalu Google’a to właśnie piosenki. Dominują również w pierwszej setce. Drugie miejsce zajmuje Tencent z ponad 800 milionami słuchaczy rozsianymi pomiędzy różne serwisy muzyczne należące do chińskiego koncernu. Co ciekawe, popularność teledysków na YouTube’ie nie przekłada się na aktywność w aplikacji muzycznej Google’a — z YouTube Music korzysta 30 milionów słuchaczy. YT swój muzyczny sukces zawdzięcza przyzwyczajeniom użytkowników, którzy traktują serwis jako wyszukiwarkę muzyki. A i tu pracują algorytmy data science, skutecznie podpowiadając kolejne treści.

Pierwszy muzyczny silnik rekomendacji

Ważnym etapem rozwoju algorytmów data science okazał się serwis społecznościowy Last.fm, który w 2005 roku umożliwił zapisywanie danych utworów odtwarzanych w programach muzycznych (a później także w serwisach streamingowych, takich jak Spotify czy YouTube) i tworzenie na tej podstawie grup słuchaczy o podobnych preferencjach. Serwis przez pewien czas pozwalał też słuchać tematycznych stacji radiowych. Jednak najważniejszą część stanowi silnik rekomendacji AudioScrobbler, który na podstawie danych zebranych od użytkowników sugeruje podobnych artystów i nowe utwory do odsłuchania. Sukces Last.fm dość szybko został dostrzeżony przez twórców serwisów streamingowych. Dziś praktycznie każdy serwis umożliwiający słuchanie muzyki przez internet wyposażony jest w funkcję sugerowania kolejnych utworów i odkrywania nowych artystów.

25 miliardów dolarów dzięki algorytmom

Streaming odpowiada już za 87 proc. rynku muzycznego. Według danych RIAA (Recording Industry Association of America), wartość serwisów strumieniowych w 2021 roku przekroczyła 25 miliardów dolarów. Trudno się zatem dziwić, że internetowi giganci starają się zyskać przewagę nad konkurencją, oferując użytkownikom coraz dokładniejsze podpowiedzi utworów, które mogą im się spodobać. Stawką jest czas, jaki słuchacz spędzi na danej platformie.

Udostępnij link

https://www.datasciencerobie.pl/algorytmy-data-science-wiedza-ktore-utwory-pominiesz/