AI, ML i data science w sektorze publicznym
Data science w sektorze publicznym można wykorzystywać do usprawnienia administracji, poprawy cyberbezpieczeństwa czy opracowywania nowych usług dla obywateli. Rządy coraz częściej sięgają po techniki nauki o danych i przyjmują strategie pod kątem rozwoju tej dziedziny. Przyjrzyjmy się przykładom stosowania zaawansowanej analityki, a także temu, co w instytucjach publicznych przeszkadza we wdrażaniu m.in. sztucznej inteligencji.
Strategii odnoszących się do data science w sektorze publicznym nie sposób zrealizować bez zapewnienia dostępu do danych publicznych oraz kooperacji sektora publicznego z prywatnym. Informacje muszą być udostępniane jak najszerzej i w najprostszy możliwy sposób, aby ludzie pracujący ze zbiorami mogli projektować skuteczne i pozbawione uprzedzeń algorytmy. W Polsce tego typu dane umieszcza się w serwisie Dane.gov.pl, skąd każdy ma szansę je pobrać. Strona jest ciągle rozbudowywana, a korzystający z niej programiści mogą posiłkować się interfejsami API, żeby wygodnie używać zbiorów.
Algorytmy w walce z przemytem towarów przez granicę
Konieczność analizy dużych zestawów danych w czasie rzeczywistym wymaga technik data science, a w szczególności algorytmów AI. Tak jest m.in. w przypadku ruchu granicznego oraz towarów objętych akcyzą i transportowanych przez terytorium RP. Ministerstwo Finansów i Krajowa Administracja Skarbowa wprowadziła system do analizy zdjęć RTG. Rozwiązanie wspiera Straż Graniczną, identyfikując przedmioty, które znajdują się w pojazdach przekraczających granicę. Model oparty na sieciach neuronowych i uczeniu maszynowym usprawnia pracę funkcjonariuszy i pomaga walczyć z przemytnikami. System powstał w 3 edycji projektu MinFinTech, części programu GovTech Polska.
Wirtualny konsultant zamiast wizyty w urzędzie
Istotność partnerstw publiczno-prywatnych w wykorzystaniu data science w sektorze publicznym pokazał czas pandemii koronawirusa. Ministerstwo Zdrowia codziennie obsługiwało zapytania nawet 37 tysięcy osób. Byłoby to niemożliwe, gdyby nie system dostarczający odpowiedzi na ponad 100 najczęściej zadawanych pytań dotyczących zachorowań, symptomów, informacji o najbliższych placówkach medycznych, a także aktualnych statystyk na temat pandemii. Problem w nieco mniejszej skali występował w Gdyni, gdzie pracownicy miejskiego urzędu potrzebowali wsparcia w obsłudze kilku tysięcy rozmów telefonicznych miesięcznie. Z pomocą przyszedł voicebot. Wdrożone w 1,5 miesiąca narzędzie podczas pierwszych 8 tygodni pracy pozwoliło umówić spotkania z 14 tysiącami mieszkańców miasta.
Wśród innych przykładów wykorzystania data science w sektorze publicznym w Polsce znajdziemy oprogramowanie TRAPPER używane do klasyfikacji zdjęć i nagrań z Puszczy Białowieskiej. Jest też system wstępnie analizujący zdjęcia z fotoradarów, aplikacja dialogowa “Wirtualny Doradca Mieszkańca” działająca we Wrocławiu czy narzędzie iVoting ułatwiające samorządom organizowanie ankiet, sondaży i przeprowadzenie głosowania w ramach budżetu obywatelskiego.
Data science w sektorze publicznym UE
Wspólne Centrum Badawcze Unii Europejskiej przyjrzało się 686 projektom dotyczącym sztucznej inteligencji i inicjatywom prowadzonym lub zainicjowanym przez instytucje poszczególnych państw. 29 z nich pochodziło z Polski. Katalog Joint Research Centre nie obejmuje wszystkich przypadków zastosowania SI, a jedynie te, które udało się odnaleźć w portalach informacyjnych, artykułach naukowych, specjalistycznej literaturze lub z pomocą instytucji. Autorzy publikacji pt. "AI Watch. European Landscape on the Use of Artificial Intelligence by the Public Sector" przyznają, że choć zebrane informacje nie są kompletne, wyraźnie pokazują wzrost zainteresowania instytucji publicznych algorytmami. Ponad 2/3 przeanalizowanych projektów zainicjowano w latach 2019-2021.
54% przeanalizowanych przypadków to przedsięwzięcia krajowe, 27% zorganizowano na szczeblu lokalnym, co 10 dotyczyło regionów. Pozostałe angażowały minimum 2 państwa. Jeśli chodzi o techniki, 58% projektów zakładało stosowanie uczenia maszynowego, 30% wykorzystało zautomatyzowane wnioskowanie (automated reasoning). Na podium uplasowało się również planowanie i harmonogramowanie, czyli projektowanie zestawów działań służących wykonaniu jakiejś czynności przez inteligentne systemy. Kolejne techniki to m.in. przetwarzanie języka naturalnego, wizja komputerowa czy robotyzacja i automatyzacja. Autorzy publikacji przyjrzeli się też stopniowi zaawansowania projektów. I tak 38% inicjatyw wdrożono, a 30% było na etapie pilotażu. Rozwijano jedną czwartą, z kolei 3% przedsięwzięć dopiero planowano. Pozostałe 4% to programy już zakończone.
Obszary wykorzystania
Katalog JRC grupuje rozwiązania data science w sektorze publicznym pod kątem obszaru wsparcia. Najczęściej występuje kategoria ogólne usługi publiczne, która odnosi się do działań organów wykonawczych i ustawodawczych, zagadnień fiskalnych czy polityki zagranicznej. Kolejne są sprawy gospodarcze, zdrowie, a także porządek publiczny i bezpieczeństwo. Precyzując, data science przydaje się instytucjom publicznym np. do: wykrywania oszustw, ustalania progów podatkowych, śledzenia aktywności przedsiębiorców i określania, czy są one podejmowane przez istniejące podmioty, usprawniania procesów decyzyjnych w zakresie obronności, czuwania nad morską i powietrzną przestrzenią i analizy danych z kamer miejskich w czasie rzeczywistym, monitorowania prób cyberataków.
Korzyści z wykorzystania data science w sektorze publicznym
Zastosowanie data science przyczynia się do poprawy jakości usług poprzez ocenę podejmowanych działań. Zaawansowana analityka sprzyja lepszej komunikacji z obywatelami, optymalnemu i zgodnemu z zapotrzebowaniem wykorzystywaniu publicznych pieniędzy, skuteczniejszemu prognozowaniu oraz usprawnianiu pracy administracji publicznej. Zaletą użycia technik nauki o danych są oszczędności wynikające z pracy na tych samych zbiorach informacji przez różne instytucje. Przejrzyście wykorzystywane algorytmy i otwarte dane mają szansę budować zaufanie ludzi do samorządów i krajowych instytucji.
Bariery
Bardzo ważnym zagadnieniem w kontekście sztucznej inteligencji są kwestie dotyczące ochrony danych osobowych oraz stosowania modeli, które są uczciwe i niedyskryminujące. Kluczem do sukcesu jest odpowiednie przygotowanie danych oraz zapewnienie transparentności podczas wszystkich etapów uczenia modelu — w ten sposób już na wczesnym etapie da się wykryć nieprawidłowości i skorygować działanie algorytmu. Jedną z barier stosowania data science w sektorze publicznym są właśnie zagadnienia etyczne. Poza tym, instytucjom nierzadko brakuje specjalistycznej wiedzy, co sprawia, że kupują gotowe rozwiązania lub zamawiają nowe systemy, ale nie stają się ich właścicielami — prawa mają autorzy rozwiązań. Przeszkody wynikają też z braku pieniędzy nie tyle na systemy, ile na ich utrzymanie, kontrolowanie, testowanie i audytowanie.
Rekomendacje
Firma analityczna IDC w dokumencie “Jak AI zmienia sektor publiczny”, przygotowanym we współpracy z SAS Institute, dzieli rekomendacje wdrożeń na dwie grupy. Pierwsza odnosi się do budowania zaufania, a druga - do eliminowania luki kompetencyjnej. W kontekście zaufania eksperci doradzają: pozyskiwanie poparcia osób, które mają autorytet w organizacjach i społeczeństwie, przedstawianie przykładów użycia i wynikających z tego szans, ale też ryzyk, wielotorową komunikację oraz możliwość wyjaśniania decyzji podejmowanych przez algorytmy. Rekomendacje kompetencyjne obejmują natomiast programy szkoleniowe dla pracowników, jak również współpracę z uczelniami, dostawcami oraz organizacjami pozarządowymi.