Aż 97% menedżerów wysokiego szczebla uważa, że wypracowanie odporności biznesowej jest istotnym zadaniem, przed którym stoi ich organizacja, a 9 na 10 ankietowanych jest zdania, że analityka danych jest elementem kluczowym w kontekście pomocy w przygotowaniu się na nadchodzące kryzysy. Poznaj wyniki raportu Resiliency Index i dowiedz się, jak możesz zapewnić ochronę swojemu przedsiębiorstwu i ocenić, czy (i jak bardzo) twoja organizacja jest narażona na nieoczekiwane zdarzenia.

W ostatnich latach mamy aż nadto przykładów zdarzeń, które znacząco wpłynęły na sposoby funkcjonowania wielu organizacji. W tym kontekście możemy wymienić wybuch wojny w Ukrainie, pandemię COVID-19 czy zablokowanie łańcuchów dostaw pod koniec marca 2021 roku po tym, jak statek transportowy Ever Given na blisko tydzień utknął na mieliźnie w Kanale Sueskim. Nie da się w 100% przygotować na wszystkie niepożądane sytuacje w otoczeniu biznesowym, można jednak, w oparciu o analitykę danych, wypracować procedury, które w przyszłości pomogą firmie podejmować strategiczne decyzje.

SAS Institute przeprowadził badanie wśród menedżerów wysokiego szczebla z 12 krajów, które posłużyło do opracowania Resiliency Index — wskaźnika odporności firmy pozwalającego wyszczególnić 3 kategorie organizacji pod względem wrażliwości na zmiany otoczenia biznesowego. Do pierwszej, czyli grupy o wysokiej odporności, zaliczono 26% przebadanych przedsiębiorstw. Najliczniejszą kategorię stanowią firmy o odporności umiarkowanej (54%). Natomiast co piąta badana organizacja znalazła się w grupie najbardziej narażonej na różnego rodzaju zakłócenia działalności biznesowej.

Wszyscy wiedzą, że odporność firmy jest ważna, ale tylko niektórzy są przygotowani na najgorsze

Aż 97% respondentów uważa, że wypracowanie odporności jest istotnym zadaniem, przed którym stoi ich organizacja, a 9 na 10 ankietowanych jest zdania, że analityka danych jest elementem kluczowym w kontekście pomocy w przygotowaniu się na nadchodzące kryzysy.

Najważniejszym powodem, dla którego odporność firmy jest ważna, jest możliwość powrotu do pełnej wydajności firmy i funkcjonalności wykorzystywanych przez nią technologii. Ważne jest również zmniejszenie wpływu sytuacji kryzysowych na działalność oraz zwiększenie obecności na rynku za sprawą elastycznego dostosowania się do nowych warunków. 

Jednak realizacja strategii redukowania wrażliwości przedsiębiorstw nie jest łatwa, co przyznaje aż 46% menedżerów. Duże wyzwanie stanowią takie kwestie jak zapewnienie bezpieczeństwa danych (48%), odpowiednia produktywność (47%), a także zadbanie o innowacyjność biznesu poprzez wprowadzanie nowych rozwiązań technologicznych (46%).

5 zasad odporności firmy

Na podstawie badań SAS Institute określił 5 elementów, o które warto zadbać, aby firma była w stanie prowadzić swoją działalność biznesową w trudnych momentach. 

Odporne na kryzysy organizacje charakteryzują się:

  • szybkością działania, która umożliwia szybką adaptację do zmiennych warunków rynkowych
  • innowacyjnością, czyli przyspieszaniem rozwoju dzięki analizom opartym na danych 
  • dociekliwością, która polega na poszukiwaniu rozwiązań przyspieszających innowacje i rozwój
  • odpowiedzialnością i poszanowaniem równości, które zakładają etyczne postępowanie podczas projektowania, rozwoju oraz wdrażania technologii
  • kulturą i edukacją w zakresie odpowiedniego wykorzystania danych.

Każdą z wymienionych zasad większość ankietowanych (co najmniej 80%) oceniła jako istotne czynniki odporności firmy. Mimo to, jako priorytet w kontekście inwestycyjnym traktuje je zaledwie połowa menedżerów.

Odporne organizacje korzystają z zaawansowanych narzędzi analitycznych

Co ważne, prawie wszyscy (aż 96%) ankietowani menedżerowie organizacji o wysokiej odporności deklarują, że w procesie podejmowania decyzji korzystają z danych i ich analizy. Dostęp do tej wiedzy jest niezbędny do szybkiego reagowania na zmieniające się warunki gospodarcze i zapewnienia ciągłość działania przedsiębiorstwa. 93% odpornych organizacji najczęściej korzysta z zaawansowanych narzędzi analitycznych. Dla porównania takie działania podejmuje jedynie 22% mniej odpornych przedsiębiorstw.

Ciekawym zjawiskiem, które wyłania się z wyników badania, jest też kwestia przeciążenia danymi. 35% ankietowanych twierdzi, że jedną z głównych barier dla poprawienia odporności ich przedsiębiorstw jest nadmiarowość zbieranych informacji. Z tego powodu bardzo ważną rolę mają do odegrania analitycy, którzy za pomocą zaawansowanych narzędzi są w stanie wyłowić z ogromnych zbiorów najbardziej istotne kwestie dotyczące prowadzonej działalności, zachowań klientów, łańcuchów dostaw i innych czynników mających znaczenie dla zapewnienia organizacji stabilności i przygotowania na wystąpienie zakłóceń.

Co wspiera odporność firm?

68% przedsiębiorców w kontekście szybkości działania sięga po analizę danych i sztuczną inteligencję. Na kolejnych miejscach uplasowały się wdrożenia dotyczące cyberbezpieczeństwa i chmury obliczeniowej. Jeśli chodzi o dziedzinę odpowiedzialności, menedżerowie wysoko odpornych firm częściej niż inni, zwracają uwagę na istotność takich elementów, jak jakość danych, ich odpowiedzialne wykorzystanie, godna zaufania AI, jak również istniejące i przyszłe regulacje odnoszące się do danych. Jako technologie wspierające dociekliwość, menedżerowie wyliczają: analitykę i AI, chmurę obliczeniową i inne inicjatywy z zakresu transformacji cyfrowej, a także internet rzeczy i rozszerzoną rzeczywistość.

Jakie bariery najtrudniej pokonać?

Przedsiębiorcy, którzy wzięli udział w badaniu, optymistycznie oceniają przyszłość, natomiast mają świadomość słabości gospodarek, w których funkcjonują. Wśród wyzwań, z jakimi się mierzą, wyliczają: rozwój cyfrowej transformacji, inflację i spowolnienie gospodarcze, przyciąganie i utrzymywanie pracowników, udoskonalanie działań w zakresie zrównoważonego rozwoju, docieranie do klientów i zmiany w ich zachowaniach, jak również kłopoty z łańcuchami dostaw. 

Jeśli chodzi o samo wprowadzanie zasad odporności, największym wyzwaniem jest promowanie i utrzymanie ciekawości wśród załogi. Na ten aspekt zwraca uwagę 59% ankietowanych menedżerów. Edukacja współpracowników i uwrażliwienie ich, by zwracali uwagę na zmiany w otoczeniu biznesowym, stanowią większe wyzwanie niż zatrudnienie specjalistów data science, które jako barierę postrzega 54% badanych przedsiębiorców. Wg 51% respondentów niełatwo też odpowiednio komunikować korzyści z poprawiania odporności firmy. 

Sprawdź, jak odporna jest twoja firma za pomocą Resilience Assessment Tool

SAS udostępnił Resilience Assessment Tool. To bezpłatne narzędzie pozwala menedżerom w łatwy sposób ocenić poziom odporności firmy ich organizacji na podstawie odpowiedzi na 16 pytań dotyczących 5 zasad odporności firmy.

– Chcemy pomóc liderom z różnych branż zwiększać konkurencyjność biznesu poprzez wykorzystanie danych i analityki do zbudowania trwałej strategii odporności – zaznacza Jay Upchurch, wiceprezes i dyrektor ds. informatyki w SAS. – Wykorzystując Resiliency Index, organizacje będą mogły lepiej określić mocne strony biznesu i obszary, które należy usprawnić. Ta wiedza pomoże im zlikwidować luki i usprawnić narzędzia i systemy, które poprawiają zwinność organizacji w obliczu wyzwań i zakłóceń.

O badaniu

Badanie zostało przeprowadzone między 16 grudnia 2022 a 4 stycznia 2023 wśród 2414 menedżerów z 12 krajów zatrudnionych w pełnym wymiarze godzin w sektorach: finansowym, handlu detalicznego/dóbr konsumpcyjnych, przetwórstwa, opieki zdrowotnej, a także w instytucjach rządowych.

– Wystarczy zamontować niewielki czujnik w cylindrze z akumulatorem i zanurzyć w wodzie lub na pokładzie pływającego robota, by otrzymywać pożądane dane w czasie rzeczywistym. Możemy zbierać je 24h/dobę, a jedynym ograniczeniem jest pojemność akumulatora – tłumaczy Kiranmai Uppuluri, inżynierka środowiska z Łukasiewicz–Instytut Mikroelektroniki i Fotoniki w Krakowie, zwyciężczyni Falling Walls Lab Warsaw 2022, która opracowała innowacyjny czujnik do monitorowania pH w czasie rzeczywistym.

Kiranmai Uppuluri jest inżynierką środowiska z Indii. W 2019 r.oku otrzymała stypendium Marii Skłodowskiej-Curie na rozwój projektu UE AQUASENSE w Łukasiewicz–Instytut Mikroelektroniki i Fotoniki w Krakowie. Jej badania koncentrują się na materiałach, które można wykorzystać jako alternatywy dla czujników opartych na metalach z grupy platynowców do zastosowań w monitorowaniu jakości wody i żywności. Jej wizja to niedrogi, szybki i niezawodny system badania jakości wody 24 h/dobę. Kiranmai i jej zespół zajmują się obecnie rozwojem biodegradowalnych czujników, które po zakończeniu pomiarów nie pozostawiają po sobie żadnych elektronicznych odpadów.

Czym powinna cechować się woda pitna? Co powinna mieć, a czego nie?

Woda nigdy nie jest taka sama, ale tę, którą pijemy, wprowadzamy do organizmu, więc musimy być szczególnie uważni. Nie może zawierać życia biologicznego: mieć bakterii czy wirusów, bo w przeciwnym razie się rozchorujemy. Powinna też być wolna od metali i wszelkich zanieczyszczeń, bo te często powodują problemy. I oczywiście, powinna mieć właściwe pH, bo właśnie ten parametr mówi o proporcji odpowiednich jonów – te mogą być dodatnie lub ujemne, a więc pH wody może być kwaśne, zasadowe lub obojętne, ponieważ skrajne pH może być szkodliwe dla zdrowia ludzkiego. Na przykład, pH poniżej 6,5 jest zbyt kwaśne i może powodować korozję w rurach i wypłukiwanie metali ciężkich do sieci wodociągowej. Z drugiej strony, pH powyżej 8,5 może być oznaką wysokiego poziomu rozpuszczonych minerałów, takich jak magnez i wapń. Światowa Organizacja Zdrowia zaleca pH pomiędzy 6,5 a 9,5, ale ogólnie uważamy, że pH wody pomiędzy 6,5 a 8,5 jest bezpieczne do spożycia przez ludzi.

Jak pH można mierzyć?

Dzięki analizie określonych parametrów. Klasyczny czujnik pH składa się z dwóch elektrod – różnica potencjałów między nimi daje wiarygodny pomiar pH. Te istniejące są dość duże, nieporęczne, łatwo je zniszczyć (są szklane), a przy tym nie są szczególnie tanie. Owszem, dają błyskawiczne wyniki, ale zawierają wewnętrzny roztwór i muszą być przechowywane w systemie elektrolitowym. Ponadto, obecnie stosowane metody pomiaru pH mają charakter laboratoryjny. Wymagają, by ktoś poszedł np. nad Wisłę, wstawił czujnik do wody i odczytywał zakres wartości. To koszt związany z czasem, logistyką, sprzętem i wykwalifikowanym personelem. Zbieranie, przechowywanie i transport próbek wody może również prowadzić do błędów w wynikach. Nowsze technologie, takie jak drukowane elektrody pH i komunikacja bezprzewodowa w czasie rzeczywistym, pokonują te ograniczenia dzięki czujnikom i analizie danych.

Czy analityka danych w czasie rzeczywistym może usprawnić te pomiary?

Właśnie tym zajmuję się w Łukasiewiczu. Staram się, by czujniki pH były mniejsze, a co za tym idzie – łatwiejsze w użyciu. Przez pierwszą część mojej pracy w Polsce (3 lata), szukałam odpowiednich mieszanek tlenków metali, które najlepiej sprawdzą się do wykrywania pH wody. Większość tych, które testowałam, okazało się nietrafione, ale są też takie, które działają świetnie. Teraz idziemy krok dalej i używamy opracowane czujniki w urządzeniach do zdalnego wykrywania zanieczyszczeń. Najlepsze w nich jest to, że pozwalają na monitoring stanu wody w czasie rzeczywistym. Wystarczy taki niewielki czujnik zamontować w cylindrze z akumulatorem i zanurzyć w wodzie lub na pokładzie pływającego robota, by otrzymywać pożądane dane w czasie rzeczywistym. Możemy zbierać je 24h/dobę, a jedynym ograniczeniem jest pojemność akumulatora. Gdy ten rozładuje się, urządzenie nie będzie działać i powinniśmy naładować baterię, aby móc z niej ponownie korzystać.

Jakie dane analizujesz w celu oceny jakości wody?

Opierają się one na parametrach fizycznych, chemicznych i biologicznych wody, takich jak temperatura, tlen rozpuszczony i liczba bakterii.

Czy różnią się one od danych wykorzystywanych przez naukowców w innych obszarach badawczych?

Tak, różnią się one od danych wykorzystywanych przez innych naukowców. W ramach prowadzonych badań, niektóre dane są takie same, ale wykorzystywane w różny sposób, ponieważ znaczenie danych wodnych jest ściśle uzależnione od zastosowania. Na przykład w akwakulturze temperatura wody musi być utrzymywana w taki sposób, aby życie wodne mogło się w niej rozmnażać. Z drugiej strony, w procesach przemysłowych temperatura wody może być tak wysoka, że niemożliwe jest prowadzenie w niej akwakultury. Tak więc wartość tego samego typu danych może się znacznie różnić w zależności od jego przeznaczenia.

Na czym dokładnie polega analiza danych zebranych podczas monitoringu wody?

Jak już wcześniej wspomniałam, to naprawdę zależy od tego, jaki jest cel monitoringu. Jeśli więc analizujemy dane zebrane podczas monitoringu wody pitnej, to będą się one składać z informacji o zanieczyszczeniu mikrobiologicznym, pH, twardości, obecności chloru, itp. Dla wody środowiskowej zebrane dane będą zawierały informacje o temperaturze, pH, składnikach odżywczych, tlenie rozpuszczonym, itp. Dla wody przemysłowej, dane ujawnią informacje o takich parametrach jak chemiczne zapotrzebowanie na tlen (ChZT), zawiesina ogólna, metale ciężkie, itp.

A jak przesyłane są dane?

Urządzenie wprowadzone do wody stale dokonuje pomiarów pH i temperatury, zapisując je na wbudowanej karcie pamięci SD. Jest tu także komponent sieci bezprzewodowej, który przekazuje je bezpośrednio do naszej aplikacji. Na bieżąco widzimy, co dzieje się w badanej próbce.

Z jakich narzędzi korzystasz?

Większość danych do monitorowania jakości wody pochodzi z różnych czujników, które wskazują parametry takie jak temperatura, pH, tlen rozpuszczony itp. Czujniki wykrywają, konwertują i przekazują dane w formacie cyfrowym poprzez wyświetlacz. W dzisiejszych czasach zazwyczaj urządzenia automatycznie rejestrują dane o wodzie. Jednak niektóre parametry fizyczne, takie jak mętność, kolor i zapach mogą wymagać ręcznej rejestracji danych. W moich badaniach podczas eksperymentów używam oprogramowania LabView do rejestracji danych z potencjometrycznych czujników pH. Surowe dane z czujnika są w woltach. Po ich wykorzystaniu do kalibracji czujnika, możliwe jest przekształcenie odczytu napięcia na odczyt pH. Same dane są zbierane w woltach, ale wyświetlane w pH.

Czy używasz algorytmów sztucznej inteligencji lub uczenia maszynowego do analizy danych, czy może jest jeszcze za wcześnie na takie rzeczy?

Osobiście nie używam sztucznej inteligencji do analizy moich danych, ale może być ona bardzo przydatna podczas monitorowania jakości wody. Duże zbiory danych mogą być analizowane w celu identyfikacji i przewidywania trendów jakości wody przy użyciu technik AI, takich jak uczenie maszynowe i sieci neuronowe. Taka analiza danych wspiera zarządzanie zasobami wodnymi, systemy wczesnego ostrzegania, redukcję kosztów i ogólną poprawę efektywności i użyteczności monitorowania jakości wody.

Co dzieje się z danymi po zebraniu?

Po zebraniu danych wodnych są one rejestrowane w bazie danych w celu obserwacji trendów i oceny ryzyka. Głównym zastosowaniem danych o wodzie jest sprawdzenie, czy woda nadaje się do jakiegokolwiek zastosowania, do którego została przeznaczona. Na przykład po zebraniu danych z instalacji wody pitnej operatorzy sprawdzają, czy wszystkie parametry mieszczą się w limicie ustalonym przez państwo i na podstawie danych ogłaszają, że jest ona bezpieczna lub niebezpieczna do spożycia. Jest to bardzo ważne dla ochrony zdrowia publicznego i środowiska. W mojej pracy, wszystkie rodzaje danych, które zbieram i wszystkie różne rodzaje narzędzi, których używam do analizy tych danych, są wykorzystywane do charakteryzowania i porównywania różnych materiałów do pomiaru pH, które opracowałam.

Dlaczego to takie ważne, by mieć dostęp do pomiarów w czasie rzeczywistym?

Wystarczy spojrzeć na katastrofę ekologiczną na Odrze, do której doszło latem 2022 r. na odcinku kilkuset kilometrów rzeki. Ludzie nie zdawali sobie sprawy z zagrożenia, zanim nie dostrzegli śniętych ryb. Gdyby nasz czujnik był na miejscu, od razu mielibyśmy informację, że dzieje się coś złego. Być może nie zapobiegłoby to katastrofie, ale na pewno znacznie ograniczyłoby jej zasięg. Przez długi czas władze nawet nie wiedziały, gdzie doszło do skażenia wody, więc tym bardziej nie miały jak zareagować. Dzięki zastosowaniu czujników działających w czasie rzeczywistym wiedzielibyśmy dokładnie, w którym miejscu i czasie doszło do zatrucia Odry, a władze nie musiałyby oferować miliona złotych nagrody dla osoby, która wskaże sprawcę skażenia. Musimy zrobić wszystko, aby takie zdarzenia się nie powtórzyły, a pomogą w tym czujniki działające w czasie rzeczywistym i dysponujące zdalną transmisją danych. Podczas seminarium we Włoszech, pracownik lokalnej agencji ochrony środowiska opowiadał, że dzięki informacjom w czasie rzeczywistym policja została natychmiast poinformowana o zrzuceniu niebezpiecznych odpadów do rzeki i udało się złapać sprawców, zanim zdążyli uciec.

Uczenie maszynowe pomaga rozwiązywać złożone problemy w tak różnych dziedzinach, jak medycyna, bankowość i ubezpieczenia, przemysł czy telekomunikacja. Rzecz jasna, ze względu na mnogość przypadków, nie da się zastosować uniwersalnego podejścia do wykorzystania ML, równie efektywnego dla każdego zagadnienia. Jakie zatem mamy do wyboru narzędzia?

Trzeba zaznaczyć, że metody wykorzystywane w machine learningu są nierzadko starsze nie tylko od tej technologii, ale też od samych komputerów. Na przykład, pierwszy model regresji liniowej został opublikowany już w 1805 roku przez francuskiego matematyka Adrien-Marie Legendre’a. Z kolei maszyna analityczna Charlesa Babbage’a, znana jako pierwszy programowalny komputer, powstała także w XIX wieku, trzy dekady później. Z czasem nurt ML wytworzył własne metody, ale pozostają one mocno osadzone w dorobku matematyki i statystyki. Algorytmy uczenia maszynowego możemy podzielić na 3 podstawowe typy: uczenie nadzorowane, nienadzorowane i uczenie ze wzmocnieniem.

Uczenie nadzorowane

Najpowszechniejszym rodzajem machine learningu jest uczenie nadzorowane. Widać to w statystykach wykorzystania algorytmów, w których zazwyczaj próżno szukać innych rodzajów ML. Uczenie nadzorowane polega na przygotowaniu odpowiednio opisanych danych wzorcowych, używanych do trenowania wybranego modelu. W ten sposób algorytm uczy się rozpoznawać cechy obiektów, co pozwala mu odpowiednio klasyfikować dane, z którymi się zetknie w przyszłości w środowisku produkcyjnym (innym niż środowisko uczące).

Regresja liniowa

Jednym z najprostszych algorytmów uczenia nadzorowanego jest regresja liniowa. U podstaw tego podejścia leży założenie, że związek pomiędzy danym zjawiskiem (cechą), a zmiennymi, które je opisują, jest liniowy. Wada regresji liniowej to podatność na wartości odstające, które mają duży wpływ na dopasowanie modelu — dlatego przed zastosowaniem metody powinniśmy oczyścić z tego typu wartości dane treningowe. Równie istotne jest, by odpowiednio dobrać metodę szacowania współczynników regresji, stosownie do charakterystyk procesu generującego dane.

Regresja logistyczna

To metoda wykorzystywana w szczególności do zagadnień klasyfikacyjnych, w ramach której dopasowujemy funkcję logistyczną do danych treningowych. Wytrenowany model po dodatkowych przekształceniach przypisuje danym wejściowym prawdopodobieństwo przynależności do jednej z dwóch klas.

Regresja kwantylowa

Regresja kwantylowa umożliwia modelowanie relacji pomiędzy zmiennymi niezależnymi i kwantylami zmiennej przewidywanej. Jest przydatna, gdy chcemy zrozumieć, które cechy są istotne w przewidywaniu celu w poszczególnych kwantylach. Jej zaletą w porównaniu do zwykłej regresji liniowej jest większa odporność na wartości odstające oraz brak założeń odnośnie procesu generującego dane. 

Naiwny klasyfikator Bayesa i sieć bayesowska

Jest to metoda klasyfikacji, która bazuje na teorii matematyka, Thomasa Bayesa. Głównym założeniem jest niezależność zmiennych objaśniających, co w rzeczywistych warunkach stanowi rzadko spotykaną sytuację. Niemniej, dość prosty algorytm zaskakująco często sprawdza się lepiej niż skomplikowane metody klasyfikacji danych. Z kolei sieć bayesowska wykorzystuje rachunek prawdopodobieństwa do przedstawiania zależności pomiędzy zmiennymi, takimi jak np. zdarzenia czy informacje.

Drzewa decyzyjne

Drzewo decyzyjne jest obiektem składającym się z węzłów oraz krawędzi. Węzły można utożsamiać z pytaniami dotyczącymi cech obiektu, który nas interesuje, a krawędzie grafu odpowiadają, czy dany element ma daną cechę. W ten sposób drzewo decyzyjne rozgałęzia się, a ostatni element danej gałęzi prowadzi do „liścia”, czyli węzła, który reprezentuje decyzję. Zaletą drzew decyzyjnych jest łatwa interpretacja wizualna, dlatego metoda sprawdza się w sytuacjach, kiedy musimy wytłumaczyć powody podjętej decyzji (np. o przyznaniu kredytu albo ustaleniu wysokości składki ubezpieczeniowej) bez potrzeby sięgania do zaawansowanych metod interpretowalności modeli ML.

Losowy las decyzyjny

Idea lasu losowego opiera się na stworzeniu z góry zdefiniowanej liczby drzew, które są budowane na podstawie konkretnej liczby losowych obserwacji ze zbioru treningowego, opisanych zadaną liczbą zmiennych objaśniających. Następnie stworzone w ten sposób drzewa decyzyjne “głosują”, w wyniku czego powstaje uśrednione drzewo decyzyjne. Metoda losowego lasu decyzyjnego jest sposobem na uniknięcie nadmiernego dopasowania danych do zestawu treningowego — co stanowi częstą przypadłość mocno rozbudowanych pojedynczych drzew decyzyjnych.

Wzmocnienie gradientowe

Przy okazji drzew decyzyjnych, warto przyjrzeć się też wzmocnieniu gradientowemu (Gradient Boosting). Zakłada ono budowanie drzew decyzyjnych, z których każde kolejne w iteracyjnym procesie staje się doskonalsze od poprzedniego. Ostateczny model agreguje całą serię drzew.

Sieci neuronowe

Sieć neuronowa, podobnie jak drzewo decyzyjne, jest grafem skierowanym, który w zamyśle ma przypominać działaniem ludzki mózg. Węzły grafu mają dowolną liczbę wejść i wyjść oraz są pogrupowane w warstwy w taki sposób, że każdy jest połączony z każdym węzłem warstwy poprzedzającej. Wadą sieci neuronowych jest trudność w przedstawieniu dokładnej ścieżki prowadzącej do uzyskania wyniku końcowego. Sieci neuronowe wymagają również dużej mocy obliczeniowej, a ich trenowanie trwa długo.

SVM – maszyny wektorów nośnych

Innym modelem uczenia nadzorowanego jest Support Vector Machine – abstrakcyjny koncept maszyny-klasyfikatora. Umożliwia przeprowadzenie regresji, klasyfikacji oraz może posłużyć do wykrywania elementów odstających. SVM jest używany również do analizy obrazów, dzięki możliwości wyznaczenia z jego pomocą hiperpłaszczyzny oddzielającej obiekty, które należą do różnych klas.

Uczenie nadzorowane częściowo

Istnieje także podejście nazywane uczeniem maszynowym nadzorowanym częściowo. Stosuje się je, kiedy mamy do czynienia z dużą ilością informacji, których oznaczenie byłoby kosztowne i wymagało zbyt wiele czasu. Zamiast tego, etykietujemy jedynie część danych, na podstawie których powstaje model do oznaczania reszty zbioru. Takie podejście wykorzystuje się m.in. do rozpoznawania mowy, odnajdowania drogi na podstawie danych GPS, a także do klasyfikacji dużych zbiorów danych np. w internecie. Choć częściowo nadzorowane uczenie maszynowe bywa skuteczne i może ograniczyć koszty oraz czas, warto mieć na uwadze, że podanie na wejściu nieodpowiednich, np. obciążonych danych zazwyczaj doprowadzi do uzyskania nieprawidłowych wyników. Dzieje się tak wówczas, kiedy próbka, na podstawie której powstał model treningowy, nie jest wystarczająco reprezentatywna i nie zawiera wszystkich możliwych charakterystyk opisywanych elementów. W uczeniu maszynowym częściowo nadzorowanym stosuje się wcześniej wymienione algorytmy.

Uczenie nienadzorowane

Algorytmy uczenia nienadzorowanego są przydatne, kiedy chcemy dowiedzieć się więcej na temat struktur występujących w danych. W przeciwieństwie do uczenia nadzorowanego, gdzie w pewnym sensie dążymy do powielenia wyuczonego przez nasz model schematu, uczenie nienadzorowane pomaga odkryć wzorce w analizowanych obiektach. Te techniki są wykorzystywane m.in. do segmentowania grup klientów i identyfikowania ich cech, a także w diagnozowaniu chorób (m.in. nowotworowych) na wczesnym etapie rozwoju.

Analiza składowych głównych

Principal Components Analysis pomaga w niwelowaniu problemu wielowymiarowości. Metoda polega na obliczeniu nowych zmiennych, które będą kombinacją liniową zmiennych pierwotnych, a następnie na wyłonieniu zmiennych pierwotnych, które mają największe znaczenie dla tzw. składowych głównych. Jako kryterium oceny bierzemy pod uwagę analizę wariancji poszczególnych składowych głównych, odrzucając te, które mają najmniejsze wartości, przez co można je interpretować jako szum.

Analiza skupień

Reprezentantem tej klasy algorytmów jest metoda tzw. centroidów, wykorzystywana do grupowania elementów. Na początku ustalamy liczbę grup, do których przypisywane będą obiekty. W każdej z grup wybieramy punkty startowe, czyli centroidy i przypisujemy każdemu elementowi zbioru najbliższy centroid. Następnie wyliczamy średnią, bądź medianę pomiędzy punktami w poszczególnych grupach, która staje się nowym centroidem. Proces powtarzamy do momentu, kiedy obiekty przestaną zmieniać przynależność do grup. Analiza skupień niesie kilka wad: bardzo duże znaczenie ma wybór punktów startowych, a metoda jest wrażliwa na wartości odstające, przez co algorytm nie we wszystkich przypadkach będzie działał prawidłowo.

Uczenie ze wzmocnieniem

Reinforcement Learning ze wszystkich istniejących technik najbardziej przypomina to, w jaki sposób uczą się ludzie, ponieważ opiera się na metodzie prób i błędów. W algorytmach tego typu wykorzystuje się mechanizm nagrody i kary, dzięki czemu kolejne podejścia do zadania są bardziej precyzyjne. W przeciwieństwie do uczenia nadzorowanego (por. w szczególności opis wzmocnienia gradientowego) i nienadzorowanego — zadaniem uczenia ze wzmocnieniem nie jest opisywanie istniejących zbiorów gotowych elementów, ale przygotowanie środowiska, w którym będą poruszali się niezależni “agenci”. Chodzi o podprogramy skoncentrowane na zbieraniu informacji o środowisku. Na podstawie obserwacji “agent” wybiera następnie najlepszą akcję (lub sekwencję akcji), jaką może w danej chwili wykonać. Uczenie ze wzmacnianiem wykorzystuje się m.in. do trenowania autonomicznych pojazdów, przetwarzania języka naturalnego, a także w marketingu (np. w silnikach rekomendacji serwisów VOD czy e-sklepów) oraz na rynkach finansowych.

Q-Learning

Celem Q-learningu jest oszacowanie akcji, która będzie optymalna w danym stanie. Uczenie polega na sprawdzaniu działań, które przyniosą największy zysk. Z tego powodu algorytm musi wybierać pomiędzy eksplorowaniem środowiska (np. wykonywaniem losowych ruchów), a wykonywaniem optymalnych akcji. Algorytm Q-learningu jest stosowany np. w systemach sterujących autonomicznymi samochodami m.in. do przeprowadzania manewrów zmiany pasa.

Metody Monte Carlo

W uczeniu maszynowym ze wzmacnianiem do opracowania optymalnej strategii można zastosować też metody Monte Carlo, które polegają na uczeniu “agenta” poprzez próbkowanie nagród ze środowiska i wykorzystanie średnich kroczących.

Podsumowując, podejście i odpowiedni rodzaj algorytmu ML warto wybrać z uwzględnieniem typu danych, jakimi dysponujemy oraz celu, jaki ma zrealizować nasza analiza.

— Podczas tzw. zacierania, gotowania brzeczki czy fermentacji trzeba analizować wiele parametrów. Każdy browarnik musi sprawdzić kwasowość i zasadowość, cukry fermentowalne, poziom skrobi w zacierze, zawartość alkoholu. Czasami browarnicy badają też profil wody, a także goryczkowatość. Po zakończeniu fermentacji, kiedy piwo dojrzewa, często bada się związki chemiczne, które nadają albo nieprzyjemny zapach, albo nieprzyjemny posmak. Na koniec badany jest też sam kolor piwa. W optymalnym scenariuszu trzeba testować minimum 15 parametrów, przez 4 tygodnie, i to wszystko dziesiątki razy — opowiada biotechnolog, współzałożyciel SG Papertronics.

Dr inż. Maciej Grajewski to biotechnolog pracujący na Uniwersytecie Przyrodniczym w Poznaniu oraz na Uniwersytecie w Groningen. Współzałożyciel i CTO SG Papertronics. Start-up zajmuje się “demokratyzacją” testów laboratoryjnych. Celem firmy jest dostarczenie technologii, która pozwala na łatwe, intuicyjne oraz dokładne przeprowadzanie testów chemicznych. Obecnie SG Papertronics wprowadza swoją technologię na rynek piw kraftowych jako asystenta kontroli jakości. Maciej Grajewski w 2018 roku był finalistą Falling Walls Lab w Berlinie oraz londyńskiego RSC Emerging Technologies Competition.

Jak trafili państwo do browarów kraftowych jako potencjalnego klienta analityki danych chemicznych?

Kiedy myśleliśmy o założeniu startupu, nie braliśmy pod uwagę testowania piwa. Szukaliśmy możliwości rozwoju w kierunku diagnostyki point-of-care (testy na miejscu – red.) lub badania zanieczyszczeń wody. Te ścieżki wydawały się mieć największy potencjał ze względu na nasze wykształcenie i kraj, w którym firmę założyliśmy (Holandia – red.). Jednak szybko okazało się, że bez doświadczenia bardzo trudno będzie nam zdobyć finansowanie, aby rozpocząć projekt. Problem jaki chcieliśmy rozwiązać zawsze był ten sam: brak łatwych do zrozumienia i wykorzystania informacji wynikających z testowania. Obecnie jest to realizowane przez wysyłanie próbek do laboratoriów, co naturalnie zajmuje czas i opóźnia przepływ informacji. Kiedy zaczęliśmy szukać odpowiedniego dla nas rynku, który pozwoli na udowodnienie, że można przygotować rozwiązanie usprawniające przepływ informacji, trafiliśmy na rynek browarów kraftowych. Znany i często powtarzany proces, dla którego nie ma wygodnego rozwiązania bez dużej inwestycji kapitału wyglądał od początku obiecująco i okazał się trafnym wyborem, bo pozwolił nam na rozwój technologii oraz firmy.

Jakie dane analizuje się w produkcji piwa?

Zarówno podczas tzw. zacierania, gotowania brzeczki czy fermentacji trzeba analizować wiele parametrów. Duże koncerny browarnicze mają do tego odpowiednie systemy, urządzenia i odpowiednią liczbę pracowników. Każdy browarnik musi sprawdzić pH, czyli kwasowość i zasadowość, cukry fermentowalne, poziom skrobi w zacierze, zawartość alkoholu podczas fermentacji. Czasami browarnicy badają też profil wody, a także goryczkowatość. Dodatkowo, po zakończeniu fermentacji, kiedy piwo dojrzewa, często bada się związki chemiczne, które nadają albo nieprzyjemny zapach, albo nieprzyjemny posmak. Na koniec badany jest też sam kolor piwa. W optymalnym scenariuszu trzeba testować minimum 15 parametrów podczas przygotowania i produkcji piwa przez 4 tygodnie, i to dziesiątki razy.

Na taką skrupulatność dziś mogą sobie pozwolić koncerny, jak Heineken czy Asahi, a nie browarnik kraftowy.

Tak, duże koncerny stać na kosztowne narzędzia i specjalistów do przeprowadzania testów kontrolnych, co pozwala im na utrzymanie bardzo wysokiej jakości piwa. Natomiast dla mniejszych, kraftowych browarów jest to często poza zasięgiem finansowym. Nasze rozwiązanie to nowoczesna platforma umożliwiająca kontrolę jakości piwa w bardziej dostępny i łatwy sposób. Dostarczamy klientom specjalne urządzenie oraz kapsułki, co pozwala na przeprowadzenie analiz chemicznych w kontrolowanym środowisku. System jest bardziej uniwersalny niż tradycyjne metody i pozwala na przetestowanie wielu parametrów za pomocą jednego urządzenia bez konieczności inwestowania w wiele kosztownych rozwiązań. Obecnie prowadzimy testy pilotażowe w browarach kraftowych w Holandii i już teraz widzimy, że nasi klienci są w stanie lepiej kontrolować jakość produkowanego piwa oraz unikać strat związanych z niewłaściwą warką.

Jak działa Beer-o-meter?

To niewielkie urządzenie, które trafia bezpośrednio do rąk browarnika. Aluminiowa skrzynka ma ekran do komunikacji i miejsce na wspomniane kapsułki. Browarnik steruje nią za pomocą aplikacji mobilnej. Celem była jak najprostsza automatyzacja analiz laboratoryjnych. Metoda analizy, którą wykorzystujemy, to kolorymetria. Urządzenie wykonuje zdjęcie próbki w odpowiednich warunkach oświetlenia. W środku znajdują się specjalne światła LED oraz kamera, które są kontrolowane przez komputer. Po zrobieniu zdjęcia dane są przesyłane do chmury, gdzie analizujemy wynik testu na podstawie wcześniej przygotowanych krzywych kalibracyjnych. Następnie wynik wraca do urządzenia, gdzie można go odczytać. Nasze algorytmy to efekt wielu miesięcy ciężkiej pracy i optymalizacji. Stworzyliśmy łatwy i wiarygodny protokół, który umożliwia ludziom powtarzanie testów i otrzymywanie dokładnych wyników. Z myślą o użytkownikach przygotowaliśmy system, który zapobiega przerwaniu testu. Opracowaliśmy również nowatorskie rozwiązanie — koncentrator dla próbek, który działa jak kurtyna powietrzna. Wykorzystujemy porowate membrany, głównie papier, które zagęszczają próbkę wraz z interesującą nas substancją, zwężając ją jednocześnie w określonym miejscu. Dzięki temu sygnał jest bardziej skoncentrowany, co bardzo pomaga w wykryciu molekuł występujących w bardzo małych ilościach. Istotne jest też odpowiednie ustawienie czasu. Urządzenie samo pobiera zdjęcie do analizy oraz kończy wykonywanie testu.

A na czym konkretnie polega analiza danych chemicznych?

Nasz know-how polega na tym, w jaki sposób budujemy test. Dzięki badaniom wiemy, skąd pobierać próbkę do analizy. Wykorzystujemy zdobytą w laboratorium eksperymentalną wiedzę do selekcji odpowiedniego regionu próbki skoncentrowanej na papierze, a potem przez analizę koloru opracowujemy krzywą kalibracyjną. Najczęstszym problemem w tym procesie jest ilościowy pomiar, bo to wymaga precyzji, a zatem treningu i doświadczenia, którego niewyszkoleni laboranci nie mają.

Korzystacie ze sztucznej inteligencji i uczenia maszynowego czy jest na to jeszcze za wcześnie w tego typu projekcie?

Z racji tego, że stworzyliśmy samodzielnie nowy format do testowania musimy najpierw pozyskać od klientów wystarczająco wiarygodnych zestawów danych. Wtedy będziemy mogli zastosować zaawansowane techniki, które pozwolą nam np. na udzielanie spersonalizowanych porad dla browarników odnośnie ich procesów warzenia. Stąd w tej chwili nie korzystamy z AI czy ML. Opieramy się wyłącznie na własnych danych i tych otrzymanych od naszych pierwszych browarów. Żeby zacząć analizę danych za pomocą zaawansowanych algorytmów, musimy zebrać odpowiednią ilość danych. Muszę powiedzieć, że, badając piwo, wiele analiz w laboratorium robiliśmy do tej pory manualnie. Ale wykorzystując wiedzę i dane z browarów, będziemy mogli robić to w sposób bardziej zautomatyzowany. Dziś tworzymy dzięki danym z browarów wiele „pojedynczych klocków”, które będziemy mogli później “wkleić” do machine learningu. Jednak teraz nie idziemy jeszcze zbyt szybko w kierunku algorytmów uczenia maszynowego, aby nie stracić kontroli nad zrozumieniem, co się aktualnie dzieje z naszymi danymi.

To ile danych potrzeba, żeby stworzyć skuteczne narzędzie analityczne?

Aktualnie mamy kilkaset tzw. data points. To dość mało, a dodatkowo one są rozłożone na 3-4 parametry, jakie dotychczas pilotowaliśmy we współpracy z firmami. Potrzebowalibyśmy ok. 50-75 browarów, które miesięcznie wykonują pomiędzy 30 a 50 testów, żeby po 6-9 miesiącach móc zbudować reprezentatywną bazę danych. Pracujemy nad tym. Chciałbym zaznaczyć, że nie planujemy handlować tymi danymi. Dane należą zawsze tylko do browarników, zastrzegliśmy sobie tylko prawo do wykorzystania ich do rozwoju produktu.

Zespół, który pracuje nad urządzeniem Beer-O-Meter, składa się wyłącznie z biotechnologów?

Jestem w zespole jedynym biotechnologiem. Bezpośrednio nad projektem pracuje 9 osób. Są w tym gronie ludzie od IT, inżynierowie od software’u, jest także chemik, ekspert w zakresie budowy urządzeń i łańcucha dostaw oraz business developer, jak również osoba od marketingu i sprzedaży.

A co z data scientistami?

Niewątpliwie taka osoba pojawi się naszym zespole w przyszłości. Nie jest ciężko znaleźć człowieka, który chciałby się tym obszarem zająć, ale dużo trudniej zdefiniować początkowe zadania, jakie chcielibyśmy przed nim postawić.  Eksperci od analizy danych mają wyspecjalizowane profesje, jakimi się na co dzień zajmują. Znalezienie kogoś dobrego i skutecznego w analizie danych nie oznacza, że ta sama osoba pomoże w zbudowaniu i ustrukturyzowaniu naszej bazy danych. W SG Papertronics musimy jednak przejść przez kolejne etapy analityki. Dlatego dziś rozwój zespołu planujemy w kierunku rozbudowy laboratorium i produkcji testów, która w tej chwili najbardziej ogranicza nasz produkt.

W tej chwili za pomocą rozwiązania Beer-o-meter testujecie parametry w browarnictwie kraftowym. Gdzie jeszcze takie testy mogłyby być wykorzystywane? 

Faktycznie przypadek browarników kraftowych okazał się dla nas bardzo dobry pod względem rozwoju produktu, ponieważ to nowoczesne środowisko. Zatem widzimy rozwój naszego rozwiązania wszędzie, gdzie testowanie nowinek technologicznych jest standardem. Myślę, że z powodzeniem w podobny sposób jak piwo można badać np. próbki moczu, choćby w celu dopasowania diety. Wiele osób uprawia dziś sport, bada parametry swojego ciała. Wyczynowi sportowcy, ale też ci rekreacyjni używają testów paskowych, które z tego, co wiem, nie są do końca efektywne, ponieważ odczyty bywają zaburzone. Jest to więc rynek, na którym można byłoby wykorzystać nasze rozwiązanie. Inny rynek, który obserwujemy, to rolnictwo, gdzie moglibyśmy wspomóc proces doboru rodzaju i ilości nawozów czy środków ochrony roślin.

Jak skuteczność tej technologii oceniają browarnicy?

Współpracujemy z wyselekcjonowaną grupą browarów o różnej wielkości i profilu działania, która pozwala nam zebrać odpowiedni typ informacji. Browarnicy korzystający z Beer-o-meter są zadowoleni z jego skuteczności i użyteczności w codziennej pracy. Oczywiście zwracają nam uwagę na to, co jeszcze możemy poprawić, ale cieszy nas przede wszystkim, że testy już wspierają browarników w ich działaniach. W przyszłości chcemy zwiększyć liczbę analizowanych parametrów i nadal pracujemy nad ulepszaniem technologii.

O jakie parametry chcielibyście rozwinąć możliwości urządzenia? Jakie nowe funkcje przydałyby się browarom?

W pierwszej generacji produktu mamy parametry, które zapewniają kontrolę procesu warzenia piwa, czyli pH, badamy cukry fermentowalne, alkohol, zawartość skrobi oraz kolor piwa. To jest absolutna podstawa, aby móc mówić o wdrożeniu kontroli jakości. Ważne jest, aby testy wykonywać regularnie podczas warzenia piwa i powtarzalnie między kolejnymi warkami. W ten sposób można pozyskać odpowiednią ilość danych wysokiej jakości i móc później stosować machine learning. W kolejnych generacjach chcemy wprowadzić test na goryczkowość, skład mineralny wody, czy tzw. off-flavours, które występują w niewielkich ilościach w piwie, a potrafią “napsuć krwi” browarnikowi. Rozwijając produkt w ten sposób, zapewnimy browarom kraftowym łatwy dostęp do ważnych dla nich analiz chemicznych w przystępnej cenie oraz pomożemy im wdrożyć proces kontroli jakości dopasowany do ich potrzeb. Przez stopniowe działanie wszyscy mamy czas nauczyć się korzystania z rosnącej ilości informacji pochodzących z testowania i uniknąć wielu pomyłek, choć zapewne nie wszystkich.

Polacy kupują produkty z 50 tysięcy automatycznych urządzeń, które stoją w miejscach publicznych. 5 z nich to lodówki przyszłości, które należą do startupu z Wrocławia. Są w pełni zautomatyzowane, wyposażone w nowoczesne systemy i czujniki. Dzięki temu urządzenia same wiedzą, kiedy powinny zamówić dostawę nowych produktów. Ale czegoś im brakuje. Ubezpieczenia, które pozwoliłoby rozwinąć biznes.

Dane Polskiego Stowarzyszenia Vendingu wskazują, że na naszym rynku działa ponad 50 tys. automatów vendingowych, a w ciągu ostatnich lat ich liczba rośnie. Dlaczego? To najprostsza forma kupna oraz sprzedaży, która jest stosunkowo prosta do zaprogramowania. Wkładamy produkt w przegródkę z konkretnym numerem, nadajemy mu cenę, a gdy ktoś zapłaci zadeklarowaną wartość, batonik czy napój jest wydawany. Gdy lodówka opustoszeje, towary są uzupełniane przez dostawców. Lodówki startupu Enterway robią to automatycznie:

– Jesteśmy na rynku od trzech lat i postanowiliśmy vending klasyczny zamienić na nowoczesny, wykorzystując technologię RFID oraz model IoT. Chodziło o to, 

żeby w sposób łatwy, dostępny i przede wszystkim tani dotrzeć do klientów indywidualnych ze zdrowymi produktami z branży gastronomicznej — opowiada dyrektor firmy, Adrian Turzyma-Patocki.

Ogromny rynek automatów

Statystyki pokazują, że co roku Polacy na napoje z automatów vendingowych wydają ok. 20 mln euro. Dla porównania, Francuzi wydają blisko 10 razy więcej, co pokazuje, o jak potężnym rynku mówimy. Niestety, wiele dzisiejszych urządzeń jest przestarzałych technologicznie.

– Nasze rozwiązanie może być wdrożone wszędzie, wystarczy, że będzie tam prąd. Potrafimy zdalnie zarządzać każdą lodówką, która działa w sposób w pełni niezależny. Da się dostarczyć prawie dowolny produkt do lodówki, rejestrując dokładny moment jego pojawienia się poprzez RFID — tłumaczy menadżer.

Lodówka nie tylko dokładnie monitoruje wszystkie znajdujące się w niej produkty, ale także zbiera statystyki, które mogą być przekazywane dostawcom i restauratorom. To także cenna wiadomość zwrotna dotycząca produktów, które cieszą się największą popularnością. Automat vendingowy musi być naszpikowany technologiami. Każde urządzenie jest zbudowane z trzech warstw: (1) informatycznej, na którą składają się programy do zarządzania procesami zachodzącymi w maszynie, (2) sprzętowej, czyli stacjonarnej lodówki z czytnikami i czujnikami, (3) oraz z warstwy zarządzającej, która łączy dwie pierwsze. W realizacji tego celu pomogła nam firma informatyczna z Wrocławia, Infinite Progress, prowadzona przez programistów i inżynierów oprogramowania: Rafała Jaworskiego, Krzystofa Tuszyńskiego i Łukasza Mierzwińskiego. Dzięki ich koncepcji rozwiązanie Enterway stało się integrowalne ze środowiskiem analitycznym SAS Viya.

Tożsamość cyfrowa pożywnego batona

W oparciu o technologię RFID i IoT można oferować wszystko — dowolny produkt, który ma potencjał sprzedażowy. Enterway skupia się na zdrowej żywności, która spełnia codzienne potrzeby pokolenia świadomych pod tym względem Polek i Polaków. Startup współpracuje ze sprawdzonymi producentami żywności i restauracjami, od których dostaje zakontraktowane porcje jedzenia. Następnie nadaje jej tzw. tożsamość cyfrową, czyli odpowiednio oznacza i opisuje tagami, bez których produkty dla lodówki byłyby “anonimowe”.

W Polsce jest ok. 400 firm, które zajmują się sprzedażą produktów za pośrednictwem automatów vendingowych. Enterway na razie z największymi nie może się mierzyć, ale ma ambitne plany:

— W tej chwili dysponujemy 8 urządzeniami, z czego 3 służą nam do testów, a 5 jest rozlokowanych w różnych miejscach w północnej i centralnej Polsce. 2 lata prowadziliśmy prace deweloperskie, aby odpowiednio przygotować systemy do zarządzania lodówkami w sposób zdalny i to była najtrudniejsza część projektu. Teraz mamy gotowe systemy, które są w pełni przetestowane i funkcjonalne. Całość to nie tylko lodówka, ale  “kombajn” lodówkowy, który jest zintegrowany z systemem płatności, wyświetlaniem interaktywnych treści i technologią rejestrowania produktów. Budujemy obecnie bazę klientów, którzy chcą korzystać z naszych lodówek. W 2023 roku zamierzamy wypuścić na rynek 50 sztuk inteligentnych lodówek. Skupiamy się na dwóch kategoriach produktowych: cateringu dietetycznym i przekąskach pełnowartościowych — precyzuje Adrian Turzyma-Patocki.

Trzeba zapewnić ubezpieczalność

Do poszerzenia skali działania startup musi ubezpieczyć swoje lodówki. Przedsięwzięciu towarzyszą ryzyka, które nie pasują do szablonów i firmie ubezpieczeniowej może być trudne je oszacować. Lub może je przecenić, co da zbyt wysoki koszt polisy. I tu z pomocą przychodzi zaawansowana analityka.

— Każdy ubezpieczyciel za pomocą rozwiązania chmurowego będzie mógł zorientować się, na czym polega oferowana przez nas technologia i odpowiednio wycenić ryzyka występujące w ramach całego systemu. Pracujemy w oparciu o model data mesh, czyli rozproszonego środowiska analitycznego, lub data fabric, który jest z kolei jednolitym środowiskiem data science — wyjaśnia Kamil Kmieć, specjalista ds. IoT w SAS. Dostawca rozwiązań analitycznych pomaga firmie Enterway opracować model obróbki danych, dzięki któremu firmy ubezpieczeniowe będą mogły łatwiej i lepiej oszacować ryzyka vendingowego biznesu. Wśród nich są także m.in. cyberzagrożenia — podkreśla Waldemar Razik:

— Ubezpieczyciele są gotowi ubezpieczyć ryzyka cyfrowe w momencie, kiedy można je obiektywnie skwantyfikować. Wszystko, co jest policzalne i weryfikowalne, będzie w praktyce ubezpieczalne. Wielkość potencjalnej szkody może zależeć od szeregu aspektów, jak lokalizacja urządzenia, natężenie ruchu w danym miejscu czy nawet rodzaj oferowanych produktów. Czyli całość procesu oceny ryzyka musi polegać na faktach. I przez zintegrowanie danych IoT z lodówek Enterway ze środowiskiem SAS Viya my te fakty zapewniamy, a na ich podstawie ubezpieczyciele mogą zbudować niezbędne wskaźniki. SAS ma doświadczenia we współpracy z szeregiem podmiotów pod kątem oceny ryzyka cyberbezpieczeństwa. Jednak, poza kwestią cyber, jest jeszcze aspekt odpowiedzialności prawnej związanej ze sprzedażą żywności. Operator systemu dystrybucyjnego zawsze może się pomylić i nie chciałby z tego powodu narazić się na ryzyko odpowiedzialności prawnej i odszkodowawczej. Np. dlatego, że w jakimś produkcie znajdą się orzeszki, a nie powinno ich tam być. Aby przygotować się na takie sytuacje, trzeba zapewnić systemowo tzw. ubezpieczalność, począwszy od urządzeń, przez towar, a kończąc na odpowiedzialności prawnej wobec konsumentów — zaznacza Senior Systems Engineer w SAS.

Zadanie na SAS Hackathon 2023

Model danych zapewniający cykl analityczny pod kątem wspomnianej ubezpieczalności został opracowywany w ramach wydarzenia SAS Hackathon 2023. Przedstawiciele startupu i eksperci data science wspólnie określili, jakie informacje są niezbędne ubezpieczycielom i w jakiej formie najlepiej je dostarczać.

— Ubezpieczyciel musi mieć pewność co do aktualności i rzetelności danych — dodaje Kamil Kmieć. — Ważne jest zaplanowanie zakresu zbieranych informacji, musimy też zapewnić odpowiednią efektywność systemu. Na hakatonie powstał model danych oraz rozwiązania, które zostaną wykorzystane w ustaleniach już z ubezpieczycielami. Mimo że lodówki vendingowe istniały wcześniej, podejście firmy Enterway do ubezpieczenia jest nowatorskie i wnosi wartość dodaną tak dla ubezpieczycieli, jak i dla operatora systemu maszyn vendingowych. Można powiedzieć, że przecieramy szlaki w kierunku biznesowej skalowalności rozwiązania. Zespół otrzymuje w tym zakresie wsparcie od ekspertów SAS oraz ekspertów Algomine.AI (Data Science House). Zespół Algomine.AI, pracujący pod kierunkiem Cezarego Głowińskiego, poza kooperacją z Enterwayem, realizuje też w trakcie hakatonu własny pomysł z obszaru wykorzystania danych IoT.

SAS Hackathon to organizowane co roku wydarzenie, podczas którego powstają innowacyjne rozwiązania analityczne wspierające różne branże i obszary. Uczestnicy poprzednich edycji zajmowali się między innymi ochroną rolników przed skutkami zmian klimatu, dostosowywaniem formularzy internetowych do potrzeb osób z niepełnosprawnościami, a także udoskonalaniem pomocy w przypadku klęsk żywiołowych. Turniej inspiruje do szukania pomysłów na wykorzystanie potencjału danych i pokazuje, że zaawansowana analityka jest w stanie wesprzeć nas w wielu obszarach życia. Uczestnicy mogą liczyć na wsparcie merytoryczne, dostęp do wirtualnych laboratoriów edukacyjnych oraz szkoleń. A wszystko po to, żeby pobudzić ciekawość i pomóc ekspertom od danych w zdobywaniu praktycznego doświadczenia oraz w tworzeniu rozwiązań, które będą użyteczne także po hakatonie.

Udostępnij link

https://www.datasciencerobie.pl/zaawansowana-analityka-pomoze-ubezpieczyc-automaty-vendingowe/