Wywiad Computerworld – Uwolnij pełen potencjał algorytmu, czyli optymalizacja procesów dzięki zastosowaniu AI
12 lipca 2024Dziś sztuczna inteligencja (AI) stanowi nieodłączny element transformacji biznesowej. Zmienia sposób, w jaki organizacje
i firmy działają na rynku. Liczne algorytmy i modele Machine Learning przewidują trendy konsumenckie, optymalizują procesy produkcyjne i oferują niezrównane możliwości usprawnienia działalności biznesowej na wielu płaszczyznach.
W rozmowie z naszym ekspertem Tomaszem Mirowskim, CTO w firmie 3Soft, omówimy przykład wdrożenia rozwiązania opartego na Sztucznej Inteligencji, które przyniosło nie tylko znaczące korzyści w postaci optymalizacji procesów logistycznych, ale także poskutkowało istotną redukcją ponoszonych strat.
Wdrożenie sztucznej inteligencji w firmie często wiąże się z transformacją licznych procesów wewnątrz organizacji. Przyjrzyjmy się konkretnemu przypadkowi wdrożenia rozwiązania AI u jednego z waszych klientów, dużej firmy z obszaru FMCG – jak wyglądały pierwsze etapy współpracy?
W 2018 roku Klient zgłosił się do nas z pozornie prostym problemem – zależało mu na zminimalizowaniu w swoich sklepach marnotrawstwa z powodu rosnącej ilości przeterminowanych produktów na półkach. Chciał tak planować dostawy, aby możliwa była bieżąca sprzedaż określonych towarów bez powstawania nadwyżek magazynowych konkretnych produktów.
Klient dostarczył nam wszystkie potrzebne dane, które były punktem wyjścia w rozpoczęciu pracy nad projektem platformy służącej do analizy predykcyjnej, opartej na uczeniu maszynowym (Machine Learning) i dostosowanej do jego specyficznych potrzeb.
Zaczęliśmy od stworzenia PoC (Proof of Concept) dla pojedynczego sklepu. Na tym etapie projektu nie było jeszcze żadnych złożonych zbiorów danych, tzw. Big Data. Nad projektem działał jeden analityk danych oraz jeden specjalista ds. data science. To było bardzo szybkie rozwiązanie, które miało sprawdzić, czy będziemy w stanie zrobić coś wartościowego dla klienta, aby dostarczyć mu oczekiwane rezultaty na pełną skalę – a mówimy o licznych punktach sprzedaży. Pierwszy model opierał się na sprawdzeniu produktów z krótkim terminem przydatności. Wyniki okazały się być naprawdę obiecujące.
Jak rozwijały się dalsze fazy prac nad tym projektem?
Pochyliliśmy się nad produktami z długim terminem przydatności. Ponownie wyniki wypadły bardzo dobrze. Perspektywa dalszych prac nad projektem miała ogromny potencjał. Dlatego zapadła decyzja: wdrażamy projekt w życie.
Stopniowo zwiększaliśmy skalę działania. Rozszerzaliśmy model o kolejne sklepy i kraje. Przeszliśmy na rozwiązania chmurowe, aby zwiększyć skalę i umożliwić automatyzację.
Zaczęliśmy od jednego pliku CSV prognozującego jeden produkt w wybranym sklepie. Obecne rozwiązanie obejmuje prognozowanie wartości sprzedaży dla tysięcy produktów na wielu rynkach. Można powiedzieć, że zaczęliśmy od mniej więcej dziesięciu megabajtów danych, finalnie przechodząc do petabajtów w czasie rzeczywistym, aby codziennie dostarczać informacje o tym jak będzie wyglądać sprzedaż następnego dnia.
Jakie były główne wyzwania w trakcie rozwoju tego projektu?
Jednym z głównych wyzwań było zwiększenie skali działania – musieliśmy przejść z fazy opracowania PoC do stworzenia pełnowartościowego rozwiązania obejmującego wiele sklepów i krajów. Wymagało to standaryzacji formatów danych i pokonania technicznych przeszkód. Aby zbudować finalne rozwiązanie, w ciągu kilku lat musieliśmy zbudować zespół wykwalifikowanych specjalistów ze zróżnicowanymi kompetencjami oraz umiejętnościami. Musieliśmy również ustalić z klientem jak zaplanować cały proces, tak, aby móc jak najszybciej korzystać z rozwiązania. Stworzyliśmy uniwersalne MVP (Minimum Viable Product) dla wszystkich krajów oraz sklepów. Założyliśmy, że stworzymy je w ciągu jednego roku, a potem w miarę użytkowania będziemy je stopniowo ulepszać. Musieliśmy więc zbudować z klientem pewien rodzaj standardu wymiany danych między poszczególnymi systemami: systemem krajowym, systemem klienta i centralną platformą klienta. To było nasze największe wyzwanie na początku prac.
Jak udało się zająć nowymi produktami i ewoluującymi wymaganiami dotyczącymi danych?
Dla nowych produktów opracowaliśmy algorytmy oparte na danych historycznych, aby prognozować ich wartość sprzedaży. Mamy algorytm do budowania rodziny produktów na podstawie historii sprzedaży różnych produktów, który umożliwia nam prognozowanie wartości nowego produktu. Oprócz tego włączyliśmy dodatkowe dane, takie jak umiejscowienie produktów w sklepach, aby dalej ulepszać nasze modele predykcyjne i optymalizować operacje łańcucha dostaw.
Jak udało się zaspokoić potrzebę elastyczności i skalowalności w rozwiązaniu?
To były kluczowe zagadnienia. Wykorzystaliśmy usługi natywne dla chmury w połączeniu z platformą Cloudera, aby osiągnąć hybrydowe rozwiązanie, które mogło dynamicznie dostosowywać się do zmieniających się wymagań. Automatyzacja odegrała kluczową rolę w efektywnym skalowaniu platformy, jednocześnie utrzymując koszty na akceptowalnym poziomie.
Gdybyśmy mieli przedstawić obecną skalę działania projektu w liczbach, jak by się one prezentowały?
Obecnie przetwarzamy 10 milionów paragonów dziennie w ponad 6500 sklepach. Ile modeli AI tutaj uruchamiamy? Trzeba pomnożyć liczbę sklepów przez liczbę produktów. Co ciekawe, podczas gdy gromadzenie danych odbywa się stale podczas działania sklepów, części analityczna i prognostyczna działają tylko w nocy.
Jakie były ostateczne efekty wdrożenia tego projektu AI, co udało się wypracować?
Dostarczyliśmy klientowi wymierną wartość biznesową. W tym poprawę prognoz sprzedaży, optymalizację łańcucha dostaw oraz zmniejszenie marnotrawstwa. Prognozowanie musi być skuteczne, aby miało sens. Stale optymalizujemy łańcuch dostaw, minimalizujemy liczbę nadwyżek i braków towarów w sklepach. Cała zmiana przyniosła pozytywny wpływ na środowisko poprzez zmniejszenie ilości marnowanego jedzenia. Zwiększyliśmy również produktywność personelu, ponieważ wcześniej pracownicy musieli przemieszczać się po sklepie i manualnie sprawdzać, czy produkty nie są przeterminowane. Oczywiście zwiększyliśmy również sprzedaż. Jeśli spojrzymy na nasze statystyki, możemy zobaczyć wzrost sprzedaży o 5%-7%. Dzięki minimalizacji braków towarów mogliśmy zauważyć spadek strat o 3%-7% i redukcję średniej liczby braków towarów o 30%-50%.
Jak Pan myśli – dlaczego rozwiązanie okazało się tak skuteczne?
Elastyczność, otwartość i skupienie na dostarczaniu realnej wartości biznesowej były dla nas kluczowymi pojęciami podczas prac. Poprzez ciągłe dostosowywanie się do zmieniających się potrzeb i wykorzystywanie nowoczesnych technologii, udało nam się przekształcić technologiczny framework w konkretne możliwości dla naszego klienta.
Przed rozpoczęciem prac nad projektem pamiętaliśmy o budowaniu zaufania w relacji z klientem oraz o istotności etapu odkrywania danych, przeprowadzaniu warsztatów Data Discovery. To właśnie one są punktem wyjścia w każdym projekcie AI i dają możliwość znalezienia i określenia potencjalnej wartości biznesowej dla klienta.
Tomasz Mirowski – absolwent kierunku Informatyka na Politechniczne Opolskiej. Ukończył studia podyplomowe Big Data i Systemy Zaawansowanej Analizy Danych na Akademii WSB. Posiada liczne licencje oraz certyfikaty, wydawane m.in. przez Microsoft, Hortonworks oraz IBM, potwierdzające kompetencje chmurowe, a także znajomość platformy Hadoop. Na początku swojej kariery pracował dla jednego z największych polskich banków jako ekspert IT. W 2017 roku dołączył do 3Soft jako Architekt IT. Od września 2021 jako Chief Technology Officer odpowiada za Departament Data Management. Prywatnie mąż, ojciec i pasjonat muzyki, niezależnie od gatunku. Fan nowych technologii i gadżetów elektronicznych.