W skali wielkiego telekomu szczegółowa analityka danych o klientach może dawać interesujące biznesowo efekty. Skoro nowoczesne narzędzia informatyczne pozwalają na przetwarzanie ogromnych wolumenów danych, czemu nie spróbować dopasować oferty... do... każdego klienta osobno? No, może do prawie każdego klienta osobno. Jak to wygląda w praktyce, rozmawiamy z Markiem Grabowskim z Orange Polska w ramach cyklu „AI w telekomunikacji”, który realizują wspólnie GSMONLINE.PL i TELKO.in.
MAREK GRABOWSKI, dyrektor zarządzania wartością klienta B2C: Trochę inaczej będzie to wyglądało z perspektywy klienta, a inaczej z perspektywy operatora. Zacznijmy od tej drugiej perspektywy. W Orange Polska zbudowaliśmy około 100 modeli machine learning [ML] (w praktyce korzystamy z około 60), które pozwalają nam opisać każdego klienta zestawem około 1500 podstawowych parametrów. Na podstawie tych parametrów modele ML generują bardziej złożone opisy klientów.
Dla przykładu: „ten klient preferuje smartfony ze średniej półki”, „ten klient łatwo zmienia dostawcę” itp. Każda taka cecha opisana jest liczbowo, a liczba jest unikalna dla każdego klienta.
Tak. Największe zasoby danych mamy dla klientów postpaid, trochę inne dane dla klientów prepaid, jeszcze inne ‒ na przykład ‒ dla klientów marki nju. Zbliżone modele są stosowane w naszym B2B dla segmentu SOHO.
Staramy się analizować dane o klientach, a nie o usłudze, ale to nie jest regułą. Jedna osoba może mieć dwie czy trzy karty SIM. Ryzyko rezygnacji z usług szacujemy dla każdej z tych kart oddzielnie. Kiedy jednak analizujemy możliwość przedstawienia nowej oferty, to już samemu klientowi. Ujęcie jest raz takie, a raz takie i zależy od sytuacji. Kiedy spodziewamy się, że klient zrezygnuje z pojedynczej karty SIM, to na tą właśnie kartę damy dobrą ofertę. Jeżeli spodziewamy się, że klient może przejść do konkurencji, to zaproponujemy nową ofertę na wszystkie usługi, z jakich korzysta ‒ żeby podnieść poziom jego lojalności.
Można mieć takie podejrzenie na przykład na podstawie wielu połączeń do konkurencyjnej sieci. Czerwona lampka zapala się, kiedy klient zadzwoni na infolinię konkurenta. Wówczas wiadomo, że coś trzeba zrobić.
Zgadza się, ale narzędzia machine learning radzą sobie z takimi oceanami.
Tak, chociaż są dosyć szczegółowe. Dla przykładu: „ile reklamacji klient złożył w danym odcinku czasu”, „ile było kontaktów z call center w poprzednim miesiącu”, „jaka jest przeciętna jakość sieci mobilnej na nadajniku, do którego jego telefon loguje się najczęściej” itp. Na tej podstawie staramy się przygotować optymalną ofertę. Jest około 1200 takich mikrosegmentów, w których staramy się ją zmieścić.
Tak, ale z punktu widzenia klienta to tak nie wygląda. Jemu przedstawia się konkretnie: (dla przykładu) ofertę na szerokopasmowy internet o pewnej przepływności z aktywacją komórkową, określonym pakietem danych i z dostępem do Netfliksa za określoną cenę. Dla mnie wszystkie składowe takiej oferty, w tym usługi, różne stawki na urządzeni, liczne progi cenowe, możliwe opusty itp., składają się na portfolio. To jest trochę kwestia optyki.
Powiedzmy, że jeżeli kupuje tylko aktywację komórkową, to widzi cztery pakiety. I jeżeli jest to oferta utrzymaniowa, to zobaczy jeszcze zniżkę dla każdego z tych pakietu. Razem jakieś 10 możliwości.
Proszę pamiętać, że w pierwszym kroku podsuwamy jedną ofertę ‒ wedle naszej analizy optymalną. Dopiero w toku dalszej komunikacji z klientem przesuwamy się dalej, a konsultant przedstawia kolejne możliwości. Nie wygląda to tak, że klient dostaje na raz dziesięć „pudełek” ‒ z prośbą, żeby sobie jedno wybrał.
Chciałbym jeszcze powiedzieć, jak te modele ML działają. One szeregują wszystkich klientów pod względem danej cechy lub może, dla uproszczenia, powiedzmy: pod względem prawdopodobieństwa ‒ od najmniejszego do najwyższego ‒ że dane zdarzenie zajdzie. To ma bardzo konkretne przełożenie na działania sprzedażowe. Uprośćmy, że chodzi o prawdopodobieństwo zakupu usługi. Dla końca szeregu szansa na to jest znikoma, ale dla czoła szeregu ‒ wysoka. Można więc przekazać działowi sprzedaży, kogo ofertować z najwyższą szansą na efekt.
Podkreślam, że nie mamy magicznej kuli, która by nam dawała pewność działań sprzedażowych. Skuteczność wynosi 5-10 proc. w przypadku nowych klientów i do 20 proc. w przypadku przedłużania umów.
To jest miara skuteczności działań sprzedażowych.
Co 2 tygodnie przeliczamy dane a system generuje około 12 mln ofert. To się przekłada na realną sprzedaż liczoną w dziesiątkach tysięcy transakcji. Wobec wolumenu ofert ten odsetek może nie wygląda imponująco. Narzędzia ML generują jednak również rekomendacje ofertowe, zwykle po trzy dla każdej spodziewanej transakcji. Tutaj skuteczność jest dużo wyższa: 80-90 proc. transakcji finalizuje się w ramach jednej z takich automatycznych rekomendacji.
Teoretycznie te wszystkie kalkulacje mógłby robić zespół ludzi. Nowe oferty pojawiałyby się co pół roku niż co dwa tygodnie. W praktyce nie wyobrażam sobie manualnej pracy na takiej ilości danych.
Brak mi danych żeby generalizować, ale gdyby spojrzeć na poszczególne kampanie, to dzięki wsparciu narzędziami ML skuteczność sprzedaży (w skali roku) potrafi skoczyć od 20-40 proc. do 100 proc. w zależności od linii produktowej.
Można szacować, że staranne dopasowanie oferty daje nam korzyści idące w setki milionów złotych w ciągu kilku lat.
Oczywiście, koszty są poważne, ale amortyzujemy je w czasie i inwestycja się broni. Trzeba pamiętać, że dochodzą koszty utrzymania i optymalizacji systemów. Okresowo należy weryfikować zestaw zmiennych w algorytmach. Na tle korzyści wszystkie te koszty wyglądają jednak bardzo dobrze.
Przede wszystkim tam, gdzie można liczyć na dużą skalę zdarzeń. Można szacować zainteresowanie klientów najnowszym iPhonem 17 Pro, ale realnie grupa zainteresowanych nim osób jest na tyle specyficzna (i mała), że lepsze niż modelowanie AI/ML będzie zidentyfikowanie klientów regularnie zainteresowanych wymianą aparatu. Dla odmiany szacowanie ryzyka CHURN w bazie klientów postpaid jest efektywne ‒ bardzo wielu takich klientów jest w okresie wygasania kontraktu albo już nawet po tym terminie, a więc można i trzeba ich uwzględnić. Danych (zdarzeń) do analizy jest to bardzo dużo.
Innymi słowy w oczach analityka, takiego jak ja, tradycyjny segment usług nie stanowi wyznacznika. Istotna jest liczba i powtarzalność cechy, którą chcemy mierzyć, a potem ‒ na jej podstawie ‒ kształtować ofertę. A taka powtarzalność może być wysoka lub niska w każdym segmencie usług.
Jeżeli chodzi o GenAI, to pewne rzeczy z jej wykorzystaniem już robimy, a do niektórych się przymierzamy. To, co już robimy, to personalizacja komunikacji z klientem.
W opisany wcześniej sposób przygotowujemy ofertę dla klienta, a na podstawie tego, co o nim wiemy, dobieramy odpowiednie środki komunikacji. Tutaj GenAI ma kapitalne zastosowanie, ponieważ każdy z nas ma tendencję do komunikowania się w sobie właściwy, niekoniecznie optymalny sposób w relacji z każdą inną osobą. AI oszczędza dużo pracy, ponieważ automatycznie rozpoznaje profil klienta i dobiera środki komunikacji. Inne pod względem językowym dla seniora, a inne dla studenta.
Nie wiem czy dokładnie tak, ale na pewno możliwe jest automatyczne zróżnicowanie środków dla dwóch takich typów klienta. Kolejny asystent AI sprawdza, czy ten pierwszy mechanizm właściwie dobrał komunikację, następny zaś weryfikuje jej zgodność ze standardami Orange. Na końcu, jako ostatnia instancja, konsultant zatwierdza to wszystko. Z czasem, kiedy stopa błędów po stronie agentów AI spadnie odpowiednio nisko i kiedy uwarunkowania prawne na to pozwolą, możliwe będzie całkowite odciążenie konsultanta.
Dzisiaj jeszcze nie. To lepiej pozostawiać rozwiązaniom machine learning, które radzą sobie z tym wciąż bardzo dobrze. Wykorzystanie AI na 1500 parametrów per każdy klient pochłonęłoby gigantyczne zasoby obliczeniowe.
Trudno powiedzieć. Dzisiaj raczej wyobrażam sobie, że machine learning wykonuje ten pierwszy etap pracy, tzn. na podstawie bazowych parametrów określa tych kilkanaście cech czy skłonności klienta. To już może być polem dla generatywnej sztucznej inteligencji. GenAI ma jedną bezcenną zaletę: może wejść w interakcje z klientem. Powiedzmy, że przedstawi mu opracowaną przez ML ofertę, ale klient odpowie: „tak, ale…”. Na podstawie tych dodatkowych danych AI potrafi podjąć samodzielnie działanie i zmodyfikować lub uzupełnić ofertę. Statyczne systemy tego nie zrobią.
To jest koncepcja, którą testujemy. Wyobrażam sobie, że agent AI porusza się w zadanych widełkach, aby w trakcie interakcji z klientem dopasować ofertę, którą klient zaakceptuje, a nam da wartość. To jest wyzwanie jeżeli agent AI ‒ skoncentrowany na efekcie ‒ zacznie szybko proponować ofertę najtańszą, bo to jest efektywne i kończy się sprzedażą. Tylko nie zupełnie o to nam chodzi.
Rozróżnijmy dwa obszary: analitykę i operacje. W analityce danych GenAI mało pomaga. Inaczej jest jeżeli chodzi o operacje. Na przykład o analizę treści pojedynczego maila i pomoc w przygotowaniu odpowiedzi na podstawie zestawu danych i reguł. Albo o udzielenie odpowiedzi na czacie obsługowym. Takich rozwiązań bez GenAI by nie było. I nie tylko takich. Co z tego, że statyczne narzędzie ML określiło prawdopodobieństwo zakupu usługi jako minimalne, skoro sam klient deklaruje, że chce ją kupić. GenAI wychwyci ten komunikat i da ofertę.
Gdy cena tokena spadnie tysiąc razy, to ja chętnie zleciłbym GenAI zadanie analityki i sprofilowania 1000 klientów wraz z wypracowaniem trzech rekomendacji ofertowych dla każdego z nich.
Szczerze? Nie wiem, ale jestem ciekaw. Może pojawi się efekt namiastki ludzkiej intuicji, którą GenAI ponoć wykazuje, a ML nie? To jednak przyszłość. Dzisiaj ML daje bardzo namacalne korzyści, a GenAI jest ciekawe, ale efektywność ma na razie niewysoką.
To także. W przypadku dostawców o skali Orange koszty jednostkowe zawsze mają duże znaczenie. Nie jest to jednak jedyne wyzwanie.
Być może w przyszłym roku zaczniemy w Orange eksperymenty z narzędziami AI, które do całościowej analizy i procesu doboru oferty będą potrafiły dołożyć dane przekazywane „na żywo” przez klienta w trakcie rozmowy, czy innej formy kontaktu. To może być kolejnym krokiem.
W przyszłości możliwe jest także wykorzystanie narzędzi typu agentic AI [narzędzie AI o dużym stopniu autonomii, potrafiące realizować złożone procesy od początku do końca ‒ red.], które działają na wewnętrznych zasobach operatora. Powiedzmy, że klient dzwoni z reklamacją a agent AI sam udziela mu 10-złotowej rekompensaty i wprowadza odpowiednie dane do bilingu. To jest ogromny potencjał do wykorzystania, ale równie duże wyzwanie. Już sam dostęp do systemów bilingowych to nowy poziom ryzyka do przeanalizowania. A co z halucynacjami AI? Co jeżeli agent zamiast 10 zł da 10 tys. zł rekompensaty?
Testowaliśmy „nienadzorowaną” segmentację klientów przez AI, ale okazała się mało przydatna w praktyce. Narzędzie dokonywało segmentacji w sobie tylko znany sposób. Mieliśmy kłopot, żeby przejść z tym do kolejnych kroków.
Pogłębiamy podejście. Nienadzorowana segmentacja zawiodła, co nie znaczy, że jej nie rozbudowujemy innymi narzędziami. Jest sporo danych, na podstawie których można różnicować klientów, dostosowywać do tego ofertowanie i komunikację. Podkreślę, że wykorzystanie części danych wymaga zgody klienta ‒ to ogranicza możliwość działań do tych osób, które zgodę wyraziły. Z rynku słyszymy o spektakularnych przykładach efektywności pogłębiania segmentacji. Dla nas jednak ‒ nawet jeżeli ‒ to dopiero przyszłość.
Jesteśmy na innym etapie segmentacji bazy. Nie mamy jeszcze opracowanej odpowiednio wysokiej liczby elementów ‒ przekonujących elementów, podkreślam ‒ różnicujących klientów, żeby oprzeć na nich tak mocno spersonalizowaną komunikację.
Trochę wymyślam: powiedzmy, że jeśli na podstawie profilu ruchu z przeglądarki internetowej możemy stwierdzić, że klient ogląda w serwisach streamingowych głównie kryminały, to w ofercie subskrypcji… powiedzmy… Netfliksa dodamy obrazek któregoś z popularnych seriali kryminalnych.
Mamy powody uważać się za lidera tych rozwiązań w Europie. Koledzy z innych krajów korzystają z wypracowanych w Polsce koncepcji, dopasowując je do specyfiki swoich rynków. Ze wszystkimi wymieniamy się doświadczeniami i sami też wdrażamy najlepsze praktyki z innych krajów. Wyróżnić trzeba sytuację we Francji, gdzie jest największy rynek całej grupy i gdzie na narzędzia analityczne wydatkowano adekwatnie wysokie środki. W efekcie są one na bardzo wysokim poziomie technicznym. Z drugiej strony we Francji jest specyficzna polityka sprzedaży z dużą autonomią struktur regionalnych. Z tego powodu inne są tam też wykorzystanie i rola scentralizowanych narzędzi analitycznych.
Dziękujemy za rozmowę.
rozmawiali Łukasz Dec i Wojciech Piechocki