Instytucje finansowe czeka transformacja. Nadchodzi era data bankingu

Polska bankowość należy do najbardziej innowacyjnych na świecie. Przelewy realizowane są znacznie szybciej niż np. w Stanach Zjednoczonych czy Francji, a wyniki stress testów dowodzą, że również pod względem bezpieczeństwa nie mamy powodów do narzekania. Jest jednak poważna rysa na tym – wydawałoby się – nieskazitelnym wizerunku: polskie instytucje finansowe w większości nie znają odbiorców swoich usług.


Pewnego razu Adam podjął z banku większą sumę pieniędzy. Minęło zaledwie kilka chwil, a w jego skrzynce mailowej wylądowała oferta kredytu. Niemal natychmiast Adam dostał też w tej sprawie od swojego banku SMS. Niepotrzebnie. Gdyby bowiem bank znał prawdziwy powód podjęcia większej sumy pieniędzy z konta, wiedziałby, że Adam wyjeżdża na wakacje i wcale nie potrzebuje dodatkowego finansowania. Za to chętnie skorzystałby z dobrego ubezpieczenia turystycznego. Tym samym bank stracił okazję do monetyzacji swoich dodatkowych usług.

To przykład z życia wzięty, ilustrujący etap rozwoju, w jakim znajduje się dzisiaj większość polskich banków. Podobnie sprawy mają się na bardziej rozwiniętych rynkach niż nasz. Mimo że dane o zainteresowaniach klientów są dziś na wyciągnięcie ręki, a pozyskać je można w ramach obowiązującego prawa i to bez pomocy agencji detektywistycznej. Wystarczy zainwestować w analitykę Big Data.

Banki stawiają na Big Data

W rozwiniętych krajach banki rozpoczęły już cyfrową rewolucję. Coraz więcej firm z tego sektora modernizuje infrastrukturę informatyczną, by skutecznie łączyć i analizować dane ze wszystkich przydatnych źródeł. Obranie kierunku na zaawansowaną analitykę cyfrowych informacji to przemyślana strategia rozwoju, która ma swoje uzasadnienie w licznych prognozach i statystykach.

 Zdaniem ekspertów, jest to największy krok w historii rozwoju systemu bankowego od czasu wprowadzenia bankowości elektronicznej. Nie chodzi tutaj tylko o rosnącą liczbę danych online, która sięga już 10 zettabajtów. U zarania globalnej sieci, treści w niej publikowane, generowane były przede wszystkim przez wydawców serwisów internetowych. Dziś tworzą je również użytkownicy.

Z raportu „Data Never Sleeps 4.0” wynika, że w ciągu jednej minuty publikują oni 400 godzin materiałów wideo w serwisie YouTube i dzielą się ponad 216 tys. zdjęć na Facebooku. Na serwerach firmy Dropbox w ciągu 60 sekund ląduje ponad 833 tys. nowych plików.

Bitwa toczy się na dwóch frontach

Według Piotra Prajsnara z Cloud Technologies, firmy data consultingowej i największej w Europie hurtowni danych przetwarzającej informacje o preferencjach i zainteresowaniach internautów, w tej chwili banki zmagają się z przetwarzaniem danych typu first party, czyli tych generowanych wewnętrznie. Stąd inwestycje w infrastrukturę i oprogramowanie, które umożliwiają połączenie w jednym systemie wszystkich przydatnych zbiorów. Analizowanie danych w bankowości ze źródeł zewnętrznych dopiero jednak raczkuje. Zupełnie inaczej niż ma to miejsce np. w branży marketingowej czy e-commerce.

„Dane wewnętrzne banku dostępne w firmowych CRM to m.in. historia klienta, jego aktywność w systemie bankowości elektronicznej, aplikacji mobilnej czy też w innych punktach styku z marką (consumer touch point). Przetwarzanie tak licznych informacji po to, by zyskać lepszy profil klienta i udoskonalić komunikację we wszystkich jej kanałach to niemałe wyzwanie. Kolejnym krokiem jest zasilenie systemu danymi na temat interakcji klienta z marką w serwisach społecznościowych czy też jego aktywności w internecie. Tutaj wewnętrze zbiory cyfrowych informacji przestają wystarczać i trzeba sięgnąć po dane zewnętrzne, czyli 3rd party, które umożliwiają stworzenie 360 stopniowego profilu klienta i pomagają dostosować ofertę do jego aktualnych potrzeb i zainteresowań. W tym celu konieczna jest integracja istniejącego, bankowego systemu komputerowego z platformą DMP (data management platform), która dostarcza i analizuje takie dane w czasie rzeczywistym. To właśnie ubogacenie danych wewnętrznych danymi zewnętrznymi, daje dużo większe możliwości analizy potrzeb klientów i dostarczenia im wysoce spersonalizowanej oferty” – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.

Jego zdaniem, bitwa toczy się na dwóch frontach. By nie przegrać z konkurencją, zwiększyć przychody i tworzyć nowe, atrakcyjne usługi, banki muszą zadbać o właściwy przepływ danych w ich wewnętrznej infrastrukturze, a następnie wzbogacić systemy informatyczne o dostęp do wielkich, nieustrukturyzowanych zbiorów danych, zwanych inaczej Big Data.

Przykładem skutecznych działań na tym pierwszym froncie może poszczycić się HDFC, jeden z największych banków w Indiach. Korzystając z głębokiej analizy historii interakcji z klientami spersonalizował on komunikację w wybranych kanałach, optymalizując tzw. customer experience. Integracja danych z serwisu internetowego banku z systemem zarządzającym bankomatami pozwoliła m.in.  zautomatyzować proces wyboru języka, co doprowadziło do redukcji kosztów operacyjnych i skrócenia czasu korzystania z maszyn o 40 proc.

Zrozumieć klienta

O potrzebie wdrożenia analityki Big Data świadczy chociażby badanie przeprowadzone przez Capgemini. Wynika z niego, że tylko 37 proc. klientów banków uznaje, że dobrze rozpoznają one ich potrzeby. Z tego samego badania wynika również, że zaledwie 37 proc. banków posiada jakiekolwiek doświadczenie w obszarze Big Data. Na pytanie, czy to przypadek, Piotr Prajsnar odpowiada jednoznacznie.

„Nie sposób poznać odpowiednio klienta bez nowoczesnych rozwiązań analitycznych i dopływu aktualnych danych zewnętrznych typu 3rd party. Wyniki badania zaprezentowane przez Capgemini to nie zbieg okoliczności, ale dosadny obraz rzeczywistości, w której firmy pozbawione odpowiednich narzędzi analitycznych nie są w stanie sprostać oczekiwaniom swoich klientów. Problem nie polega na braku chęci czy zaangażowania, lecz na tym, że tych oczekiwań nie znają. Dlatego coraz więcej banków robi porządek z wewnętrznymi danymi i sięga po usługi z kategorii Big Data as a Service, które umożliwiają optymalizację procesów sprzedażowych np. poprzez szczegółową segmentację klientów”przekonuje Prajsnar.

Prześwietlić klienta

Po analitykę Big Data banki sięgają również w celu usprawnienia procesów scoringowych, skracając je dosłownie do kilku minut. Nie tak dawno temu osoby ubiegające się o kredyt musiały przedstawić w placówce banku tony dokumentów. Dzisiaj całym procesem zarządzają skomplikowane algorytmy, które analizują wiele różnych parametrów. Dlatego kluczowe dla banku jest pozyskiwanie danych o swoim kliencie z wielu odmiennych źródeł, co wymaga włączenia do procesów bankowych systemów klasy DMP.

Z możliwości oferowanych przez analitykę Big Data mogą korzystać dziś nie tylko duże banki, lecz również bankowość spółdzielcza. Nowoczesny scoring w Polsce testował już m.in. Credit Agricole. Dostarczony przez Blue Media system weryfikuje wiarygodność klienta banku na podstawie informacji dostępnych w serwisach społecznościowych oraz danych behawioralnych, czyli analizy zachowań na stronach sprzedażowych, weryfikacyjnych, a nawet sposobu formatowania danych.

„Systemy scoringowe w bankach, które korzystają z zasobów Big Data, dostarczają pogłębioną analizę zdolności kredytowej klientów. Dzieje się tak za sprawą danych pozyskiwanych z różnych źródeł –  zapisanych  np. w postaci plików cookies – takich jak intencje zakupowe z serwisów e-commerce, czy też profile w mediach społecznościowych. Analiza takiego profilu np. na Facebooku oraz grona znajomych klienta, może pomóc w ocenie jego wiarygodności finansowej i zminimalizować ryzyko związane z udzieleniem pożyczki osobie, która nie będzie miała możliwości jej później spłacić. Jeśli z aktywności internetowej klienta, historii jego decyzji zakupowych czy też podróży zagranicznych wyłania się obraz człowieka, który posiada wystarczające możliwości finansowe, to system wystawiając finalną ocenę bierze te informacje pod uwagę” – tłumaczy Maciej Klepacki, ekspert ds. cyfrowej transformacji. 

Jego zdaniem banki znajdują się w grupie firm, które jako pierwsze na stałe wdrożą analitykę wielkich, nieustrukturyzowanych zbiorów danych. Za takim scenariuszem przemawiać mają liczne korzyści finansowe oraz walka o rynkową pozycję. Eksperci z firmy Gartner prognozują, że dzięki Big Data do 2020 roku aż 80 proc. procesów biznesowych we wszystkich firmach zostanie zmodernizowanych. „Przemiany, jakie rozpoczęły się za sprawą integracji i analityki dużych zbiorów danych wagą przypominają rewolucję informatyczną, są jednak dużo bardziej dyskretne, a z ich owoców przyjdzie się nam cieszyć dopiero w nachodzących latach” – prognozuje Klepacki.

Marcel Płoszczyński