Rozwiązania oparte o sztuczną inteligencję mogą znacząco przyspieszyć procesy w sektorze finansowym – zwłaszcza te związane z transakcjami w bańkowości korporacyjnej. „Od strony regulacji prawnych, wiele jednak do powiedzenia będzie miała Unia Europejska i opracowywany Artificial Intelligence Act, który może zakazać pewnych rozwiązań i wskazać kierunki rozwoju dla całej tej innowacyjnej branży” – mówi Jan Gąsiorowski, associate w warszawskim biurze Wolf Theiss.
AI Act, to przyjęta w tym roku rekomendacja dotycząca przyszłej dyrektywy regulującej kwestie związane z wykorzystaniem rozwiązań opartych o sztuczną inteligencję. Ma ona być jeszcze obszarem negocjacji na forum unijnym i wejść w życie około 2026 r. Już dziś jednak można się spodziewać, że będzie zawierać szereg ograniczeń, takich jak min. ingerowanie w prywatność, czy też zakazywać rozwiązań mogących być uznanymi za dezinformację.
Sztuczna inteligencja, to szansa, na rozwój i innowacje, ale jednocześnie szereg obaw z nią związanych. Przykładowo w bankowości korporacyjnej może być z powodzeniem wykorzystywana choćby w procesach związanych z przygotowaniem dokumentów czy przetwarzaniem i analizowaniem kluczowych informacji, oszczędzając czas i zasoby zarówno po stronie stron transakcji jak i doradców – mówi mec. Jan Gąsiorowski, z kancelarii Wolf Theiss.
Parlament Europejski prace nad rozwiązaniami prawnymi związanymi z AI rozpoczął około 2 lata temu. Dziś postęp technologiczny, znacznie przyspieszył, a wykorzystanie takich narzędzi jak ChatGPT czy Midjourney wpłynęło nie tylko na zwiększenie popularności takich technologii, ale także rozbudziło obawy związane z nieetycznymi czy wręcz sprzecznymi z prawem rozwiązaniami.
Rozwój narzędzi opartych o AI w bankowości korporacyjnej jest obecnie na dość wczesnym etapie, choć zakładam że przełom może nastąpić niespodziewanie i bardzo szybko. Zwłaszcza że mamy dość dużo danych i powtarzalnych, ustandaryzowanych procedur, które mogą zostać zautomatyzowane. Osobiście uważam że trzy obszary są szczególnie ciekawe jeśli chodzi o użycie AI – są to rozwiązania wspierające proces due diligence, kwestie związane z przygotowaniem i negocjacjami umów oraz weryfikacja dokumentów dostarczanych przez kredytobiorców w ramach warunków zawieszających wypłatę kredytu – dodaje mec. Jan Gąsiorowski.
Z raportu “Bankowość w 2035: globalne badanie sektora bankowego”, przygotowanego przez Economist Impact wynika, że dla 55% respondentów digitalizacja usług finansowych i wprowadzanie nowych technologii należy do najważniejszych trendów w branży bankowej. Z kolei raport McKinsey „The state of AI in 2022” zawiera informację, że już ponad 52% przedsiębiorców na świecie przeznacza 5% lub więcej ze swoich budżetów IT, na rozwój sztucznej inteligencji, zaś 63% firm planuje zwiększyć swoje wydatki w tym obszarze w najbliższych latach.
Jeśli spojrzymy obecnie na rozwój narzędzi technologicznych, w tym tych opartych na sztucznej inteligencji, w bankowości internetowej, możemy się spodziewać ekspansji tych i podobnych rozwiązań na pozostałe sektory usług bankowych – w tym oczywiście na bankowość korporacyjną. Problemy mogą pojawić się jednak w newralgicznych obszarach, wymagających specjalistycznych, fachowych porad jak np. skomplikowane kwestie podatkowe. Z drugiej strony, mamy już dziś eksperymenty związane z wykorzystaniem AI przy wycenie aktywów, czy interpretacji danych finansowych. Myślę, że kolejnym krokiem będzie wykorzystanie sztucznej inteligencji do przeprowadzania analizy i weryfikacji wszelkiego rodzaju dokumentów dostarczanych przez kredytobiorcę w ramach warunków zawieszających wypłatę kredytu. Tego rodzaju rozwiązanie szczególnie przydałoby się do analizy umów najmu, które są dostarczane do banku przy transakcjach finansowania nieruchomości komercyjnych. Pozostaje jednak pytanie kto będzie odpowiedzialny za ew. błędy i niedopatrzenia AI – podkreśla mec. Jan Gąsiorowski.
Jak wynika z europejskiego badania przeprowadzonego przez IPSOS w 2020 r. – odpowiedzialność cywilna to jedna z trzech największych barier w korzystaniu z technologii opartych na sztucznej inteligencji.
Patrzymy jak dużym problemem jest to dla branży medycznej, gdzie odpowiedzialność za ewentualne błędy jest kluczowa. Mieliśmy też doniesienia związane z autonomicznymi samochodami, które mogą okazać się groźne dla innych użytkowników dróg. Z kolei w Holandii w 2019 r. wybuch skandal związany z kontrolami zasiłków. Jak się okazało, w wyniku zafałszowanych danych wyjściowych urząd posługując się algorytmami, stosował sankcje za wyłudzenia zasiłków tylko wobec bardzo konkretnej etnicznie grupy osób. W bankowości korporacyjnej łatwo możemy sobie również wyobrazić źle działający algorytm, jeśli dane służące do jego stworzenia okażą się błędne lub nieaktualne w odmiennej bądź dynamicznie zmieniającej się sytuacji gospodarczej. Stąd naturalne obawy związane z rozwojem AI w wielu sektorach gospodarki, co jednak nie powinno hamować rozwoju tych technologii. – zaznacza mec. Jan Gąsiorowski.
Jak przewiduje aktualny projekt Artificial Intelligence Act, w UE mamy wyróżniać cztery progi ryzyka zastosowania AI – począwszy od nieakceptowanego do minimalnego. Od tego, jak zostanie zaklasyfikowane dane narzędzie czy obszar, będzie zależała również odpowiedzialność za stosowane rozwiązanie. Najwyższy poziom wiążący się min. z ryzykiem manipulacji ma być w UE zakazany, zaś za działanie systemów wysokiego ryzyka odpowiedzialność spadnie na dostawców. Co istotne dla usług bankowych, za wyjątkowo wrażliwe UE uznaje także scoring, czyli klasyfikowanie ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
Źródło: Wolf Theiss