Sztuczna inteligencja jest coraz powszechniej stosowana w działaniach biznesowych, jednak tempo zmian różni się w zależności od funkcji organizacyjnej, czego przykładem jest compliance i aspekty prawno-proceduralne. Z badania EY – Jak polskie firmy wdrażają AI – wynika, że zaledwie 6% przedsiębiorstw w naszym kraju implementuje AI w tym obszarze. Jednak gdy zakończą już proces wdrożeniowy tej technologii, wówczas u czterech na pięć firm zyskuje ona wysoki priorytet. Co ciekawe, większość ankietowanych (61%) uważa, że dobrze lub bardzo dobrze orientuje się w przepisach prawa dotyczących sztucznej inteligencji. Eksperci EY wskazują, że nowe, międzynarodowe regulacje bazują na 5 głównych trendach.
Poziom wdrożenia rozwiązań z zakresu AI nie jest w naszym kraju jednolity. Wyniki badania EY – Jak polskie firmy wdrażają AI – pokazują, że rodzime organizacje najczęściej korzystają z nich w obszarze obsługi klienta (50%) i sprzedaży (40%). Na przeciwległym biegunie znajdują się kwestie compliance / prawno-proceduralne. Zaledwie 6% respondentów wprowadziło sztuczną inteligencję dla tej funkcji biznesowej. Z drugiej strony, jeśli organizacje decydują się na ten krok, wówczas u czterech na pięć firm wdrożenie rozwiązań AI dla tego obszaru ma wysoki lub bardzo wysoki priorytet, co pozytywnie przekłada się na aspekty budżetowe. Aż 93% ankietowanych planuje zwiększyć wydatki na wspieranie tych zadań w ciągu najbliższych 18 miesięcy, z czego blisko połowa firm – w sposób znaczny. Takie podejście nie powinno dziwić, gdyż głównym motywatorem (63%) dla organizacji wprowadzających AI w obszarze compliance jest usprawnienie procesów wewnętrznych.
– Rzadsze wykorzystywanie sztucznej inteligencji dla funkcji compliance pokazuje, że w strategicznych obszarach firmy w dalszym ciągu opierają się na wiedzy i doświadczeniu pracowników. Jednak już niedługo sztuczna inteligencja stanie się nieodzownym towarzyszem także dla działów prawnych i podatkowych, wspierając ich działania w zakresie coraz liczniejszych wymogów regulacyjnych. Dodatkowo, wiele przepisów wymusza na organizacjach digitalizację procesów. Dlatego przedsiębiorcy już teraz powinni inwestować w implementację sztucznej inteligencji dla obszarów prawno-podatkowych, co będzie stanowić istotne wsparcie dla tych działów i odciąży pracowników w ich codziennych obowiązkach – komentuje Radosław Krupa, Partner EY Polska, Dział Doradztwa Podatkowego.
Co szczególnie ciekawe, jedynie mniej niż co czwarty ankietowany nie analizował lub nie potrafił potwierdzić czy weryfikował możliwości skorzystania z instrumentów dotacyjnych i ulg podatkowych przy implementacji w firmach narzędzi sztucznej inteligencji. Dla porównania kwestię dotacji badało 23% przedsiębiorstw, ulg podatkowych – 19%, a obu tych instrumentów – 35% organizacji.
Dobra znajomość przepisów
Większość firm w Polsce (61%) oceniła, że dobrze lub bardzo dobrze orientuje się w przepisach prawa dotyczących AI. W tej grupie znajduje się 20% respondentów, którzy są najbardziej zadowoleni z poziomu swojej wiedzy. Na co dzień przeprowadzają analizy zgodności z prawem implementacji i użycia systemów AI przed ich wdrożeniem oraz na bieżąco monitorują zmiany w prawie. Tylko 8% badanych przyznało, że nie wie, jakie regulacje mają zastosowanie do sztucznej inteligencji.
Dobra znajomość przepisów prawa przekłada się na znaczny odsetek respondentów, którzy deklarują implementację narzędzi AI w całości przez swój zespół wewnętrzny. Najbardziej niezależne podejście cechuje firmy wdrażające tę technologię w obszarze compliance (37% odpowiedzi) oraz finansów (35%).
W Unii Europejskiej wciąż trwają prace nad AI Act, który ustanawia zharmonizowane przepisy dotyczące sztucznej inteligencji, wskazuje zakazane praktyki oraz przedstawia wymogi odnośnie do systemów AI wysokiego ryzyka wraz z obowiązkami spoczywającymi na podmiotach będących ich operatorami. Zmian jest naprawdę dużo i dla wielu przedsiębiorstw będą one oznaczały rewolucję. Po uchwaleniu AI Act każdy system AI udostępniony na terenie UE po dacie wejścia w życie AI Act, co do zasady, będzie musiał być z nim zgodny. Oznacza to, że wzrośnie liczba wyzwań regulacyjnych z którymi będą się mierzyć zarówno prawnicy jak i klienci. Jednym z nich będzie ocena czy dany system jest już systemem sztucznej inteligencji czy jeszcze nie. Ocena ta będzie determinowała stosowanie do danego rozwiązania technologicznego przepisów wynikających z AI Act. Proponowana definicja jest bardzo szeroka, a spodziewam się, że w praktyce organy krajowe i unijne ds. AI, a także sądy będą ją podawać różnym interpretacjom. Zatem poziom regulacyjnych ryzyk znacząco wzrośnie, stanowiąc kolejne wyzwanie dla wielu organizacji oceniających swój stan wiedzy przez pryzmat aktualnej a nie nadchodzącej legislacji – zauważa Justyna Wilczyńska-Baraniak, Partnerka EY, Liderka Zespołu Prawa Własności Intelektualnej, Technologii, Danych Osobowych w Kancelarii EY Law.
Globalne trendy regulacyjne w AI
Dynamiczny rozwój sztucznej inteligencji sprawia, że decydenci coraz pilniej pracują nad tym, aby implementacja tego rozwiązania minimalizowała główne ryzyka z nim związane. Zespoły EY przeanalizowały podejścia regulacyjne ośmiu jurysdykcji, które odgrywają istotną rolę w opracowywaniu zasad korzystania z AI. Obejmują one Chiny, Japonię, Kanadę, Koreę Południową, Singapur, Stany Zjednoczone, Unię Europejską i Wielką Brytanię. Na tej podstawie namierzyli pięć głównych trendów, które wpływają na kształt aktów prawnych dotyczących sztucznej inteligencji.
Trend 1. Zasady OECD jako punkt odniesienia
Wytyczne dotyczące sztucznej inteligencji, przyjęte w 2019 r. przez OECD i grupę G-20, służą jako globalny punkt odniesienia, pomagając rządom i organizacjom w kształtowaniu zorientowanego na człowieka podejścia do AI. Obejmują one takie aspekty, jak szerokie rozpowszechnianie korzyści płynących ze sztucznej inteligencji w społeczeństwie, brak łamania zabezpieczeń społecznych, ochronę praw człowieka oraz odpowiednie ramy zarządzania i odpowiedzialności wśród firm korzystających z AI.
Trend 2. Podejście oparte na ryzyku
Każda z analizowanych jurysdykcji dostosowuje lub modyfikuje swoje przepisy do ryzyka stwarzanego przez określone działania związane z AI, aby znaleźć złoty środek między ograniczaniem ryzyka a zachęcaniem do innowacyjności i odpowiedzialnego rozwoju. Główną zaletą takiego podejścia jest to, że umożliwia ono wczesną interwencję regulacyjną przy jednoczesnym zachowaniu wymogów dotyczących compliance i kosztów proporcjonalnych do potencjalnych negatywnych skutków.
Trend 3. Wprowadzanie przepisów sektorowych
Regulatorzy uwzględniają aspekty specyficzne dla danego sektora, gdyż wykorzystanie AI może stwarzać odmienne ryzyka w zależności od obszaru. Przykładowo, pojazdy autonomiczne powinny być objęte dodatkowymi wytycznymi, a organy nadzoru bankowego muszą minimalizować ryzyko przy udzielaniu kredytów konsumenckich w oparciu o rekomendacje AI. Wytyczne sektorowe są uzupełnieniem ogólnych regulacji, które zapewniają podstawowe ramy zabezpieczeń.
Trend 4. Analizowanie wpływu na inne obszary
Ustanawianie przepisów dotyczących sztucznej inteligencji skłania regulatorów do tworzenia nowych lub reinterpretacji istniejących polityk w innych obszarach, takich jak własność danych, tożsamość cyfrowa, cyberbezpieczeństwo czy przepływ treści cyfrowych.
Trend 5. Stosowanie piaskownic regulacyjnych
Piaskownice regulacyjne umożliwiają bezpieczne testowanie innowacji związanych z AI w nadzorowanym środowisku, w którym przepisy mogą być ograniczone w czasie i/lub zakresie. Takie podejście przynosi wiele korzyści, w tym rozwój bardziej ukierunkowanych i skutecznych regulacji, wspieranie inwestycji venture capital, ułatwianie konkurencji i zachęcanie do lepszej komunikacji między organami regulacyjnymi a firmami.
O badaniu
Badanie – Jak polskie firmy wdrażają AI – zostało przeprowadzone na zlecenie EY Polska przez Cube Research w okresie sierpień – wrzesień 2023 roku na próbie 501 dużych i średnich przedsiębiorstw działających w branżach produkcyjnej, usługowej i handlowej.
Źródło: EY