„Fałszywy wnuczek” – nowa era oszustw finansowych w dobie AI

Oszustwa „na wnuczka” czy „na policjanta” są niezmiennie jedną z najczęstszych metod wyłudzeń. Tylko w 2024 roku policja odnotowała blisko 4000 takich przestępstw, a pod koniec roku rozbito szajkę działającą na terenie ośmiu europejskich krajów. Oszuści wyłudzili od seniorów w sumie prawie 5 milionów euro.

Scenariusz zawsze jest podobny – telefon i prośba o pilną pomoc finansową. Zorganizowanej akcji towarzyszy wzbudzenie silnych emocji u poszkodowanych, co ma na celu wymuszenie szybkiej decyzji. Zjawisko to wciąż występuje bardzo powszechnie, jednak wraz z rozwojem technologii, naciągacze stają się coraz bardziej wyrafinowani. Z wykorzystaniem sztucznej inteligencji manipulują poszkodowanymi, tworząc teksty i nagrania do złudzenia przypominające wiadomości od bliskich. Coraz trudniej odróżnić prawdę od fałszu, a w grę wchodzą oszczędności całego życia. Podstawą obrony jest edukacja, wielopoziomowe uwierzytelnianie i szybkie zgłaszanie podejrzanych sytuacji odpowiednim instytucjom.

Sztuczna inteligencja daje praktycznie nieograniczone możliwości. Pozwala tworzyć wyglądające realistyczne, lecz fałszywe obrazy, nagrania wideo oraz audio. Jednym z najgroźniejszych przykładów jest tzw. deepfake — technologia wykorzystująca algorytmy AI do generowania lub modyfikowania wizerunku i głosu w taki sposób, że materiały wyglądają i brzmią niemal identycznie jak prawdziwe. Pojęcie deepfake jest znane 42% Polaków, z czego 40% miało z nimi styczność. Telefon, wiadomość głosowa czy zmodyfikowane wideo mogą wydawać się tak wiarygodne, że trudno odróżnić prawdę od fałszu, a prośba o pilny przelew potrafi wywołać natychmiastową reakcję.

Jak działają oszuści?

Z próbą wyłudzenia pieniędzy lub danych online zetknęło się 31% seniorów aktywnych cyfrowo. Oszuści coraz częściej nie tylko opowiadają historię o wypadku czy nagłej potrzebie. Teraz dzięki technologii wręcz „stają się osobą”, którą poszkodowany naprawdę zna. Sztuczna inteligencja powala między innymi na klonowanie głosu czy wizerunku i użycie go w spreparowanym nagraniu audio lub wideo, co wzmacnia poczucie autentyczności i sprawia, że poszkodowany może być jeszcze bardziej podatny na manipulacje. W takich sytuacjach czas na decyzję zostaje celowo skrócony do minimum: dramatyczna relacja o aresztowaniu, wypadku czy hospitalizacji ma wywołać panikę i doprowadzić do natychmiastowego przelewu, podania kodu autoryzacyjnego czy przekazania gotówki kurierowi. Zdarzają się także próby szantażu — groźby upublicznienia fałszywego materiału, rzekomo kompromitującego ofiarę lub jej bliskich, jeśli natychmiast nie zostaną przekazane pieniądze. W tle często dochodzi do przejęcia kont w komunikatorze, co uniemożliwia szybkie zweryfikowanie informacji u prawdziwych bliskich za pomocą tych kanałów.

Coraz częściej pojawiają się także kampanie phishingowe, które wykorzystują deepfake’i, by podawać się za instytucje finansowe. W ciągu ostatniego półtora roku, odnotowano 488 poważnych incydentów od osób, które zdecydowały się je zgłosić. Możliwe, że to jedynie kropla w morzu, w porównaniu z przestępstwami, które nie pojawiają się w policyjnych statystykach. Tylko w 2024 roku zgłoszono do zablokowania ponad 51 tys. domen phishingowych, co oznacza wzrost o blisko 70% od 2022 do 2024 roku. Te dane pokazują, że oszuści za wszelką cenę próbują ominąć system, nawet w poważnych instytucjach.

– Oszustwa finansowe przybierają dziś formy niemal niewidoczne dla przeciętnego klienta. Konsekwencje takich działań bywają poważne – od nieautoryzowanych transakcji i ujawnienia danych, przez utratę środków, a w skrajnych przypadkach zagrożone jest bezpieczeństwo, a nawet zdrowie ofiary. Dlatego edukacja i świadomość są kluczowe – – podkreśla Michał Pyziołek, ekspert Intrum.

Co zrobić, by nie dać się naciągnąć?

Jednym z rozwiązań, by uchronić się przed niepokojącym zdarzeniem, może być ustalenie z bliskimi tzw. pytań bezpieczeństwa, na które nikt z zewnątrz nie byłby w stanie udzielić odpowiedzi. Jeżeli jednak dojdzie już do rozmowy z potencjalnym naciągaczem najważniejsze jest zachowanie zimnej krwi. W sytuacji, gdy ktoś rzekomo będący naszym bliskim prosi o pomoc, postarajmy się zweryfikować w najlepszy dostępny nam sposób, czy rozmawiamy z prawdziwą osobą. Poszukajmy dodatkowego sposobu kontaktu, potwierdźmy przekazane nam informacje u innych.

– Warto zwrócić też uwagę na techniczną stronę komunikatu lub nagrania. Technologia daje ogromne możliwości, cały czas się rozwija i dopasowuje do odbiorcy, jednak nie jest pozbawiona wad. W treściach, które są tworzone przez sztuczną inteligencję nadal pojawiają się błędy. W rozmowach z użyciem wideo pojawiają się zniekształcenia między innymi w okolicach ust, a także dłoni, zbyt duża lub zbyt mała liczba palców u rąk. W fałszywych nagraniach pojawiają się również problemy uzębienia, mimiką, czy nietypowej intonacji. Takie wiadomości często zawierają szumy i plamy. Wszystko po to, by ukryć ewentualne mankamenty – – podkreśla Michał Pyziołek, ekspert Intrum.

W stresie trudno myśleć racjonalnie, jednak to właśnie zdrowy rozsądek i szybka reakcja mogą uchronić nas przed zagrożeniem. Jeśli cokolwiek wzbudzi nasze podejrzenia, powinniśmy natychmiast zakończyć rozmowę i jak najszybciej skontaktować się z bankiem, aby potwierdzić, czy nie padliśmy ofiarą próby wyłudzenia. Jeśli podejrzewamy, że nasz dane są zagrożone, zablokujmy konto.

Po zabezpieczeniu siebie dobrze jest pomyśleć także o innych. W ten sposób przed próbą wyłudzenia i oszustwa ochronimy nie tylko kolejne osoby, ale może i siebie w przyszłości. Każdą podejrzaną sytuację należy zgłaszać odpowiednim organom. Można to zrobić poprzez stronę internetową www.incydent.cert.pl lub wysyłając SMS do zespołu CERT Polska pod numer 8080.