Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (AI).
Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (ML) przenosi phishing i inne oszustwa cybernetyczne na zupełnie nowy poziom, co jeszcze bardziej utrudnia organizacjom wykrycie i identyfikację zagrożenia. W porównaniu z ludzkimi cyberprzestępcami algorytmy uczą się wykorzystywać swoje ofiary na większą skalę i robią to efektywniej.
Korzystając z modeli języka głębokiego uczenia, takich jak GPT-3, hakerzy mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” — atak polegający na wysyłaniu spersonalizowanych wiadomości. Podczas konferencji lack Hat i Defcon w 2021 r. w Las Vegas zespół z singapurskiej Government Technology Agency zaprezentował eksperyment, w którym ich koledzy otrzymali dwa zestawy e-maili phishingowych — pierwszy napisał człowiek, a drugi algorytm. Zwycięzcą tej rywalizacji została sztuczna inteligencja, uzyskując znacznie więcej kliknięć w linki w e-mailach niż w wiadomościach napisanych przez człowieka. To oznacza, że przy rosnącej liczbie platform sztucznej inteligencji, hakerzy mogą skorzystać z niej jako taniej usługi, by dotrzeć do dużej liczby ofiar, a także spersonalizować swoje e-maile, aż do najdrobniejszych szczegółów.
Sztuczna inteligencja – długa historia oszustwa
Podczas gdy ataki AI jako usługa są stosunkowo nowym – i wciąż rzadkim – zjawiskiem, wiadomo, że maszyny oszukują ludzi od kilkudziesięciu lat. Joseph Weizenbaum napisał w latach sześćdziesiątych pierwszy program Eliza, który potrafił komunikować się w języku naturalnym i udawał psychoterapeutę.
Weizenbaum był zaskoczony, że jego pracownicy laboratorium MIT postrzegali coś, co obecnie nosi nazwę „chatbota”, jak prawdziwego lekarza. Podzielili się swoimi prywatnymi informacjami z Elizą i przeżyli wielki szok, gdy dowiedzieli się, że Weizenbaum mógł sprawdzić dzienniki rozmów między nimi, a „lekarzem”. Swojego zaskoczenia nie krył też Weizenbaum, który nie mógł uwierzyć, że prosty program może nakłonić użytkowników do ujawniania wrażliwych danych osobowych.
Niestety, ludzie wciąż ufają komputerom, a można nawet odnieść wrażenie, że stali się jeszcze bardziej podatni na tego typu manipulacje. Niedawno inżynier z Google ogłosił – ku zaskoczeniu kierownictwa i jego współpracowników – że firmowy chatbot AI LaMDA (Language Model for Dialogue Applications) ożył. Blake Lemoine powiedział, że wierzy, iż LaMDA jest czującym jak człowiek chatbotem. LaMDA potrafi tak dobrze naśladować ludzkie rozmowy, że udało mu się oszukać nawet doświadczonego inżyniera.
– Poziom ludzkiego zachowania i mimikry społecznej pozwala hakerom wykorzystywać narzędzia podobne do LaMDA do eksploracji danych w mediach społecznościowych i wysyłania lub publikowania wiadomości typu spear phishing – tłumaczy Mariusz Politowicz z firmy Marken, dystrybutor rozwiązań Bitdefender w Polsce.
Socjotechniki i deepfake wchodzą do akcji
Sztuczna inteligencja potrafi nie tylko naśladować konwersację. Zarówno transfer stylu głosu, znany również jako konwersja głosu (cyfrowe klonowanie głosu celu), jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę lub wydarzenie) należą do bardzo realnych cyberzagrożeń.
W 2019 roku, który zdaniem wielu ekspertów jest pierwszym udokumentowanym przypadkiem takiego ataku, oszuści wykorzystali konwersję głosu, by podszyć się pod prezesa i poprosić o pilny przelew środków (na ich konta). Rok później, w 2020 roku, kolejna grupa oszustów wykorzystała tę technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania 35 milionów dolarów na pokrycie „przejęcia”.
Oczekiwano takich ukierunkowanych ataków socjotechnicznych wykorzystujących sztuczną inteligencję, ale większość organizacji nie jest na to przygotowana. W ankiecie Attestiv 82 proc. liderów biznesu przyznało, że deepfake stanowi zagrożenie, ale mniej niż 30 proc. podjęło jakiekolwiek kroki, aby je zminimalizować.
Oszukiwanie oszusta AI
Przy tak wielu różnych cyberatakach trzeba być uważnym przez całą dobę, 365 dni w roku. Nic dziwnego, że organizacje coraz częściej nie radzą sobie z tego typu incydentami i zaczynają szukać wsparcia ze strony dostawców usług zarządzanych, specjalizujących się w cyberbezpieczeństwie.
– Cyberataki zaprojektowane przez systemy sztucznej inteligencji okazują się nad wyraz skuteczne. Są precyzyjnie ukierunkowane i trudne do przypisania. Technologie sztucznej inteligencji nieustannie rozszerzają istniejące zagrożenia cyberbezpieczeństwa, które potencjalnie mogą stać się zbyt „inteligentne”, aby ludzie mogli je zrozumieć – mówi Mariusz Politowicz.
Jak pokazuje historia, ludzi można łatwo oszukać, ale narzędzia sztucznej inteligencji również mogą okazać się pomocne. Deepfake należy zwalczać za pomocą algorytmów dostrojonych do ich wykrywania. Zaawansowane narzędzia analityczne mogą pomóc w oznaczeniu nieuczciwych lub podejrzanych działań. Modele uczenia maszynowego potrafią skutecznie powstrzymywać najbardziej wyrafinowane próby phishingu i oszustwa.
Źrodło: Marken