Sztuczna inteligencja sprawi, że fałszywe e-maile będą wyglądać autentycznie

Sztuczna inteligencja (AI) wkrótce umożliwi cyberprzestępcom przeprowadzanie wyrafinowanych ataków phishingowych – ostrzega The Guardian, powołując się na Brytyjską Agencję Cyberbezpieczeństwa. AI nie tylko stworzy e-maile wyglądające na autentyczne, lecz zmieni również adresy nadawcy na bliźniaczo podobne do znanych już odbiorcom.

– Ludzie będą mieli trudności z identyfikacją wiadomości phishingowych, w których użytkownicy są namawiani do przekazania haseł lub danych osobowych, ze względu na zaawansowanie narzędzi sztucznej inteligencji – uważają specjaliści Narodowego Centrum Cyberbezpieczeństwa (NCSC).

Generatywna sztuczna inteligencja, termin określający technologię, która może generować przekonujący tekst, głos i obrazy na podstawie prostych, ręcznie wpisywanych podpowiedzi, stała się powszechnie dostępna publicznie za pośrednictwem chatbotów, takich jak ChatGPT, oraz bezpłatnych wersji znanych jako modele open source.

NCSC potwierdziało w najnowszym raporcie, że sztuczna inteligencja „prawie na pewno” zwiększy liczbę cyberataków i zwiększy ich wpływ w ciągu najbliższych dwóch lat – Do 2025 r. generatywna sztuczna inteligencja i modele wielojęzyczne utrudnią każdemu, niezależnie od poziomu zrozumienia cyberbezpieczeństwa, ocenę, czy prośba o zresetowanie adresu e-mail lub hasła jest autentyczna, a także identyfikację prób phishingu, fałszowania lub inżynierii społecznej.

W ocenie Wojciecha Głażewskiego z firmy Check Point Software, sztuczna inteligencja będzie w jeszcze większym stopniu wspierać tzw. „aktorów zagrożeń”, przyspieszając oraz rozszerzając możliwości narzędzi hakerskich. I to niezależnie od tego, czy chodzi o bardziej opłacalne i szybsze opracowywanie nowych wariantów złośliwego oprogramowania, czy też o wykorzystanie technologii deepfake w atakach phishingowych czy innych próbach podszywania się.

– Deepfake będą wykorzystywane do tworzenia treści wpływających na opinię publiczną, w tym m.in. manipulowanie cenami akcji, a także jeszcze bardziej niecne cele – np. związane z międzynarodowymi konfliktami. Narzędzia te są obecnie łatwo dostępne w Internecie, a ugrupowania cyberprzestępcze będą wypróbowywać je również w atakach socjotechnicznych w celu uzyskania uprawnień i dostępów do wrażliwych danych – mówi Wojciech Głażewski, country manager Check Point Software w Polsce.

Ekspert ostrzegł, że zaawansowanie sztucznej inteligencji „obniża barierę” dla cyberprzestępców amatorów i hakerów w dostępie do systemów i gromadzeniu informacji o celach, umożliwiając im paraliż systemów komputerowych ofiary, wydobywanie wrażliwych danych i żądanie okupu w kryptowalutach.

Źródło: Check Point Software