Sztuczna inteligencja (AI) wkrótce umożliwi cyberprzestępcom przeprowadzanie wyrafinowanych ataków phishingowych – ostrzega The Guardian, powołując się na Brytyjską Agencję Cyberbezpieczeństwa. AI nie tylko stworzy e-maile wyglądające na autentyczne, lecz zmieni również adresy nadawcy na bliźniaczo podobne do znanych już odbiorcom.
– Ludzie będą mieli trudności z identyfikacją wiadomości phishingowych, w których użytkownicy są namawiani do przekazania haseł lub danych osobowych, ze względu na zaawansowanie narzędzi sztucznej inteligencji – uważają specjaliści Narodowego Centrum Cyberbezpieczeństwa (NCSC).
Generatywna sztuczna inteligencja, termin określający technologię, która może generować przekonujący tekst, głos i obrazy na podstawie prostych, ręcznie wpisywanych podpowiedzi, stała się powszechnie dostępna publicznie za pośrednictwem chatbotów, takich jak ChatGPT, oraz bezpłatnych wersji znanych jako modele open source.
NCSC potwierdziało w najnowszym raporcie, że sztuczna inteligencja „prawie na pewno” zwiększy liczbę cyberataków i zwiększy ich wpływ w ciągu najbliższych dwóch lat – Do 2025 r. generatywna sztuczna inteligencja i modele wielojęzyczne utrudnią każdemu, niezależnie od poziomu zrozumienia cyberbezpieczeństwa, ocenę, czy prośba o zresetowanie adresu e-mail lub hasła jest autentyczna, a także identyfikację prób phishingu, fałszowania lub inżynierii społecznej.
W ocenie Wojciecha Głażewskiego z firmy Check Point Software, sztuczna inteligencja będzie w jeszcze większym stopniu wspierać tzw. „aktorów zagrożeń”, przyspieszając oraz rozszerzając możliwości narzędzi hakerskich. I to niezależnie od tego, czy chodzi o bardziej opłacalne i szybsze opracowywanie nowych wariantów złośliwego oprogramowania, czy też o wykorzystanie technologii deepfake w atakach phishingowych czy innych próbach podszywania się.
– Deepfake będą wykorzystywane do tworzenia treści wpływających na opinię publiczną, w tym m.in. manipulowanie cenami akcji, a także jeszcze bardziej niecne cele – np. związane z międzynarodowymi konfliktami. Narzędzia te są obecnie łatwo dostępne w Internecie, a ugrupowania cyberprzestępcze będą wypróbowywać je również w atakach socjotechnicznych w celu uzyskania uprawnień i dostępów do wrażliwych danych – mówi Wojciech Głażewski, country manager Check Point Software w Polsce.
Ekspert ostrzegł, że zaawansowanie sztucznej inteligencji „obniża barierę” dla cyberprzestępców amatorów i hakerów w dostępie do systemów i gromadzeniu informacji o celach, umożliwiając im paraliż systemów komputerowych ofiary, wydobywanie wrażliwych danych i żądanie okupu w kryptowalutach.
Źródło: Check Point Software