Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Hallo, tu Joe Biden. O sile AI w cyberprzestrzeni

Hallo, tu Joe Biden. O sile AI w cyberprzestrzeni

Joe Biden dzwoniący do obywateli Stanów Zjednoczonych, by odwieść ich od głosowania. Giorgia Meloni występująca w filmach dla dorosłych. Rzeczywistość? Nie, to deepfake możliwy dzięki sztucznej inteligencji. AI jest jednak mieczem obosiecznym. Wspiera nie tylko cyberprzestępców, ale i zespoły ds. bezpieczeństwa IT. Jak nam pomaga i szkodzi w codziennej walce z zagrożeniami?

Nowe sposoby cyberprzestępców

Sztuczna inteligencja jest dziś odmieniana przez wszystkie przypadki. I choć niektórym z nas wciąż może wydawać się konceptem odległym od realnego życia, jest już na co dzień wykorzystywana w wielu dziedzinach. Także w cyberzagrożeniach i cyberbezpieczeństwie.

Swoją szansę w rozwoju generatywnej sztucznej inteligencji dostrzegli cyberprzestępcy. Technologia ta pozwala im działać jeszcze skuteczniej i na dużo większą skalę. 50% respondentów biorących udział w badaniu Barracuda Networks uważa, że sztuczna inteligencja umożliwi cyberprzestępcom przeprowadzanie większej liczby ataków.

Dodałbym do tego, że ataków coraz bardziej wyrafinowanych. Wystarczy wrócić do przykładów podanych przez mnie na początku artykułu. Deepfake, czyli manipulowanie obrazami i dźwiękiem, by tworzyć fałszywe filmy lub nagrania, może zdezorientować odbiorców, zszokować opinię publiczną, zniszczyć czyjś wizerunek lub zwyczajnie wprowadzić w błąd. 

Może też posłużyć do kradzieży ważnych danych biznesowych. Wystarczy spreparować spotkanie firmowe, wykorzystać wizerunek czy głos osoby z zarządu i wydawać polecenia, których celem jest np. zlecenie przelewu lub podzielenie się wrażliwymi danymi.

Można również zastosować sprawdzony sposób z wymuszeniem okupu za niepublikowanie fałszywych i kompromitujących filmów lub rozmów. Tylko tyle i aż tyle.

Atak przygotowany przez AI

Co więcej, kiedy my stawiamy pierwsze kroki w świecie ChataGPT czy Google Gemini, cyberprzestępcy zadomawiają się coraz mocniej w świecie swoich narzędzi opartych na AI. WormGPT i EvilGPT to ich źródła pomocy w przestępczych działaniach. Co potrafią? Bez problemów napiszą złośliwe oprogramowanie czy też wyszukają i wykorzystają podatności w różnych systemach i aplikacjach.

Mogą również przygotować materiały do przeprowadzenia ataków phishingowych, w tym treści e-maili. Cóż, oficjalne narzędzia mają odpowiednie blokady, które nie reagują na polecenia o napisanie wiadomości do kampanii phishingowej. WormGPT zrobi to bez wahania.

Co ważne, sztuczna inteligencja wyraźnie podnosi jakość e-maili phishingowych. Po pierwsze dobrze radzi sobie z różnymi językami, zatem przygotowane przez nią treści nie zawierają (a przynajmniej nie zawierają aż tylu) charakterystycznych dawniej dla phishingu błędów językowych. Po drugie – AI potrafi dostosować treść wiadomości do odbiorców mailingu i ich kontekstu kulturowego czy społecznego. Potrafi wspomnieć między innymi o lokalnych wydarzeniach, świętach, markach czy instytucjach. To wszystko podnosi wiarygodność wiadomości. 

Swobodnie operuje też branżowymi żargonami, dzięki czemu jest w stanie napisać e-maila do wybranej grupy zawodowej. Dodam, że e-maila zrozumiałego i poprawnego. A zatem – przekonującego.

Dane uwierzytelniające na wyciągnięcie ręki

AI zwiększa też skuteczność działań służących kradzieży danych dostępowych do kont i systemów. Jak to działa? Przede wszystkim cyberprzestępca korzystający z możliwości sztucznej inteligencji może w krótkim czasie przygotować wiele fałszywych i do złudzenia przypominających prawdziwe stron z formularzem logowania. AI ułatwia też tworzenie kopii takich stron, co ostatecznie rozszerza zakres ataku.

To nie wszystko. AI potrafi zautomatyzować testowanie różnorodnych wariacji haseł i loginów, które wyciekły wcześniej do sieci. Dzięki temu cyberprzestępcy są w stanie dużo szybciej sprawdzić i wychwycić prawidłowe zestawy danych uwierzytelniających, które pozwolą im dostać się do atakowanych zasobów.

Technologie oparte na sztucznej inteligencji mają zdolność łamania haseł na podstawie dźwięku klawiszy. Wystarczy zainstalować na urządzeniu ofiary złośliwe oprogramowanie, które będzie podsłuchiwało uderzenia klawiszy i odczytywało hasła. 

AI po jasnej stronie mocy

Zajrzyjmy teraz na drugą stronę barykady. Sztuczna inteligencja to nie jest przecież narzędzie, na które wyłączność mają cyberprzestępcy. Z badania Barracuda Networks wynika, że już w 2023 roku 46% organizacji na całym świecie używało AI w obszarze cyberbezpieczeństwa. Kolejne 43% planowało ją wdrożyć w najbliższym czasie.

I choć być może przykłady zastosowania sztucznej inteligencji w cyberochronie nie są tak spektakularne jak te przytoczone powyżej, nie da się im odmówić skuteczności. Algorytmy uczenia maszynowego analizują nieustannie ogromne ilości danych. Ilości zupełnie niedostępne ludzkiej percepcji. Na podstawie takiej analizy wychwytują wzorce i standardowe zachowania użytkowników systemów oraz samych systemów. To nie wszystko. AI zna też wzorce cyberataków i szybko uczy się tego, jak się one zmieniają.

Dzięki temu jest w stanie skutecznie zidentyfikować wszelkie odchylenia od tych norm. Zauważa anomalie, które mogą umknąć analitykom. Wykrywa nietypowy ruch sieciowy, niestandardowe zachowania użytkowników czy niespodziewane działania systemu. Do tego ostrzega o zagrożeniu lub eliminuje je, ułatwiając tym samym pracę działów IT.

Przewidywanie przyszłości

Algorytmy uczenia maszynowego analizują nie tylko dane bieżące, ale też dane historyczne. Co nam to daje? Otóż na podstawie tego, co działo się w naszej sieci w przeszłości i jak działali cyberprzestępcy, z jakimi zagrożeniami i w jaki sposób się mierzyliśmy, sztuczna inteligencja przewiduje też to, co może wydarzyć się w przyszłości. Podpowiada, jakie zagrożenia się prawdopodobnie pojawią, jakie będą nowe wektory ataków, jakie cele obiorą cyberprzestępcy i jakie środki bezpieczeństwa warto wdrożyć, bo przygotować się na taki scenariusz. 

E-maile pod kontrolą

Sztuczna inteligencja na polu phishingu walczy poniekąd sama ze sobą. Z jednej strony pomaga w przygotowywaniu kampanii phishingowych, z drugiej – pozwala skuteczniej walczyć z fałszywymi wiadomościami. Jak? Identyfikując znane wzorce i sygnatury phishingowe i tym samym rozpoznając podejrzane e-maile.

AI widzi, że nadawca zachowuje się w sposób dla siebie nietypowy. Zauważa niestandardową treść lub nieznane dotąd wzorce komunikacyjne. Analizuje treść e-maili pod różnymi kątami. Sprawdza nastrój, ton, kontekst. Identyfikuje podejrzane zamiary nadawcy. Dzięki temu jest w stanie zatrzymać nawet spersonalizowany atak z wykorzystaniem poczty e-mail. 

Automatyczna reakcja na incydenty

I w końcu coś, na co chyba najbardziej czekają pracownicy działów IT – sztuczna inteligencja pomaga w szybkiej reakcji na zagrożenia. Identyfikuje pojawiające się naruszenia, przypisuje je do odpowiednich kategorii i nadaje priorytet. Dzięki temu krytyczne incydenty są obsługiwane w pierwszej kolejności. Zespoły IT nie tracą więc niepotrzebnie czasu na badanie potencjalnych zagrożeń. Za to od razu poświęcają swoją uwagę wydarzeniom, które mogą przynieść najwięcej szkody całej firmie. 

Dodatkowo AI przygotowuje oraz na bieżąco dostosowuje scenariusze reakcji na cyberzagrożenie. Pracownicy działów bezpieczeństwa działają więc skuteczniej, w oparciu o rzeczywiste dane i pogłębione analizy konkretnej sytuacji – w kontekście środowiska IT firmy. Część zadań rutynowych, takich jak izolowanie zaatakowanych systemów lub blokowanie złośliwych adresów IP, dzięki AI jest wykonywana automatycznie. To także skraca czas reakcji na incydent.

Sztuczna inteligencja wspiera również centra operacji bezpieczeństwa (SOC). Analizując wzorce i wykrywając anomalie, przyspiesza wyrywanie zagrożeń. Co więcej, narzędzia oparte na AI mogą na bieżąco dostosowywać się do sytuacji oraz do pojawiających się naruszeń. Z taką pomocą pracownicy SOC są w stanie projektować lepsze strategie bezpieczeństwa i skuteczniej zatrzymywać zaawansowane cyberataki.

Rozpoznawanie botów, pomoc w szkoleniach

Na koniec chciałbym zwrócić uwagę jeszcze na dwa zastosowania sztucznej inteligencji w walce z cyberzagrożeniami. Po pierwsze – narzędzia oparte na AI są w stanie szybko rozpoznać boty. Z badań Barracuda Networks wynika, że w pierwszej połowie 2023 roku 48% całkowitego światowego ruchu internetowego wygenerowały właśnie boty. Rozpoznanie ich jest zatem kluczowe.

Po drugie – sztuczna inteligencja pomaga podnosić świadomość dotyczącą cyberzagrożeń. Jak wiadomo, najsłabszym ogniwem bezpieczeństwa jest człowiek. Dlatego im lepiej jesteśmy przygotowani i wyedukowani, tym większe prawdopodobieństwo, że w porę zauważymy zagrożenie.

Jak pomaga w tym AI? Zmieniając zupełnie paradygmat szkoleń z zakresu cyberbezpieczeństwa. Standardowo takie szkolenia są cykliczne, a ich scenariusz opiera się na symulacjach czy wymyślonych naruszeniach bezpieczeństwa. Szkolenia oparte na AI są powiązane z bieżącą sytuacją. Gdy użytkownik dostaje wiadomość phishingową ze złośliwym linkiem, narzędzie blokuje ten link, ale jednocześnie odsyła tegoż użytkownika do specjalnych materiałów edukacyjnych na temat tego konkretnego naruszenia bezpieczeństwa. Dzięki takiemu powiązaniu edukacji z realnymi sytuacjami pracownicy szybciej i skuteczniej przyswajają wiedzę. Mogą ją też od razu odnieść do aktualnych wydarzeń. 

Sztuczna inteligencja to z pewnością przełomowa technologia, która zmienia krajobraz cyberprzestrzeni. Korzystają z niej na równi atakujący i firmy chroniące się przed zagrożeniami. Czy wpłynie znacząco na układ sił w tej odwiecznej walce między dobrymi i złymi aktorami? O tym przekonamy się za jakiś czas.

Oceń artykuł

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa