Google Threat Intelligence Group (GTIG) odkrył, że cyberprzestępcy z ponad 20 krajów zaczęli korzystać z Gemini. W szczególności aktywność ta była widoczna w Iranie i Chinach, gdzie narzędzie służyło do analizowania luk w zabezpieczeniach, planowania strategii ataków i unikania wykrycia. Eksperci Google podkreślają, że choć AI nie zastępuje ludzkiej kreatywności w projektowaniu ataków, to znacznie skraca czas potrzebny na ich przygotowanie.
Cyberprzestępcy wykorzystują sztuczną inteligencję m.in. do tworzenia skryptów, analizowania publicznych baz danych dotyczących luk w zabezpieczeniach oraz zrozumienia technologii obronnych. Niektóre grupy używały Gemini do eskalacji uprawnień, infiltracji sieci i unikaniu wykrycia przez systemy zabezpieczające.
Jak poszczególne państwa wykorzystują Gemini?
Według Google, hakerzy związani z Iraniem byli najbardziej aktywni w korzystaniu z Gemini. Narzędzie to wykorzystywali do analizowania systemów obronnych, badania ekspertów zajmujących się cyberbezpieczeństwem oraz tworzenia kampanii phishingowych. Dzięki AI było im łatwiej generować treści manipulacyjne oraz planować operacje dezinformacyjne.
Z kolei Chiny koncentrowały się na analizie organizacji rządowych Stanów Zjednoczonych. Hakerzy korzystali z Gemini, aby badać luki w zabezpieczeniach, ułatwiać sobie ruch boczny w sieciach i utrzymywać trwałość w systemach, do których udało im się uzyskać dostęp. AI pozwalało im również na analizę technologii zabezpieczeń i metod szyfrowania danych.
W Korei Północnej cyberprzestępcy korzystali z Gemini głównie do przeprowadzania rekonesansu oraz opracowywania nowych metod ataków. W szczególności sztuczna inteligencja pomagała im w infiltracji zachodnich firm IT poprzez fałszywe rekrutacje i aplikacje o pracę.
Natomiast rosyjscy hakerzy wykazywali najmniejsze zainteresowanie Gemini. Ich aktywność ograniczała się do wykorzystywania AI do automatyzacji skryptów, analizowania kodu i optymalizacji narzędzi do przeprowadzania ataków. Możliwe, że wolą oni korzystać z lokalnych rozwiązań AI, które zapewniają większe bezpieczeństwo operacyjne.
Zagrożenia związane z wykorzystaniem AI w cyberatakach
Google ostrzega, że chociaż jego narzędzia posiadają wbudowane zabezpieczenia, to cyberprzestępcy próbują je omijać. Użytkownicy testują metody jailbreakingu, czyli obejścia ograniczeń, jednak dotychczas nie udało się im skutecznie wykorzystać Gemini do bezpośredniego przeprowadzania cyberataków.
Niepokojący jest jednak fakt, że na rynku pojawia się coraz więcej modeli AI bez odpowiednich zabezpieczeń. Modele takie jak DeepSeek R1 czy Qwen 2.5 firmy Alibaba są podatne na manipulacje i mogą być wykorzystywane w nieetycznych celach. Badacze cyberbezpieczeństwa już udowodnili, że można je skutecznie jailbreakować i zmuszać do generowania treści ułatwiających cyberprzestępczość.
Eksperci przewidują, że wraz z rozwojem technologii generatywnej AI, jej wykorzystanie w cyberprzestępczości będzie rosło. Dlatego kluczowe będzie wprowadzenie skuteczniejszych mechanizmów kontroli oraz współpraca międzynarodowa w celu ograniczenia możliwości nadużywania AI przez hakerów.