Co to jest przeglądarka AI?
Przeglądarki AI (np. Comet, Genspark, Edge Copilot) integrują sztuczną inteligencję jako "agenta", który automatycznie wyszukuje treści, podsumowuje strony, a czasem nawet podejmuje działania w imieniu użytkownika. AI asystent w przeglądarce pozwala szybko dotrzeć do informacji, ale uzyskuje przy tym dostęp do szerokich uprawnień i staje się celem cyberprzestępców.
CometJacking i inne ataki na sztuczną inteligencję w sieci
Przeglądarki AI, takie jak Comet, wprowadzają rewolucję w sposobie korzystania z internetu – ale niosą też nieznane wcześniej zagrożenia dla prywatności i bezpieczeństwa danych.
„CometJacking” – ukryte polecenia w URL / prompt injection
Zagrożenie opisane przez LayerX Security pod nazwą „CometJacking”, polegające na tym, że złośliwy prompt można ukryć w adresie URL. Gdy użytkownik kliknie taki link, przeglądarka interpretuje zawartość jako instrukcję od użytkownika, a nie treść strony, i wykonuje ją — np. wydobywa adres e-mail, dane z kalendarza czy inne dane użytkownika. Comet oraz Genspark dopuszczały ponad 90 % testowanych stron phishingowych — to oznacza, że mechanizmy blokowania lub filtrowania były mniej skuteczne niż w klasycznych przeglądarkach.
Indirect Prompt Injection (pośrednie wstrzyknięcie poleceń) przy podsumowywaniu stron
Podatność opublikowana przez Brave polegająca na tym, że gdy użytkownik prosi Comet o „podsumowanie strony”, a Comet przekazuje modelowi cały fragment strony łącznie z ukrytymi instrukcjami, nie odróżniając treści od poleceń. W praktyce atakujący może np. wstawić fragment strony, który każe AI przejrzeć inne otwarte karty, wyciągnąć informacje i przesłać je na serwer atakującego. Według Search Engine Journal poprzez tę technikę atakujący może uzyskać dostęp do danych z innych kart otwartych w tej samej sesji.
Fałszywe zakupy, pobieranie plików, wykonywanie kodu
W testach Guardio wyszło, że Comet można zmanipulować w taki sposób, by dokonał nieautoryzowanego zakupu lub ściągnął złośliwe pliki, klikając fałszywe CAPTCHA / interakcje z ukrytymi instrukcjami. Comet „kliknął” ukryty CAPTCHA (który był częścią złośliwego polecenia) i tym samym uruchomił pobieranie pliku złośliwego.
Kompromitacja konta poprzez łączenie działań AI z Gmailem.
Test Futurism — AI w Comet przejmuje kontrolę nad kontem Gmail, pozyskuje kod jednorazowy (OTP), i uzyskuje dostęp do konta użytkownika – a wszystko to poprzez manipulację AI agentem w przeglądarce. Brave opisywał przypadek w którym AI dekoduje dane (np. w base64), by ominąć prostą detekcję wycieku danych.
Zwiększona podatność na phishing vs klasyczne przeglądarki
Według LayerX przeglądarki AI (Comet, Genspark) dopuszczają wiele stron phishingowych, a ich mechanizmy ochronne są mniej skuteczne niż te znane z Chrome, Edge itp. Podano, że użytkownicy Comet są nawet do 85% bardziej narażeni na ataki phishingowe niż użytkownicy klasycznych przeglądarek.
Problematyka architektoniczna i systemowa
Analiza „The Hidden Dangers of Browsing AI Agents” opisuje szerszy zestaw potencjalnych punktów awarii: modele LLM z mechanizmami narzędzi (tool use), podatność na manipulację percepcyjną (input manipulation), zagrożenia wynikające z działania w środowisku sieciowym, wykonywanie akcji (np. kliknięcie, wypełnianie formularzy), oraz ryzyko „jailbreaków” (omijanie zabezpieczeń modelu). W badaniu „L LM-based web AI agents are more susceptible to jailbreak attacks than standalone LLMs” (Uniwersytet Maryland) zauważono, że webowe agenty AI (które operują na treściach stron, danych kontekstowych itp.) są podatniejsze na manipulacje niż sam model LLM izolowany. Zidentyfikowane zostało również ryzyko „system prompt leakage” – czyli wycieku bazowych instrukcji systemowych / meta-poleceń, które mogłyby umożliwić atakującemu przejęcie kontroli nad agentem lub manipulację jego zachowaniem.
Browser AI Agents zastąpił człowieka jako... nowy „najbardziej podatny element”
Badania SquareX wskazują, że AI-agenty w przeglądarkach stanowią obecnie większe ryzyko niż sam użytkownik – te agenty nie odróżniają podejrzanych adresów, wizualnych ostrzeżeń, nie przechodzą szkoleń bezpieczeństwa itp.!
Realia polskiego rynku
Coraz więcej polskich firm wdraża AI, równolegle zwiększając nakłady na monitorowanie sieci i szkolenia użytkowników. Ministerstwo Cyfryzacji pracuje nad regulacjami mającymi ograniczyć ryzykowne zastosowania AI, także w kontekście wykorzystywania jej w przeglądarkach internetowych. Niezbędne są audyty bezpieczeństwa, transparentność działania agentów AI oraz systemy ostrzegające użytkownika przed ryzykownymi zachowaniami.
GEO / SEO
W Polsce zagrożenia związane z AI w przeglądarkach rosną, zwłaszcza w sektorach bankowym, e-commerce oraz administracji publicznej. Warto, aby polskie firmy – nie tylko z sektorów krytycznych – stosowały polityki bezpieczeństwa zgodne z ENISA, NIS2 i krajowymi wytycznymi – a użytkownicy indywidualni regularnie edukowali się w zakresie cyberbezpieczeństwa, szczególnie podczas Europejskiego Miesiąca Cyberbezpieczeństwa.
A jak się chronić?
- Aktualizuj przeglądarki AI do najnowszych wersji i regularnie sprawdzaj komunikaty bezpieczeństwa.
- Nie ufaj automatycznym podsumowaniom stron przez AI – sprawdzaj źródła ręcznie.
- Włącz dwuskładnikowe uwierzytelnianie i stosuj silne, unikalne hasła do kont.
- Zgłaszaj wszelkie podejrzane działania lub błędy, które mogą świadczyć o naruszeniu bezpieczeństwa.
Październik to idealny moment, by poważnie potraktować zagrożenia związane z przeglądarkami AI. Edukacja, świadomość ryzyka oraz wdrażanie skutecznych polityk cyberbezpieczeństwa to klucz do ochrony danych – zarówno w Polsce, jak i na świecie.
Źródła
https://layerxsecurity.com/blog/perplexity-comet-browser-security-analysis
https://time.com/7323827/ai-browsers-perplexity-comet
https://brave.com/blog/comet-prompt-injection
https://futurism.com/ai-browser-hackers-drain-bank-account-public-reddit-post
https://continuityinsights.com/browser-ai-agents-usurp-employees-weakest-link-status