Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

AI Biznes Forum. Debata o ryzykach i polityce Zero Trust

AI Biznes Forum. Debata o ryzykach i polityce Zero Trust

29 października odbyła się debata w ramach konferencji AI Biznes Forum poświęcona cyberbezpieczeństwu i polityce Zero Trust w dobie AI. Eksperci, w tym Krzysztof Dyki (ComCERT), Michał Wawrzyńczak (projectFortify) i Szymon Kapturkiewicz (InterSynergy), omówili główne wyzwania i zagrożenia związane z AI oraz strategie ich minimalizacji. Moderatorem był Rafał Stępniewski, redaktor naczelny "Security Magazine", który kierował dyskusją na temat zabezpieczeń, ryzyka i prywatności danych.  

Wyjątkowe ryzyko AI

Debata rozpoczęła się od omówienia wyzwań związanych z wdrażaniem sztucznej inteligencji w firmach. Michał Wawrzyńczak podkreślił, że przyjęcie narzędzi AI może otworzyć firmę na nowe, unikalne zagrożenia, wymagające rygorystycznej analizy ryzyka.

Jak zaznaczył, należy najpierw ocenić korzyści, które AI może przynieść organizacji, i porównać je z potencjalnymi zagrożeniami. Ważne jest określenie, jakie typy danych – wrażliwych, osobowych czy poufnych – będą przetwarzane przez AI, gdyż mogą one stać się celem cyberataków.

Eksperci wskazali, że szczególne ryzyko wiąże się z korzystaniem z otwartych modeli językowych, takich jak ChatGPT, które mogą przypadkowo ujawnić dane firmowe. Brak odpowiednich polityk bezpieczeństwa może skutkować wykorzystaniem takich danych do trenowania modeli AI, co stanowi zagrożenie dla integralności i prywatności danych organizacyjnych.

Zero Trust jako podstawa ochrony organizacji

Podczas debaty podkreślono, że istotną rolę w zabezpieczeniu firm przed zagrożeniami AI odgrywa polityka Zero Trust. Michał Wawrzyńczak wyjaśnił, że strategia ta opiera się na założeniu, że nikomu – ani pracownikom, ani dostawcom – nie należy ufać w pełni. Oznacza to konieczność ścisłego określenia dostępu do danych i aplikacji AI oraz minimalizowanie uprawnień pracowników.

Segmentacja sieci, czyli oddzielanie infrastruktury AI od innych systemów, to kolejne działanie, które ma na celu minimalizację ryzyka. Dzięki temu nieautoryzowany użytkownik, nawet jeśli znajdzie się w sieci wewnętrznej firmy, nie uzyska dostępu do wrażliwych danych. Eksperci podkreślili również znaczenie ścisłej kontroli dostępu, tak aby każdy dostęp był odpowiednio autoryzowany i oparty na rzeczywistych potrzebach użytkowników.

Deepfake i cyberprzestępczość

Krzysztof Dyki zwrócił uwagę na problem deepfake'ów i rosnące zagrożenie ze strony cyberprzestępców, którzy wykorzystują AI do tworzenia realistycznych nagrań audio i wideo. Deepfake’i mogą służyć do oszukiwania pracowników i wyłudzania poufnych informacji, a zaawansowane modele deepfake są obecnie niemal niemożliwe do wykrycia nawet dla ekspertów.

Szymon Kapturkiewicz podkreślił, że przestępcy coraz częściej wykorzystują AI do wzmocnienia ataków socjotechnicznych, które stają się bardziej skuteczne dzięki realistycznym symulacjom głosu i obrazu.

Eksperci zwrócili uwagę, że organizacje muszą wdrażać procedury, takie jak zasada "czterech oczu," aby uniknąć podejmowania działań na podstawie fałszywych instrukcji. Wykorzystanie uwierzytelniania wieloskładnikowego oraz menedżerów haseł to dodatkowe kroki, które pomagają zwiększyć bezpieczeństwo w organizacjach.

Dyskusja związana z cyberbezpieczeństwem na AI Biznes Forum pokazała, że AI, mimo swoich zalet, niesie ze sobą wiele zagrożeń dla bezpieczeństwa danych i infrastruktury organizacji. Wykorzystanie polityki Zero Trust i odpowiedniego zarządzania dostępem stanowi klucz do minimalizowania ryzyka. Eksperci jednogłośnie wskazali, że ochrona przed zagrożeniami AI wymaga zarówno technologicznych środków bezpieczeństwa, jak i świadomości oraz odpowiedzialności pracowników w obliczu nowych technologii.

Oceń artykuł

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa