Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Dr Maciej Chrzanowski: "Największym zagrożeniem jest brak świadomości"

Dr Maciej Chrzanowski: "Największym zagrożeniem jest brak świadomości"

Rozwój sztucznej inteligencji przynosi nie tylko nowe możliwości, ale również poważne wyzwania w dziedzinie cyberbezpieczeństwa. Dr Maciej Chrzanowski wskazuje, że największym zagrożeniem jest brak świadomości społecznej dotyczącej korzystania z narzędzi AI. Coraz częściej zdarza się, że pracownicy przesyłają wrażliwe dane do niezweryfikowanych aplikacji, narażając się na ich niekontrolowane wykorzystanie. Jakie inne zagrożenia i wyzwania stawia przed nami AI w kontekście cyberbezpieczeństwa? Czy technologia ta może jednocześnie poprawić nasze zabezpieczenia?

Jakie są obecnie największe zagrożenia w dziedzinie cyberbezpieczeństwa, które zauważa Pan w związku z rozwojem technologii AI?

dr Maciej Chrzanowski: Jakkolwiek to zabrzmi, to przede wszystkim świadomość społeczeństwa wydaje mi się największym zagrożeniem. Proszę mi wierzyć, w niejednej firmie widziałem już osoby choćby z działów HR, które przesyłały niezanonimizowane pliki kadrowe do, nawet nie tyle ogólnodostępnych narzędzi wykorzystujących generatywną sztuczną inteligencję, co do dodatków do nich (tzw. pluginów czy GPTs w przypadku np. ChatGPT).

I często te dodatki nie mają nawet regulaminów i/lub mają takie zapisy, które w zasadzie pozwalają im robić z naszymi danymi, co im się podoba. I nie chodzi już tylko o naukę LLM, ale w ogóle mogą z tymi danymi robić dowolne rzeczy. A to już jest niebezpieczne. Podkreślę, że nie jestem specjalistą od cyberbezpieczeństwa i powyższa obserwacja ma charakter subiektywny, wynikający z dość dużego doświadczenia szkoleniowego.

Kolejnym zagrożeniem jest domniemywanie, że generacja wytworzona przez narzędzie genAI jest zgodna z prawdą. Oczywiście to też mieści się w braku świadomości, ale to może doprowadzić do błędnego rozumienia świata i otaczających nas zjawisk. Przecież ChatGPT "powiedział tak, a nie inaczej". Przypomina mi się mem, w którym widzimy tysiące naukowców i jednego człowieka, który obejrzał film na YouTube i twierdzi, że ci naukowcy się mylą. Po prostu przez narzędzia pokroju TikTok mamy dzisiaj iluzję wiedzy. A to sytuacja mocno niebezpieczna społecznie.

Idąc dalej. W zasadzie każdy człowiek, za dosłownie kilka dolarów i z dostępem do internetu, może dzisiaj stworzyć deepfake, klon głosu i w zasadzie co mu się żywnie podoba dla celów zarówno rozrywkowych, jak i mniej rozrywkowych, czyli oszustw.

W jaki sposób AI może być wykorzystana do poprawy zabezpieczeń w systemach informatycznych?

M.C.: Choćby do wykrywania anomalii w systemach, do szybszego reagowania na incydenty w przypadku implementacji helpdesk opartego na zamkniętym LLM itp. Jednak widzę też jeszcze jeden aspekt. To jednak miecz obosieczny. Co mam na myśli? Możemy stworzyć asystenta AI, który posiądzie wiedzę dotyczącą inżynierii społecznej i będzie np. próbował naszych pracowników przekonać do ujawnienia różnorakich danych. W formie ćwiczenia.

A druga strona medalu tej sytuacji? Kto powiedział, że nie da się zrobić asystenta AI "nakarmionego" wiedzą z zakresu socjotechniki, który przekona kogokolwiek do czegokolwiek? Czy takie coś jest możliwe? Nie wiem, ale wydaje się, że może być. A to już sytuacja dość …. "interesująca".

Jakie są największe wyzwania związane z implementacją AI w strategiach cyberbezpieczeństwa?

M.C.: Zacznijmy od bezpieczeństwa samych modeli. Chyba, że oczywiście mamy LLM na swoich serwerach, który jest "zamknięty", ale na taki przywilej pozwolić sobie może raczej niewiele firm. Na pewno będzie to jakość danych wejściowych i wyjściowych. Zbyt dużo osób zakłada, że po zbyt słabym inputcie uzyska jakościowy output z LLM. Niestety tak to nie działa (na ten moment). Zasada GIGO to klucz.

Jak ocenia Pan poziom świadomości i przygotowania firm do ochrony przed zagrożeniami związanymi z AI?

M.C.: Poziom świadomości zagrożeń związanych z AI oceniłbym na 2 w skali 1 do 10. Niestety. A jak temu zapobiegać? Edukacją, edukacją i jeszcze raz edukacją. Ale nie tylko z AI, ale najpierw z cyberbezpieczeństwa w ogóle, a później z AI i zagrożeń z nią związanych. A najczęściej sięgamy po edukację w zakresie cyberbezpieczeństwa, gdy jest już po fakcie, tj. po jakimś incydencie.

Jakie technologie AI uważa Pan za najbardziej obiecujące w kontekście cyberbezpieczeństwa?

M.C.: Wiem, że będzie to niestandardowa odpowiedź, ale dane syntetyczne, które pozwolą nam na ograniczenie czasu i kosztów testowania konkretnych elementów zabezpieczeń w środowisku wirtualnym.

Jakie są Pana prognozy dotyczące przyszłości AI w cyberbezpieczeństwie na przestrzeni następnych 5-10 lat?

M.C.: Powiem szczerze, powtarzając zresztą za prof. Andrzejem Draganem, że przy tak zmiennym świecie, gdzie rzeczy dzieją się jak się dzieją, bo wiele rzeczy dzieje się naraz (tutaj cytując z kolei prof. Grzegorza Kołodkę), to gdy ktoś próbuje przewidywać przyszłość, to czasem lepiej przestać go słuchać. Słowem: nie wiem. Nie przewiduję. Za szybko to wszystko się rozwija, aby cokolwiek rzetelnie przewidywać. Można próbować, ale to bardziej ciekawe ćwiczenie umysłowe aniżeli rzetelne prognozy.

Jakie umiejętności i wiedza będą kluczowe dla specjalistów ds. cyberbezpieczeństwa w erze AI?

M.C.: Chyba te co zawsze, czyli logiczne myślenie oraz umiejętność komunikacji zarówno z człowiekiem, jak i AI.

Rozmawiała: Joanna Gościńska

Oceń artykuł

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa