Czym jest multimodalna generatywna AI?
Multimodalna generatywna sztuczna inteligencja (AI) to modele AI, które są w stanie operować na różnych rodzajach danych, umożliwiają tworzenie najróżniejsze treści.
Te mogą wyglądać, brzmieć i działać niezwykle autentycznie, chociaż zostały wygenerowane sztucznie. Tego typu technologie wprowadzają nas w nową erę kreatywności i możliwości komercyjnych, ale jednocześnie niosą ze sobą ryzyko niewłaściwego wykorzystania.
Przykładem zastosowania generatywnej AI może być tworzenie obrazów na podstawie opisu tekstowego. Dzięki multimodalnym modelom sztuczna inteligencja może połączyć zdolności do przetwarzania tekstu i obrazu – aby wygenerować ilustrację – która dokładnie odpowiada podanym przez użytkownika parametrom w prompcie.
Innym przykładem jest tworzenie wideo, w którym postacie mówią w różnych językach, bez konieczności angażowania do pomocy aktorów głosowych czy lektorów. Choć jest w tym aspekcie również minus, bo wpłynie to negatywnie na zatrudnienie osób mających rzeczone kompetencje.
Ryzyko związane z generatywną AI
Chociaż multimodalna generatywna AI może być wykorzystywana do wielu pożytecznych celów, to istnieje także ciemna strona jej zastosowań. Cyberprzestępcy mogą wykorzystać te narzędzia do manipulacji, oszustw i nękania.
Przykładem może być tworzenie realistycznych filmów czy zdjęć, które mogą wprowadzać odbiorców w błąd, co prowadzi do wielu etycznych i prawnych dylematów.
W opublikowanym niedawno badaniu przeanalizowano prawie 200 przypadków niewłaściwego użycia generatywnej AI, opublikowanych między styczniem 2023 a marcem 2024 r.
Wykazano w nim, że technologia ta może być wykorzystywana do podszywania się pod osoby publiczne, tworzenia fałszywych dowodów czy nawet oszukiwania ludzi w realnym świecie. Cyberprzestępcy używają łatwo dostępnych narzędzi generatywnych, często bez konieczności posiadania zaawansowanych umiejętności technicznych.
Idealnym przykładem jest to, co działo się w Polsce w 2023 i 2024 r., gdzie cyberprzestępcy masowo podszywali się pod spółki skarbu państwa, czy osoby pełniące wysokie funkcje w naszym kraju, np. Mateusza Morawieckiego.
Multimodalna AI jako narzędzie cyberprzestępców
To jednak nie koniec, bo na świecie mamy więcej przykładów wykorzystania mutlimodalnej AI do cyberprzestępczości.
Jednym z najbardziej spektakularnych przypadków niewłaściwego wykorzystania AI był incydent z lutego 2024 r., kiedy międzynarodowa firma straciła 200 milionów dolarów hongkońskich (około 26 milionów dolarów amerykańskich).
Pracownik firmy został oszukany podczas spotkania online z rzekomym CFO (dyrektorem finansowym) spółki. Ten był jednak wygenerowanym przez cyberprzestępcę awatarem. W konsekwencji pracownik wykonał dość niespodziewane polecenie, przelania wspomnianych 300 mln dolarów hongkońskich na konto cyberprzestępcy.
Tego typu incydenty pokazują, jak niebezpieczne mogą być technologie generatywnej AI w rękach nieodpowiednich osób. Cyberprzestępcy mogą manipulować nie tylko obrazami i dźwiękiem, ale także całymi narracjami, wprowadzając odbiorców w błąd i wpływając na ich decyzje.
Nowe wyzwania dla cyberbezpieczeństwa
W związku z rosnącym zagrożeniem, jakie niesie ze sobą niewłaściwe wykorzystanie generatywnej AI, firmy technologiczne muszą wprowadzać nowe zabezpieczenia. Zespoły badawcze, takie jak te w Google, prowadzą intensywne badania nad tym, jak lepiej chronić generatywne systemy AI przed cyberprzestępcami.
Przykładem takich działań jest wprowadzenie nowych zasad na platformach, takich jak YouTube, które wymagają ujawniania, kiedy treści są generowane syntetycznie. Innym wzorem takiego narzędzia jest SynthID, które ma na celu identyfikowanie syntetycznie wygenerowanych materiałów, co może pomóc w zwalczaniu dezinformacji.
W ramach tych działań zaktualizowano również zasady dotyczące reklamy wyborczej, wymagając od reklamodawców wyraźnego ujawnienia, kiedy ich materiały zawierają cyfrowo zmienione treści. Te inicjatywy mają na celu zapobieganie dezinformacji i manipulacji.
Ochrona społeczeństwa przed nadużyciami
Aby przeciwdziałać potencjalnym nadużyciom, konieczne jest rozwijanie inicjatyw edukacyjnych i informacyjnych, które pozwolą ludziom lepiej rozumieć, jak działa generatywna AI i jakie zagrożenia może za sobą nieść.
Kampanie na rzecz umiejętności czytania i pisania w kontekście cyfrowym mogą odegrać kluczową rolę w ochronie społeczeństwa przed manipulacją.
Nowa rzeczywistość generatywnej AI
Multimodalna generatywna AI otwiera przed nami nowe możliwości, ale jednocześnie stawia przed nami wyzwania, z którymi musimy się zmierzyć. Cyberprzestępcy z pewnością będą starali się wykorzystać tę technologię do swoich celów, dlatego tak ważne jest, abyśmy jako społeczeństwo byli na to przygotowani.
Dzięki odpowiednim regulacjom, edukacji i współpracy możemy minimalizować ryzyko związane z niewłaściwym wykorzystaniem multimodalnej sztucznej inteligencji. A jednocześnie czerpiąc korzyści z jej potencjału.