AI poza granicami ludzkiej percepcji
Czy podjęliśmy wyścig, który przegraliśmy, zanim jeszcze wystartowaliśmy?AI w branży security jest nośnym tematem od lat, jednak od listopada 2022 roku cały świat zaczął odmieniać AI przez wszelkie możliwe przypadki. Przełom i ogromny rozwój powszechnie dostępnych narzędzi AI do generowania treści wykonał ogromny skok w ostatnich dwóch latach na zawsze odmieniając to, jak wygląda nasze społeczeństwo, biznes i zaufanie, na którym opieramy większość z naszych profesjonalnych i codziennych działań.
Badania przeprowadzone przez Neuroinsight Lab (by SeeWidely) wskazują na serię alarmujących zjawisk w percepcji treści AI przez ludzki mózg. Celem badania było poznanie, w jaki sposób odbiorcy są w stanie rozróżniać, czy mają do czynienia z wytworem sztucznej inteligencji, oraz czy i jak informacja o sztucznym pochodzeniu treści wpływa na jej percepcję i ocenę wiarygodności. Neurobadanie, w którym wykorzystano zaawansowane metody neuroTechnologiczne tj. eye-tracking i elektroencefalografię (EEG), zgłębiało podświadome reakcje uczestników na różnego rodzaju treści – zarówno tekstowe, jak i wizualne – tworzone przez ludzi i sztuczną inteligencję. To innowacyjne podejście pozwoliło na uzyskanie unikalnego wglądu w ludzką percepcję i interakcje z AI, odkrywając nowe aspekty naszego zrozumienia i współistnienia z technologią.
Co ujawniło neurobadanie i jakie najistotniejsze wnioski z niego płyną?
Ludzie nie rozpoznają tworów AI
Analiza wyników pokazała, że średnia skuteczność wskazań autorstwa treści oscylowała wokół 56% – co oznacza, że w blisko połowie przypadków uczestnicy nie byli w stanie poprawnie zidentyfikować źródła treści. To prawie jak zgadywanie w rzucie monetą. Pokazuje to, jak we względnie krótkim czasie AI stało się równie dobre jak człowiek w tworzeniu przekonujących, realistycznie brzmiących tekstów oraz wiernie oddanych grafik.
W przypadku tekstu jedynie 40% prac wygenerowanych przez AI została poprawnie rozpoznana jako treści generatywne. Podczas gdy w przypadku treści napisanych tylko przez ludzi wskaźnik prawidłowych wskazań wyniósł 75%. AI już bardzo dobrze radzi sobie z treściami pisanymi, a odpowiednio poinstruowana jest w stanie tworzyć prace, które wydają się być napisane przez człowieka.
Dodatkowo treści tworzone przez AI otrzymywały średnio podobne, a nawet odrobinę wyższe wyniki ekspertyzy i zaufania co treści stworzone przez ludzi, a to dosadnie pokazuje, że treści tworzone przez AI niczym im nie ustępują.
Co więcej, na 5 najwyżej ocenionych treści pod kątem zaufania, aż 4 zostały wygenerowane przez AI.
Błąd dywergencji kognitywnej AI?
Jednak kluczowe okazało się kolejne odkrycie.Jak pokazało neurobadanie, nieważne kto jest autorem. Ważne, kto zdaniem odbiorcy stworzył treść.
Istnieje silny błąd poznawczy nazwany przez nas błędem Dywergencji Kognitywnej AI polegający na tym, że bez względu na informacje wejściowe (zmysłowe), mózg interpretuje je zgodnie ze swoim wewnętrznym stanem i założeniem o pochodzeniu. To natomiast powoduje skrajne różnice w odbiorze i ocenie treści.
Ta sama grafika może wzbudzać całkiem różny poziom oceny ekspertyzy i zaufania w zależności od tego, kto zdaniem odbiorcy jest autorem treści — człowiek czy AI. Jeśli odbiorca uważa, że treść została wygenerowana przez AI oceni ją o wiele surowiej, natomiast jeśli treść zostanie przypisana człowiekowi, to jak pokazały wyniki tego badania — wzbudza o wiele wyższy poziom zaufania.
Różnice w ocenie widzimy także w aktywności mózgu obserwowanej za pomocą EEG (elektroencefalografu), co dobrze obrazuje poniższa grafika:
AI jednoznacznie przekroczyło już granicę percepcji, jednak jakie może mieć to implikacje dla bezpieczeństwa?
Ogromna dostępność i powszechność narzędzi AI pozwala zautomatyzować tworzenie wiarygodnych i różnorodnych treści na niespotykaną skalę, od phishingu po falę dezinformacyjną w social media. Pozwala to zbudować wiarygodny i trudny do zweryfikowania obraz informacyjny, który może zostać wykorzystany w różnych celach (w tym wrogich) i działaniach dezinformacyjnych.
Jednym z rozwiązań, które powoli zaczynają proponować firmy jak Adobe czy Meta jest oznaczanie treści tworzonych przez AI. Pozwala to technicznie odbiorcom na zachowanie odpowiedniego dystansu do treści. Jednak o ile takie rozwiązanie ma sens w przypadku standardowych twórców, o tyle organizacje mające sprzeczne cele z ogólnym interesem społecznym zrobią wiele, by ich treści właśnie nie były podejrzewane o bycie nieprawdziwymi, więc z pewnością takie rozwiązanie nie daje większego zabezpieczenia społecznego. Co więcej, taki mechanizm może zadziałać odwrotnie, usypiając czujność odbiorców i jeszcze mocniej narażając ich na takie działania.
Sama weryfikacja treści przeprowadzana przez algorytmy także nie daje wystarczająco dobrych wyników, by pretendować do miana rozwiązania problemu.
Wszelkie próby ograniczenia AI, np. przepisami lokalnymi w Unii Europejskiej pomimo wielu pozytywnych stron, dają ogromne pole do popisu organizacjom, które nie zamierzają się do nich stosować, czy to cyberprzestępcom czy wrogim krajom.
Odbiorcy intuicyjnie szukając predyktorów pochodzenia treści nie będą w stanie nigdy wypracować rozwiązań, których AI nie będzie w stanie szybko rekompensować poprzez niewielkie doszkolenie modelu. Nasz mózg zatem nie miał czasu na wypracowanie działających strategii odróżniania treści i co więcej — tego czasu już nie otrzyma.
Czy to oznacza, że zaczęliśmy wyścig z AI, który jako ludzie przegraliśmy jeszcze zanim się zaczął?
Niekoniecznie. Pewnym rozwiązaniem, które od dawna funkcjonuje w społeczeństwie są gatekeeperzy — czyli osoby czy organizacje, które podają jedynie wiarygodne i zweryfikowane informacje. Choć w erze szybkich treści jest to niezwykle trudne, to opieranie się na autorytetach, które mają większe kompetencje w obszarze weryfikacji informacji źródłowych mogą być pomocnym mechanizmem samoregulującym. TO jednak wymagałoby odrzucenia ślepej wiary w słowa ekspertów od wszystkiego i influencerów niebędących ekspertami w dziedzinie, w której się wypowiadają.
Czy to się może udać?
Jakie inne możliwości widzisz Drogi Czytelniku i Droga Czytelniczko?
Więcej o wynikach neurobadania i o tym, co sprawia, że (nie) rozpoznajemy treści stworzonych przez ludzi od tych wygenerowanych przez AI i jak potwierdzić człowieczeństwo w erze sztucznej inteligencji przeczytasz w naszym raporcie „Człowiek vs. AI. Czy AI przekroczyło granice ludzkiej percepcji?”, który jest już dostępny na stronie: ai.neuroinsightlab.pl