Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Czy deepfake zagraża integralności eurowyborów?

Czy deepfake zagraża integralności eurowyborów?

Deepfake to coraz bardziej powszechna technologia, która wprowadza zamęt w mediach, tworząc fałszywe wypowiedzi polityków i celebrytów. Jakie zagrożenia niesie to dla demokracji? Jak, jako wyborcy, możemy się uchronić przed skutkami deepfake-ów? Czy możemy jeszcze wierzyć temu, co widzimy?

Technologia deepfake definiuje nową rzeczywistość?

Deepfake to termin pochodzący od połączenia słów „deep learning” (głębokie uczenie) i „fake” (fałszywy), odnosi się do zaawansowanej formy manipulacji cyfrowej, umożliwiającej tworzenie niezwykle realistycznych, ale nieprawdziwych materiałów audiowizualnych. Technologia ta stała się narzędziem często stosowanym do zniekształcania prawdy, szczególnie w kontekście politycznym, co budzi poważne obawy dotyczące wpływu na integralność procesów demokratycznych i wyborczych.

W ostatnim czasie, oszuści coraz częściej wykorzystują deepfake do kreowania nagrań z udziałem znanych osób do promowania różnego rodzaju instrumentów finansowych. Wykorzystuje się wizerunki polityków, biznesmenów, osób z sektora rozrywkowego – piosenkarzy, aktorów, influencerów, a także znanych sportowców. Tym osobom często towarzyszą zmanipulowane wizerunki dziennikarzy i prezenterów telewizyjnych. Zdarzają się materiały prezentujące ważne osoby z zagranicy – Elona Muska, Marka Zukenberga, które rzekomo przemawiają do Polaków w naszym rodzimym języku, również prezentując treści dezinformujące, często zachęcając do fałszywych inwestycji, czy promując narzędzia phishingowe.

Wykorzystanie deepfake: od celebrytów do polityków

Wykorzystanie technologii deepfake do kreowania wizerunków polityków w mediach społecznościowych stało się poważnym problemem. Analizowane dane w NASK wskazują, że od początku 2024 roku aż 54,23% wszystkich treści typu deepfake zamieszczonych w mediach społecznościowych zawierało wizerunki polskich polityków. 

To podkreśla skalę, w jakiej wizerunki osób publicznych są wykorzystywane do prezentowania treści do manipulowania opinią publiczną i mogą potencjalnie wpływania na wyniki wyborów. Wykorzystanie deepfake nie ogranicza się jedynie do zniekształcania wizerunku polityków. Technologia ta jest także stosowana do fałszowania wypowiedzi, manipulowania postulatami wyborczymi, a nawet kreowania całkowicie nieistniejących wydarzeń, które mogą wpływać na percepcję i decyzje wyborcze. 

W kontekście zbliżających się wyborów do europarlamentu warto mieć na uwadze, że deepfake'i mogą być wykorzystywane do tworzenia fałszywych wypowiedzi lub nagrań wideo z udziałem polityków, prezentujących ich w niekorzystnym świetle lub przypisujących im wypowiedzi, które nigdy nie padły. 

Przykłady wpływu deepfake na kampanie wyborcze

Na przykład w Bydgoszczy, w trakcie ostatniej kampanii wyborczej na urząd Prezydenta miasta, deepfake miał rzekomo przedstawić Łukasza Schreibera obiecującego organizację walk kobiet na Starym Rynku. Jest to jaskrawy przykład, jak deepfake może zaszkodzić reputacji kandydata i wprowadzić zamęt wśród wyborców.

Podobne sytuacje miały miejsce na arenie międzynarodowej. W Stanach Zjednoczonych, podczas prawyborów Demokratów, sfabrykowane nagranie audio prezydenta Joe Bidena miało sugerować wyborcom zaniechanie głosowania, co było próbą bezpośredniej manipulacji wyborczej. 

Inny incydent na Słowacji, przed wyborami parlamentarnymi, dotyczył zmanipulowanego nagrania Michala Šimečki, lidera liberalnej partii, mającego na celu zdyskredytowanie jego i jego partii w oczach elektoratu. Podobne przypadki wpływu sztucznej inteligencji na procesy wyborcze zaobserwowano również w Turcji i Bułgarii w 2023 roku oraz w Indiach w 2024 roku.

Manipulacje deepfake pogłębiają podziały społeczne i zagrażają demokracji

Wykorzystanie deepfake do kreowania fałszywych obrazów i wypowiedzi w mediach społecznościowych stanowi jedno z największych zagrożeń dla współczesnych demokracji. Manipulacje te nie tylko wprowadzają zamęt i nieporozumienia wśród wyborców odnośnie do prawdziwych postulatów i zobowiązań wyborczych, ale również pogłębiają istniejące podziały społeczne, tworząc lub wzmacniając fałszywe narracje, które zaostrzają konflikty między różnymi grupami społecznymi.

Oprócz wykorzystania technologii deepfake i generatywnej sztucznej inteligencji w manipulowaniu opinią publiczną i procesami wyborczymi, znaczącą rolę w rozpowszechnianiu dezinformacji odgrywają tzw. farmy trolli. 

Są to zorganizowane grupy, które systematycznie używają mediów społecznościowych i innych platform internetowych do szerzenia fałszywych informacji, propagandy oraz do wpływania na dyskurs publiczny. W ostatnim czasie zaczęły wykorzystywać zaawansowane technologie sztucznej inteligencji do tworzenia bardziej przekonujących i realistycznych fałszywych tożsamości. Dzięki postępowi w dziedzinie generatywnej AI, możliwe stało się tworzenie wiarygodnych wizerunków ludzi, które mogą być używane w celu nadania fałszywym kontom w mediach społecznościowych pozoru autentyczności.

Ponadto, deepfake może służyć do rozprzestrzeniania dezinformacji o procesie głosowania, takiej jak nieprawdziwe informacje o lokalizacji lokali wyborczych czy godzinach głosowania, co może potencjalnie zakłócać prawidłowy przebieg wyborów.

Jak rozpoznać i zwalczać manipulacje deepfake?

Mimo rozwoju technik fałszowania rzeczywistości, istnieją niedoskonałości, które pozwalają uważnym obserwatorom wykryć manipulację. Jednocześnie, oszuści używają szeregu socjotechnik, by zwiększyć wiarygodność swoich fałszywych narracji.

Do najczęstszych błędów technicznych, które sygnalizują fałszerstwo należą:

    • zniekształcenia obrazu i rozmazanie — szczególnie wokół ust, gdzie ruchy są najbardziej dynamiczne i trudne do precyzyjnego odtworzenia,
    • problem z rekonstrukcją uzębienia — uzębienie może wyglądać nienaturalnie lub być niewłaściwie zrekonstruowane,
      • zmiany w geometrii twarzy — niewielkie, ale zauważalne deformacje mogą występować, zwłaszcza gdy twarz porusza się szybko,
        • nienaturalne ruchy głowy i mimika — może występować niezgodność ruchów głowy z resztą ciała lub niepasujący do treści wyraz twarzy (mimika),
          • niezgodność ruchu ust z wypowiadaną treścią, zauważalne niedopasowanie ruchu warg do słyszanych słów,
            • błędy gramatyczne i wymowy — szczególnie zauważalne przy wymowie liczebników, datach, kwot i zapożyczeń z obcych języków,
              • zmiana akcentu, barwy i wysokości głosu — głos może brzmieć nienaturalnie lub zmieniać swoje parametry — ton, akcent w trakcie wypowiedzi,

                Oszuści używają także zaawansowanych technik psychologicznych, by ich fałszywe treści były bardziej przekonujące, między innymi:

                  • promują kontrowersyjne czy nawet absurdalne działania,
                  • wykorzystują wizerunki znanych i szanowanych postaci publicznych, aby zwiększyć wiarygodność fałszywych informacji, co może wprowadzić w błąd większą liczbę osób, szczególnie tych, które ufają tej postaci,
                    • promując fałszywe inwestycje oszuści często twierdzą, że ich oferta jest ograniczona czasowo lub dostępna tylko dla wybranej grupy osób, co przekonuje odbiorców, że muszą działać szybko, co zmniejsza czas na przemyślenie i zwiększa szanse na impulsywną reakcję,
                      • stosują manipulację emocjonalną, przykładem może być prezentowanie życia, które można uzyskać dzięki proponowanej inwestycji – życia bez zmartwień, pełnego podróży i luksusów,
                        • często zwracają się do konkretnych grup demograficznych, np. seniorzy mogą być kuszeni obietnicami stabilności finansowej, podczas gdy młodsze pokolenie może być przyciągane obietnicami szybkich zysków i niskiego wkładu początkowego. W ten sposób oszuści dostosowują swoje przekazy, aby były one jak najbardziej przekonujące dla konkretnej grupy docelowej.

                        Konieczne jest więc podjęcie działań mających na celu ochronę procesów wyborczych przed cyfrowymi oszustwami. Wymaga to nie tylko rozwoju technologii zdolnych do automatycznego wykrywania manipulacji deepfake, ale również zwiększenia świadomości społecznej i edukacji na temat metod szerzenia dezinformacji, a także nauki krytycznego myślenia.

                        Oceń artykuł

                        Powiązane materiały

                        Zapisz się do newslettera

                        Bądź na bieżąco z najnowszymi informacjami na temat
                        cyberbezpieczeństwa