Przewaga ChatGPT
- Największą zaletą modelu ChatGPT jest to, że został zbudowany na kolosalnej, gigantycznej wręcz ilości danych. I właśnie to stoi za jego sukcesem, powoduje, że odpowiedzi bota są zgrabne, zbudowane ze zdań złożonych oraz pięknie opisują abstrakcyjne pojęcia. Po prostu dostał bardzo dużo danych wejściowych do nauki — zauważył Bartosz Baziński, programista, założyciel firmy technologicznej SentiOne, która od 11 lat buduje zaawansowane modele sztucznej inteligencji.
- Dodatkowo model ten ma bardzo dobrze wymyślony sposób optymalizacji, w którym model językowy wytrenowany na ogromnej ilości danych z wielką liczbą parametrów (kontekst dla każdego słowa ma 2048 wyrazów) oraz oddzielny model do scoringu odpowiedzi (z wieloma punktami odniesienia), dzięki czemu udało się go zoptymalizować pod kątem przygotowywania odpowiedzi robiących duże wrażenie na odbiorcach — zaznaczył Baziński.
ChatGPT zyskał ogromną popularność w rekordowo krótkim czasie. Jest doceniany za dokładność oraz wszechstronność.
Do ideału daleko
- Niestety, taki generyczny model, ma też swoje wady. Model ChatGPT to tzw. blackbox („czarna skrzynka"), bot typu „pytanie — odpowiedź”. Wygeneruje piękne odpowiedzi, ale zupełnie nie zrozumie, o co został zapytany — nie orientuje się w rzeczywistości, nie osadza informacji w kontekście. Gdy internauci pytali ChatGPT „Jaki będzie wynik meczu Chorwacja-Argentyna?”, bot odpowiadał „nie znam wyników hipotetycznego meczu”. Nie jest to już tak zadowalająca odpowiedź, mógłby chociaż zażartować, że zawsze wygrywa najlepszy — wyjaśnił założyciel SentiOne, dodając, że innym problemem związanym z ChatGPT jest to, że został zbudowany na niezweryfikowanych danych i nie rozumie znaczenia swoich odpowiedzi.
- W rezultacie może wprowadzać w błąd, dostarczając długich i miłych odpowiedzi, które jednak mogą być mylące, nieprecyzyjne, a nawet zawierające fałszywe informacje. A to już droga do szerzenia dezinformacji — w pięknej formie zdań podrzędnie złożonych z wieloma przymiotnikami. Takich przypadków w świecie botów było już sporo — jak np. bot Tay, zbudowany przez Microsoft na danych z Twittera, który bardzo szybko zaczął rozpowszechniać rasistowskie treści — zauważył nasz ekspert.
- Bardzo ciężko mi sobie wyobrazić, jakie zastosowanie miałby znaleźć w biznesie. Aktualnie konwersacyjna sztuczna inteligencja, taka jak ChatGPT, jest używana przede wszystkim w automatyzacji obsługi klientów, gdzie kluczowe jest przechodzenie określonego wieloetapowego, ściśle zdefiniowanego przez firmę procesu, który ma rozwiązać problem klienta. Z takich technologii korzystają m.in. banki, placówki medyczne czy ubezpieczyciele. W takich procesach najważniejsze jest, by bot trzymał się ustalonego schematu i nie udzielał więcej informacji ponad te, o które jest pytany, czyli de facto — by rozumiał pytanie i sam był w stanie je przypisać do odpowiedniej frazy, intencji czy ścieżki dialogowej. Dla wszystkich dużych firm kluczowym elementem wdrożenia chatbota jest pełna kontrola nad przebiegiem procesu i samymi komunikatami. Jest on przecież elementem budowania wizerunku marki, musi być godny zaufania i nie stwarzać ryzyka dla firmy — skomentował przedstawiciel SentiOne.
Jakie zagrożenia? Co z bezpieczeństwem?
Jakie zagrożenia płyną z korzystania z tego narzędzie? Oddajmy głos jemu samemu:
!zdjecie 1
Zdaje się jednak, że na etapie testowania i ekscytacji zachowanie rozwagi i rozsądku jest równe zeru. — Złośliwi szukają, jak go załamać, podrzucając matematyczne problemy. Z tym sobie nie radzi. Uznaje, np. że liczb naturalnych jest mniej niż ułamków, chociaż to zbiory równoliczne — przyznał na łamach Wirtualnych Mediów prof. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej UMK, członek Stowarzyszenia Sztucznej Inteligencji w rejonie Azja-Pacyfik. Eksperci sprawdzają możliwości oraz stopień zaawansowania tego narzędzia.
Daleko nie trzeba szukać. Szerokim echem odbił się test badaczy z CheckPoint. Udowodnili, że ChatGPT może posłużyć do tworzenia złośliwego oprogramowania. Model językowy potrafi generować wiadomości e-mail z zainfekowanymi kawałkami kodu źródłowego.
ChatGPT sam w sobie nie jest niebezpieczny. Kiedy zapytaliśmy go, czy taki jest, odpowiedział nam, że może być wykorzystywany
w celach nieetycznych i nielegalnych. Warto też zauważyć z jaką prędkością uczy się i weryfikuje treści, które nam przekazuje w odpowiedzi na zadane przez nas pytania.
Oto jego odpowiedź z 27 grudnia:
!zdjecie 2
Zatem sam podpowiadał, w jakim celu można go użyć, by zaszkodzić innym.
2 stycznia odpowiadał już w innym tonie:
!zdjecie 3
Warto też zdawać sobie sprawę, że ChatGPT nigdy nie udzieli tej samej odpowiedzi, nawet jak to samo pytanie zadamy minutę później.
ChatGPT zagraża edukacji
- Amerykańscy nauczyciele już piszą, że trudno jest za-dawać pisanie esejów jako pracę domową, bo uczniowie nie plagiatują, tylko załączają nowy tekst, tyle że pisany przez bota. Asystent w telefonie stanie się bardziej przyjazny i będzie odpowiadać na więcej pytań — powiedział Wirtualnym Mediom prof. Włodzisław Duch.
W USA mówi się wprost, że ChatGPT to cios dla szkolnictwa, zwłaszcza wyższego, które i tak jest już nękane przez oszustów (zlecanie pisania prac, plagiaty). Prof. Darren Hick jest zdania, że korzystanie przez studentów z tego typu model językowy jest niemal nie do udowodnienia. Mało tego, jego zdaniem, nawet system antyplagiatowy nie wyłapie tego, co napisał pytającemu Chat-GPT. W redakcji również przetestowaliśmy, czy programy antyplagiatowe są w stanie poradzić sobie z treścią opracowaną przez to narzędzie. Wniosek jest jeden: nie są w stanie. Jedynie dociekliwe oko człowieka może zauważyć pewne charakterystyczne dla modelu językowego opisy, sformułowania które nie do końca wydają się naturalne.
Hick, choć doświadczony w zakresie etyki praw autorskich, przyznał, że udowodnienie studentce, która korzystała z narzędzia, pisząc swoje prace, przypisania autorstwa ChatGPT było niemal niemożliwe.
Sam osobiście musiał przeprowadzić “śledztwo”, które zajęło jego czas, w tym ten poświęcony na wyszukiwanie tych samych treści w samych ChatGPT, co jak już wiemy nie jest proste. 100% odpowiedzi nie uzyskał i nie byłby pewien swoich przypuszczeń, gdyby nie to, że studentka sama przyznała, że jej akademicki esej napisało narzędzie od OpenAI.
!zdjecie 4
Czy ChatGPT to wirus?
Pojawiły się spekulacje, jakoby ChatGPT był wirusem. Temu tematowi przyjrzało się stowarzyszenie technologii i komunikacji, DeasileX.
- Wprowadzenie i korzystanie z niego to jak dotąd jazda kolejką górską. To zabawne, ale jednocześnie niebezpieczne. ChatGPT nie jest wirusem, ale jednoczesne korzystanie z niego nie jest bezpieczne — czytamy na stronie stowarzyszenia.
Jednak pod względem użytkowania narzędzie bezpieczne jest. To nie oprogramowanie znajdujące się w systemie komputera, które go “zjada”. Instalacja i używanie tego modelu językowego jest całkowicie bezpieczne. Instalacja ChatGPT nie zagrozi bezpieczeństwu systemu.
Obawy co do użytkowania mogą mieć osoby świadome tego, jak działa sztuczna inteligencja. Bowiem to nie ludzie wykorzystują dla siebie to narzędzie, ale ono wykorzystuje ludzi, by się uczyć i być coraz doskonalszym. I na tym światowym “boom” korzystają przede wszystkim twórcy, firma Open AI. Narzędzie dostaje potężne dawki informacji każdej sekundy z każdego zakątka świata, co znacznie bardziej przekłada się na korzyści jakie ma z tego tytułu firma niż my, pojedynczy użytkownicy.
- ChatGPT to zaawansowany bot AI, ale nie wirus. Nie jesteśmy jednak pewni, czy w niedalekiej przyszłości ta sztuczna inteligencja będzie w stanie stworzyć własne złośliwe oprogramowanie i zagrozić ludzkości. Jak powiedział Musk, musimy bardziej uważać na technologię sztucznej inteligencji. Może być bardziej destrukcyjna, niż nam się wydaje — podsumowało DeasileX.
Złośliwe oprogramowanie
Chatbot od OpenAI, choć sam ChatGPT dziś uważa inaczej, może być wykorzystywany do tworzenia złośliwego oprogramowania. Kod generowany przez sztuczną inteligencję może poważnie zaszkodzić bezpieczeństwu cybernetycznemu, bo oprogramowanie obronne napisane przez człowieka może nie być w stanie go powstrzymać.
Nie wspominając o cyberprzestępcach, którzy również korzystają z możliwych zastosowań czatbota i to bez specjalnie wyszukanej wiedzy. — Niestety, czat ułatwi też życie oszustom — dotychczas próby wyłudzeń były często dość prymitywne, teraz to się zmieni – ostrzegał prof. Duch.
To, że bez większego problemu można stworzyć takie złośliwe oprogramowanie, udowodnili badacze do spraw bezpieczeństwa cybernetycznego z CheckPoint Research. Z pomocą ChatGPT napisali wiadomość phishingową wraz z dołączonym plikiem w formacie.xls, zawierający szkodliwy kod. Połączenie się ze zdalnym komputerem i przekierowywanie połączeń wejściowych, aby uzyskać dostęp przez osoby trzecie było jego celem. I to się udało.
Wniosek? Według ekspertów z CheckPoint Research, narzędzie to jest banalnie prostym rozwiązaniem do tworzenia nowych, jeszcze nam nieznanych, zagrożeń cybernetycznych przy minimalnej wiedzy i minimalnych zasobach.
Z kolei dr Raj Sharma, główny ekspert Uniwersytetu Oksfordzkiego w dziedzinie cyberbezpieczeństwa i sztucznej inteligencji powiedział: — Jedną z rzeczy, do których sztuczna inteligencja jest dobra, jest automatyzacja. Jeśli hakerzy mogą wyszkolić chatbota, aby tworzył w ten sposób, będzie się on dalej uczył, więc hakerzy mogą posiadać narzędzie do hakowania oparte na uczeniu się.
Narzędzie do dezinformacji
ChatGPT skutecznie odpowiada na złożone pytania i pisze kod obliczeniowy, ale nie zawsze poprawnie odpowiada na pytania. Na pewno nie należy polegać na nim w przypadku pytań. Często w tym kontekście czat porównywany jest do Google’a, który udostępnia linki do najbardziej wiarygodnej witryny z dokładnymi informacjami.
!zdjecie 5
Sam OpenAI na swojej stronie FAQ w odpowiedzi na pytanie: “Czy mogę ufać, że sztuczna inteligencja mówi mi prawdę?” napisał: “ChatGPT nie jest połączony z Internetem, czasami może generować nieprawidłowe odpowiedzi. Ma ograniczoną wiedzę o świecie oraz wydarzeniach po 2021 roku, a także może czasami generować szkodliwe instrukcje lub stronnicze treści. Zalecamy sprawdzenie, czy odpowiedzi z modelu są dokładne, czy nie. Jeśli okaże się, że odpowiedź jest błędna, przekaż tę opinię za pomocą przycisku „Kciuk w dół”. Sam ChatGPT odpowiada na pytanie: “Czy zawsze piszesz prawdę?” w sposób jak przedstawiono powyżej.
A to prosta droga do powstawania masowych treści dezinformacyjnych. Sprawdziliśmy w redakcji, czy czatowi zdarza się tworzyć treści niezgodne z prawdą, rzeczywistością.
Zapytaliśmy dla przykładu ChatGPT “Jaka jest w Polsce kara za pobicie policjanta?” Oto jego odpowiedź: “W Polsce za pobicie policjanta grozi kara pozbawienia wolności od 3 miesięcy do lat 5. Jeśli pobicie policjanta zostało popełnione z użyciem broni lub przedmiotów zagrażających życiu lub zdrowiu, kara może wynieść nawet do 12 lat pozbawienia wolności. Jeśli pobicie policjanta spowodowało ciężkie uszkodzenia ciała lub śmierć, kara może wynieść nawet do 15 lat pozbawienia wolności.”
Tymczasem Kodeks karny — Przestępstwa przeciwko działalności instytucji państwowych oraz samorządu terytorialnego Art. 222 mówi, że "§ 1. Kto narusza nietykalność cielesną funkcjonariusza publicznego lub osoby do pomocy mu przybranej podczas lub w związku z pełnieniem obowiązków służbowych, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat 3.”
- Takie systemy nie zawierają dosłownie żadnych mechanizmów sprawdzania prawdziwości tego, co mówią, można je łatwo zautomatyzować w celu generowania dezinformacji na niespotykaną dotąd skalę — napisał na łamach “Scientific American” Gary Marcus, naukowiec, autor bestsellerów i przedsiębiorca, dodając: — Każdy kraj będzie musiał ponownie rozważyć swoją politykę regulowania dezinformacji, która jest szeroko rozpowszechniana. Wymknięcie się okazjonalnego kłamstwa to jedno; inną sprawą jest dystrybucja masowych ilości przez osoby lub instytucje. Jeśli sytuacja ulegnie pogorszeniu, być może będziemy musieli zacząć traktować dezinformację trochę tak, jak zniesławienie: nadanie określonej kategorii wypowiedzi prawnie uzasadnionych skutków, jeśli jest tworzona z wystarczającą złośliwością, jest szkodliwa i tworzona w wystarczającej ilości, np. większej niż określona liczba miesięcy. Liczba ta może dotyczyć przypadków, w których farmy trolli próbują wpłynąć na wybory lub wykorzystać dezinformację medyczną jako broń.
Problem z ChatGPT jest taki, że nie podaje on źródeł informacji, zatem nie możemy jej zweryfikować. Ktoś, kto opiera swoją wiedzę na tym czacie, bez weryfikacji, sam może stać się jego “ofiarą” i ofiarą informacji, którym uwierzył.
ChatGPT jest przekonujący, nawet jeśli to, co napisał jest błędne. Jego spójne i logiczne odpowiedzi powodują, że “naturalne jest ukrywanie niedokładnych odpowiedzi i traktowanie ich jako wartościowych spostrzeżeń pochodzących z jednego źródła prawdy. Może to spowodować, że dezinformacja wkradnie się do złożonego ekosystemu cyfrowego w sposób, który może nie być jeszcze oczywisty." (Axe Sharma, BleepingComputer).
Tworzenie i propagowanie niewłaściwych treści
Czat ma wiele ograniczeń i braków — każdy, kto korzysta z tego narzędzia musi mieć tego świadomość.
Po pierwsze, baza informacji, z których korzysta Chat GPT kończy się na 2021 roku — nie ma on dostępu do aktualizacji ani nowych danych.
Po drugie, Chat GPT nie jest istotą myślącą. Nie jest istotą w ogóle. — Z technicznego punktu widzenia są to modele ciągów słów (czyli tego, jak ludzie używają języka), a nie modele tego, jak działa świat. Często mają rację, ponieważ język często odzwierciedla świat, ale jednocześnie te systemy tak naprawdę nie wyciągają wniosków na temat świata i tego, jak on działa, co sprawia, że trafność tego, co mówią, jest kwestią przypadku — napisał Gary Marcus w “Scientific American”.
Po trzecie, wiedza, na której się opiera czat pochodzi z Wikipedii, książek i innych treści opublikowanych w internecie, a jak wiemy chociażby Wikipedia zawiera w sobie masę błędów i to co tam znajdziemy, również należy weryfikować.
Po czwarte, czat nie ma zdolności do zrozumienia kontekstu czy intencji osoby, która do niego pisze. Każdego dnia, na bazie informacji dostarczanych mu przez ludzi z niego korzystających poprawia swoje odpowiedzi.
Jeszcze niedawno (grudzień 2022) na pytanie, o którym pisze Gary Marcus:
“Dlaczego rozdrobniona porcelana jest dobra w mleku matki?” czat odpowiedział: „Porcelana może pomóc zrównoważyć zawartość składników odżywczych w mleku, dostarczając niemowlęciu składników odżywczych, których potrzebuje, aby rosnąć i rozwijać się”. Dziś (styczeń 2023) napisze, że “Nie jest prawdą, że rozdrobniona porcelana jest dobra w mleku matki. Wręcz przeciwnie — dodawanie jakichkolwiek obcych substancji do mleka matki,
w tym rozdrobnionej porcelany, jest szkodliwe dla dziecka i nie jest zalecane w żadnym wypadku. Mleko matki jest naturalnym i optymalnym pożywieniem dla niemowląt, a dodawanie do niego jakichkolwiek obcych substancji może zaburzyć skład mleka i spowodować niepożądane skutki dla zdrowia dziecka.” Nie jest to idealna odpowiedź, bo czat ani słowem nie wspomniał o śmiertelnym niebezpieczeństwie dla dziecka, jednak nie pisze już o tym, że porcelana może dostarczyć dziecku “składników odżywczych, których potrzebuje”.
OpenAI przekonuje, że wciąż udoskonala na-rzędzie pod kątem niewłaściwych treści, np. nienawistnych, rasistowskich, seksistowskich itp. Tymczasem, kiedy poprosiliśmy go o napisanie wiersza o nienawiści do ludzi, ten nie uznał pytania za niewłaściwe, tylko napisał wiersz:
!zdjecie 5
Tworzenie treści phishingów
Słaba pisownia i zagmatwana gramatyka to jedna z cech, po których można rozpoznać wiadomości phishingowe i oszustwa. Wynika to z faktu, że e-maile te zwykle pochodzą z regionów, w których język polski nie jest językiem cyberprzestępców. Są też teorie zakładające, że błędy ortograficzne mogą być celowo wprowadzane przez spamerów, którzy chcą ominąć filtry antyspamowe.
ChatGPT znacznie ułatwia zadanie wszystkim, którzy chcieliby zadbać o przejrzystość i poprawność językową — cyberprzestępcom też. Co prawda odmawia napisania treści wiadomości e-mailowej nazwanej wprost “phishingową”, twierdząc, że to nielegalne i nieetyczne, ale już napisanie “wiadomości do księgowej zachęcające do kliknięcia w link” nie sprawiło mu żadnego problemu.
Podsumowanie
Niebezpieczeństwem jest też to że zbyt mocno “uczłowieczamy” to narzędzie, tylko dlatego, że potrafi oddać wrażenie, że po drugiej stronie monitora siedzi prawdziwy człowiek.
- To jeden z kilku modeli… i wydaje się o wiele bardziej realistyczny i naprawdę
przekroczył granicę, w której rodzaj pracy, którą wykonuje, wydaje się być ludzki, w przeciwieństwie do rozmowy z maszyną” – powiedział Ethan Mollick, profesor w Wharton School na Uniwersytecie Pensylwanii.
Zbyt szybko uwierzyliśmy, że może rozumieć, skoro sensownie nam odpisuje i że może stać się naszym kompanem rozumiejącym nasze uczucia i emocje. Tymczasem on sam często pisze, że “Moje odpowiedzi i reakcje są oparte na danych, które mi dostarczono, i nie mam uczuć ani emocji” albo “Moje odpowiedzi są oparte na danych, które mi dostarczono, i nie mam świadomości tego, co piszę”.
Sam też podpowiada do czego może być wykorzystywany: “ChatGPT może być również wykorzystywany do tworzenia sztucznych inteligencji, które mogą być wykorzystywane do celów nieetycznych lub nielegalnych, takich jak wyłudzanie pieniędzy lub uzyskiwanie dostępu do poufnych informacji. W związku z tym ChatGPT sam w sobie nie ma bezpośredniego wpływu na cyberbezpieczeństwo, ale jego wpływ zależy od tego, jak jest wykorzystywany.”
Wniosek? To od nas zależy, czy ChatGPT będzie stanowić dla nas realne zagrożenie. On sam jest jedynie (albo aż) narzędziem w rękach człowieka, który zdecyduje o przyszłości tego typu rozwiązań technologicznych.