Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Jak bezpiecznie wdrażać LLM w biznesie?

Jak bezpiecznie wdrażać LLM w biznesie?

Podatni na socjotechnikę, przytłoczeni ogromną ilością danych — pracownicy firm z nadzieją wypatrują wsparcia “z rąk” sztucznej inteligencji. Oczekiwania zwiększyły się po upublicznieniu Chata GPT, który jawił się jako genialny asystent zawsze gotowy do współpracy. Czy duże modele językowe naprawdę mogą pomóc, czy jednak staną się kolejnym źródłem zagrożeń?

Jeszcze bardziej wartościowe dane

W krótkim czasie po upublicznieniu Chata GPT na jaw wyszły informacje o wyciekach wrażliwych danych. Pracownicy wpadali na coraz ciekawsze pomysły wykorzystania go do zwiększenia swojej efektywności, dzięki czemu mógł pochwalić się znajomością tajnych szczegółów rozpraw sądowych, nie upublicznionych kodów, zapisów z wewnętrznych spotkań, wyników badań medycznych klientów szpitali. 

Niestety, szybko okazało się, że nowy superinteligentny “asystent” bardzo lubi dzielić się wiedzą z innymi. Część firm znalazła wyjście z problemu blokując całkowicie dostęp do technologii na służbowym sprzęcie. Jest kwestią sporną, na ile takie rozwiązanie faktycznie pomaga zmniejszyć ryzyko — wiadomo, że człowiek jest mistrzem omijania zakazów. Warto postawić parę pytań, które mogą wspomóc w analizie ryzyka korzystania z publicznie dostępnych modeli językowych w organizacji: 

W jakiej branży działa firma? W jakim dziale planujesz wprowadzić ograniczenia? 

Oczywiście istnieją branże/działy o podwyższonym ryzyku, w którym prowadzone są działania strategiczne dla firmy lub badania o wyjątkowym statusie. W takich przypadkach całkowity zakaz korzystania z dużych modeli językowych (LLM) może być uzasadniony. Jednak w działach o mniejszym prawdopodobieństwie wycieku danych wrażliwych, w których często korzysta się z danych ogólnodostępnych, takie ograniczenie może mieć odwrotny skutek. Istnieje ryzyko, że pracownik będzie przesyłać większe ilości danych na prywatne urządzenie lub wpisywać je tam ręcznie bez żadnej kontroli. 

Czy posiadasz polityki i procedury związane z użyciem publicznie dostępnych modeli językowych?

Polityka bezpieczeństwa powinna obejmować także tematy związane z użyciem publicznie dostępnych modeli językowych. Tego typu dokumenty mogą być punktem wyjścia dla pracowników, którzy chcieliby zrozumieć jakie dane można wprowadzać w modelach językowych, a jakich należy unikać. 

Czy posiadasz personel, który zajmuje się analizą ryzyka nowych technologii?

Mogą być to pracownicy działu bezpieczeństwa lub innych działów IT. W przypadku modeli językowych wiele firm było zaskoczonych nowymi zagrożeniami. W tak szybko rozwijającej się branży warto zainwestować w jednostkę, która może na bieżąco śledzić zmiany w technologii i dostosować rozwiązania w firmie.

Czy monitorujesz treści, które pracownicy umieszczają w publicznie dostępnych modelach językowych? Czy stosujesz technologie, które zapobiegają wyciekowi danych wrażliwych?

Data loss prevention, czyli systemy informatyczne, które zapobiegają wyciekowi wrażliwych informacji, są w stanie rozpoznać dane osobowe i zablokować ich kopiowanie. Monitoring i logowanie aktywności użytkownika mogą pomóc w zatrzymaniu wycieku lub jego identyfikacji na etapie analizy incydentu bezpieczeństwa. 

Jakiej wersji dużego modelu językowego używasz i czy chcesz za niego płacić? 

Bezpłatny dostęp do publicznych modeli językowych może kusić. Korzystanie z nich jest jednak obarczone pewnym ryzykiem, które można zdefiniować odpowiadając na wyżej wymienione pytania. W niektórych sytuacjach bezpieczniej skorzystać z płatnej wersji dostępnej specjalnie dla firm, dzięki czemu ogranicza się ryzyko wycieku wrażliwych danych. 

W sierpniu 2023 Open AI wprowadziło na rynek wersję Chat GPT Enterprise, w którym proponuje inne podejście do bezpieczeństwa: dane wpisane w input nie są wykorzystane do trenowania modelu, wprowadza szyfrowanie danych, zwiększa możliwości ograniczenia dostępu dla wybranych użytkowników, umożliwia retencję danych. 

Wiedza ekspercka czy sztuczna inteligencja? 

O ile do wycieku danych wprowadzanych do publicznie dostępnych modeli językowych przyczynia się człowiek i jego nieświadomość mechanizmów działania technologii, o tyle w momencie weryfikacji outputu wiedza ekspercka i zdrowy rozsądek wciąż pozostają bezcenne. Ryzyko korzystania z tekstów stworzonych przez LLM można ograniczyć poprzez dokładną weryfikację uzyskanych informacji. 

Przed upublicznieniem treści wygenerowanych przez LLM warto zadać sobie parę pytań, które mogą uchronić przed ryzykiem reputacyjnym związanym z rozpowszechnianiem fałszywych informacji:

Czy sprawdzasz content tworzony przez duży model językowy? 

W języku technologii szybko przyjęło się słowo “halucynacja”, którym określa się wprowadzające w błąd, niewiarygodne odpowiedzi tworzone przez LLM. Mówi się, że potrzeba krytycznego myślenia i analizy wiarygodności informacji będzie rosła proporcjonalnie do rozwoju sztucznej inteligencji. W wielu publicznie dostępnych modelach nie możemy być pewni na jakich danych bazuje odpowiedź i jak wyglądał proces decyzyjny przy jej tworzeniu. 

Ludzka analiza okazuje się na ten moment podstawowym remedium na ten problem, oczywiście o ile mamy dostęp do specjalistycznej wiedzy i odpowiedni czas na analizę. Pamiętaj, że content wygenerowany w LLM może być kontrowersyjny pod względem własności intelektualnej. Aktualnie trwają prace nad dostosowaniem prawa pod rozwijającą się technologię. Według europejskiego AI Act treści stworzone przez sztuczną inteligencję powinny być specjalnie oznaczone. 

Czy wprowadziłeś plan awaryjny na wypadek niedostępności modelu językowego lub spadku jakości jego pracy?

Trudno przewidzieć w jaki sposób potoczy się przyszłość publicznie dostępnych modeli językowych. Na chwilę obecną mamy wybór pomiędzy modelami zamkniętymi (między nimi słynny Chat GPT) i otwartymi (na przykład dynamicznie rozwijana Llama). W przypadku modeli zamkniętych proces działania systemu jest niewidoczny dla użytkownika, co może stanowić wyzwanie w przypadku potencjalnych awarii lub nieprawidłowego działania aplikacji.

Edukacja to podstawa

Nawet jeśli nie zezwalasz swoim pracownikom na korzystanie z LLM, warto pomóc im zrozumieć czym jest ta technologia. Bez odpowiedniego przygotowania pracownik będzie traktował modele językowe jak magię, która pozwoli zrzucić z siebie ciężar niektórych obowiązków.

Odpowiedź do klienta, tekst do raportu, dane do statystyk — dlaczego nie skorzystać z “superinteligentnego” asystenta, który w parę sekund wykona pracę na pół dnia? Edukacja pomoże zrozumieć, że LLM może być dobrym asystentem w pracy pod warunkiem właściwej kontroli i zrozumienia ryzyka.

Oceń artykuł

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa