Open AI i komitet ds. bezpieczeństwa
Amerykański startup kładzie większy nacisk na ochronę w kontekście rozwijanych przez firmę projektów oraz operacji. Jednocześnie firma rozpoczęła szkolenie nowego modelu sztucznej inteligencji, który ma zastąpić obecny system GPT-4.
Decyzja o utworzeniu rzeczonego komitetu nastąpiła w momencie, gdy w OpenAI toczą się intensywne debaty na temat cyberbezpieczeństwa sztucznej inteligencji. Szczególnie zyskały one na znaczeniu po odejściu z firmy badacza Jana Leike oraz krytyce skierowanej w stronę OpenAI za zbytnie skupienie na tworzeniu efektownych produktów kosztem bezpieczeństwa.
Co więcej – główny naukowiec startupu, Ilya Sutskever, również zrezygnował ze swojej roli, a firma rozwiązała zespół ds. „superalignmentu”, który zajmował się analizą zagrożeń związanych z rozwojem sztucznej inteligencji.
Czy AI będzie bezpieczniejsze?
W skład nowo utworzonego komitetu ds. bezpieczeństwa wchodzą kluczowe osoby z OpenAI, w tym CEO firmy – Sam Altman oraz prezes Bret Taylor. Dodatkowo komitet zasilają czterej eksperci techniczni i polityczni z OpenAI, a także członkowie zarządu, Adam D'Angelo, CEO Quora, oraz Nicole Seligman, była radczyni prawna Sony.
Pierwszym zadaniem komitetu będzie ocena i rozwój procesów oraz zabezpieczeń stosowanych przez OpenAI. W ciągu 90 dni przedstawi on zarządowi swoje rekomendacje. Startup zobowiązał się, że po zatwierdzeniu tych zaleceń, zostaną one opublikowane publicznie w sposób zgodny z zasadami bezpieczeństwa i ochrony.
Przyszłość AI niepewna?
Nowy komitet ds. bezpieczeństwa w OpenAI ma przed sobą ambitne zadanie – musi nie tylko ocenić obecne procesy i zabezpieczenia firmy, ale także zaproponować konkretne działania, które zapewnią bezpieczny rozwój sztucznej inteligencji. Rekomendacje komitetu mogą mieć znaczący wpływ na przyszłość firmy i kierunek, w jakim będzie podążać branża AI.
Publikacja zaleceń komitetu może również stanowić cenny wkład w dyskusję na temat standardów bezpieczeństwa w branży. Inne firmy mogą czerpać z doświadczeń OpenAI, co przyczyni się do ogólnej poprawy bezpieczeństwa sztucznej inteligencji na świecie.
Otwarcie się na krytykę oraz utworzenie specjalnego komitetu ds. bezpieczeństwa to dla OpenAI kroki mające na celu poprawę wizerunku organizacji i zapewnienie, że rozwój sztucznej inteligencji będzie przebiegał w sposób bezpieczny.
Wobec rosnących obaw dotyczących potencjalnych zagrożeń związanych z AI, takie działania mogą pomóc w budowaniu zaufania wśród użytkowników i partnerów biznesowych.
Bezpieczeństwo sztucznej inteligencji staje się coraz istotniejszym tematem w branży technologicznej. Wiele firm i organizacji na całym świecie zwraca uwagę na konieczność tworzenia odpowiednich mechanizmów ochronnych, które zapobiegną ewentualnym negatywnym skutkom rozwoju tych zaawansowanych technologii.