Inicjatywa na rzecz bezpieczeństwa AI
Amerykański Instytut Bezpieczeństwa Sztucznej Inteligencji (US AI Safety Institute), działający przy Narodowym Instytucie Norm i Technologii (NIST) Departamentu Handlu USA, ogłosił zawarcie umów z firmami Anthropic i OpenAI. Współpraca ma na celu badania, testowanie i ocenę bezpieczeństwa sztucznej inteligencji (AI). Ich celem jest wspieranie rozwoju technologii AI, które są nie tylko innowacyjne, ale przede wszystkim bezpieczne i godne zaufania.
Zawarte porozumienia ustanawiają ramy formalnej współpracy, w ramach której US AI Safety Institute zyska dostęp do najnowszych modeli AI opracowywanych przez Anthropic i OpenAI. Instytut będzie mógł testować te modele zarówno przed, jak i po ich publicznym udostępnieniu, co umożliwi szczegółową ocenę potencjalnych zagrożeń i możliwości związanych z ich użytkowaniem. Dzięki temu możliwe będzie opracowanie metod, które pozwolą na zminimalizowanie ryzyk związanych z zaawansowanymi systemami AI.
- Bezpieczeństwo jest niezbędne do napędzania przełomowych innowacji technologicznych. Mając te umowy na miejscu, z niecierpliwością czekamy na rozpoczęcie współpracy technicznej z Anthropic i OpenAI w celu rozwijania nauki o bezpieczeństwie AI — powiedziała Elizabeth Kelly, dyrektor US AI Safety Institute.
-Te umowy to dopiero początek, ale są ważnym kamieniem milowym, ponieważ pracujemy nad odpowiedzialnym zarządzaniem przyszłością AI — dodała.
Współpraca międzynarodowa i korzyści płynące z umów
W ramach podpisanych umów, US AI Safety Institute zobowiązał się do dostarczenia firmom Anthropic i OpenAI opinii na temat możliwych udoskonaleń bezpieczeństwa ich modeli. W proces ten będą zaangażowani także partnerzy z brytyjskiego AI Safety Institute, co podkreśla międzynarodowy charakter działań na rzecz bezpieczeństwa sztucznej inteligencji. Tego rodzaju współpraca ma na celu nie tylko wzmocnienie standardów bezpieczeństwa, ale również przyspieszenie wdrażania najlepszych praktyk w całym sektorze AI.
Amerykański AI Safety Institute działa na podstawie ponad 120-letnie dziedzictwa NIST, które od lat specjalizuje się w rozwoju nauki o pomiarach, technologii oraz standardach. Oceny przeprowadzane w ramach tych umów będą kontynuacją prac NIST nad AI, obejmujących szerokie spektrum badań eksploracyjnych i współpracy w zakresie zaawansowanych systemów AI. Dzięki temu Instytut będzie mógł skuteczniej identyfikować i minimalizować ryzyka związane z nowoczesnymi technologiami, co w dłuższej perspektywie przyczyni się do bardziej odpowiedzialnego rozwoju tej dziedziny.
Umowy te są zgodne z rozporządzeniem wykonawczym administracji Bidena-Harrisa, które zostało wydane w 2023 roku i które nakłada na twórców AI obowiązek dbania o bezpieczny, pewny i godny zaufania rozwój technologii sztucznej inteligencji. Ponadto są one również odpowiedzią na dobrowolne zobowiązania podjęte przez czołowych twórców modeli AI, mające na celu wzmocnienie odpowiedzialności w tym sektorze.
O US AI Safety Institute
US AI Safety Institute został powołany w wyniku wspomnianego rozporządzenia wykonawczego z 2023 roku, z zadaniem opracowywania testów, ocen i wytycznych mających na celu wspieranie bezpiecznej innowacji w dziedzinie sztucznej inteligencji. Instytut ma na celu nie tylko poprawę bezpieczeństwa technologii AI w Stanach Zjednoczonych, ale także na całym świecie, co czyni go kluczowym graczem na globalnej scenie technologicznej. Działania te wpisują się w szerszą strategię administracji USA, której celem jest zapewnienie, że rozwój AI będzie przebiegać w sposób odpowiedzialny i zrównoważony, z poszanowaniem zarówno innowacyjności, jak i bezpieczeństwa użytkowników.