“Wiosenna aktualizacja” z premierą
Największą zapowiedzią wydarzenia „Wiosenna aktualizacja” była premiera nowego flagowego modelu – GPT-4o – zapewniającego wszystkim, w tym użytkownikom darmowym, inteligencję na poziomie GPT-4. -Świeży model „GPT-4o” (litera O oznacza „omni”) może rozumować w czasie rzeczywistym za pomocą głosu, tekstu i obrazu — powiedziała Mira Murati, dyrektor ds. technologii OpenAI, która rozpoczęła transmitowane na żywo wydarzenie w poniedziałek o 10:00 czasu pacyficznego wydarzenie.
Start-up AI wprowadził także nową wersję aplikacji ChatGPT Desktop na macOS i odświeżony interfejs użytkownika, który ma sprawić, że popularny chatbot stanie się prostszy w obsłudze i znacznie bardziej naturalny. — Wiemy, że modele stają się coraz bardziej złożone, ale chcemy, aby ludzie skupili się na współpracy, a nie na procesie interfejsu użytkownika – powiedziała Murati.
- Nowy GPT-4o oferuje lepszą jakość i szybkość w 50 różnych językach, dzięki czemu OpenAI może udostępnić doświadczenie ChatGPT jak największej liczbie osób – dodała.
Pierwszy chatbot AI naśladujący ludzką rozmowę
Nowość od OpenAI ma reagować na sygnał wejściowy audio w ciągu zaledwie 232 milisekund, co oddaje czas reakcji człowieka w trakcie trwania rozmowy. Oprócz możliwości rozmawiania z ChatGPT i uzyskiwania odpowiedzi w czasie rzeczywistym bez opóźnień, użytkownicy mogą także przerywać chatbotowi podczas jego mówienia. "Czuję się jak sztuczna inteligencja z filmów. Rozmowa z komputerem nigdy nie była dla mnie naprawdę naturalna; teraz tak jest| – napisał Sam Altman, dyrektor generalny OpenAI, w poście na blogu, opisując nigdy wcześniej niewidzianą interakcję sztucznej inteligencji z człowiekiem.
Podczas transmisji live zademonstrowano możliwości nowej wersji narzędzia od OpenAI. Liczne demonstracje obejmowały wprowadzenie sztucznej inteligencji do psa, prośbę o pomoc użytkownikowi w przygotowaniu się do rozmowy kwalifikacyjnej, tłumaczenie językowe w czasie rzeczywistym i rozmowę z badaczem poprzez rozwiązanie równania matematycznego na kartce papieru, czy utworzenie i zaśpiewanie kołysanki.
Murati wyjaśniła, że przed 4o trzy komponenty używane przez GPT-4 do dostarczania trybu głosowego – transkrypcja, inteligencja i zamiana tekstu na mowę – powodowały duże opóźnienia w procesie wynurzania. — Dzięki GPT-4o będzie to odbywać się natywnie, co pozwoli nam zapewnić każdemu wydajność – powiedziała.
Bezpłatnie dla wszystkich użytkowników ChatGPT
Nowy intuicyjny model od poniedziałku jest dostępny dla szerszego grona odbiorców, w tym dla programistów, udostępniając im kilka bardziej intuicyjnych procesów. Dzięki dodaniu możliwości „wizji” użytkownicy mogą teraz przesyłać zrzuty ekranu, zdjęcia, dokumenty zawierające zarówno tekst, jak i obrazy, aby rozpocząć rozmowy z ChatGPT.
Murati zauważyła, że zdolność flagowca do integracji „pamięci” zapewni użytkownikowi poczucie ciągłości wszystkich rozmów, a możliwość „przeglądania” ułatwi użytkownikowi wyszukiwanie informacji w czasie rzeczywistym, w trakcie rozmowy. Dodatkowo „analiza danych” umożliwi użytkownikom przesyłanie dokumentów, takich jak wykresy i wykresy, oraz poprosi chatbota o przeanalizowanie informacji dla nich.
Murati powiedziała, że rozszerzy to dostęp dla użytkowników i programistów, którzy tworzą niestandardowe GPT do konkretnego użytku i udostępniają je w sklepie GPT. Wreszcie do API trafia GPT-4o – 50% tańszy, 2X szybszy i 5X wyższe limity szybkości – dzięki czemu inżynierowie mogą rozpocząć programowanie od 4o,
Murati powiedziła, że ci, którzy płacą za subskrypcję premium bardziej wydajnego GPT-4o, będą mieli także do 5 razy większy limit pojemności niż użytkownicy wersji bezpłatnej. Użytkownicy Plus uzyskają także wcześniejszy dostęp do funkcji „takich jak nasza nowa aplikacja komputerowa dla systemu macOS oraz możliwości głosowe i wideo nowej generacji” – ogłosiła firma na X.
OpenAI znalazło się pod presją rozszerzenia bazy użytkowników ChatGPT, która według najnowszych statystyk zebranych przez SEO.ai ma ponad „180 milionów użytkowników” lub około „1,6 miliarda odwiedzin miesięcznie”. Decyzja ta następuje zaledwie dzień przed długo oczekiwaną konferencją programistów Google I/O firmy Alphabet, która ma na celu wprowadzenie własnych integracji oprogramowania AI, na przykład z wyszukiwarką Google i systemem operacyjnym Android 15 o kryptonimie Vanilla Ice Cream.