Co będzie mogła Siri?
Informacje o pracach nad AI Apple ogłosiło na Worldwide Developers Conference. Plan jest taki, aby urządzenia Apple mogły transkrybować i podsumowywać nagrania, pomagać w pisaniu oraz określać, które powiadomienia są ważne. Ponadto Siri będzie między innymi w stanie zrozumieć informacje kontekstowe.
Te nowe funkcje, a także integracja ChatGPT rodzą pytania dotyczące sposobu, w jaki firma będzie obsługiwać dane użytkowników. W swoim przemówieniu na WWDC przedstawiciele Apple poświęcili czas na zapewnienie odbiorców, że te dane będą chronione.
Chociaż eksperci ds. cyberbezpieczeństwa zgadzają się, że podejście Apple spełnia najwyższe standardy bezpieczeństwa, firma może nadal być zmuszona wyeliminować potencjalne luki i problemy, zanim udostępni masom funkcje sztucznej inteligencji.
Podejście Apple
Ogólnie rzecz biorąc, Apple stara się w jak największym stopniu wykorzystywać przetwarzanie na urządzeniu. Jak twierdzi firma, w ten sposób dane są zdezagregowane i nie podlegają żadnemu scentralizowanemu punktowi ataku.
Większość zapytań Apple dotyczących sztucznej inteligencji będzie przetwarzana na urządzeniu z własnym językiem i modelami rozpowszechniania firmy Apple. Firma będzie również korzystać z indeksu semantycznego na urządzeniu, który będzie mógł wyszukiwać informacje z różnych aplikacji.
Czasami jednak dane muszą zostać przesłane, aby mogły zostać przetworzone w chmurze. Zazwyczaj oznacza to, że trafia do zewnętrznego dostawcy i otwiera drzwi do wszelkiego rodzaju luk w zabezpieczeniach.
Aby złagodzić to ryzyko, Apple wprowadza kilka środków. Wyśle na serwer tylko informacje istotne dla zadania – żadne dane nie będą przechowywane na serwerach ani dostępne dla Apple, a sprzęt serwera będzie wykonany z krzemu Apple.
Ponadto firma twierdzi, że za pomocą kryptografii zapewni, że jej urządzenia będą komunikować się z serwerem tylko wtedy, gdy zostaną publicznie zalogowane w wyniku kontroli. W celu zagwarantowania prywatności i bezpieczeństwa wykorzysta także niezależnych badaczy ds. bezpieczeństwa.
Inteligencja Apple nie obsłuży wszystkich zapytań użytkowników. Część zostanie przekierowana do chatbota OpeanAI, ChatGPT.
Elon Musk, założyciel i dyrektor generalny Tesli oraz jeden ze współzałożycieli OpenAi na X, nazwał to niedopuszczalnym zagrożeniem bezpieczeństwa i zagroził zakazem używania urządzeń Apple w swoich firmach.
Jednak, jak to czasem bywa Musk, wygłosił te uwagi, nie znając wszystkich faktów. System notatek społeczności X, korzystający z crowdsourcingu, poprawił nawet jego posty, twierdząc, że komentarze Muska błędnie przedstawiały to, co faktycznie ogłoszono.
Joseph Thacker, główny inżynier sztucznej inteligencji i badacz bezpieczeństwa w AppOmni, twierdzi, że Musk może nie w pełni rozumieć, w jaki sposób Apple wykorzystuje własne modele lokalnie i w swojej chmurze prywatnej. Sztuczna inteligencja Apple zadecyduje, które zapytania należy skierować z Siri do ChatGPT, nie będzie rejestrować informacji, a włączona zostanie integracja z ChatGPT. Ekspert dostrzega jednak dodatkowe ryzyko.
„Ryzyko związane z korzystaniem z dostawców SaaS, takich jak OpenAI, polega na tym, że istnieje zupełnie nowy wektor ataku. Startupy takie jak OpenAI nie mają wieloletniego doświadczenia i dużych zespołów, które pozwoliłyby im poświęcić czas na odpowiednie zamodelowanie zagrożeń i zabezpieczenie wszystkiego, aby najwyższym standardzie” – stwierdził.
Ryzyko związane z integracją ChatGPT z Siri jest jednak dość niewielkie, ponieważ Apple potwierdziło, że nie przekazuje żadnych danych użytkownika do Open Ai podczas wywoływania ChatGPT.
Nawet gdyby OpenAI złamało obietnicę niezapisywania danych, to o ile dana osoba nie powie: „Nazywam się X i chciałbym dowiedzieć się czegoś o Y”, OpenAI nie będzie w stanie dowiedzieć się, kto zadaje jakie pytanie – wyjaśnia Thacker.
Badacze opisują usługę Private Cloud Compute firmy Apple jako „bardzo bezpieczną, złożoną i dobrze przemyślaną infrastrukturę”.
„Wymagałoby wielu wyrafinowanych luk dnia zerowego, aby naruszyć bezpieczeństwo prywatnej chmury Apple, jeśli opublikowana architektura została poprawnie zaimplementowana. Opiera się ona na zerowym zaufaniu. Nawet ich inżynierowie nie mają dostępu do kluczy niezbędnych do odszyfrowania przetwarzanych danych. Wykorzystywanie jest niezwykle mało prawdopodobne” – dodał Thacker.