Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

10 miliardów haseł w rękach cyberprzestępców

10 miliardów haseł w rękach cyberprzestępców

Tyle unikalnych haseł zebranych w jednym miejscu udostępnił użytkownik darknetu o pseudonimie Obamacare. Ten zbiór to nie tylko materiał do badań dla specjalistów od cyberbezpieczeństwa, ale przede wszystkim narzędzie, które może wspierać cyberprzestępców w atakach na tożsamość. Jakie zagrożenia niesie ze sobą ten wyciek i co oznacza dla naszego bezpieczeństwa?

Dziś

Współczesne sposoby uwierzytelniania opierają się głównie na dwóch modelach – tradycyjnym wykorzystującym jedynie hasło oraz bardziej zaawansowanym dwuskładnikowym.

O wadach pierwszego modelu powiedziano już wiele. Zabezpieczenie tożsamości za jedynie za pomocą współdzielonego sekretu jakim jest hasło to akceptacja ryzyka utraty tej tożsamości – ryzyka graniczącego z pewnością. Tym bardziej zatrważający jest fakt, że prawie 40%[1] firm wciąż nie wprowadziło żadnej formy wieloskładnikowego uwierzytelniania do swoich rozwiązań.

Instytucje, które z wieloskładnikowego uwierzytelniania korzystają upodobały sobie aplikacje typu authenticator oraz wariacje na temat standardu TOTP[2] – w sumie 70% drugich składników dostarczane jest w taki sposób[3]. Na drugim miejscu są SMSy i emaile – łącznie 20%.

Wszystkie powyższe metody, łącznie z samymi hasłami mają jedną inherentną wadę – bazują na jakimś współdzielonym czynniku. Kody jednorazowe oraz hasła muszą mieć swój odpowiednik na obu końcówkach komunikacji podczas gdy standard TOTP opiera się na współdzielonym ziarnie. Dzięki temu wyciek może nastąpić na każdej z końcówek komunikacji oraz w tranzycie.

Ostatnie 10% tego rynku opanowane jest przez klucze sprzętowe (czyli tak zwane kryptokluczami, najpopularniejszym przykładem są tu Yubikey produkowane przez firmę Yubico). W przypadku tej technologii bezpieczeństwo zapewnione jest dzięki wykorzystaniu kryptografii klucza publicznego a generowane klucze są nie tylko unikatowe dla serwisów, które zabezpieczają, ale też nierozerwalnie powiązane z domeną, na której zostały stworzone. Standard ten, opracowany przez FIDO Alliance sprawia, że drugi składnik dostarczany za pomocą kluczy krypto jest idealnym zabezpieczeniem przed phishingiem – najpopularniejszym obecnie atakiem na nasze poświadczenia.

Jutro (jest dziś…)

Standard FIDO U2F, bo o nim w poprzednim akapicie była mowa mógłby być przyszłością uwierzytelniania. Trafił jednak na spory opór, ponieważ opiera się na konieczności posiadania fizycznego klucza kryptograficznego, który mógłby drugi składnik bezpiecznie dostarczyć. Oczywiście, zabezpieczenie się na wypadek zgubienia klucza wymaga kupienia i zarejestrowania od razu dwóch urządzeń, co generuje nie tylko koszt, ale też dodatkową pracę. Spowodowało to, że sam standard zyskał raczej popularność wśród technicznie zorientowanej części populacji – stąd jego słaby wynik w ogólnym podziale tortu uwierzytelniania.

FIDO Alliance zauważyło, że wspomniane ograniczenia mogą być problemem, więc od razu po udostępnieniu standardu FIDO U2F rozpoczęło pracę nad jego następcą – standardem FIDO 2 i wynikającymi z niego passkey’ami lub bardziej po polsku – kluczami bezpieczeństwa. U samej podstawy idea jest identyczna – wykorzystać kryptografię asymetryczną do uwierzytelnienia użytkowników mitygując wspomniane już wady haseł. FIDO Alliance poszło jednak o kilka kroków do przodu. Po pierwsze rozszerzona została definicja uwierzytelniacza – nie ogranicza już się ona tylko do kluczy sprzętowych zapewniających wsteczną kompatybilność, ale zawiera w sobie również uwierzytelniacze platformowe (Apple ID, Windows Hello, Android Passwords) oraz software’owe (menadżery haseł takie jak Bitwarden, 1Password czy Keepass). Ta jedna decyzja otwiera standard na całe rzesze użytkowników, dla których zakup dodatkowego sprzętu do uwierzytelniania był do tej pory barierą nie do przeskoczenia.

Dodatkowym skutkiem otworzenia się na platformy systemowe jest możliwość skorzystania z ich sprzętowych zabezpieczeń do odblokowywania uwierzytelniaczy. Użytkownicy telefonów odblokowują więc swoje klucze biometrią, PINem lub znanymi z Androidów szlaczkami. Użytkownicy systemów Windows mogą skorzystać z Windows Hello i odblokowywać uwierzytelniacze skanem twarzy lub (w przypadku starszych komputerów) PINem a ci w rezerwacie Apple mają do dyspozycji Touch ID. Dzięki temu, że standard pozwala skorzystać z ceremonii, które są użytkownikom znane, i do których się przyzwyczaili sama adopcja passkey’ów jest o wiele łatwiejsza dzięki czemu ten sposób uwierzytelniania ma większe szanse przyjąć się w szerszej części populacji niż klucze U2F.

FIDO Alliance postawiło kropkę nad przysłowiowym „i” dodając do standardu pole jednoznacznie identyfikujące użytkownika po jego kluczu. Ta niewielka zmiana ma kolosalne znaczenie dla tego jak możemy się uwierzytelniać, ponieważ dzięki temu passkey’e nie muszą już być „tylko” kolejnym składnikiem uwierzytelniania. Dzięki powiązaniu klucza z użytkownikiem stają tym jedynym sposobem dostarczenia tożsamości wprowadzając ideę bezhasłowości. Jednocześnie przy zachowaniu potrzeby odblokowania uwierzytelniacza przy każdym użyciu wciąż stosują się do zasad wieloskładnikowości – po prostu eliminują potrzebę korzystania z hasła jako jednego ze składników.

Passkey’e maja szansę na zrewolucjonizowanie tego jak będziemy się logować do usług. Apple, Meta, Google i Microsoft – to tylko ułamek firm, które są członkami FIDO Alliance[4], i które zaangażowały się w tworzenie i implementacje standardu. Każda z tych firm pozwala już na korzystanie z passkey’ów do uwierzytelniana bezhasłowego, a za nimi idą następni. Jesteśmy już w trakcje tej rewolucji.

Z kronikarskiego obowiązku wspomnę jeszcze o uwierzytelnianiu opartym na ryzyku (Risk Based Authentication) – dynamicznej metodzie weryfikacji użytkownika, dzięki której można dynamicznie dostosować poziom zabezpieczeń do kontekstu logowania i związanego z nim ryzyka. System ocenia różne czynniki, takie jak lokalizacja, urządzenie, czas logowania czy wzorce zachowania użytkownika bazując na komplementarnej mechanice uwierzytelniania behawioralnego (ciągłego). Samo RBA jednak z zasady nie jest traktowane jako główna metoda uwierzytelnienia – jest raczej dodatkowym zabezpieczeniem dokładanym do już istniejących czynników.

Pojutrze

A co nas czeka w już całkiem namacalnej przyszłości? Cała branża cyberbezpieczeństwa z zaniepokojeniem stara się podejrzeć w czym tam sobie dziś dłubią fizycy. Dlaczego właśnie oni? Otóż to właśnie fizyka dowiodła, że zbliżamy się do kresu obowiązywania prawa Moore’a[5] mówiącego o tym, że ilość tranzystorów w urządzeniach elektronicznych będzie się podwajać co dwa lata. Ma to związek oczywiście z miniaturyzacją i pędem ku poprawie osiągów. Na przeszkodzie dalszej miniaturyzacji stoją jednak efekty kwantowe, a konkretnie kwantowe tunelowanie, pozwalające elektronom wręcz przenikać przez wystarczająco cienkie blokady – a zwróćmy uwagę, że badaczom udało stworzyć tranzystor z bramką o grubości jednego atomu węgla[6] co jest już nieprzekraczalną granicą.

Wynika z tego, że komputery oparte o tradycyjne bramki tranzystorowe dobiegły do ściany a pałeczkę przejmą komputery kwantowe. I nie chciałbym się rozwodzić nad tym jak działają, czym są qbity (q-bity? qubity? – środowisko jeszcze się spiera nad poprawnym nazewnictwem, a chodzi po prostu o bity kwantowe, które według definicji są w superpozycji stanu „0” oraz „1” — przynajmniej, dopóki nie dokona się pomiaru) i dlaczego korzystanie z nich nie oznacza wzrostu prędkości obliczeń (a często wręcz przeciwnie) ale tylko sposobu ich wykonywania.

Zamiast tego chciałbym krótko wspomnieć o algorytmie faktoryzacji Shore’a, który (w dużym uproszczeniu) dzięki zdolności qbitów do bycia w superpozycji pozwala na to, do czego konwencjonalne komputery potrzebują setek lat – na rozprucie enkrypcji RSA.

Póki co realne ryzyko dotyka zaszyfrowanych danych, które są gromadzone przez zainteresowane grupy w celu odszyfrowania, kiedy już to będzie możliwe. W kontekście samego uwierzytelniania ryzyko jest mniejsze – ponieważ sama wymiana zaszyfrowanych danych odbywa się tu i teraz, a zanim komputery kwantowe będą w stanie dobrać się do kluczy prywatnych minie jeszcze trochę czasu. No, ale lepiej być przezornym niż ubezpieczonym, więc narzędzia do naszej cyberbezpiecznikowej skrzynki są już tworzone – i to one będą tym, co określiłbym jako „pojutrze uwierzytelniania”.

Same standardy opracowane przez FIDO Alliance, a konkretnie API WebAuthn nie ograniczają się do konkretnych standardów szyfrowania. Jak przy każdej wymianie klucza jego wybór jest wynikiem negocjacji pomiędzy uwierzytelniaczem a stroną uwierzytelniającą i po tej drugiej stronie jest definiowany za pomocą sekcji pubKeyCredParams[7]. To dobra wiadomość, ponieważ nie zamykamy się w kontekście jednego, słusznego algorytmu, ale pozwalamy na wykorzystywanie tego, co aktualnie uważane jest za najbezpieczniejsze. A już trwają prace nad standardami odpornymi na algorytm Shore’a. W 2022 NIST (National Institute of Standards and Technology) ogłosił 4 kandydatów na kwantoodporne (a przynajmniej takie może być tłumaczenie Quantum Resistant) algorytmy szyfrowania[8].

I nie mam złudzeń – jak w każdej dziedzinie cyberbezpieczeństwa, nie będą to ostateczne algorytmy a standardy będą ewoluować i zmieniać się wraz z całym środowiskiem, ale przyszłość wygląda obiecująco i – mam nadzieję – bezhasłowo.

Przypisy:

[1] Dataprot.net

[2] Datatracker

[3] Enterprise Apps Today

[4] Fido Alliance

[5] svmoore.pbworks.com PDF

[6] Spectrum.ieee.org

[7] Developers.yubico.com

[8] nist.gov

Oceń artykuł

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa