Świadomość, czyli nieodkryta zagadka nauki
Dr Maciej Kawecki 6 czerwca rozpoczął swój wykład “Świat Halucynacji” od fundamentalnego pytania, które nurtuje zarówno naukowców, jak i filozofów: - Nie wiemy dzisiaj, jak z materii przekształca się świadomość. Nie potrafimy opisać tego procesu, nawet nie wiemy, gdzie świadomość się rodzi (...). Nie wiemy, czym świadomość jest. Nie potrafimy w związku z tym stworzyć wzoru matematycznego, który opisuje proces rodzenia się ludzkiej świadomości. Nie jesteśmy więc w stanie stworzyć algorytmu, który opisuje proces rodzenia się ludzkiej świadomości. Używanie terminu, świadomość w rozumieniu fizyka jest czymś niepopartym w nauce w żadnym zakresie — powiedział na wstępie Maciej Kawecki.
Przywołał też postać Rogera Penrose’a, laureata Nagrody Nobla z fizyki z 2020 roku, który wraz ze Stephenem Hawkingiem opracował teorię osobliwości. Penrose jest jednym z głównych zwolenników teorii, że ludzka świadomość może mieć podłoże kwantowe. Ta hipoteza, choć fascynująca, wciąż pozostaje na etapie badań.
Naukowcy, jak Penrose, starają się zrozumieć, jak zjawiska kwantowe mogą wpływać na świadomość, ale jak na razie brak jest jednoznacznych dowodów empirycznych. Kawecki podkreśla, że nawet jeśli zaawansowane badania prowadzą nas do interesujących hipotez, świadomość wciąż pozostaje wielką zagadką. - To pokazuje, jak trudnym zagadnieniem mamy do czynienia — dodał Kawecki.
Nazwisko noblisty nie padło przypadkiem, bo już w przyszłym tygodniu premierę będzie miał film dokumentalny stworzony przez Macieja Kaweckiego wspólnie z Rogerem Penrosem.
Dezinformacja w kontekście sztucznej inteligencji
Konkluzja początku wykładu była taka, że skoro nie wiemy, czym jest ludzka świadomość, to jak świadomością możemy nazywać to, co tworzymy, tzn. świadomość sztucznej inteligencji na podobieństwo tej ludzkiej. - Jest to kluczowe zrozumienie dla całej dyskusji na temat sztucznej inteligencji, ponieważ pokazuje, jak niewiele wiemy na temat samej istoty ludzkiego umysłu — zaznaczył Kawecki.
- Mówiąc na temat sztucznej inteligencji dezinformujemy. Po prostu - usłyszeli uczestnicy CSF. Brakuje nam odpowiedniej terminologii i precyzyjnych definicji, które mogłyby w pełni opisać, czym naprawdę jest AI. Jest to kluczowy problem, ponieważ nieposiadanie jasnych definicji prowadzi do błędnych interpretacji i oczekiwań wobec technologii.
- Często słyszę o tym, że my tworzymy konkurencję dla ludzkiego mózgu. Tylko jak możemy tworzyć konkurencję dla czegoś, co nie wiemy jak działa? Nie wiemy jak jest zbudowany do końca. Nie wiemy nawet, jaką funkcję pełni glej. Wiemy, że pełni bardzo istotną, ale nie wiemy jaką. Nie wiemy, jak impuls elektryczny przechodzi przez ludzki mózg. Nie wiemy jak ewolucja wpłynęła na rozwój ludzkiego mózgu. Dlaczego to akurat homo sapiens ewoluował do tego, a nie innego etapu. I znów… nie stworzymy przecież wzoru matematycznego, który opisuje funkcjonowanie ludzkiego mózgu, więc i algorytmu - kontynuował Maciej Kawecki, jasno wskazując, że my nie replikujemy ludzkiego mózgu czy mózgu jakiegokolwiek żywego organizmu: - Tak po prostu nie jest. Tworzymy jakiś inny byt. Tworzymy coś innego, czego nie potrafimy językowo jeszcze po prostu opisać, ale bez wątpienia nie jest to ani mózg, nie jest to również świadomość.
Byt nieludzki
Teraz rodzi się pytanie: to w takim razie, co tworzymy? Istnieją dwie popularne opinie.
- Pierwszą z nich jest, że to narzędzie. Takie jak, na przykład, nóż. Możemy nim zabić, ale za pomocą którego możemy stworzyć coś dobrego, pokroić kanapkę, obronić się. (...) Jeśli jednak wrócimy do precyzji języka, który towarzyszył tworzeniu sztucznej inteligencji, to nóż jest — fizyk powie — sferą. Nóż jest nożem, to my decydujemy, jaką funkcję temu nożowi nadamy, ale on jest nożem, zamkniętą konsystencją, nie siecią neuronową. Sieci neuronowe dziś są inne niż będą, w tej sekundzie są inne niż będą za 2 czy 3 sekundy. Więc w tym sensie mamy proces ich ewolucji. Nie możemy więc ich porównywać do noża, jest to coś więcej niż tylko narzędzie - wyjaśnił Kawecki.
Jak powiedział: - Drugie stanowisko mówi, że to jest byt. Szlag mnie trafia, jak słyszę takie określenie. Ono bardzo dobrze brzmi w nagłówkach gazet..Ale jeżeli zadamy pytanie, czym jest byt nieludzki, kto zbudował taką definicję? Gdzie to znajduje potwierdzenie w jakiejkolwiek filozofii? Co to znaczy byt nieludzki? To czym w takim razie jest ta sztuczna inteligencja? Jest w takim razie tworem.
Według niego, najtrafniejsze badania w tym zakresie to te autorstwa profesora z Uniwersytetu Jagiellońskiego — Michała Ostrowickiego pseudonim Sidey Myoo, który tworzy taką całą dziedzinę filozofii od kilkudziesięciu lat.
- Technologię traktuje jako nową strefę bytowania człowieka. My tworzymy nową strefę bytowania człowieka i jako nowa strefa bytowania człowieka jest przedmiotem zainteresowania filozofii i teraz co my robimy z tą strefą bytowania? To my ją urządzamy na jedyny możliwy wzór, jaki wydaje nam się, że znamy, czyli na wzór i podobieństwo strefy bytowania tej analogowej, w której żyjemy. I teraz jak sobie w ten sposób spojrzymy, to zobaczcie, że nauka pozwala nam odpowiedzieć dzisiaj na pytanie, jakie są granice rozwoju? — wyjaśnił Kawecki.
Granice rozwoju sztucznej inteligencji
Dr Kawecki omówił po kolei ograniczenia, które determinują rozwój sztucznej inteligencji, wskazując trzy główne bariery: halucynacje, dane syntetyczne oraz moc obliczeniowa.
Halucynacje. Pierwszym z wyzwań są halucynacje modeli AI, które generują nieprawdziwe informacje mimo posiadania prawdziwych danych. — Możemy sobie wyobrazić, że mamy bazę danych zawierającą rekordy, które są prawdziwe, ale w efekcie zadanego promptu pozyskujemy nieprawdziwą informację, czyli kłamstwo — zaznaczył Kawecki, sugerując, że może to wynikać z różnicy między wiedzą a niewiedzą modelu: — Problem polega na tym, że my nie jesteśmy w stanie względem modelu zbudować trafnego oczekiwania, bo nie wiemy, jakimi danymi dysponuje.
Halucynacje są poważnym problemem, ponieważ mogą prowadzić do błędnych wniosków i decyzji opartych na fałszywych danych.
Dane syntetyczne. Drugi problem to dane syntetyczne, które, choć mogą być niezwykle podobne do danych naturalnych, mogą prowadzić do błędów. - My poszliśmy w kierunku danych syntetycznych, a więc danych z założenia nieprawdziwych. One mogą być bardzo prawdziwe, mogą być do złudzenia przypominające dane w 99,999 procentach, ale nigdy nie będą dobrymi naturalnymi danymi - powiedział Maciej Kawecki. Wskazał za przykład profesor Martę Kwiatkowską, pierwszą kobietę profesor wydziału nauk komputerowych Uniwersytetu Oksfordzkiego. Podkreśla ona, że nie chodzi o ilość danych, ale o inteligentne przetwarzanie informacji, które już posiadamy. - Tworząc system PRISM, doszła do wniosku, że tu nie chodzi o więcej, tylko chodzi o odpowiedź na pytanie jak inteligentniej przetwarzać informacje, które mamy.
Moc obliczeniowa. Trzecia bariera to moc obliczeniowa. Prawo Moore’a, które mówi o podwajaniu liczby tranzystorów w układach scalonych co 18 miesięcy, osiąga swoje fizyczne granice. — Poszukujemy nowej technologii przetwarzania danych, ponieważ przestrzenie pomiędzy tranzystorami dzielimy już w atomach — wyjaśnił Kawecki wskazując, że przyszłość może leżeć w technologiach kwantowych, ale podkreślił, że obecnie brak jest jednej dominującej technologii tworzenia komputerów kwantowych.
W swojej prelekcji wspomniał o prof. UMK — Piotrze Wciśle, który stawia pytania o to, czy model standardowy jest ostatecznym wydaniem teorii kwantowej. Razem z zespołem prowadzi eksperymenty, które wykorzystują ultradokładne systemy laserowe do testowania teorii kwantowej.
- To w ten świat jesteśmy zdecydowanie wpatrzeni i znów tutaj też dezinformujemy, bo ile razy wy usłyszeliście słowo “komputer kwantowy”, taki wytrych, który chce się użyć, żeby opisać jakąś przyszłość, niedotkniętą, niezrozumiałą. Problem polega na tym, że my nie możemy dzisiaj używać terminu “komputer kwantowy” bez doprecyzowania, o jaką maszynę chodzi, ponieważ nie mamy komputerów kwantowych, nie mamy w takim sensie, że świat nie postawił na jedną technologię tworzenia komputerów kwantowych, bo dzisiaj poszukujemy technologii tworzenia komputerów kwantowych - wyjaśnił Kawecki.
Przyszłość technologii przetwarzania danych
Podczas wykładu dr Kawecki omówił również, jak rozwijają się technologie przetwarzania danych, wskazując, że świat wszedł w erę fotoniki, czyli technologii opartej na świetle.
- Dzisiaj jesteśmy o krok dalej, bo wykorzystujemy na przykład kondensat Bosego-Einsteina, gdzie cząstki zachowują się jako jedność. Przyszłe technologie będą determinowane przez nasze zrozumienie świata kwantowego, ale także przez nasze potrzeby społeczne i technologiczne — powiedział.
Praktyczne zastosowania AI
Kawecki przedstawił również przykłady praktycznych zastosowań AI, które mogą mieć znaczący wpływ na nasze życie. Wspomniał o polskim startupie, który rozwija technologię kapsułki endoskopowej do diagnostyki układu pokarmowego.
- Taka kapsułka robi 74000 zdjęć układu pokarmowego i dane trafiają od razu na platformę medyczną, gdzie warstwa neuronowa rozpoznaje patologie - zaznaczył. Technologia stworzona przez Macieja Wysockiego ma potencjał, aby zrewolucjonizować diagnostykę medyczną, umożliwiając przeprowadzenie gastroskopii i kolonoskopii w domowym zaciszu.
Dodajmy, że team BioCam w kategorii “scaleup” zdobył podczas Carpathian Startup Fest 2024 — drugie miejsce.
Nowe technologie a kryzysy społeczne
Kawecki wskazał również na znaczenie nowych technologii w kontekście rozwiązywania kryzysów społecznych. Podkreślił, że technologia powinna odpowiadać na konkretne wyzwania i potrzeby. - Często na wykładach, konferencjach słyszałem hasło “trendy”, ja nie wierzę w to. Trendy nie istnieją. Dzisiaj w zmieniającej się rzeczywistości bardziej bym się skupiał na kryzysach, czyli odpowiedź na pytanie, jak wasza technologia będzie w stanie rozwiązać określony kryzys — wyjaśnił dr Kawecki.
Podsumowując swój wykład, dr Maciej Kawecki pozostawił uczestników prelekcji z myślą, że mimo ogromnych postępów w dziedzinie sztucznej inteligencji, nasza wiedza o świecie i ludzkiej świadomości jest wciąż ograniczona. Jednak to właśnie te granice i wyzwania napędzają dalsze badania i rozwój technologii. Podkreślił, że rozwój sztucznej inteligencji powinien iść w parze z rozwojem naszego zrozumienia ludzkiej natury i świata, w którym żyjemy.
- Musimy zrozumieć siebie, aby móc tworzyć technologie, które będą nam naprawdę służyć, a nie tylko imponować - zakończył swój wykład.
"Security Magazine" był patronem medialnym Carpathian Startup Fest.
Fot. Joanna Gościńska