Kilka dni temu rozmawiałem z filmowcami planującymi zrobić program o Marianie Smoluchowskim. Ci filmowcy wiedzą wszystko o Europie przełomu stuleci, o Wiedniu, Lwowie i Krakowie, o rodzinie Smoluchowskiego, o jego wyczynach alpinistycznych i narciarskich, o podróżach i zainteresowaniach artystycznych, wiedzą to i umieją opowiedzieć. Nie widzą tylko jednego: dlaczego Marian Smoluchowski uważany jest za najwybitniejszego polskiego fizyka. To właśnie usiłowaliśmy im wytłumaczyć.
Smoluchowski zrobił w fizyce wiele wspaniałych rzeczy, z których najbardziej znane jest wyjaśnienie ruchów Browna (zobacz także artykuł w Fotonie). Cząsteczki Brownowskie, na przykład pyłki roślinne czy inne drobinki w zawiesinie wodnej, nam wydają się malutkie, ale są bardzo duże w porównaniu z cząsteczkami wody, których za to jest bardzo wiele. Cząsteczki Brownowskie zderzają się z nimi, a skumulowany, uśredniony efekt tych zderzeń widzimy jako chaotyczne, bardzo nieregularne ruchy elementów zawiesiny. Albert Einstein i Marian Smoluchowski, pracując niezależnie, podali nie tylko to wyjaśnienie, ale także teorię matematyczną pozwalającą opisać to zjawisko. Dziś tę teorię uznajemy za początki teorii procesów stochastycznych i stochastycznych równań różniczkowych (w tym momencie filmowcy odmówili współpracy).
Rzecz w tym, że cząsteczek wody jest naprawdę kolosalnie wiele i nie sposób śledzić ich wszystkich. Widać tylko uśredniony efekt wielu takich zderzeń. Istota podejścia Smoluchowskiego sprowadza się do tego, że mamy bardzo, bardzo wiele obiektów „małych”, których nie sposób śledzić indywidualnie, które wpływają na na coś „dużego”, co nas interesuje i co możemy obserwować. Teoria zapoczątkowana przez Smoluchowskiego pozwala przewidzieć (przynajmniej w sensie statystycznym) zachowania obiektu „dużego”, zwłaszcza jeśli oprócz przypadkowych impulsów pochodzących od obiektów „małych”, działa jeszcze jakiś mechanizm deterministyczny – fizyk zainteresuje się przede wszystkim oddziaływaniami, ekonomista trendami i sezonowością, a statystyk korelacjami. Wszystko to stanowi podstawę modelowania stochastycznego (Monte Carlo), jednego z najważniejszcy narzędzi badawczych nie tylko w fizyce, ale także w ekonomii, naukach przyrodniczych i w technice.
Zmieńmy temat. Ludzie przewidujący rozwój informatyki i jej zastosowań zapowiadają rychłe nadejście Internetu rzeczy, IoT. Sztandarowym przykładem jest „inteligentna lodówka”, która sama stwierdzi, że kończy nam się mleko, sok i jajka, sama złoży zamówienie, a inteligentny dron sam dostarczy nam zakupy wprost do domu. Inny przykład to ekspres do kawy, który uruchomimy za pomocą aplikacji w telefonie, tak aby po wejściu do domu czekała na nas gorąca, świeżutka, pachnąca kawa. Albo inteligentny piec w łazience, który uruchomimy inną aplikacją, abyśmy mieli wodę nagrzaną na czas (zagrzana za wcześnie będzie stygnąć, czyli albo będzie zbyt zimna, jak na nasz gust, albo trzeba ją będzie podgrzewać, czyli marnować energię; zagrzana zbyt późno sprawi, że będziemy musieli czekać). Oczywiście inteligentny ekspres i inteligentny piec same zamówią serwisanta do swojego przeglądu, a gdy uznają, że są już zużyte, zasugerują nam zakup swoich następców. Inteligentne sprzęty domowe nie będą bać się śmierci. HAL 9000 jest oczywistym wyjątkiem.
Ale to nie wszystko. Dziś większość z nas ma smartfony, niektórzy smartwatche, a będzie tego więcej. Inteligentne okulary, które będą nam coś wyświetlać, inteligentne klucze, które będzie można zaprogramować tak, aby otwierały kolejne drzwi, inteligentny portfel, inteligentne urządzenia monitorujące nasz stan zdrowia, inteligentna obroża psa, żeby nie zgubił się na spacerze, inteligentne Bóg wie co jeszcze. Celem, jak mówią wizjonerzy IoT, ma być, abyśmy byli „bez przerwy zanurzeni w przestrzeni Internetu, bez potrzeby logowania”. Szczerze powiedziawszy nie wiem, co dobrego mogłoby z tego wyniknąć, ale obawiam się, że ludzkość może spróbować to zrealizować.
Problemem – a może właśnie nadzieją?! – mogą okazać się wymagania sieciowe. Wszystkie te inteligentne urządzenia będą musiały bardzo często łączyć się z siecią, choćby po to, aby powiedzieć „Hej, jestem, czekam!”. Zapewne nie będą robić tego tak często, jak dzisiejsze połączone z siecią komputery, ale ponieważ ma być ich naprawdę dużo, i tak wygenerują gigantyczny ruch. Duże i całkiem małe urządzenia podłączone do IoT będą się ze sobą komunikować także bez żadnej świadomej akcji z naszej strony, aby zapewnić nam to „zanurzenie w przestrzeni Internetu”. Aby całego IoT szlag nie trafił, potrzebne będą nie tylko bardzo wydajne serwery, ale także inteligentne – no jakże by inaczej – algorytmy obsługi ruchu. I tu wracamy do paradygmatu ruchów Browna: mnóstwo „małych”, czyli impulsów pochodzących od tych wszystkich inteligentnych gadżetów, a imię ich Legion, może zauważalnie wpływać na coś „dużego”, czyli na sieć łączącą te wszystkie „małe” i na zarządzające nią serwery, choć wpływ każdego „małego” z osobna jest pomijalny. Co więcej, stany urządzeń IoT nie będą w pełni niezależne: nasza inteligentna lodówka raczej nie wyjdzie z kuchni, ale inteligentne okulary będą się wraz z nami przemieszczać naszymi inteligentnymi samochodami, a wraz z inteligentnymi okularami zazwyczaj będą to robić nasze inteligentne klucze i portfel. Aby to wszystko inteligentnie obsłużyć, sięgnąć trzeba będzie do zaawansowanych modeli matematycznych, wyrosłych z teorii, którą Marian Smoluchowski wymyślił nieco ponad sto lat temu aby wyjaśnić ruchy Browna.
Uzupełnienie: Obecny stan internetu rzeczy dobrze ilustruje smutna historia programisty, który przez 11 godzin usiłował uruchomić swój nowy czajnik podłączony do WiFi.

Marian Smoluchowski, 1872-1917


Musisz być zalogowany, aby dodać komentarz.