Traktat dataistyczny

Nauka o danych, data science, staje się ważniejsza od tradycyjnej informatyki – tak przynajmniej niektórzy twierdzą. Na tej bazie powstał nawet nowy ruch filozoficzny, dataism, twierdzący, że najwyższą wartością jest przepływ informacji. Prorokiem tego ruchu jest izraelski historyk Yuval Noah Harari. Pisał on:

The universe consists of data flows, and the value of any phenomenon or entity is determined by its contribution to data processing.
Yuval Noah Harari, Homo Deus. Krótka historia jutra, 2016

Gdy tylko poznałem ten cytat, natychmiast skojarzył mi się z najsłynniejszym tekstem Wittgensteina:

1. Świat jest wszystkim, co jest faktem.
2. To, co jest faktem – fakt – jest istnieniem stanów rzeczy.

Ludwig Wittgenstein, Traktat logiczno-filozoficzny, 1922

Oczywiście związki (i różnice) pomiędzy Wittgensteinem a Hararim były już dyskutowane – patrz na przykład pierwszy link wyrzucany przez wyszukiwarkę – mnie jednak uderzyła dzieląca ich różnica w postrzeganiu świata. Świat Wittgensteina jest statyczny, jest zbiorem ustalonych faktów odzwierciedlających stany rzeczy. Faktów co prawda przybywa, ale gdy już raz zaistniały, to są. Możemy je oglądać, badać, zastanawiać się nad nimi, ale one same trwają, niezmienne. U Harariego jest zupełnie inaczej: nie ma niczego trwałego, są jedynie przepływy.

Wydaje mi się to bardzo głęboką zmianą w obrazie świata.

Fizyka jest Wittgensteinowska, gdyż świetnie radząc sobie z opisem stanów, ma kłopoty z opisem procesów (tam, gdzie to w ogóle robi, ucieka się do podawania ciągu stanów pośrednich, nawet jeśli są one konstruktem całkowicie abstrakcyjnym – można tak powiedzieć i o procesach kwazistatycznych w termodynamice, i o interpretacji grafów Feynmana w kwantowej teorii pola, i o całkach po trajektoriach, i o bądź czym jeszcze). Data science, niejako z definicji, opiera się na przepływach informacji, ale to samo można by powiedzieć o współczesnej biologii (przepływy informacji i energii; tu dotykamy podstaw termodynamiki, gdzie pokazuje się, że przepływ informacji może być źródłem przepływu energii), a także psychologii.

Ha, wychodzi na to, że fizyka jest przestarzała! Ale ja i tak cenię Wittgensteina, a Harariego nie bardzo, choć obserwacja, iż świat opiera się na przepływach informacji, jest odkrywcza, nawet jeśli jest tylko uogólnieniem tego, co już wiemy z termodynamiki.

By Title etc. uncopyrightable; layout by Harcourt Brace. - Wittgenstein, Tractatus Logico-Philosophicus, New York: Harcourt, Brace, 1922. (via Google books), Public Domain, https://commons.wikimedia.org/w/index.php?curid=11830531

Fizyka: wykształcenie ogólne

Będąc na Zjeździe Fizyków Polskich, przysłuchiwałem się dzisiaj dyskusji na temat nauczania fizyki w szkołach. Powiedziano tam wiele ważnych rzeczy, z których nic nie wyniknie. Niestety, nasi współobywatele nie są zainteresowani poziomem edukacji. Większości szkoła nic nie obchodzi, a ci, którzy mają dzieci w szkołach, chcą, żeby dzieci były „zaopiekowane”, jeśli są małe i żeby dostały odpowiednio dobre świadectwo, jeśli są starsze. To, czego dzieci się nauczą, jest niemalże bez znaczenia. I nie dotyczy to tylko fizyki, ale nauczania szkolnego jako takiego. Interesuje się tym tylko grupka zapaleńców. Tymczasem świadectwo może wypisać woźny, sekretarka przystawi pieczątkę, dyrektor podpisze i voilà! To, że ze szkoły będą wychodzić funkcjonalni analfabeci, prawie nikogo nie martwi.

Jeśli ludzie nie są zainteresowani poziomem nauczania, nie zainteresują się też władze, bo i po co, skoro nie o to chodzi wyborcom? A już fizyką, mającą opinię najtrudniejszego i najgorzej nauczanego przedmiotu szkolnego, nie zainteresują się na pewno.

Wyobraźmy sobie jednak, że żyjemy w świecie no, może nie idealnym, ale trochę lepszym od naszego. Takim, w którym to, czego dzieci się nauczą, ma znaczenie. Otóż patrząc z tej perspektywy, byłem nieco zasmucony podejściem dzisiejszych dyskutantów. Choć jednym z proponowanych haseł dyskusji było fizyka jako część wykształcenia ogólnego, oni się martwili, że tak mało uczniów wybiera fizykę jako przedmiot maturalny. Co zrobić, żeby uczniów do wyboru fizyki zachęcić. I żeby ta matura była ciekawsza, bardziej miarodajna.

Tymczasem nawet w najlepszym z możliwych światów fizykę jako przedmiot maturalny będzie wybierać mniejszość. Natomiast dobrze by było, żeby wszyscy absolwenci wiedzieli, że rozliczne zjawiska przyrodnicze daje się zbadać i opisać, że są prawa, które nimi rządzą i że zjawiska można i powinno się mierzyć ilościowo, zgodnie z pewnymi zasadami, a nie tylko widzimisię eksperymentatora, a mimo to błędy pomiarowe są nieuniknione. Że samochód nie może zatrzymać się w miejscu. Że nie potrzeba aniołów, żeby planety poruszały się po swoich orbitach, nie zatrzymały się i nie pospadały na Słońce. Że w ruchu wirowym nie ma nic magicznego (już dawno proponowałem, żeby jako materiał dydaktyczny wykorzystywać filmy z występów Anity Włodarczyk: gdy puszcza młot, ten nie leci po spirali). Że mikroskop, lornetka, teleskop, radio i GPS to nie są diabelskie sztuczki, tylko wynalazki, które powstały w oparciu o prawa natury, które każdy, kto chce i kto się odpowiednio przyłoży, może poznać, ale też że urządzenia te nie mogą działać lepiej, niż prawa przyrody pozwalają. Że burza, gradobicie, powódź i trzęsienie ziemi nie są oznaką gniewu Istoty Nadprzyrodzonej, tylko że są zjawiskami naturalnymi, które można zrozumieć i opisać, nawet jeśli (jeszcze?) nie potrafimy nad nimi zapanować. Że nie ma nic za darmo, bo obowiązują zasady zachowania i inne prawa ograniczające, jak Druga Zasada Termodynamiki (choć nie upieram się, że ta nazwa koniecznie musi padać). Że wszystkie znane nam silniki pracują na przepływach energii, z której my możemy wykorzystać tylko jakiś ułamek (znowu ta Druga Zasada, bo mnie wydaje się ona niesłychanie ważna). Że – i to chyba jest najbardziej zaawansowany i najtrudniejszy koncept, który jak najwięcej osób powinno, moim zdaniem, zrozumieć – ważna jest skala: coś, co ma charakerystyczny rozmiar rzędu ułamków milimetra, zazwyczaj nie wpływa na rzeczy o rozmiarach kilometra i vice versa; to samo ze skalą czasową (te dwie skale, przestrzenna i czasowa, wystarczą, żeby zrozumieć ogólną zasadę). Czym innym jest fizyka jako część wykształcenia ogólnego, czym innym zaś nauczenie fizyki tych uczniów, którym będzie ona potrzebna w czasie przyszłych studiów. Tej perspektywy mi u dzisiejszych panelistów zabrakło.

Ja nie wiem, jak to zorganizować. Ba, ja nie wiem, jakie treści powinny wejść do kanonu nauczania ogólnego, jakie zaś wystarczy zostawić dla tej grupki, która potem będzie studiować nauki ścisłe, inżynierskie i przyrodnicze. Wiem natomiast dwie rzeczy: Tego wykształcenia ogólnego nie za się zdobyć ucząc się na pamięć regułek i wzorów, tudzież rozwiązując zadania o rybaku-fajtłapie, który ciągle gubi swoje koło ratunkowe i trzeba mu powiedzieć, dokąd ma popłynąć, by je wyłowić. To po pierwsze. Po drugie, konieczne jest robienie jak największej ilości doświadczeń. Nawet bez wzorów (tłumaczenie jakościowe, niekoniecznie ilościowe), bez dobrej statystyki i analizy błędów, ale żeby huczało, świeciło i się ruszało, bo tylko wtedy uczniowie będą mieli szanse uwierzyć, że to, o czym mówi nauczyciel, to nie jest bajka o żelaznym wilku.

A kto wie, może się zdarzyć, że te doświadczenia zachęcą kogoś do uczenia się fizyki aż do matury i dalej.

Bo tak

Fizycy strasznie nie lubią wyjaśnienia „bo tak”. Na ogół nie zadowalają się stwierdzeniem, że jest, jak jest, tylko pytają dlaczego jest, jak jest.

Swego czasu fizyka ograniczała się do odkrywania nowych zjawisk, katalogowania ich i coraz staranniejszego mierzenia. Tak było w czasach antycznych i wczesnych nowożytnych, ale jeszcze w latach ’70 XIX wieku, gdy Philipp von Jolly odradzał Maxowi Planckowi studiowanie fizyki, w której „prawie wszystko zostało już odkryte” i zadaniem fizyki pozostawało tylko robienie coraz dokładniejszych pomiarów, było to podejście bardzo popularne. I choć wyjaśnienia teoretyczne, jak zasady dynamiki Newtona, powszechne prawo ciążenia czy równania Maxwella, były znane i doceniane, ówczesna fizyka koncentrowała się na katalogowaniu i mierzeniu różnych wielkości. Pod koniec XIX ludzkość zgromadziła w ten sposób multum danych. Na szczęście ludziom uważanym dziś za twórców współczesnej fizyki nie wystarczało stwierdzenie, że skoro takie oto są wyniki precyzyjnych pomiarów, to znaczy, że takie są własności Natury, a ludziom nic do tego, tylko próbowali zrozumieć, z czego one wynikają. Żeby wyjaśnić widmo promieniowania ciała doskonale czarnego, Max Planck położył podwaliny pod mechanikę kwantową. Albert Einstein zapostulował istnienie fotonów aby wyjaśnić zjawisko fotoelektryczne. Po niedługim czasie okazało się, że kombinacja tych dwóch podejść prowadzi do zrozumienia widm emisyjnych atomów, precyzyjnie pomierzonych jeszcze w XIX wieku. Gdy Loránd Eötvös doświadczalnie wykazał równość masy ciężkiej (źródła siły ciężkości) i bezwładnej (tej, która występuje w II zasadzie dynamiki), Einstein zadał sobie pytanie dlaczego są one równe, co doprowadziło go do sformułowania Ogólnej Teorii Względności. Przykłady można mnożyć.

Widać, że próby zrozumienia, wyjaśnienia przyczyn zjawisk, a nie samo ograniczanie się do ich zmierzenia i opisu, były w fizyce bardzo płodne. Stało to się wręcz paradygmatem rozwoju fizyki. Fizycy upierają się, by za każdym razem dociekać dlaczego coś jest, jakie jest.

Niestety, są sytuacje, w których fizycy są bezradni i nie znajdują odpowiedzi na pytanie dlaczego. Mam na myśli wyznaczanie wartości fundamentalnych stałych przyrody. No cóż, one są, jakie są i (na razie?) nie widać powodów, dla których nie mogłyby one mieć jakichś innych wartości. Weźmy Model Standardowy oddziaływań fundamentalnych (bez grawitacji). Opisuje on w sposób praktycznie doskonały elektromagnetyzm i oddziaływania jądrowe (silne i słabe), wszystkie jego przewidywania, na czele z istnieniem cząstki Higgsa, udało się potwierdzić doświadczalnie, ale fizycy go nie lubią. Nie lubią go, gdyż zawiera on bodaj 19 parametrów swobodnych, to znaczy wielkości, które potrafimy bardzo dokładnie wyznaczyć eksperymentalnie, ale zupełnie wie wiemy, dlaczego te wartości są takie, jakie są. Potencjalnie mogłyby być inne, ale nawet niewielka modyfikacja zmieniałaby własności sił jądrowych, co mogłoby z kolei wpływać na stabilność jąder atomowych. Dlatego fizycy zajmujący się cząstkami elementarnymi usilnie poszukują „nowej fizyki”, „fizyki poza Modelem Standardowym”, licząc na to, że w ramach takiej szerszej, bardziej ogólnej teorii, wartości parametrów Modelu Standardowego uda się wyliczyć w oparciu o prawa fundamentalne. Fizycy nie musieliby się już ograniczać do doświadczalnego wyznaczania tych parametrów, nie rozumiejąc, skąd się one biorą.

Efekty tych poszukiwań są na razie mizerne, ale fizycy wciąż mają nadzieję na wyjaśnienie wartości parametrów Modelu Standardowego w ramach jakiejś szerszej teorii.

Inaczej jest z fundamentalnymi stałymi przyrody, charakteryzującymi Wszechświat jako taki: stałą Plancka, prędkością światła, ładunkiem elementarnym i stałą grawitacji. Nie dość, że nie wiadomo, dlaczego mają one takie wartości, jakie mają, to zauważono, że gdyby ich wartości były nawet odrobinę inne, zupełnie inne byłyby własności Wszechświata. Wszechświaty byłyby puste (bez materii, jedynie z promieniowaniem), lub przeciwnie, supergęste, lub istniałyby krótko, lub zmiany w charakterze sił jądrowych drastycznie wpłynęłyby na ewolucję gwiazd, lub zmiany w charakterze sił elektromagnetycznych uniemożliwiłyby powstanie stabilnych atomów, lub coś jeszcze innego, równie nieprzyjemnego. W szczególności życie w formie zbliżonej do nam znanej, oparte na chemii złożonych związków, nie mogłoby powstać. Zaburzenie własności Wszechświata uniemożliwiające powstanie życia byłoby możliwe na bardzo wielu poziomach! A jednak życie istnieje. Jest to znane jako problem dostrojenia Wszechświata (ang. fine-tuned Universe).

A fizycy chcieliby wiedzieć dlaczego stałe fundamentalne mają wartości, jakie mają. To pragnienie zrozumienia, połączone z problemem dostrojenia, doprowadziło do powstania zasady antropicznej, której jedno ze sformułowań brzmi

Wszechświat musi mieć takie własności, aby wewnątrz niego, w pewnych okresach jego historii, mogło rozwijać się życie.

Nacisk położony jest na słowo musi. Własności świata nie są przypadkowo takie, że mogło w nim powstać życie, ale istnieje jakaś kosmiczna zasada, która to powoduje. Przeczytałem kiedyś, że Wszechświat potrzebuje inteligentnego życia aby mógł opisać sam siebie. Inni w niezrozumiałej zdolności Wszechświata do podtrzymywania życia dopatrują się dowodu na istnienie jakiegoś Stwórcy lub Projektanta – tak zdaje się sądzić na przykład prof. Marek Abramowicz, autor mocno ostatnio dyskutowanego (i krytykowanego) artykułu w Gazecie Wyborczej. Należy przy tym od razu zaznaczyć, że gdyby taki Stwórca istniał, wcale nie musiałby być podobny do osobowego Boga wielkich religii monoteistycznych. Mógłby, ale nie byłoby to konieczne.

Ja tymczasem w przyjęciu zasady antropicznej, zwłaszcza w formie postulatu istnienia Stwórcy/Projektanta, dopatruję się błędu logicznego petitio principii, założenia tezy, którą chcemy udowodnić. Spójrzmy: Zakładamy, że musi być jakiś powód, dla którego stałe fizyczne mają swoje wartości, a po skonstatowaniu, że te akurat wartości umożliwiają powstanie życia, dochodzimy do wniosku, że Coś specjalnie nadało im wartości takie, aby życie mogło powstać. No ale przecież założyliśmy, że istnieje jakiś powód, więc nie powinniśmy się dziwić, że z tego założenia wywodzimy, że powód w istocie był. To jest błędne koło.

Jeśli założymy istnienie Stwórcy, to możemy spekulować, że istnienie życia było dla Stwórcy w jakimś sensie korzystne, stworzył więc taki świat, w którym życie mogło powstać. Myśmy jednak chcieli pójść w przeciwną stronę i z istnienia życia wywnioskować istnienie Stwórcy, a taka implikacja najwyraźniej nie działa. Jeżeli S, to ż, z tym mógłbym się zgodzić bez większych oporów, ale stwierdziwszy, że ż, nie mogę na tej podstawie wnioskować, że S.

Na pozór wydaje się, że byłoby prościej, gdyby zasada antropiczna wynikała z jakiegoś prawa, meta-prawa przyrody, na przykład regulującego Wielki Wybuch. Jak pisałem poprzednio, nie rozumiemy momentu Wielkiego Wybuchu. W Wielkim Wybuchu znane prawa fizyki załamują się, ewolucja staje się nieunitarna. Może kiedyś lepiej zrozumiemy Wielki Wybuch? Na to z pewnością liczymy. Ba, może uda się pokazać, że fundamentalne stałe przyrody powstającego w Wielkim Wybuchu Wszechświata muszą przyjmować wartości z jakiegoś wąskiego zakresu. Może okaże się, że jest jakieś prawo przyrody, które coś takiego gwarantuje? Nie mam pojęcia. Ale nawet jeśli tak się stanie, będzie to tylko odsunięcie problemu o jeden krok do tyłu. Bo z czego miałoby takie meta-prawo wynikać? Z jakiegoś meta-meta-prawa. A ono z kolei? Wygląda to jak początek regresji do nieskończoności 🙂 Brzytwa Ockhama sugerowałaby rozwiązanie najprostsze: Stałe fizyczne przyjęły swoje wartości zupełnie przypadkowo. Bez żadnego powodu. Bo tak.

Jeśli przyjąć, że wartości stałych fizycznych mogły być dowolne, stwierdzamy jedynie, że okazały się one takie, iż życie mogło powstać. Jeśli Wszechświat jest jedyny, to wartości stałych przyrody po prostu są, jakie są, bez żadnego kosmicznego powodu, bez żadnej generalnej zasady rządzącej powstaniem Wszechświata. Po prostu tak się stało, a my – i być może także inne istoty w innych układach planetarnych i galaktykach – mogliśmy zaistnieć. Ot tak, przypadkowo, nie dla wypełnienia jakiegoś kosmicznego celu. Gdyby wartości stałych były choć odrobinę inne, życie by nie powstało, ale wówczas nie miałby kto się nad tym faktem użalać.

Inną ucieczką od kłopotów, jakie rodzi arbitralne przyjmowanie zasady antropicznej jako „rozwiązania” problemu dostrojenia, jest hipoteza Wieloświata, Multiverse. Ale o tym napiszę osobno.

Max Planck i Albert Einstein

Fizyka a wiara

W świątecznej Gazecie Wyborczej ukazał się dość duży artykuł Marka Abramowicza, astrofizyka, pod dość nieszczęśliwym tytułem Fizyka jest dziś o wiele bliżej uznania istnienia Boga jako aktywnego elementu obiektywnej rzeczywistości.

Każdemu wolno jest szukać uzasadnienia swojej wiary, a komu innemu swojej niewiary, w dokonaniach nauki. Czym innym wszakże jest dowód, czym innym zaś uzasadnienie. Rzecz w tym, że nauka nie dowodzi istnienia Boga ani w ogóle żadnej rzeczywistości nadprzyrodzonej. I w drugą stronę: z nauki nie wynika, że Boga lub innej rzeczywistości nadprzyrodzonej nie ma.

Autor doszukuje się

niemożliwego do zaprzeczenia splątania fizyki z metafizyką

w dokonaniach fizyki współczesnej: względności czasu i przestrzeni, mechaniki kwantowej z nierównościami Bella, splątaniem i teleportacją kwantową, a także astrofizyki i kosmologii. Cóż, pokazuje to, że naiwny, mechanistyczny materializm, charakterystyczny dla fizyki końca XIX wieku, gdy poważni ludzie twierdzili, że w fizyce „wszystko już zostało odkryte”, a później choćby dla myśli stalinowskiej, która w imię tak pojmowanego materializmu sprzeciwiała się mechanice kwantowej i teorii względności, nie ma racji bytu. Fizyka, gdy zaczyna mówić o obiektach bardzo małych lub bardzo dużych i procesach bardzo szybkich lub bardzo powolnych, wykraczających poza nasz „zwykły” obszar poznania, staje się mocno nieintuicyjna. Nasze zmysły, a za nimi nasze narzędzia poznawcze, powstały (lub wyewoluowały, to jest w tym kontekście bez znaczenia) do radzenia sobie z obiektami i procesami jako-tako przystającymi do ludzkiej skali rozmiarów i czasów trwania, od mikrometrów po tysiące kilometrów i od mikrosekund po tysiąclecia. Im bardziej oddalamy się od tej skali w jedną lub w drugą stronę, tym trudniej nam prowadzić pomiary i choć mamy – lub przynajmniej wydaje nam się, że mamy – adekwatny język opisu takich zjawisk, matematykę, uzyskane rezultaty są dla nas trudne do wtłoczenia do codziennej, intuicyjnie dla nas zrozumiałej skali. Wiemy też doskonale, że pewnych zjawisk wciąż nie umiemy ani zmierzyć, ani opisać i domyślamy się, że istnieje gazylion obiektów, o których nawet nie wiemy, że istnieją. We wszystkich tych przypadkach naiwny materializm zawodzi. Mamy nadzieję, że z czasem udoskonalimy nasze teorie naukowe i narzędzia badawcze i kiedyś, choć być może nieprędko, znacząco rozszerzymy dostępny nam obszar poznania. Zarazem wydaje mi się oczywiste, że ludzkość, jak długo by istniała, nie zdoła poznać i zrozumieć wszystkiego. Nie wynika z tego jednak, że musi istnieć jakiś wszechogarniający Bóg. Nie wynika z tego także, że wszechogarniającego Boga nie ma.

Ciekawe, że Abramowicz tylko pobieżnie odnosi się do najpoważniejszej, moim zdaniem, kontrowersji związanej z mechaniką kwantową: koncepcji obserwatora. Rzeczywiście, granica pomiędzy fizyką kwantową a klasyczną, a konkretnie sposób, w jaki obiekty kwantowe przekształcają się we wskazania klasycznych urządzeń pomiarowych, jest źle zdefiniowany. Autor cytuje tu austriackiego fizyka Antona Zeilingera, laureata Nagrody Nobla:

Będziemy się chyba musieli pożegnać z naiwnym realizmem, zgodnie z którym świat istnieje sam z siebie, bez naszego udziału i niezależnie od naszych obserwacji

Skoro obiekty kwantowe dopiero w akcie pomiaru przybierają swoje klasyczne wartości – cząstka zostaje zlokalizowana w jakimś tu, choć przed pomiarem była, w pewnym sensie, wszędzie, kot Schrödingera okazuje się być żywy bądź martwy, choć przed pomiarem nie był ani taki, ani taki (nie, mechanika kwantowa nie twierdzi, że był jednocześnie żywy i martwy), a właściwie w ogóle nie było odrębnego kota – bez obserwatora świat nie może istnieć. Czy to miałoby oznaczać, że bez ludzi cały Wszechświat by nie istniał? Przecież to bzdura, skoro wiemy, że ludzie pojawili się dopiero miliardy lat po powstaniu Wszechświata. Stąd rzekomo miałaby wynikać konieczność istnienia Boga jako „pierwszego obserwatora”. Ot, taka modyfikacja arystotelesowskiej koncepcji pierwszego poruszyciela. Ale to jest fałszywa implikacja. My, ludzkość, po prostu wciąż niedostatecznie dobrze rozumiemy koncepcję pomiaru kwantowego – jest to jeden z tych problemów, które, jak liczymy, kiedyś uda nam się wyjaśnić, choć dziś nam on wciąż umyka. Są już zresztą pierwsze koncepcje teoretyczne, jak choćby teoria dekoherencji. Podobnie zresztą nie rozumiemy samego momentu Wielkiego Wybuchu. Naiwnie interpretuje się go jako akt stworzenia, ale to po prostu jest kolejna rzecz, której jeszcze nie rozumiemy i może kiedyś zrozumiemy. A może nie. Podobnie jak nie wiemy, co dzieje się pod horyzontem zdarzeń czarnej dziury.

Innymi słowy, fizyka wciąż jest – i zapewne zawsze pozostanie – niedoskonała, a im więcej na poziomie formalnym rozumiemy, nawet mogąc to poprzeć eksperymentami, tym bardziej nasze wywiedzione z ludzkiej skali intuicje zawodzą. Ale to niestety, na szczęście, niepotrzebne skreślić, nie dowodzi istnienia Boga.

Marek Abramowicz dość dużo miejsca poświęca temu, że dzięki, jak się wydaje, starannie dobranym wartościom stałych fizycznych,

Wszechświat jest bardzo wyjątkowy, gdyż wyraźnie zdaje się sprzyjać naszemu istnieniu.

Jest to pewna forma zasady antropicznej, o której napiszę oddzielnie.

Autor kończy swój artykuł podając wyniki głosowania na pewnej konferencji fizycznej w Uppsali. Otóż na pytanie: Czy twoim zdaniem istnieją poważne powody na to, by uznać, że Bóg istnieje? trzy czwarte głosujących odpowiedziało twierdząco. No i fajnie. Nie ma w tym niczego dziwnego. Podobnie bowiem jak naiwny materializm jest nie do utrzymania, błędne jest przekonanie, że wiara religijna i „światopogląd naukowy” pozostają w sprzeczności. Światopogląd naukowy wymaga, aby wszystkie obserwowane zjawiska wyjaśniać odwołując się do znanych praw naukowych, a jeśli to się nie udaje, to najpewniej dlatego, że jakichś praw wciąż jeszcze nie znamy lub nie rozumiemy. Jednak postulat, że wszystko potencjalnie da się wyjaśnić w oparciu o prawa naukowe, jest tylko postulatem, założeniem o charakterze filozoficznym, nie zaś prawem naukowym per se. Tym bardziej, że jak napisałem wyżej, zapewne nigdy nie poznamy wszystkich praw naukowych. I nadal nic nie wynika z tego w kwestii istnienia bądź nieistnienia Boga.

Giorgio Parisi

Tegoroczną Nagrodę Nobla w dziedzinie fizyki przyznano za przełomowy wkład w zrozumienie układów złożonych. Otrzymali ją Syukuro Manabe i Klaus Hasselmann (po 1/4) za fizyczne modelowanie klimatu Ziemi, ilościowe określanie jego zmienności i wiarygodne przewidywanie globalnego ocieplenia oraz Giorgio Parisi (1/2) za odkrycie wzajemnego wpływu nieporządku i fluktuacji w układach fizycznych od skali atomowej do planetarnej. Część klimatyczna zapewne budzi większe zainteresowanie, ale ją komentowano już gdzie indziej i ja nie mam tu nic do dodania. Ale Giorgio Parisi, a, to co innego!

Giorgio Parisi zajmuje się tak wieloma obszarami fizyki teoretycznej, że czuję się w miarę kompetentny do wypowiadania się tylko o części z nich, zupełnie pomijając jego wkład w teorię cząstek elementarnych.

Nagroda Nobla dla Giorgio Parisiego to wielka radość dla osób zaangażowanych we współczesną fizykę statystyczną.

Uważa się, że fizyka daje informację pewną: przy takich a takich warunkach stanie się to a to. Jednak w układach złożonych, obejmujących olbrzymie ilości składników, których nie sposób śledzić indywidualnie, fizyka musi ograniczyć się do przewidywania, jakie jest prawdopodobieństwo, że stanie się to a to. Trzeba bowiem uwzględniać szum, zaburzenia losowe, przypadkowe fluktuacje, czyli odchylenia od średniej, pochodzące od licznych nieobserwowalnych stopni swobody. Tradycyjnie uważało się, że zaburzenia losowe mają wyłącznie charakter destruktywny – niszczą powstające struktury, zniekształcają przekazywane sygnały. Okazuje się, że to nieprawda: w niektórych układach nieliniowych obecność szumu może prowadzić do jakościowo nowych zjawisk.

Jedna z wielkich prac Giorgio Parisiego w tym zakresie dotyczyła rezonansu stochastycznego [1]. Otóż ludzie próbowali zrozumieć, dlaczego zlodowacenia na półkuli północnej pojawiały się dość regularnie, co mniej więcej sto tysięcy lat. Okazało się, że na skutek naturalnych zjawisk astronomicznych, oś obrotu Ziemi zmienia swoje nachylenie – o niewielki kąt, ale z takim właśnie okresem, jak zlodowacenia. Jednak szczegółowe obliczenia pokazały, że nie prowadzi to do zmian nasłonecznienia Ziemi mogących wywołać zlodowacenia. Parisi i współpracownicy postanowili uwzględnić zjawiska losowe, takie jak wybuchy wulkanów, wpływające na zmianę albedo Ziemi. Udowodnili, że połączenie tych dwu zjawisk prowadzi do okresowego przerzucania klimatu Ziemi od stanu bez zlodowacenia do stanu ze zlodowaceniem. Co więcej, istnieje pewne optymalne natężenie zjawisk losowych (przypadkowych zmian albedo Ziemi), powodujące, że wpływ astronomicznego procesu okresowego (zmiana nachylenia osi Ziemi) jest najmocniej widoczny. Zjawisko to nazwano rezonansem stochastycznym. Dziś rezonans stochastyczny używany jest nie tylko do wyjaśniania zjawisk klimatycznych (oprócz epok lodowcowych, także zjawiska El Niño), lecz również do zrozumienia pewnych fundamentalnych reakcji biochemicznych, detekcji sygnałów podprogowych, a wreszcie w terapii pewnych schorzeń neurologicznych.

Inna słynna praca Parisiego [2] dotyczyła ewolucji powierzchni w obecności zaburzeń losowych. Nawet pod nieobecność zaburzeń losowych problem jest wysoce skomplikowany, opisywany przez układ nieliniowych równań różniczkowych, a autorom, dzięki zastosowaniu grupy renormalizacji, udało się znaleźć wykładniki krytyczne dla modelu stochastycznego. Ten model ma znaczenie i w mikrobiologii, można bowiem w ten sposób opisywać rozwój kolonii bakterii, i w fizyce nanomateriałów, gdzie kluczowe jest zrozumienie, jak powstają mikroskopowe powierzchnie, których chcielibyśmy użyć do budowy superczułych nano-detektorów, w opisie powstawania struktur fraktalnych, a sama klasa uniwersalności KPZ pojawia się, jak królik z kapelusza, w przeróżnych miejscach stochastycznej teorii pola. Dzięki teorii skalowania i grupie renormalizacji wyjściowy model pozwala w spójnym języku opisać zjawiska zachodzące w wielu skalach, od rozmiarów mikroskopowych aż po astronomiczne.

Każda z tych prac z osobna przyniosła autorom wielką sławę, a Giorgio Parisi jest przecież także gigantem teorii szkieł spinowych! Szkła spinowe to pewne nieuporządkowane układy magnetyczne i, co ciekawe, są pojęciowym prekursorem sieci neuronowych, używanych dziś w uczeniu maszynowym – można więc powiedzieć, że Giorgio Parisi pośrednio wniósł wkład i do tej dyscypliny. Matematyczne modele szkieł spinowych są kluczowe w wielu działach fizyki teoretycznej. Wreszcie szkła spinowe, przez pewne podobieństwa formalne, są powiązane ze zwykłymi szkłami, od których zresztą biorą nazwę, a zrozumienie natury przejścia szklistego do dziś jest dalekie od doskonałości. W największym artykule przeglądowym z tej dziedziny prace Parisiego są cytowane bodaj 50 razy.

Parisi zajmował się ponadto teorią obliczeń Monte Carlo, analizą i modelowaniem ruchu stad ptaków, a ostatnio analizowaniem przebiegu epidemii COVID-19.

[1] Stochastic Resonance in Climatic Change, R Benzi, G Parisi, A Sutera, A Vulpiani, Tellus 34, 10, 1982
[2] Dynamic scaling of growing interfaces, M Kardar, G Parisi, YC Zhang, Physical Review Letters 56, 889, 1986

Higgs się rozpada

Kilka dni temu CERN w specjalnym komunikacie prasowym (tu jest jego polskie omówienie) ogłosił, że zaobserwowano rozpad bozonu Higgsa na kwark b i jego antykwark. Zgodnie z przewidywaniami Modelu Standardowego takie rozpady powinny być najczęstsze, ale z powodów, nazwijmy je, technicznych dotąd było bardzo ciężko odróżnić je od tła. Bozon Higgsa jest niestabilny i rozpada się na inne cząstki, przy czym możliwych jest wiele, jak to mówią fizycy, „kanałów rozpadu”. Dotąd obserwowano inne rozpady bozonu Higgsa, głównie na dwa fotony lub na lepton τ i jego antycząstkę, gdyż odróżnienie ich od tła było łatwiejsze. Najnowsze dane, zaprezentowane wspólnie przez dwie największe grupy badawcze z CERN, ATLAS i CMS, świadczą, że udział rozpadów b-anty-b zgadza się z przewidywaniami teoretycznymi.

Jest to wiadomość bardzo dobra dla Modelu Standardowego i raczej niedobra dla przyszłości fizyki cząstek elementarnych.

Model Standardowy teorii cząstek opisuje fundamentalne cząstki składowe materii i ich wzajemne oddziaływania. Przewidywany przez Model Standardowy i odkryty sześć lat temu bozon Higgsa – nazwany od nazwiska brytyjskiego fizyka Petera Higgsa, który go wymyślił – był ostatnim brakującym elementem tego modelu. Hurra, mamy więc potwierdzony doświadczalnie model fundamentalnych cząstek i ich oddziaływań – i kompletnie nie wiemy, co dalej mamy robić. Fizycy zajmujący się teorią cząstek dość desperacko poszukują jakichś doświadczalnych odchyleń od Modelu Standardowego, ale dotąd niczego nie znaleźli. Żadnych nowych cząstek czy oddziaływań, których Model Standardowy by nie przewidywał. Żadnej supersymetrii, nic, nic, nic. Nawet ten cholerny bozon Higgsa zachowuje się dokładnie tak, jak to przewiduje model: nie jest ani zbyt lekki, ani zbyt ciężki, nie stwierdzono u niego żadnej wewnętrznej struktury, nawet rozpada się dokładnie tak, jak przewidywano. Nie ma się na czym oprzeć, żeby móc Model Standardowy ulepszać, rozbudowywać, zmieniać albo chociaż lepiej zrozumieć.

Model Standardowy działa świetnie, ale jest, w pewnym sensie, niezbyt elegancki. Ma bodaj 19 parametrów swobodnych, mogących przyjmować arbitralne wartości. Parametry te decydują o własnościach naszego Wszechświata. Gdyby wartość któregoś z tych parametrów była nieco inna, niż jest, mogłoby się okazać, że nie mogą powstawać stabilne jądra atomowe lub że miałby one zupełnie inne własności. Albo że ewolucja Wszechświata musiałaby przebiegać zupełnie inaczej. Możemy zmierzyć wartości tych parametrów, ale nie wiemy, dlaczego są one takie, jakie są. Dlaczego nasz Wszechświat jest taki, jaki jest. Oczywiście jest możliwe, że wartości te są, jakie są, w sposób przypadkowy, bo tak. Ludzi jednak taka odpowiedź nie zadowala. Chcieliby wiedzieć, czy za własnościami naszego Wszechświata, wynikającymi z wartości 19 parametrów swobodnych Modelu Standardowego, stoją jakieś głębsze, bardziej fundamentalne zasady. A jeśli tak, to jakie. 

Najnowsze odkrycia dotyczące bozonu Higgsa sugerują, że fizyka cząstek elementarnych – taka, jak ją dzisiaj rozumiemy – nie odpowie na te pytania. A jeśli nie dostaniemy jakichś nowych danych doświadczalnych, nie dających się wytłumaczyć w ramach istniejącego modelu, pozostaną nam tylko spekulacje, co grozi degeneracją nauki, podobną do tego, jak pod koniec Średniowiecza filozofia zdegenerowała się do scholastyki.

Oczywiście fizyka cząstek jeszcze przez wiele lat będzie miała co robić: Trzeba będzie poprawić statystykę, dokładniej pomierzyć te wszystkie parametry, lepiej zrozumieć własności układów złożonych zbudowanych z elementarnych składników, o których mówi Model Standardowy. Roboty jest mnóstwo, ale wygląda na to, że fizyka cząstek nie będzie już odpowiadać na pytania podstawowe.

Monachijski profesor Philipp von Jolly w latach ’70 XIX wieku odradzał młodemu Maxowi Planckowi studiowanie fizyki, twierdząc, że w fizyce wszystko, co ważne, zostało już odkryte i pozostało jedynie kilka drobnych luk do uzupełnienia. Także inni wielcy fizycy z tego okresu, na przykład August Kundt, nie oczekiwali żadnych przełomowych odkryć i uważali, że głównym zadaniem fizyki jest dokonywanie bardziej dokładnych pomiarów znanych wielkości – zadanie pożyteczne i wymagające sporego kunsztu, ale pozbawione intelektualnego powabu. A ćwierć wieku później Max Planck zaczął tworzyć mechanikę kwantową, okazało się bowiem, że jednej z tych „drobnych luk” von Jolly’ego nie dało się zapełnić bez kompletnego przebudowania całej fizyki. Być może fizyka cząstek elementarnych jest dziś w sytuacji von Jolly’ego i Kundta. Na to powinniśmy liczyć.

Detektor ALICE w CERN

Efekt Józefa

ImhotepBiblijny patriarcha Józef, podstępnie sprzedany w niewolę do Egiptu, słynął ze swej umiejętności interpretowania snów. Zinterpretował też sen dręczący faraona: o siedmiu tłustych krowach pożartych przez siedem krów chudych, które wyszły z wód Nilu. Józef zrozumiał (Rdz. 41:25-36), że sen ten zapowiadał siedem lat urodzaju, po których miało nastąpić siedem lat nieurodzaju i głodu. Faraon mianował Józefa swoim wezyrem, ten zaś kazał w latach urodzaju gromadzić zapasy, które pozwoliły Egipcjanom przetrwać lata głodu, które rzeczywiście nadeszły. Winter is coming, czy komuś coś to mówi?

W starożytności zbiory w Egipcie zależały od corocznych wylewów Nilu. Wysoki wylew oznaczał znaczne użyźnienie i nawodnienie pól, a więc obfite zbiory. Niski wylew, przeciwnie, oznaczał suszę, nieurodzaj i widmo głodu.

Wylewy Nilu zależą od opadów w Etiopii, w dorzeczu Nilu Błękitnego. Poziom opadów z kolei zależy od bardzo wielu złożonych i wzajemnie na siebie wpływających zjawisk meteorologicznych i klimatycznych, których do dziś nie w pełni rozumiemy. Możemy przyjąć, że poziom corocznych opadów na etiopskich wyżynach, a zatem poziom wylewów Nilu, a zatem obfitość zbiorów, są zjawiskami losowymi. W „prawdziwie losowym” ciągu zdarzeń spodziewamy się jednak, że poprzednie zdarzenia znikomo wpływają na następne: po roku obfitego wylewu równie dobrze może nastąpić kolejny obfity wylew, co i wylew niski. Tak jednak nie jest: Po wysokim wylewie raczej następuje kolejny wysoki wylew, po wylewie niskim – raczej kolejny niski, po czym po kilku latach sytuacja gwałtownie się zmienia. We współczesnym języku mówimy, że w ciągu wylewów Nilu występują długoczasowe korelacje. Po kilku latach obfitości występuje kilka lat nieurodzaju, po czym znów kilka lat obfitości i tak dalej. Biblijna opowieść o Józefie dowodzi, że już w starożytności ludzie byli świadomi tego faktu, a był on dla nich tak ważny, że postanowili zapisać go w literackiej formie w swojej świętej księdze.

Jeśli dokonamy kilku (poważnych!) uproszczeń matematycznych i ograniczymy się do ciągów losowych, mogących jedynie przybierać wartości (-1,+1) – lub „niski wylew” i „wysoki wylew” –  środkowa krzywa na poniższym rysunku odpowiada „prawdziwie losowemu” brakowi korelacji: po liczbie +1 może z równym prawdopodobieństwem wystąpić tak +1, jak i -1, i na odwrót. Nie ma długoczasowych zależności, choć oczywiście zdarzają się pewne sekwencje kolejnych wysokich, bądź niskich, wylewów. 

Ciągi losowe o różnych wykładnikach Hursta

Najniższa krzywa obrazuje „efekt Józefa” (termin ten wprowadził Benoit Mandelbrot, urodzony w Polsce, ale pracujący we Francji i Stanach Zjednoczonych matematyk, twórca teorii fraktali): Ciąg ma tendencję do utrzymywania takiej samej wartości przez dłuższy czas. Z kolei krzywa najwyższa opisuje sytuację odwrotną: ciąg ma tendencję do zmieniania wartości na przeciwną w każdym kroku, dlatego też bardzo rzadkie są sytuacje, w których taka sama wartość utrzymuje się przez dwa kroki lub dłużej; tego typu ciągi losowe nazywa się niekiedy szumem błękitnym.

Przesuńmy się w czasie o jakieś 3500 lat. W połowie XX wieku brytyjski hydrolog, Howard Hurst, pracował nad projektem Wielkiej Tamy w Asuanie. Egipt postanowił przegrodzić Nil potężną tamą, aby mieć stałe źródło wody, a jeszcze energię elektryczną, której szybko rozwijający się kraj bardzo potrzebował. Rzecz w tym, że nie można było zbudować tamy ani zbyt niskiej, bo obfity wylew by ją przelał, powodując katastrofę, ani zbyt wysokiej, bo jej budowa byłaby bardzo kosztowna i ciągnęłaby się dłużej, niż Egipt mógł sobie na to pozwolić. Tama powinna też utrzymać zapas wód do wykorzystania w roku niskich opadów. Pożądana wysokość tamy zależała od spodziewanych najwyższych wód Nilu. Tylko jak oszacować, a co ważniejsze, przewidzieć wysokość wylewu rok do roku?

Hurst posłużył się historycznymi danymi o corocznych poziomach Nilu, pieczołowicie gromadzonymi w średniowieczu przez arabskich władców Egiptu. Okazało się, że wykazują one długoczasowe korelacje, zupełnie jak w biblijnej opowieści o Józefie. Hurst opracował matematyczny model tego zjawiska, a także wprowadził parametr – zwany dziś wykładnikiem Hursta – stanowiący jego ilościową miarę, przybierający wartości z przedziału (0,1). Wykładnik Hursta H=0.5 odpowiada „prawdziwie losowemu” ciągowi bez żadnych zależności czasowych (środkowa krzywa powyżej). Wykładnik Hursta H>0.5 odpowiada „efektowi Józefa” (najniższa krzywa na rysunku powyżej, H=0.85). Wykładnik Hursta H mniejszy od 0.5 odpowiada przypadkowi, w którym ciąg losowy ma tendencję do zmiany wartości na przeciwną w każdym kroku (najwyższa krzywa na rysunku powyżej, H=0.15).

Nile minima

Dane, z których korzystał Howard Hurst: Najniższe poziomy Nilu w latach 622-1281. H≈0,72.

Wyposażony w tę wiedzę, Hurst mógł zaproponować najbardziej odpowiednią i bezpieczną wysokość tamy w Asuanie.

Później okazało się, że tego typu długoczasowe zależności dotyczą nie tylko wylewów Nilu, ale też zjawisk hydrologicznych w innych rzekach i zbiornikach wodnych (na przykład dzienne przepływy wody w Warcie tworzą ciąg o H≈0,84 – Radziejewski i Kundzewicz, 1997), w ilości plam słonecznych, w układach słoi (rocznych przyrostów) drzew, w ruchu ulicznym, telekomunikacyjnym i internetowym, w falach mózgowych, w pewnych procesach ekonomicznych i finansowych, a także w jeszcze innych sytuacjach. Procesy losowe prowadzące do występowania długoczasowych korelacji nazywane są szumami fraktalnymi. Badanie takich procesów i ich wpływu na wiele zjawisk jest ważnym zagadnieniem leżącym gdzieś na styku matematyki stosowanej, fizyki i różnych nauk szczegółowych. 

Nie wiemy, czy patriarcha Józef rzeczywiście istniał – niektórzy utożsamiają go z Imhotepem, wezyrem Egiptu, lekarzem i budowniczym piramidy schodkowej faraona Dżesera- ale jego opisana w Biblii historia uczy nas dwóch rzeczy: Po pierwsze, już w głębokiej starożytności ludzie zdawali sobie sprawę z istnienia długoczasowych korelacji w ważnych zjawiskach przyrodniczych. Po drugie, że w latach prosperity należy oszczędzać, aby przygotować się na nadchodzące lata niedostatku. Pod tym względem Józef wykazał się wyjątkową przezornością, przeciwną do „naturalnej” skłonności wielu ludzi – a nawet całych państw! – aby cieszyć się z dzisiejszego dostatku i nie martwić się, co będzie w przyszłości, gdy, na przykład, światowa koniunktura gospodarcza się odwróci lub wystąpią nieoczekiwane zakłócenia. To bardzo krótkowzroczna, wręcz niebezpieczna polityka. Biblia, poprzez przykład patriarchy Józefa, uczy nas, że nie tak powinniśmy postępować.

Świat: jak to działa

Prowadziliśmy kiedyś bloga popularnonaukowego pod nazwą Świat: jak to działa, najpierw na bloxie, potem na stronach Tygodnika Powszechnego. Blog przez jakiś czas był bardzo aktywny i cieszył się sporą popularnością, ale z czasem, gdy ja zostałem jego kierownikiem, zamarł, a w końcu straciliśmy do niego dostęp właścicielski. Na blogu pojawiło się sporo wartościowych notek i choć nowe przestały być publikowane, te stare chyba nadal były czytane.

Kilka dni temu dowiedziałem się, że blog na stronach Tygodnika zostanie wkrótce zlikwidowany. 

Ponieważ jednak pierwotna wersja bloga, ta na bloxie, wciąż istnieje (!), postanowiłem przenieść tam część moich notek z TP. Nie gwarantuję, że będę tam pisał coś nowego, ale stare notki chciałem ocalić. Mam nadzieję, że współautorzy bloga mi to wybaczą.

Zapraszam zatem na bloga Świat: jak to działa.

Flammarion

Strzałka czasu

Czas płynie w jedną stronę. Fizycy mówią, że czas ma strzałkę.

Fizyka stwierdza, że istnieją dwa procesy – a raczej dwie kategorie procesów – które spontanicznie, „same z siebie”, zachodzą w jedną stronę. W skali całego Wszechświata jest to jego ekspansja: Wszechświat rozszerza się, nie zaś kurczy lub pozostaje taki, jaki jest. Proces ten zachodzi szybko, ale w naszej ludzkiej i ziemskiej skali na codzień go nie dostrzegamy, choć – co samo w sobie jest niesamowite! – możemy go z Ziemi zaobserwować i zmierzyć.

W skali codziennej w jedną stronę zachodzą nieodwracalne procesy termodynamiczne: Gaz rozpręża się do próżni, cukier rozpuszcza się w herbacie, a upuszczona na podłogę szklanka rozpada się na wiele kawałków, które „same z siebie” za nic nie chcą się na powrót połączyć. Prawie* na pewno termodynamiczna strzałka czasu wyznacza kierunek zachodzenia procesów biologicznych, te zaś, jak wierzymy, decydują o psychologicznym postrzeganiu czasu, o tym, że pamiętamy przeszłość, nie przyszłość.
*Piszę „prawie” z uwagi na ostrożność poznawczą.

Zachodzi ciekawe pytanie: czy te dwie kategorie procesów, ekspansja Wszechświata i termodynamiczne procesy nieodwracalne, są ze sobą jakoś powiązane? Na przykład, czy w hipotetycznym wszechświecie stacjonarnym procesów nieodwracalnych by nie było? Albo czy gdyby Wszechświat zaczął się kurczyć, cukier w gorącej herbacie spontanicznie by krystalizował?

Jeszcze trzydzieści lat temu uważano, że grawitacja w końcu zahamuje ekspansję Wszechświata i że zacznie się on kurczyć, że po Big Bangu nastąpi Big Crunch. Pytanie o to, czy w fazie kontrakcji termodynamiczne procesy nieodwracalne odwrócą swój kierunek wydawało się sensowne, choć nikt nie miał pojęcia jak na nie odpowiedzieć. W końcu Stephen Hawking w sposób niezwykle inteligentny uciekł od tego pytania: Stwierdził, że zanim Wszechświat zakończy swoją ekspansję, wpadnie w stan śmierci cieplnej i żadne procesy nieodwracalne, ani w jedną, ani w drugą stronę, nie będą zachodzić.

Kilka lat temu pojawiła się jednak hipoteza, że ekspansja Wszechświata wcale nie zwalnia, ale wręcz przeciwnie, przyspiesza! Odpowiedzialna miałaby za to być ciemna energia, substancja jeszcze bardziej tajemnicza od ciemnej materii. I choć w 2011 przyznano za to nagrodę Nobla, tak naprawdę i przyspieszona eksansja Wszechświata, i istnienie ciemnej energii pozostają nieudowodnionymi hipotezami. Ja osobiście w nie nie wierzę, choć niewątpliwie pomiar własności supernowych typu Ia w odległych galaktykach, będący podstawą, na której zbudowano hipotezę o przyspieszonej ekspansji, był bardzo piękny i subtelny i jako taki na Nobla być może zasługiwał. Jednak tłumaczenie własności tych supernowych – a konkretnie tego, że są słabsze, niż „powinny” być – przyspieszoną ekspansją nie jest jednynym możliwym wytłumaczeniem.

Załóżmy jednak, że ekspansja Wszechświata naprawdę przyspiesza, a kosmologiczna i termodynamiczna strzałki czasu są ze sobą powiązane. Można postawić ciekawe pytanie: Czy wraz z przyspieszeniem ekspansji Wszechświata, przyspieszeniu ulegną też termodynamiczne procesy nieodwracalne?

strzałka czasu

Marian Smoluchowski i internet rzeczy

Kilka dni temu rozmawiałem z filmowcami planującymi zrobić program o Marianie Smoluchowskim. Ci filmowcy wiedzą wszystko o Europie przełomu stuleci, o Wiedniu, Lwowie i Krakowie, o rodzinie Smoluchowskiego, o jego wyczynach alpinistycznych i narciarskich, o podróżach i zainteresowaniach artystycznych, wiedzą to i umieją opowiedzieć. Nie widzą tylko jednego: dlaczego Marian Smoluchowski uważany jest za najwybitniejszego polskiego fizyka. To właśnie usiłowaliśmy im wytłumaczyć.

Smoluchowski zrobił w fizyce wiele wspaniałych rzeczy, z których najbardziej znane jest wyjaśnienie ruchów Browna (zobacz także artykuł w Fotonie). Cząsteczki Brownowskie, na przykład pyłki roślinne czy inne drobinki w zawiesinie wodnej, nam wydają się malutkie, ale są bardzo duże w porównaniu z cząsteczkami wody, których za to jest bardzo wiele. Cząsteczki Brownowskie zderzają się z nimi, a skumulowany, uśredniony efekt tych zderzeń widzimy jako chaotyczne, bardzo nieregularne ruchy elementów zawiesiny. Albert Einstein i Marian Smoluchowski, pracując niezależnie, podali nie tylko to wyjaśnienie, ale także teorię matematyczną pozwalającą opisać to zjawisko. Dziś tę teorię uznajemy za początki teorii procesów stochastycznych i stochastycznych równań różniczkowych (w tym momencie filmowcy odmówili współpracy).

Rzecz w tym, że cząsteczek wody jest naprawdę kolosalnie wiele i nie sposób śledzić ich wszystkich. Widać tylko uśredniony efekt wielu takich zderzeń. Istota podejścia Smoluchowskiego sprowadza się do tego, że mamy bardzo, bardzo wiele obiektów „małych”, których nie sposób śledzić indywidualnie, które wpływają na na coś „dużego”, co nas interesuje i co możemy obserwować. Teoria zapoczątkowana przez Smoluchowskiego pozwala przewidzieć (przynajmniej w sensie statystycznym) zachowania obiektu „dużego”, zwłaszcza jeśli oprócz przypadkowych impulsów pochodzących od obiektów „małych”, działa jeszcze jakiś mechanizm deterministyczny – fizyk zainteresuje się przede wszystkim oddziaływaniami, ekonomista trendami i sezonowością, a statystyk korelacjami. Wszystko to stanowi podstawę modelowania stochastycznego (Monte Carlo), jednego z najważniejszcy narzędzi badawczych nie tylko w fizyce, ale także w ekonomii, naukach przyrodniczych i w technice.

Zmieńmy temat. Ludzie przewidujący rozwój informatyki i jej zastosowań zapowiadają rychłe nadejście Internetu rzeczy, IoT. Sztandarowym przykładem jest „inteligentna lodówka”, która sama stwierdzi, że kończy nam się mleko, sok i jajka, sama złoży zamówienie, a inteligentny dron sam dostarczy nam zakupy wprost do domu. Inny przykład to ekspres do kawy, który uruchomimy za pomocą aplikacji w telefonie, tak aby po wejściu do domu czekała na nas gorąca, świeżutka, pachnąca kawa. Albo inteligentny piec w łazience, który uruchomimy inną aplikacją, abyśmy mieli wodę nagrzaną na czas (zagrzana za wcześnie będzie stygnąć, czyli albo będzie zbyt zimna, jak na nasz gust, albo trzeba ją będzie podgrzewać, czyli marnować energię; zagrzana zbyt późno sprawi, że będziemy musieli czekać). Oczywiście inteligentny ekspres i inteligentny piec same zamówią serwisanta do swojego przeglądu, a gdy uznają, że są już zużyte, zasugerują nam zakup swoich następców. Inteligentne sprzęty domowe nie będą bać się śmierci. HAL 9000 jest oczywistym wyjątkiem.

Ale to nie wszystko. Dziś większość z nas ma smartfony, niektórzy smartwatche, a będzie tego więcej. Inteligentne okulary, które będą nam coś wyświetlać, inteligentne klucze, które będzie można zaprogramować tak, aby otwierały kolejne drzwi, inteligentny portfel, inteligentne urządzenia monitorujące nasz stan zdrowia, inteligentna obroża psa, żeby nie zgubił się na spacerze, inteligentne Bóg wie co jeszcze. Celem, jak mówią wizjonerzy IoT, ma być, abyśmy byli „bez przerwy zanurzeni w przestrzeni Internetu, bez potrzeby logowania”. Szczerze powiedziawszy nie wiem, co dobrego mogłoby z tego wyniknąć, ale obawiam się, że ludzkość może spróbować to zrealizować.

Problemem – a może właśnie nadzieją?! – mogą okazać się wymagania sieciowe. Wszystkie te inteligentne urządzenia będą musiały bardzo często łączyć się z siecią, choćby po to, aby powiedzieć „Hej, jestem, czekam!”. Zapewne nie będą robić tego tak często, jak dzisiejsze połączone z siecią komputery, ale ponieważ ma być ich naprawdę dużo, i tak wygenerują gigantyczny ruch. Duże i całkiem małe urządzenia podłączone do IoT będą się ze sobą komunikować także bez żadnej świadomej akcji z naszej strony, aby zapewnić nam to „zanurzenie w przestrzeni Internetu”. Aby całego IoT szlag nie trafił, potrzebne będą nie tylko bardzo wydajne serwery, ale także inteligentne – no jakże by inaczej – algorytmy obsługi ruchu. I tu wracamy do paradygmatu ruchów Browna: mnóstwo „małych”, czyli impulsów pochodzących od tych wszystkich inteligentnych gadżetów, a imię ich Legion, może zauważalnie wpływać na coś „dużego”, czyli na sieć łączącą te wszystkie „małe” i na zarządzające nią serwery, choć wpływ każdego „małego” z osobna jest pomijalny. Co więcej, stany urządzeń IoT nie będą w pełni niezależne: nasza inteligentna lodówka raczej nie wyjdzie z kuchni, ale inteligentne okulary będą się wraz z nami przemieszczać naszymi inteligentnymi samochodami, a wraz z inteligentnymi okularami zazwyczaj będą to robić nasze inteligentne klucze i portfel. Aby to wszystko inteligentnie obsłużyć, sięgnąć trzeba będzie do zaawansowanych modeli matematycznych, wyrosłych z teorii, którą Marian Smoluchowski wymyślił nieco ponad sto lat temu aby wyjaśnić ruchy Browna.

Uzupełnienie: Obecny stan internetu rzeczy dobrze ilustruje smutna historia programisty, który przez 11 godzin usiłował uruchomić swój nowy czajnik podłączony do WiFi.

Marian Smoluchowski, 1872-1917

Marian Smoluchowski, 1872-1917