Bity powinniśmy nazywać Leibnizami

You are currently viewing Bity powinniśmy nazywać Leibnizami

Zwykliśmy pamiętać o wielkich wynalazcach i odkrywcach, a nawet, na ich cześć nazywać ich nazwiskami związane z tymi sukcesami przedmioty czy zjawiska. Jest „przewrót Kopernikański”, „prawo Archimedesa”, „teoria Einsteina”, czy zrazy „a’la Nelson”. Niestety wiele nazwisk, które powinny być uhonorowane, zaginęło gdzieś w mrokach historii. Kto wynalazł papier – Chińczycy, a cyfry – Arabowie, a koło, dźwignię, łuk, hodowlę roślin czy udamawianie zwierząt?


Później niby wiemy więcej, ale to że druk wynalazł Johannes Gutenberg (1440, albo coś koło tego), soczewkę, której rodowód sięga 3600 lat temu, zastosował w Laterna Magica C. Cardano (1550), a Amerykę odkrył Krzysztof Kolumb (1492) nie wyczerpuje całości zagadnienia. W mrokach pozostają wielcy konstruktorzy, wynalazcy i tęgie naukowe umysły, których istnienia nawet nie podejrzewamy, chociaż korzystamy bogato z owoców ich pracy.


Taki np. Gottfried Wilhelm Leibniz, żył niedługo później (ur. 1646 r.), dokonał wiele, był geniuszem i nikt o nim nie pamięta. Lista dziedzin, które go pasjonowały i w których udało mu się coś nowego osiągnąć, spisana przez Marię Rosę Antoganzza w książce Leibniz. Biografia intelektualna (Copernicus Center Press), swoim rozmiarem poraża i wzbudza najgłębszy szacunek. Jednak dla współczesnego człowieka jedno, wypowiedziane przez niego zdanie powinno wystarczyć, aby stawiać mu pomniki i oddawać cześć najwyższą: 


Wszystko można wywieść z nicości; wszystko czego potrzeba to jedność. 

Tak brzmią podstawy systemu binarnego (dwójkowego, zero-jedynkowego), którego może nie wynalazł, ale istnienie którego przeczuwał, a który stał się podstawą cyfryzacji i rozwoju wszelkich technik komputerowych. A przecież człowiek XXI w. bez komputera i techniki cyfrowej nie istnieje. Tak nam się przynajmniej wydaje, chociaż jakoś ludzie żyli, nawet przeczuwający pismo nosem, nasz genialny XVII-wieczny Gottfried.

Współczesne osiągnięcia techniki są z reguły wynikiem pracy wielu uzdolnionych ludzi, z wielu dziedzin. Każdy dokłada swoją cząstkę, błądzi, wraca na właściwą drogę, aż wreszcie powstaje wynik tych wszystkich, często odległych i niespokrewnionych działań… i zadziwia wszystkich. Taki Blue Ray, błękitny (naprawdę fioletowy) promień lasera, za opracowanie którego Japończyk Shuji Nakamura odebrał w 2014 r. (wspólnie z Akasakim i Amano) Nagrodę Nobla. Nakamura to pionier w badaniach nad półprzewodnikami świecącymi, w tym LED. Ma ponad 500 światowych patentów, a Nagroda Nobla dotyczyła świecących półprzewodników jako takich i niebieski laser do tej puli się załapał.

 
Jego dioda laserowa była gotowa już w 1995 r., ale światło o długości fali 405 nm, które osiągnął na podłożu szafiru, miało wiele błędów i mankamentów. Do badań włączyło się, a przede wszystkim dosypało pieniędzy wiele firm na świecie (Toschiba, Xerox, Fujitsu, Osram, PAN w Warszawie, Uniwersytety w Bremie, Sheffield, Bath i Southhampton, Politechnika w Lozannie). Ostatecznie światło niebieskie uzyskiwane jest na bazie azotku galu (GaN), który w przyrodzie nie występuje i jest uzyskiwany syntetycznie.

 
Mamy w to swój polski wkład i badania Instytutu Wysokich Ciśnień PAN oraz przyjętą na świecie metodę wysokociśnieniową pozyskiwania tego dość drogiego specyfiku. Dopiero mając nowe, ultra czyste podłoże (Nakamura chwalił Polaków w wywiadzie, którego udzielił po otrzymaniu Nobla) i nową technologię, Nakamura mógł doprowadzić swój laser do perfekcji, a ostatecznie do przemysłowego wykorzystania. I jego nazwisko, a nie nazwiska tych wszystkich, którzy w sukcesie pomogli, kojarzone jest na świecie z błękitnym światłem.


No cóż, od XIX w. mamy prawo patentowe, a więc niby o nazwiska wynalazców, nawet tych cząstkowych, łatwiej ale finis koronat opus, czyli ważne jest to końcowe nazwisko, a nie wszyscy, którzy się w jakiś sposób przyczynili, nawet jeżeli swoje wkłady opatentowali i można to sprawdzić w dokumentach.


Podobnie jest z teorią binarną, teorią informacji, matematyką dyskretną. Te teorie dały podstawy do rozwoju informatyki i telekomunikacji współczesnej. Za ich ojca uważa się, także zapomnianego z imienia i nazwiska, Claude E. Shannona (1916 – 2001), a my możemy dodać, że zrozumiał i twórczo rozwinął to co kiedyś tak pięknie sformułował Leibniz.

 
Shannon już jako młody człowiek, pisząc swoją pracę magisterską w 1938 r., twierdził, że ciągami zer i jedynek da się opisać tekst, obraz czy dźwięk. Matematyczną teorię komunikacji sformułował w swoim najsłynniejszym dziele w 1948 r., a z tego rozwinęła się teoria informacji i kodowania. A kodowanie w okresie poprzedzającym wojnę i w czasie II Wojny Światowej jak wiadomo było priorytetem (Enigma), a kryptologia rozwinęła się jak nigdy przedtem, chociaż historię swoją ma długą, a my jak zwykle rozwiązując Sekret Enigmy (Marian Rejewski, Jerzy Różycki i Henryk Zygalski), mamy w ten rozwój niemały wkład, chociaż filmem i serialem na ten temat (reż. R. Wionczek, 1979) raczej się chwalić nie powinniśmy.

 
Korzystano już wtedy z telegrafu, a najlepszym przykładem wykorzystania techniki binarnej są alfabety Morse’a i  Braille’a. Koncepcja binarna niezwykle uprościła konstruowanie i działanie powstających właśnie pierwszych komputerów oraz późniejszą ich ekspansję. Znalazła też praktyczne zastosowanie w konstrukcji układów scalonych i działaniu Internetu. Claude Shannon jest uważany za jeden z najtęższych umysłów minionego stulecia. Swoją teorię uzupełniał przez całe życie formułując wiele ważnych do dziś zasad matematycznych.


Był zafascynowany maszynami matematycznymi. Skonstruował w 1956 r. komputer szachowy MANIAC, a także maszynę THROBAC, która liczyła wykorzystując rzymski zapis liczb. Pracował nad sztuczna inteligencją. Pewnie nie wiedział, że będzie ona w 100% pozbawiona empatii, co przewidział Stanisław Lem tworząc Nieliniowców, ale Lem jest powszechnie znany, chociaż może nie z dziedziny nauki.


Z teorii Leibniz’a, tak pięknie kontynuowanej przez Shannona, czerpią także współcześnie działający naukowcy. Jednym z nich jest urodzony w 1947 r., argentyńsko-amerykański matematyk Gregory Chaitin. Jest jednym z twórców algorytmicznej teorii informacji, która obecnie wykładana jest na każdym kursie z zakres informatyki. To postać niezwykle ekscentryczna, a jego prace dotyczą też filozofii, metafizyki, metabiologii i filozofii matematyki. Pewnie jeszcze mnóstwa innych rzeczy, bo umysł jest to niezwykły i renesansowy. Musisz być szalony, żeby przeciwstawić się środowisku, ale są wśród nas tacy, którzy nie mogą się powstrzymać. Powiedział kiedyś.


I on na pewno do tych, którzy nie mogą… należy. To jego szaleństwo jest jednak powszechnie doceniane. Jest profesorem Uniwersytetu w Rio de Janeiro, ma tytuł doktora honoris causa Uniwersytetu w Maine i honorowego profesora w rodzinnym Buenos Aires. Autorem 10 książek przetłumaczonych na wiele języków. Jego nazwisko nosi stała Ω, ale to oczywiście wiedzą tylko specjaliści od rachunku prawdopodobieństwa, bo liczbą tą określa się prawdopodobieństwo zatrzymania się losowego programu. I dalej już wszystko (dla niektórych) jasne.


I jeszcze młodsze pokolenie. Stephen Wolfram urodzony w 1959 r. w Londynie, a więc wkrótce po tym, jak pojawiła się Matematyczna teoria informacji Shannona. Dobrze wystartował. Ojciec pisarz, matka profesor filozofii. Jako dziecko był nieznośny, bo wszystko go interesowało, a więc zadręczał otoczenie, a przede wszystkim swoje opiekunki. Opłacało się. W wieku 15 lat opublikował pierwszy artykuł o fizyce cząstek, dwa lata później był już studentem Oxfordu, a w wieku lat 20 obronił doktorat w Caltech. Rok później uzyskał MacArtur Genius Award i dalej już było z górki.

 
Miał mnóstwo publikacji z dziedzin niezbyt łatwych (fizyka cząstek, algebra komputerowa, automaty komórkowe, symulacje komputerowe) i był obiektem powszechnej zazdrości. Jak on to tak szybko robi?, a przede wszystkim wylicza? Już wtedy opracował dla swoich potrzeb program komputerowy, który go w wyliczeniach wspomagał, a który w swojej wersji komercyjnej (1988) jest znany jako Mathematica. Podobno, gdyby nie ten program to współczesnej nauki by nie było. Pewnie nie było by też kosmosu, bo jest stosowany do obliczeń na Międzynarodowej Stacji Kosmicznej.


Kiedy okazało się, że jako pracownik uczelni ma problem z prawem własności do swoich patentów założył Wolfram Research, czyli wynalazki spółka z o.o., podobnie jak kiedyś Edison czy Bell objawił swój kolejny geniusz – do interesów. Jego idea fix to powstanie MathWorld, encyklopedii internetowej opartej na innych zasadach niż Google. Zatrudniony przez niego zespół specjalistów zdobywa wiedzę ze źródeł na całym świecie i porządnie ją weryfikuje. Encyklopedia już powstaje, a system Wolfram Alfa ma udzielać odpowiedzi na najtrudniejsze pytania.


Co ciekawe wersję silnika Alfa, Wolfram sprzedał jakiś czas temu małej firmie komputerowej, która teraz nazywa się Apple, a silnik Alfa to głos Siri, inteligentnego osobistego asystenta. Stephen Wolfram, podobnie jak Gregory Chaitin, jest wiernym fanem teorii Lebniza, a panowie się przyjaźnią. To od Wolframa na 70 urodziny Chaitin dostał wspaniały medal z inskrypcją zawierającą zdanie, które legło u podstaw wielu dziedzin zależnych od cyfrowego zapisu danych i cyfrowego opisu zjawisk, czyli opisu za pomocą dwóch najważniejszych cyfr – zera i jedynki, nicości i jedności.


Wolfram jest też autorem niezwykłej i kontrowersyjnej książki A New Kind of Science, której napisanie zajęło mu 10 lat (1992 – 2002). Książkę sam wydał i za darmo udostępnił online. Pieniędzy mu nie brakuje, a przyszłość widzi obliczeniową, cokolwiek miało by to znaczyć. Obaj z Chaitinem zastanawiają się, czy czegoś w teoriach Leibniz’a nie przeoczyli. Ciągle wydaje im się, że są tam jeszcze jakieś nieodkryte i niedocenione przez nich perełki, które mogą być cenną wskazówką i ukierunkować dalszy rozwój naszego, współczesnego świata.