Mainstream

Wyzwania dawno komunikowane

Czytelnicy zapewne słyszeli o innowacjach tego, śmego i owego, ale jakoś dalej przy remontowanych drogach stoją robotnicy opierający się o łopatę? Rzymianie też tak stali, tylko bez kakakasku? Mamy taką populację, która ogarnia szpadel i nie ma powodu aby cokolwiek więcej wymagać – choć w ten sposób mogą się przydać. Ale jeśli chodzi o ambitne aspekty rozwiązywania problemów o większej złożoności to ostatnie 80 lat zaprowadziło nas na granicę wyinżynierowania do granicy tego co się dało. Przykładem gdzie zderzyliśmy się z własną kreatywnością są projekty kalkulatorów kwantowych, ai i wielu podstawowych badań z zakresu fizyki i biologii. W chemii nieorganicznej i materiałówce na razie te problemy nie są dotkliwe, choć tu i ówdzie (nadprzewodnictwo, nanomechanika) jest pewien, delikatny zastój (tylko dlatego że tam nikt nie pcha się na ścianę).

Zagadnienia o jakie się rozbijamy zostały sformułowane około stu lat temu, kiedy powstawały teorie fizyczne jakie udało nam się wyzyskać w ciągu ostatniego wieku. Większość kohort populacji jest przekonana (taka religia), że te problemy zostały rozwiązane, ale przed osobami studiującymi aparaty logiczne jakimi się do tego posłużyliśmy nie dało się ukryć kreatywnego obchodzenia problemów takim młotkiem jaki mieliśmy. Już wiek temu postulowano, że to może być niewłaściwy młotek i, że ten gwóźdź to seria założeń i przybliżeń. Proces kształcenia mamy taki, że większość utrzymania cywilizacji w ruchu sprowadza się do ogarnięcia aparatu matematycznego operującego przybliżeniem statystycznie poprawnym na tyle dobrze, że do większości zagadnień (ciśnienia, temperatury, przepływy) wystarczają rozwiązania klasyczne operujące na liczbach rzeczywistych. Oczywiście mamy tam narzędzia operujące wybranymi duperelami z liczb hiperrzeczywistych (różniczka), ale wyłącznie w celu wykluczania nieistotnie szczegółowych przybliżeń. Przeprowadziłem dowód wprost i jakieś tam podstawy tego aparatu odpowiednio wytłumaczone potrafi ogarnąć szóstoklasista. W każdym razie logikę jaką posłużyliśmy się do ignorowania wartości iloczynu ε tłumacząc, że to jest jeszcze mnie niż mało, a ε ^n to jest mało-mało i jeszcze mniej. Oczywiście chwilę po rozwiązaniu takich bolączek ze smarkatym pokazujemy jak to przyspieszyć trójkątem pascala i problem iloczynu ε wraca do szuflady abstrakcji.

Jeśli przyjrzycie się rozwojowi rozwiązań stosowanych w inżynierii (i w większości fizyki) to od momentu odkrycia/sformalizowania młotka (różniczki i całki) każdy problem wygląda jak gwóźdź. Działa – nie ma powodu żeby to zmieniać. I tak bardzo trudno jest doprowadzić jakąkolwiek użyteczną liczbę sapiens do posługiwania się tym aparatem na tyle, żeby siadać do zagadnień praktycznych, gdzie kilka takich gwoździ ma się nam mniej więcej przecinać w jakimś obszarze dV. Większość urządzeń na tym działa i nie ma co psuć. Podobnie przeprowadzamy proces przyswajania aparatu do elektryki i elektroniki gdzie wprowadzamy liczby odczapkowe (urojone), a że jedno z drugim bardzo fajnie gra, to po drodze wprowadzony jest aparat związany, a algebraiczną trygonometrią (wykładniki urojone). To się niby powszechnie występującym hominidom może wydawać jakimś hokus-pokus, ale w szkołach daje się selekcjonować kohorty, które przyswajają ten aparat gdzieś pomiędzy 10 a 16 rokiem życia i nawet zdarzają się typy, które potrafią stosować to w praktyce. Bez trudu znajdziecie publikacje o co bystrzejszych dzieciakach, które są z tej okazji fetowane. Oczywiście wychowujemy dzieci bezczelnie kłamiąc, ale w miarę jak przechodzimy do objaśniania coraz bardziej złożonych zagadnień zaczynamy okłamywać się sami. Problem leży u samych podstaw sposobu w jaki przyswajamy wiedzę. Nie słyszałem o koncepcji aby nauczyć kogoś algebry bez przejścia przez kolejne rozszerzenia zbioru liczb naturalnych przez całkowite, rzeczywiste, objaśnienia niewymierności, wprowadzenia smaczków hiperrzeczywistych, urojonych, a po drodze nie objaśnić systemów liczbowych, geometrii i trygonometrii. Przekracza moją wyobraźnię możliwość zainteresowanie młodego łba czymś co nie jest ad hoc do czegokolwiek przydatne. A przejście do abstraktów “ile konkretnie to jest ten 2^0.5”, że to na tym zapisie kończymy bo to jest właśnie tyle i przyswojenie przez smarkacza, że może istnieć abstrakcyjna reprezentacja czegoś co nie przekłada się na bezpośredni wymiar (zapewniam, że przekątna kwadratu 1×1 ma skończony wymiar co widać na kartce w kratkę, tylko nie ma sensu wyrażać go w metryce z podstawą 1 nawet ułamkami) pozwala na wprowadzanie kolejnych abstraktów, które jakoś tam później można ze sobą użyć aby uzyskać przybliżenia, a nawet wartości dające się prosto wyrazić.

Jeśli jednak łeb może pożeglować dalej to od razu trafimy do krainy przybliżeń. Nie żeby się nie dało inaczej, ale proces nauki wymaga kłamania, bo przyswojenie aparatów logicznych jakimi się posługujemy jest z każdym krokiem coraz bardziej złożone. Tęgie łby opracowywały ten proces nauczania w przód i w tył przez dekady, zanim dopasowały go do retencji. Kłamstwa jakimi tam operujemy to są różne sztuczki dobierania proporcji, upraszczania zagadnień i stosowania przybliżeń ogólnie fałszywych, ale wystarczająco dobrych dla małych wartości (jak wybryki z dzieleniem tangensem zamiast sinusem, bo ciągi są zbieżne dla małych wartości). Takich kwiatków mamy w całym procesie przyswajania aparatu wiele i to nawet działa (ale jedynie tak długo, jak pamiętamy że oszukiwaliśmy, że to uproszczenie i koniecznym jest sprawdzanie czy ciągle jesteśmy w domenie tego przybliżenia). Z tym że naturalnym odruchem dla homo sapka jest ekstrapolacja. No a skoro oszukiwaliśmy to nie wolno ekstrapolować poza domenę.

Komputery znacząco ułatwiły zabawę – wiele problemów można zaatakować numerycznie. Różnica jest jedynie taka, że wychodzimy wtedy z przestrzeni antydyskretnych, no bo rozmiar danych. Co więcej – większości problemów jakie wystąpiły (choćby legenda o tym, że gps miał jakiś związek z GR – terefere) rozwiązali inżynierowie, którym się wynik pomiaru nie spodobał i tak sobie poprawili proces przetwarzania cyferek, żeby wychodziło dobrze. Zaznaczam że to działa – kiedy pomiary gps nie pokrywały się z rzeczywistością nikt nie odwoływał się do teorii fizycznych. Po prostu pomajstrowali przy równaniach “młotkiem i przecinakiem” – wychodziło dobrze. Ktoś później skojarzył, że to chyba będzie poprawka z GR i stąd legenda. Owszem – dziś jest to implementowane, ale najpierw rozwiązano problem w praktyce, a dopiero później ktoś skojarzył słynne “rozwiązanie istnieje!”. Bo to akurat ktoś się przejmował niedokładnością gps, kiedy pomiary były rozmyte na setki metrów, bo tak dobre były wtedy zegary.

Z takim zagadnieniem zwrócił się do mnie między innymi @sejcz, który zajmuje się integracją wyników badań z biologii molekululawej, farmaceutykami i tego typu wybrykami bazodanowymi. Szybko konotował, że mamy już aparat logiczny wiążący liczbę próbek, liczbę testów, powtarzalność wyniku i błąd pomiarowy w jakąś liczbę, która opisuje rozbieżność, a z tego celowość rozpoczęcia procesu wyciągania wniosków. Po czym słusznie uznał, że na bazie takiej próby wyciąganie wniosków można spokojnie zastąpić telefonem do wróżki. No tak – trzeba nazbierać danych, na bazie wyników dopracować proces pomiarowy, zautomatyzować, na bazie wyników dopracować pomiar o kolejny rząd wielkości, ponownie zautomatyzować, cały czas skalować i wtedy dopiero można do tego stosować jakieś wnioskowanie. A do tego jesteśmy o rzędy wielkości za daleko na każdym argumencie w równaniu. To nie wada równania, to wada oczekiwań. Szybko postawił kwestię “jak to zrobiliśmy w innych branżach” i tu sprawa jest dość prosta – na bazie uzyskiwanych wyników usztywnialiśmy proces produkcji tak aby rezultat był powtarzalny (nieważne jaki, ważne że w widełkach prostego pomiaru transformator daje na wyjściu ile daje), a później metodą “tak działa – tak robimy” wykonano tabele gdzie porobić odczepy i z tej tabeli wywróżono krzywą prądową, którą jako tako dało się przełożyć na inwerter. To że nie działa on liniowo, a oszukuje bo ma dopasowane długą praktyką liczby jest bez znaczenia, bo na wyjściu rezultat jest zgodny z oczekiwanym.

Dokładnie takim samym sposobem konstruujemy elektronikę (nie, serio nie ma tam liniowej teorii przed stosunkiem, że tak wyjdzie, wyniki teoretyczne są rozbieżne, a po wyniku eksperymentalnym dobiera się taki tweak do funkcji, żeby zgadzało się dla dziedziny eksperymentu i tak krok po kroku zwiększając dokładność, dlatego kolejne przybliżenia we wzorach w zastosowaniach nie pokrywają się z przewidywaniem teoretycznym – bo to nie jest algebra na tym zbiorze co trzeba). I dokładnie tak samo robimy w procesie dopasowania równania ai manipulując wagami argumentów o drobne wartości uzyskując zbieżność ciągu z jakimś tam oczekiwanym. Tyle że robimy to na dużym zbiorze danych i rozległym równaniu, więc większości populacji wydaj się że to jakieś hokus-pokus.

Na ten problem wynikły z edukacji natknąłem się w działach R&D. Patrzyłem z niedowierzaniem na bredzącego inżyniera, który dość szybko skonstatował, że został zaszufladkowany gdzieś w okolicy karalucha. Otóż typ (ale więcej takich było zanim przyjąłem powszechność tego mankamentu) na bazie swoich doświadczeń wywnioskował, że skoro oni stosują sztuczki z przybliżeniami (sztuczki, ponieważ nie bardzo ogarniają dlaczego dla pewnych trików obliczeniowych zastosowano jakąś równoważność, ale że to tylko tak na potrzeby jakiegoś uproszczenia; gdyby ogarniali to poszliby na Matematykę) to wszelkie kwalifikacje są serią sztuczek, a nie wiedzy i doświadczenia oraz odnajdowania analogii dla domen z zastrzeżeniem do granic danej domeny. Z tego powodu nie był w stanie opanować kwalifikacji technicznych jakie były potrzebne do realizacji projektu (obsługa elektroerozji na czwartym i piątym miejscu po przecinku dla krzywych), ponieważ oczekiwał, że to można zrobić przy użyciu jakiejś magicznej sztuczki opisanej w jakimś zakurzonym tomie, zamiast samodzielnie wywnioskować granicę możliwości maszyny ze składowych jej konstrukcji. Dekadę później połapałem się, że są memy o inżynierach których twierdzenia bazują na tym, że tak napisano w książce na stronie – o tu właśnie. Nie żeby to było jakoś niewłaściwe skoro działa, ale wyłażenie poza domenę danej sztuczki szkodzi.

Mamy więc ustalony, przetestowany sposób na rozwój, gdzie uzyskujemy z kolejnych pomiarów kolejne przybliżenia pozwalające na kolejny, dokładniejszy pomiar. Problem obliczeniowy udało się zamieść pod dywan równolegle rozwijając maszyny liczące dzięki uzyskiwaniu tych kolejnych przybliżeń. Tak mniej więcej rozwijamy cywilizację. Ale nie wiemy dokąd ta krzywa prowadzi, choć na problem przyjętych założeń zwracano uwagę już na samym początku (później je wskażę). Mamy więc całe pokolenia stem kształcone na bazie tych sztuczek. I zaczęły się problemiki tylko dlatego, że w wyniku wielu dekad doświadczeń powstał bias, że aparat obliczeniowy do teorii jest prawdą objawioną. Tymczasem twórcy samych aparatów wskazywali, że to tylko tymczasowe łatki, bo na razie nie ma nic lepszego, co by można sprawdzić w praktyce. Ale nie powstrzymało to całych pokoleń nerdów od przyjęcia prawd objawionych i próby realizacji rzeczywistości taką, jaką ona “powinna być” zamiast przyjęcia do wiadomości tego co jest. Popastwię się przez chwilę nad kilkoma takimi zagadnieniami, które wcale nie miały funkcjonować rozdzielnie, bo zabrną na manowce.

Zacznijmy od CASP i alphafold. Bo ai nie po to jest klecone, żeby się zajmować malowaniem kotków. Co to właściwie robi? Ta ai ma dostarczyć taki ciąg dopasowań, który pozwala przewidywać budowę makrostruktur na bazie własności cząstek. W krótkim czasie uzyskała lepsze przybliżenia wyników niż przez dekady dłubania tego przez homo sapki. To sukces. Bo mamy lepsze przybliżenie. Nie pokrywa się ono z rzeczywistością 1:1, ale to akurat nie jest cokolwiek oczekiwanego. AI operuje pewnym modelem dostarczanym z pomiaru i na bazie tego co nam się w poprzednich przybliżeniach wydawało. Jeśli jednak ktoś sobie uroił, że da się tego użyć do projektowania czegoś, co zadziała w organizmie to zwracam uwagę, że to nie jest 1:1 dla modelu statycznego, a problem struktury czwartorzędowej białek (czyli dynamicznych geometrii cząstek w warunkach roboczych) statyczny nie jest. Fajnie by było mieć model statyczny (coś jak twierdzenie Coulomba, które jest ogólnie fałszywe, ale statycznie jak najbardziej do przyjęcia) na tyle 1:1, żeby móc się wybrać w dalszą podróż. Otóż to nie jest wina słabości ai, że się nie może wybrać dalej zgodnie z danymi eksperymentalnymi gdyż właśnie na tych danych słabujemy – ai rozwiązało w wystarczającym przybliżeniu do liczby danych problemy jakie istniały. Alphafold operuje więc na modelu z gruntu fałszywym, bo dostarczonym przez nas, podczas gdy badania struktury cząstek dokonujemy w warunkach statycznych i to z poważnym rygorem (krystalizacja, konkretnie tworzona jest powtarzalna struktura, która pozwala odbiciami fal po geometriach optycznych – nie używamy do tego żadnego kwantowego hokus-pokus – dokonać takiej ilości pomiarów aby uzyskać bardzo głębokie przybliżenie danej struktury statycznej na bazie powtarzalności tego pomiaru w sztywnych warunkach). Oczekiwania dopasowania natomiast odnosi się do złożonych cząstek, których w kryształek poukładać nie sposób (bez popsucia na kawałki) i ich pomiar jest związany z większym rozrzutem wyników przy maltretowaniu obiektu dawkami energii z różnych kątów. Więc sam ten obraz “dany” może być wadliwy, a ai mogła prawidłowo rozgryźć model i trzeba podciągnąć pomiarówkę. Czyli na bazie fałszywych danych (w dużej ilości) wysnuła prawidłowe rozwiązanie, którego nie możemy potwierdzić. Najpewniej uzyskała rozwiązanie fałszywe, ale mniej fałszywe od naszego pomiaru, a z pewnością rzędy wielkości lepsze od tego co pokolenia sapków majstrowały same.

Problem kątów pomiędzy cząstkami i ich układów dynamicznych rozwiązuje “najprecyzyjniejsza teoria w historii” czyli qed. Owszem rozwiązuje, owszem najprecyzyjniej, ale ma tam taką stertę sztuczek pomijających nieprzystającą algebrę, że jej granice przewidywań są bardzo sztywne i z całą pewnością nie nadają się do tego zastosowania. Ciągi rozbieżne do nieskończoności ręcznie pozamieniano tam na wartości wzięte z eksperymentu, ale mówimy o precyzji eksperymentów z lat pięćdziesiątych i ciągłego majstrowania przy tej stercie wartości do dnai dzisiejszego. Granicą tej teorii w założeniu było “mamy pusty wszechświat i jest w nim jeden elektron, z nieskończoności nadbiega drugi”. Sami twórcy teorii i jej aparatu od razu zaznaczyli, że to wszystko jest tymczasową metodą liczenia wyinżynierowaną do wyników pomiaru, a nie wyprowadzoną w jakimkolwiek rygorze. Tymczasowość miała starczyć na dekadę, a że nic lepszego nie było to już tak zostało, kolejne pokolenia przyjęły ten zestaw epicykli za prawdę objawioną, ale Matematyków nawet nie wypada drażnić tym jak ten szałas jest sklecony. Kolejne pokolenia wysnuły z tego koncepcję komputera kwantowego i w kilka dekad doszliśmy do punktu, w którym da się za to zabrać. Pozamiatane pod dywan przybliżenia świetnie się sprawdzały przy konstrukcji sensorów, nadajników (laserów), w pomiarówce, ale geronci, którzy tym się zajmowali zwracali uwagę, że w środku układu odniesienia jest “drobna” nieścisłość (w liczbach rzeczywistych i ich rozszerzeniach energia elektronu jest nieskończona jeśli przyjmiemy za środek antydyskretnego układu odniesienia rzeczony abstrakt “elektron” co rozwiązane jest pseudometryką dyskretną; z drugiej strony z rosnącą precyzją wynik jest rozmyty do nieskończoności przy braku continuum – stąd różne ciekawe efekty falowe). Kolejne pokolenia przyjęły, że skoro działa to nie ma co psuć i zmajstrowały pierwsze liczydła na kilku spłatanych kwantach. Z każdym kolejnym poziomem złożoności (dodanie qbitu) był coraz większy problem szumu (bo teoria dotyczyła pustego wszechświata z jednym elektronem, a takiego akurat nie mamy pod ręką) rosnący do oczywistej wartości i się sprawa nieco rypła. Bo wytłumiać szumy nakładem energii owszem możemy, no ale nie w takim tempie jak to cholerstwo narasta. Bo do tego w zasadzie były potrzebne komputery kwantowe – do liczenia relacji sinusów algebraicznych pomiędzy cząstkami. To że wymyślono jeszcze tam jakieś “lodówka może gotować, a nawet pilotować mikser” to kręcenie hajpu pod dotacje. Nie pierwszy raz nerdy tak organizują finansowanie badań rzucając jakąś przemianę ołowiu w złoto do dyskusji; na badania podstawowe z chemii alchemikom nikt by złamanego grosza nie dał, bo niby jakie mogą być zastosowania chemii z punktu widzenia XVI wiecznego monarchy? Żeby stryjka otruć? No przecież nie jakieś tam fosfaty pozwalające zwiększyć kilkaset razy plony, bo to się jeszcze wtedy nikomu nie śniło.

Jeśli więc nerdy robią w jajo suwerena, żeby wytargać od niego środki na popychanie cywilizacji technicznej w drodze pod górę, to nie mam zastrzeżeń. Czy suwerenem jest jakiś monarcha czy inny demokrator zupełnie mi leży, małpom podpierającym sistiema i tak nie da się wyjaśnić aparatu potrzebnego do wzięcia udziału w zabawie. Rzuci im się od czasu do czasu jakiegoś walkmena czy smartfona i machając łapkami przed powerpointem wyjaśni że to jest właśnie rozwój. Kupują to. Jakby suweren zajęczał to obecnie sieciospołecznie można mu zadać tyle sygnałów wzbudzających do innych kwestii, że się zajmie czym innym.

Mamy takich powszechnie przyjętych wierzeń, że jakaś tam nauka coś już ustaliła sporo. Akurat to zagadnienie (alphafold i liczydeł kwantowych) wynika z pewnego założenia, które było przybliżeniem. Otóż cały aparat logiczny przodkowie odkryli rozszerzając zbiór liczb naturalnych i majstrując na nich hiperrzeczywistymi. Wraz z zastosowaniami do kolejnych zagadek natury jakie wynikały z eksperymentu wprowadzano coraz więcej przybliżeń. Celem tego było wywalanie kolejnych stałych z równań. I to się sprawdzało, pozwalało konstruować pomiarówkę stawiającą kolejne pytania, dlaczego równanie rozjeżdża się z wynikiem eksperymentu. Kiedy danych było dość można było się przejść do Matematyków i oni w swoich przepastnych archiwach znajdowali już odkryte rozwiązanie dla przystającego problemu. Pomiarówka na zupełnie klasycznych geometriach optycznych uzyskała taką czułość, że od kilku lat mierzone są skrętności faz początkowo bardzo zgodnego w fazie światła stawiając zarzut, że mierzone są fale grawitacyjne. Które wynikają z teorii ikonicznego fizyka, który się z większością wniosków, które okazały się mierzalne nie zgadzał. Aparat logiczny do teorii dostarczył Hilbert i wtedy postulowano pewne przybliżenie, którego nie było jak sprawdzić, ale które zaczyna coraz częściej psuć pomiary. Otóż aby aparat matematyczny mogła stosować jak największa grupa homo sapków przyjmuje się w nim pewne uproszczenia. Konkretnie zmniejsza się liczbę zmiennych przyjmując je za układ odniesienia. Taki konieczny absolut. Wystarczy że jakaś zmienna ma tak nieistotne poprawki kolejnych rzędów, że nie ma o co kruszyć kopii. Przyjęte przybliżenia to były izotropowość rozkładu (czyli jednorodność pola w dV) masy, wprowadzenie czasu do pseudometryki jako pełnoprawnej osi w układzie odniesienia (ciągłość, antydyskretność co oczywiście tworzy zbiory pozbawione “dobrego porządku” równocześnie dłubiąc teorię kwantową gdzie dobry porządek jest warunkiem koniecznym i taki porządek wyprowadził Planck) oraz ikoniczną stałą prędkość przyczynowości (zwracam uwagę, że Pan Albert cały czas postulował zmienną prędkość światła, po prostu ta zmienność wychodziła tak nieistotnie mała, że dla uproszczenia można ją było pominąć, ale nie żeby jej nie było, po prostu tak da się przełknąć aparat, który jest wyjątkowo skomplikowany i bez takich kwiatków). Oczywiście to były założenia postulowane z tego tylko powodu, że na razie nie ma ani danych, ani aparatu żeby tworzyć modele roztrząsające te przybliżenia. Ponieważ Hilbert ujął to w karby Matematycy od razu zaczęli w tym dłubać, wszystko okazało się spójne. Wychodziły tam pewne kwiatki, ale że Matematycy mają inny sposób rozwiązywania problemów niż pozostali to z ich punktu widzenia łatwiej było dodać kolejne osie, na których głupi problem stałego c był zamiatany pod dywan. Przy okazji wskazali, że z tą osią t jako pełnoprawną to wcale nie trzeba, bo można sobie na 3d zastosować algebrę Liego, że iluzja kierunkowego wymiaru t będzie zachowana. Ponieważ w kilku innych zagadnieniach dało się tę algebrę później zastosować tu i ówdzie padły pewne pytania. Ale wszystkie te aparaty mają taki próg wejścia, że zajmuje się tym skraj populacji. Rozwiązanie było tak oczywiste, że narzucało się samo, ale ze względu na rozmiar populacji potrzebnej do utrzymania w ruchu cywilizacji technicznej jest zwyczajnie nie do przełknięcia. Wniosek był prosty – trzeba przepisać teorie majstrowane od czasu Maxwella w innej algebrze. Wtedy będą proste. No to jak komuś się wydaje, że aparat matematyczny teorii strun jest z tych, które miałby kto wprowadzać w edukacji powodzenia życzę. Ale taka algebra staje się coraz bardziej palącą koniecznością, a proces operowania nią trzeba będzie wprowadzić tak czy siak z tak błahego powodu, że podstawowymi operacjami w zastosowaniach są obroty. Które na algebrze po liczbach rzeczywistych są problemem już na etapie szkoły podstawowej kiedy małe homo rzekomo sapki są terroryzowane trygonometrią.

Jak takie zwierzę wyprowadzić i jakie są tego konsekwencje?

Zacznijmy od założeń, wszystkie jakie są dla arytmetyki są dobre, a mimo to już w podstawówce są dogmaty o dyspensach. Jak się już rozgościmy po rozszerzeniach liczb naturalnych aż po wszystkie rzeczywiste z niewymiernymi włącznie to warunki jakie tam mamy, są takie, że na liczbach można wykonywać wszystkie operacje z takim zastrzeżeniem, że nilpotentem niby nie wolno dzielić. I się dzieciom tłumaczy, że zerem dzielić nie lza. Nie koniec na tym kłopocików, nilpotent jako wykładnik też się robi problematyczny dla samego siebie. Większość dowodów w takich przypadkach przeprowadzane jest przez domknięcie. No ale w naturze nigdzie zera nie udało się zaobserwować, podpada już na etapie arytmetyki, to może ten nilpotent jest jakoś nielegalny? A wywalmy go i zobaczmy co się stanie. No bo skoro jakaś liczba się nie zachowuje to na karnego jeżyka z nią.

Pada takie podejrzenie, że nie można wtedy wyprowadzić arytmetyki, ale to pozory. Skoro już bawiliśmy się domknięciem to można, a nilpotent można obejść złożeniem dwóch operacji. Co zaczyna być analogiem obrotów. Sprawa rozwiązuje się po rozszerzeniu zbioru o liczby urojone. Z tym że jeśli zastrzegliśmy że zero wypadło nie da się w postaci a+bi przedstawić jakiejkolwiek liczby rzeczywistej. Zawsze mamy oscylację. No to pięknie – wywaliliśmy do kosza liczby rzeczywiste. To niby jak przeprowadzić proces kształcenia w takich warunkach? Nie mam pojęcia^^

Ale z punktu widzenia fizyki gdzieś jednak jesteśmy, choć część urojoną w trakcie kształcenia początkowo zamiata się pod dywan jako niefizyczną, a potem spod tego dywanu wyciąga “a tu się nam schowała reszta brakująca do wyniku”. To przyjmijmy, że liczby urojone mamy na pewno (dla fizyki to jak najbardziej wszystko gra i koliduje), a z nich chcielibyśmy wyprowadzić liczby na tyle rzeczywiste na ile się da. Czyli jakaś postać ij+k (gdzie i,j,k są urojone) daje liczbę rzeczywistą (albo wystarczająco nierozróżnialną, czyli z rozszerzeniem urojonym zbieżnym w zerze na jeżyku). No i powstaje pytanie, czy to jest zbiór z dobrym porządkiem? Czyli czy trzeba go maltretować liczbami hiperrzeczywistymi, czy niekoniecznie? Tu pewne podejrzenia padają na stałą struktury subtelnej, że istnieje jakiś wykładnik antydyskretny, ale pojęcie większej czy mniejszej liczby urojonej jest od czapy. Tyle że będzie problem z nieskończonością, ponieważ to dla takiego zbioru nic nie znaczy (majstrowanie przy wykładniku jedynie oscyluje wynikiem). No i jak tu niby opisać przestrzeń antydyskretną, skoro nie można ustalić odniesienia w osiach, a jedynie relacje pomiędzy niesprecyzowanymi obiektami? Zaletą takiego rozwiązania jest właśnie to co mamy w rzeczywistości – im relacja z obiektem jest słabsza tym jego względna pozycja mniej wnosi do wyniku. Kolejną jest to, że obroty są podstawą poruszania się po metryce, a translacje to ich złożenia. Arytmetyka będzie więc z pozoru od czapy, ale operacje jakie są tam dostępne od ręki są przystające dla zastosowań.

Mankament jest jednak taki, że posługiwanie się innymi algebrami niż zabobony wyniesione z podstawówki to zagadnienia jednego wydziału i fakultetów innych wydziałów, gdzie ktoś już nie mógł wytrzymać. To bardzo daleko od osi edukacji, gdzie i tak nie miałby kto tego tłumaczyć. Mimo, że konstrukcje świata w kółka cyrklem są jakoś tam wprowadzone. Z kolei taka algebra do niczego nie służy obecnie w informatyce (chyba że z powrotem do układów analogowych to na poważnie coś będzie, niewykluczone), a to dokładnie te same łby, których potrzebujemy do utrzymania w ruchu cywilizacji technicznej jaka jest. Czy więc cenzusem kolejnej specjacji (a co za tym idzie podziału dostępu do zasobów) będzie zdolność posługiwania się równolegle różnymi aparatami logicznymi (one są co prawda spójne w uogólnieniach, no ale łbów ogarniających wyprowadzenie mamy jeszcze mniej niż posługujących się wnioskami z tychże), w tym wypadku algebrami jakie mogą niebawem okazać się potrzebne do pchania cywilizacji technicznej pod grawitacyjną górkę? Bo prostego faktu, że kolejne śmiecenie aparaturą badawczą w okolicach powierzchni planety na niewiele się zda i pierwszym etapem będzie przerób kosmicznego gruzu na urządzenia potrzebne z dala od studni grawitacyjnej nieszczęsnej planety. Zwyczajnie liczba kolejnych pomiarów w rozsądnym czasie na planecie nie jest możliwa, a liczba zakłóceń z atmosfery i tak już doskwiera (nie z powodu działalności homo sapków, tylko taką ma własność, że nas chroni ode kosmicznego). Oczywiście nikt się tam nie wybiera osobiście (no może jakiś herosów się wyśle, żeby był miś na miarę naszych możliwości), ale targanie wszystkiego z dynama pokrytego wodą ponad atmosferę nie licuje ze skalą urządzeń jakie są tam potrzebne.

Jakie wtedy znajdziemy zastosowanie dla reszty populacji? Czy jakiekolwiek? Obecnie już coraz ciężej wymyślić im gównopracę, żeby się dali nabrać jakoby było to komukolwiek potrzebne. Ostatnia awantura u sąsiadów wskazała, że strony nie nastają na populację jako mięso do przemielenia armatami, a osią działalności jest porywanie zasobu biologicznego w jasyr bo demografia jednym i drugim kuleje. Ilość botów w sieciach społecznościowych też wskazuje, że populacja biologiczna jest tam biernym uczestnikiem kabuki. W zasadzie to nie wytwarzają już żadnej nadwyżki ponad to co potrzebują sami dla siebie, a zaczynają wchodzić w deficyty w wyniku roszczeń, żeby im dać magiczne gadżety, które rozwiązują jakiś tam wydumany problem (na przykład mniej roboty mieliby przymuszając baby do zmywania niż tyrając na zmywarki, które im się psują aby mieli po co zasuwać – taki gównokołowrót). Marnują masę wody, paliw i uparcie świecą w niebo miastami. I ciągle czegoś roszczeniowo chcą – a to dłużej żyć, a to żeby nie chorować, a niby stado nerdów ma spełniać ich zachcianki. Kiedy zaś czegoś nie dostają to postulują że muszą to mieć z takiego powodu, że potrzebują, bo nie wyobrażają sobie życia bez udogodnienia. Na razie więc Santa Claus zrobi im gaslightning żeby byli szczęśliwi, a my poukładamy procesy, żeby nienażarta cywilizacja techniczna raz wypuszczona z pudełka miała jakieś perspektywy nie paść z głodu.