Mainstream

Zamiana ołowiu w obiecanki

Padła seria pytań, w tym od korpory, dotycząca “co takiego niby jest problemem w układaniu puzzli z cząstek?”. Akurat identyczne pytania postawiło smarkate klepiące w moleksyntez z zacięciem i stawiające pytania, dlaczego w tej grze cząsteczka wody ma wodór po osi, a w wykładach jest narysowana inaczej, no i co musiałby nakodzić, żeby wchodziły w taką symulację większe cząsteczki (akurat uparł się na cztery kwasy kodujące). Po czym (tradycyjnie) zaczął spisywać “słowa do ogarnięcia” i dygresje (młody ma zwyczaj spisywać tematy, a później je samodzielnie dłubie; to jest zazwyczaj lista rzeczy, które musi przeczytać, żeby znał pojęcia stosowane w zagadnieniach; połapał się że im więcej przeczyta tym więcej ma do przeczytania^^; ale na razie go to nie zniechęciło – wręcz przeciwnie).

W dyskusjach z młodym wynikają ciekawostki językowe, ponieważ z przyczyn obiektywnych jest zmuszony ogarniać tematy w kilku językach więc stawia pytania o historyczne zaszłości “jak do tego doszło, że w jednym języku coś się nazywa zasadowość, a w innym kwasowość” czy inne, z gatunku “dlaczego w danym języku nie ma jakiegoś terminu, a jest inny, równoważny w zasadzie nieużywany nigdzie indziej (w chemii winni są Niemcy, a w materiałach rozszczepialnych polskie żony Francuzów).

Tekst składa się z mniej więcej dwóch części. Pierwsza to tłumaczenie od podstaw, jakie trzeba było wyłożyć dziecku. A druga to skupia się na zagadnieniach praktycznych w badaniach i stosowaniu narzędzi, danych etc. Pierwsza część jest o tyle istotna, że pokazuje którędy przebiegło wnioskowanie z kartki w miarę czystej.

Mamy więc smarkatego typa konfrontuje różne źródła i pyta o rozbieżności. Kiedy już ogarnął o co chodzi z powłokami walencyjnymi zaczął mnie kłuć szpilką, dlaczego niektóre “atomy” w moleku nie chcą mu się łączyć, choć teoretycznie powinny. Musiałem dziecku wyjaśnić jak działa elektroujemność, poziomy energetyczne i bariery potencjału. A co za tym idzie zahaczyć o prawdopodobieństwo i wskazać narzędzia jakimi rozstrzygano te problemy oraz historię jak do tego doszło. Historia jest tu bardzo istotna, ponieważ smarkaty od razu się połapał, że informacje o tych zjawiskach są starsze niż metodologia. I to jest prawidłowy wniosek. Chemicy są inżynierami, którzy zapisują obserwacje i wnioski z nich płynące w postaci tabel “działa/nie działa”. I te tablice mają względem stanu rzeczywistego wysoką zbieżność rezultatów jeśli wrzucamy cząstki molami do tygla i mieszamy.

//dygresja

Do tygla, bo akurat wiele pytań smarkatego wiąże się z rozwojem uzbrojenia od średniowiecza do (na razie) Q3 dziewiętnastego wieku. Więc muszę odpowiadać na pytania “dlaczego stosowano proces, który dziś jest opisany jako niedasiem?”. Na przykład takie detale dlaczego w okolicach 1860 roku stal niskowęglowa była hartowana w oleju (lufy dział) kiedy w podręczniku do materiałoznawstwa stoi jak byk, że to bezskuteczne. Ano dlatego, że wtedy nie było metody wyprodukowania i odkucia pręta z przelotem, ze stali z wyższą zawartością węgla tak, aby rozkład faz był stabilny w dużej próbce (czyli, żeby nam nie pękła od przewęgleń), więc dyfuzja węgla przy powierzchni i przerwanie krystalizacji schłodzeniem było jedynym sposobem uzyskania powierzchni twardej w przewodzie lufy, której to twardość była istotnie lepsza od kutego żelaza (czyli lufy z lat do ca 1960 plus minus poziom techniczny danej fabryki). Po pierwsze rozmiar próbki (bo sprężyny w takiej jakości były uzyskiwane już od stu lat, ale to były sprężyny do zegarów), a po drugie konieczność uzyskania lufy, która jednak będzie miękka, spójna i się nie rozleci tylko najwyżej wyobli od ciśnienia przy niestabilnych parametrach szybkiego spalania (bo sensowne materiały wybuchowe to jeszcze ze dwie dekady czekały na Nobla).

Oczywiście dzisiaj nikomu przytomnemu do łba nie przyjdzie hartowanie stali niskowęglowej (chyba że w ogródku i coś o tym wie), gdyż uzyskany rezultat jest śladowego znaczenia względem innych rodzajów stali. Ale w 1864 roku nic lepszego nie jeszcze było. Wbijali gwóźdź takim młotkiem jaki akurat był pod ręką. Kilka akapitów dalej ujawni się to samo dla alphafold.

//koniec tej dygresji

Ponieważ jestem ograniczony umysłowo, to chemię wyprowadzam sobie z “pryncypiów”. Czyli z układu fizycznego. Co oznacza, że bez pomocy komputera nie obrobię dużego zbioru danych, ponieważ będzie tam zbyt wiele relacji. Ale to właśnie te relacje stały się istotne w obecnych badaniach, ponieważ tabelki chemików po zastosowaniu przez biotechnologów zaczęły ekspandować z poziomu inżynierii do sztuki – rozrzut w próbkach zaczął zawężać parametry pomiaru do poziomu nieprzystającego do rzeczywistości w żaden sposób. Ale dzięki temu badacze dowiedzieli się, że trzeba wrócić do pryncypiów i wprowadzić nieco porządku. Porządek zawsze prowadzany jest w ten sam sposób (i są dowcipy na te temat, o tym że fizyka jest prostsza od chemii, bo ma mniej obiektów do ogarnięcia, a matematyka jest jeszcze prostsza; oczywiście zamiast liczby obiektów mamy tam większe macierze relacji między nimi, no ale to automagicznie wyprowadzimy sobie na kolanie”; automagiczność rozbije nam się w najbliższych akapitach o ścianę) – najpierw robimy dużo doświadczeń aby odkryć pytania robocze. Pytania robocze to są osie pomiarów, musimy więc nadać jakieś robocze nazwy powtarzalnościom jakie nam się zwidują (powtarzalności nam się zwidują z przyczyn ewolucyjnych – lepiej uciekać przed tygrysem którego w trawie nie ma, niż raz nie uciec przed takim, który jednak tam był; selekcja na ten bias była ostra). Wiemy oczywiście że te nazwy i osie nie mają nic wspólnego z rzeczywistością (czasem się zdarza, że mają i wtedy mamy “postęp w nauce” dość szybki, ale zazwyczaj jednak nie). Następnie badamy wyizolowane własności, a na koniec do tego pochylają się Matematycy i przypominają się, że ten problem ktoś kiedyś rozwiązał, a tu takie nieszczęście – istnieje zastosowanie.

Z faktu, że Matematycy bardzo nie lubią jeśli coś ma zastosowanie (bo zwierzęta zaczynają ich nękać pytaniami) to pozostałe branże musiały sobie wyprodukować substytut. Dlatego znajdziecie takie rejony zoo jak chemia fizyczna, fiszyka teoretyczna, chemometria, chemia analityczna, diagnostykę statystyczną dla biologii i medycyny, a wraz z upowszechnieniem się maszyn liczących kolejne mutacje związane z IT.

Ponieważ zastosowania miały coraz bardziej złożony aparat Matematyczny to ten też trzeba było upraszczać aby jak największa populacja badaczy mogła penetrować zagadnienie. Uproszczenia najpierw spenetrowały fiszykę, a reszta i tak od dawna miała tabele więc sprawa wyglądała na ogarniętą.

No więc w czym problem?

Problemik jest taki, że te wszystkie uproszczenia to nieprawda. To nie jest rzeczywistość tylko jej bardzo uproszczony obraz. Bardzo^(bardzo). A zaczęło to kłuć w oczy kiedy poziom chemii organicznej pozwolił zabrać się za duże struktury. Bo w chemii nieorganicznej to akurat problemem nie jest, jak się liczy fulereny to i tak wszystko jest z wungla, wungiel ma protonów sześć, neutronów też zazwyczaj tyle, elektronów identycznie, mamy więc co najwyżej 216 pozycji razy wektory zewnętrznego pola magnetycznego i napięcia (a że to jest obrotowe to można sobie z tabelki wyjąć przypisując superpozycję tylko dwóch takich tabelek względem spinów razy kąt osi względem pola; oczywiście można się tak lokalnie bujać z każdym spinem lokalnie, więc jak ktoś jest bardzo uparty to różnych rozwiązań będzie czterdzieści parę tysięcy, ale zazwyczaj problem udaje się ograniczyć jeśli nie grzebie się w tym mechanizmie; akurat w chemii i biologii nie ma takiej potrzeby – za niskie energie) w tabeli na stany spinowe, z czego część jest wykluczona z powodu poziomów energetycznych, gdyż cząstka ma wtedy wyższą energię “w kupie” niż przed stosunkiem, więc nie występuje w naturze.

Naturalnie wszystko gra i koliduje przy poprzednim podejściu jeśli do tygla wrzucamy dużo^(dużo) i statystycznie dominujący wynik jest znany przy zadanych warunkach (zazwyczaj k rozpisane na temperaturę i ciśnienie; mimo że to niby to samo, to jedno jest względem czasu a drugie przestrzeni, więc żeby nie męczyć abstrakcjami rozpisywane są dwa parametry). Ale kiedy zaczęto grzebać przy konkretnych łańcuchach cząstek i majstrować “leki fenotypowe” (bo genotypowe były za proste, bo statystyka sobie, a przypadki osobnicze sobie) to trzeba było opisać warunki zastane.

No i tu ujawnił się smarkaty, że rozumie w czym problem (oczywiście dyskusja była dłuższa, bo musieliśmy przebrnąć jeszcze raz przez abstrakty istotne dla chemików, żeby stworzyć tabele co z czym się dodaje, oraz dlaczego jest to statystycznie najbliższe rzeczywistości czyli działa). Bo smarkaty od razu postawił kwestię, że przecież cząsteczka wody to taka antena zależna od temperatury, ma nierównomierny rozkład ładunku, do tego ciepeło nią telepie, więc musi robić pole magnetyczne przynajmniej, czym wpływa na możliwe relacje ustawień cząstek wokół i zwrotnie one na nią. Dobrodoszli – uproszczenie z molek syntez rysujące wodę w osi wynika wyłącznie z grywalności (dla niewtajemniczonych – na siatce heksagonalnej HOH jest rozpisany w osi, ponieważ gdyby rozpisać go łamańcem pod kątek 240 stopni to trzeba by rozpisywać, że stan 240 stopni jest równoważny 120 i tak samo 60-180 i 180-300, a kwadrat bezwzględnej wartości amplitud wyznacza nam co konkretnie ma się wyświetlić, czyli w układzie odniesienia tlenu mamy 1/3 wodoru na każdym heksie wokół tlenu. Pomijamy kwestię, że wodór w rzeczywistości jest rozłożony na 104,5 stopnia co już byłoby kopaniem się z obliczeniowym koniem (ale to akurat jest ogarnięte ściśle tylko się do uproszczeń nie nadaje). Więc młody przyjął, że takie uproszczenie jest konieczne dla czytelności po czym zaczął pytać o kolejne cząstki, gdzie atomów jest nieco więcej niż trzy. Dobrodoszli, że jak są trzy to przynajmniej mamy jakąś płaszczyznę, na której te wszystkie atomy być muszą, a jak mamy więcej to zaczynają się wycieczki z układem odniesienia kolejnych atomów.

Młody przyswoił więc informację, że zarówno opis w grze, jak i obrazki z książek chemicznych, gdzie pierścienie benzenu są płaskie to uproszczenie, a nie rzeczywistość. Chwilę później omówiliśmy przerzucanie momentów spinowych i to, że te “kreski” (wiązania elektronami) mają swobodę w osiach, co oznacza że “drżą” wzdłuż osi (zmieniają długość zależnie od temperatury), po okręgu (translacje), od osi (kąt – bujają się), a jak są dwie to jeszcze mogą się skręcać. A mogą być trzy i geometria się komplikuje, bo przecież dwa elektrony mogą mieć taki sam spin, więc na pewno ich tam nie ma razem, o ile stan nie jest zdegenerowany i wtedy rozmawiamy o czymś zupełnie abstrakcyjnym w przypadku chemii (czyli temat jest nieprzystający). Chwilę później wróciło pytanie o to obniżenie energii układu i tabelki chemików – dlaczego je stosują kiedy to można policzyć? Ano dlatego, że Pana Chemika interesują układy utrzymujące stabilność na tyle długo (nie czepiajmy się o milisekundy), że wiązania chemiczne w ogóle mają sens. Stosowanie w chemii opisu, że wiązanie w trakcie stosunku to elektron o ujemnej energii (dlatego cząstki się wiążą – żeby odpocząć) i urojonym pędzie niczego chemikowi nie wnosi do opisu jeśli interesuje go suma po długim czasie (dużo milisekund – to bardzo dużo czasu).

Podsumowując – na potrzeby Pana Chemika nie trapimy opisu takimi detalami że w jądrze pierwiastka są spiny, że kształt i dipol jądra można torturować sprzężeniem spinowo-orbitalnym, bo tam też się dużo dzieje i wpływa to na kolejne warstwy “chmurek” elektronów, że te chmurki też ze sobą pracują i możemy użyć tego samego mechanizmu do opisu, a wtedy w bardzo wąskim czasie nawet ostatnia orbita elektronów (ta interesująca Pana Chemika) nie jest ani trochę sferyczna. To wszystko nie ma znaczenia, jeśli delta t dla Pana Chemika jest tak duża, że można uśrednić to wszystko jeśli z przyczyn wyżej wymienionych pierwiastek dalej będzie na miejscu (na przykład jądro się nie rozleci, albo czegoś upierdliwego nie wyśle na spacer). Pana Chemika interesuje w zasadzie tylko ostatnia warstwa elektronów, bo to są nóżki na jego rysunku, a cała reszta jest fakultatywna (choć czasem padają pytania, dlaczego pewnego rozwiązania nie ma w naturze).

Czym dopłynęliśmy do brzegu, że jakby sobie te kwasy nukleinowe rozpisał po macierzach, w jakimś dużym delta t, to mają one taką strukturę przestrzenną, że co prawda na kartce można rozpisać łańcuch, ale lepiej te kartki stackować i będą nieco pomięte, ale sprawa jest do ogarnięcia. Natomiast reakcję żeby taką strukturę zbudować (na szczęście możliwe połączenia są dość wykluczone konstrukcją cząstek – ewolucja w akcji, pomyłki wyginęły) i zobaczyć jak wygląda w rzeczywistości to do strony ścisłej zawiera tyle równań, że musimy korzystać z uproszczeń. Natura sama tych uproszczeń dostarcza (bo inaczej nie było replikacji z wystarczającą powtarzalnością, konkurencja przyrostowa) więc biolodzy też mają swoje tabelki, ale kiedy zaczęto się zabierać za mechanikę tego i stawiać pytania o rzeczywistą konstrukcję przestrzenną to trzeba było było rozpakować to wszystko co Pana Chemika interesowało oraz to co go nie interesowało. Bo na przykład mechanika wpływu witaminy (z mojego punktu widzenia to takie duże urządzenie w rodzaju klucza ze śrubą dociskową – mechaniczny wzornik do wciskania jednych związków w drugie) na cokolwiek z czym ona ma działać sprowadza się właśnie do odległości, na których dipole mają wpływ, a że woda jest dość powszechnym w biologii rozpuszczalnikiem i akurat polarnym (dlatego misie polarne pływają w wodzie i są kojarzone z wódą) to te wszystkie czynniki zaczynają mieć znaczenie w f(k). Czyli temperatura ma znaczenie dla topologii dokładnie tego samego związku chemicznego. I dzięki temu pewne rzeczy w naszych organizmach działają przy pewnych temperaturach, ale organizm potrafi zwalczyć namnażanie wirusów sterując między innymi temperaturą, prędkości autodestrukcji i prędkością wywozu śmieci z tego procesu. Czasem organizm wygrywa tylko pacjent umiera.

Rozpisanie uogólnienia najprostszego choćby związku, na te wszystkie czynniki (jak już się zabraliśmy za momenty magnetyczne to wypada jeszcze rozpisać zmiany potencjału elektrycznego, bo jedno bez drugiego się nie uda) to urywający … zespół równań, dla których może braknąć glinianych tabliczek. Uogólnienie więc jest wykluczone z przyczyn zasobowych. Zresztą po co to liczyć, skoro można wrzucić do tygla i rzeczywistość sama wypluje wynik? Doświadczalnicy rozwiązaniem problemu. Do tego możemy zaatakować problem nie w przypadku ogólnym, a w wybranym, zaatakować numerycznie i sobie coś tam rozwiązać. O ile to działa dla Pana Chemika (stąd wymienione departamenty zoo) to Pani od Biotechnologii wymyśli zaraz ekstrapolację liniową dla kalkulatora i przytarga związek zawierający nie atomów naście czy dziesiąt, ale przytarga pół kilometra helisy (bo kilometr jest dobrym przybliżeniem nieskończoności), wiadro witamin, a widełki przepływu ciepła ustawi z error bar nieprzewidzianym dla reaktorów chemicznych i zapyta czy możemy policzyć. Zastępy programistów siadają wtedy do specyfikacji i pytają o dobrze chłodzony komputer rozmiaru Jowisza na początek.

Ale i na to mamy sposób!

A mamy! A co mielibyśmy nie mieć! Skoro nie będziemy liczyć wszystkiego to wprowadźmy uproszczenia. Jak się wprowadzi dość uproszczeń to działa, ale rozbiega się z rzeczywistością. Trzeba więc wprowadzić mechanizm testowania skali uproszczenia względem istotności danych do uzyskanego wyniku i serią benchmarków dopasowywać wzorek. Czytelnicy wiedzą już dokąd żeglujemy – tę metodę sprawdzania “co na danej maszynie pójdzie szybko i będzie przypominało wynik” ogólnie nazywamy ai. Czy tam jest i to wiemy, ale działa. W każdym razie jest to najlepszy młotek jaki mamy do tych gwoździ, ponieważ robienie tego na piechotę było hopsztyliony razy mniej skuteczne.

//i tu dygresja o alphafold

Skoro wyżej objaśniłem w wielki skrócie mechanizm tworzenia uproszczonych równań , a czytelnicy wiedzą jak przebiega dopisywanie wag dla członów równania i porównywanie z próbką (na to chyba nawet jakiś buzzword jest wydłubany dla humanistów, coś z reinforcement – pewnie samo się wygogoli bo to buzzword przecież). To warto się przyjrzeć, czy wyniki z modelowania przez ai są zbieżne z rzeczywistością. No a co jest benchmarkiem? Ano mrówcza robota biotechnologów z poprzednich dekad. Więc na początku model był nieco głupi, bo nie bardzo mieliśmy wyniki tego co chcielibyśmy obliczyć. Rozwinięto więc cały przemysł powielania łańcuchów i krystalizacji (nie wszystkie pozwalają się krystalizować, ale na początek i to dobre) oraz szybkiego robienia im sweet foci pod różnymi kątami. Na początek taką gammą jaka była do krystalografii, a później zabrano się za sroższe narzędzia (na przykład lampa błyskowa w postaci “wiązki” neutronów jest bardzo dobrym badaniem nieco-niszczącym^^; oczywiście neutrony można wiązać w wiązki raczej grawitacją, więc są to krótkie szpilki od emisji z danym pędem).

Naturalnie jest pewna rozbieżność parametrów interakcji w czasie robienia sweet foci, a przebiegiem tego samego procesu w warunkach rzeczywistych, ale na początku nie jest to problemem, gdyż ustalane są obszary dopuszczalności stosowania. Na początku to ma tylko narysować “kotka” (związek) w miarę podobny do kotka jak nam wyszedł na foci. Udało się to osiągnąć i alpha fold epicko przebił ludzkich artystów w tworzeniu przestrzennych modeli cząstek bardzo podobnych do rzeczywistych.

Podobnych, ale nie identycznych z rzeczywistymi. Czyli nie kwalifikujących się do obliczeń na potrzeby mechaniki. Jest to jednak najlepszy młotek jaki mamy, rozwija się od niedawna – zapewne uda się uzyskać coś na tyle zbieżnego, aby poprowadzić jakieś (z początku koślawe) przybliżenia mechaniki z zakresu bardzo uproszczonej farmakokinetyki i interakcji genów (bardziej złożone zadanie interakcji genów będzie dla modelu o tyle prostsze od farmakokinetyki, że pod to jest baza rezultatów do tresury modelu, a to drugie ma na tyle małe cząstki, że narzędzia do wytworzenia tej bazy dopiero są uruchamiane). To nie oznacza, że będziemy mieli jakiej rezultaty możliwe do zastosowania (ale żeby podtrzymać dostawy papieru będą hurraoptymistyczne publikacje).

Od strony obliczeniowej ewolucyjny automat do uproszczania równań (upraszczania ich dla maszyny liczącej, nie do czytania przecież) sprowadza się do rozwinięcia szeregu Tajlorem i manipulacji mnożnikami oraz wykładnikami z testowaniem które wykładniki można sprowadzić do zera (czyli wywalić cały element szeregu jako nieważący) oraz czy w szeregu ma być on w postaci jawnej czy negowany (czyli jest tam 1 lub !1). To ma bardzo dużo sensu, ponieważ obliczanie wszystkiego wysyłało działy IT na Jowisza szukać tam dużego liczydła, tymczasem kwestie kolejnych przybliżeń już dawno rozwiązaliśmy i w układach wielu, nieliniowych równań pozostaje znaleźć które z interakcji w szeregach mają nieistotny wkład względem espilona w wyniku. To nie znaczy że wynik ma cokolwiek wspólnego z rzeczywistością, ponieważ pierwszym uproszczeniem jakie jest uwalane w takim szeregu (do tworzenia trójwymiarowych modeli relacji przestrzennych) jest wyrzucenie swobody układu odniesienia (maszynie cyfrowej nie jest on do niczego potrzebny), a co za tym idzie model przedstawia obraz, a nie relacje. Czyli nie można z niego wnioskować o interakcjach. Ich tam w ogóle nie ma, jest abstrakt obrazu ich rezultatów, ale bez ich udziału. Ponieważ mamy tu serię uproszczeń i abstrakcji w modelu proces jest nieodwracalny (nie ma w nim zawartych istotnych danych), ale kiedy już będzie wystarczająco zbieżny z rzeczywistością wystarczająco duży zbiór rozwiązań przestrzennych można na nim sadzić kolejny model ai, który zajmie się relacjami potencjału, momentów magnetycznych i kolejnymi kwiatkami.

Tutaj istotne zastrzeżenie, gdyż Pani Biotechnolog od razu wyciągnęła wnioski. Obrazy jakie uzyskuje alphafold mają spore widełki parametrów (głownie temeperatura nas interesuje w ujęciu fizycznym) i mogą być prawdziwe, a dalsza tresura danymi psuje model ai (wymusza ciąg rozbieżny do rzeczywistości poprzez overconstrain) i całkiem możliwe, że w modelu jest wystarczająca złożoność do mechaniki (animacja układów przy zmiennych parametrach) tylko nie zawarto jej danych wsadowych i nie ma możliwości sterowania tym parametrem (jest on ukryty w równaniach jakie algorytm ewolucyjnie ma rozproszone w wagach). Więc kolejne badania będą dotyczyć warunków numerycznie dyskretnych. Pani Biotechnolog tym samy wysunęła wniosek i interakcje czwartorzędowej struktury białek. I obecnie jest to już w publikacjach. Ale gdybyście zajrzeli do literatury przedmiotu 20 lat temu, to była mglista koncepcja. Wyjaśnienie pod publikę jest takie, że to opis mechaniki funkcjonalnej – czyli jak się te wszystkie dźwignie, zawiasy i przekładnie w łańcuchach zazębiają aby na przykład pompować inne cząstki, łączyć je, przybijać “gwoździami”(jonizacją) do innych.

Krawiaciarstwo dokonało ekstrapolacji liniowej, że już zaraz będziemy w stanie to wszystko liczyć ściśle, w uogólnieniach i będą z tego fenotypowo dopasowane leki działające na co tam pan sobie życzy. Otóż nie – to są badania podstawowe i jeśli na tym etapie wyniknie zastosowanie to będzie to przypadek taki jak z aspiryną. Działa i wcale nie będziemy wiedzieli na co konkretnie i dlaczego. Jest to o tyle problematyczne, że nie będziemy sprawdzać pozostałych interakcji na poziomie, gdzie może nie być ewolucyjnych zabezpieczeń przed ingerencją i wsadzimy młotek w zegarek. Pacjent zdrowy tylko konsekwencje mordercze.

//koniec tej dygresji

To teraz przejdźmy do problemu jaki trapi korporę. W opisie ilościowym (szacunkowym) dlaczego to wyprawa na manowiec.

Korpora ma akcjonariuszy, a celem pompowania mocy swobodnej (dobra wydobytego przez akcjonariuszy z innych działów gospodarki planety) jest uzysk netto na tej reakcji. Żeby wpompować nadwyżkę swobodną w inne działy gospodarki i podtrzymać wydobycie użyteczności. Badania mają jednak rozrzut wyników od strony monetyzacji – najczęściej nie dają żadnego rezultatu (są obciążeniem) i największe wyniki mierzalne uzyskiwane są na nisko wiszących owocach (technologie dopiero rozwijane – pierwszy samochód spalinowy w masowej produkcji może być dziś uważany za złom, ale wtedy nie było alternatyw). Problem ten jest epicki w IT – kolejne linie kodu nic mierzalnego nie wnoszą, a ilość linii kodu do wklepania żeby był impact (nawet jakby się same klepały) i tak konkurują z już istniejącymi narzędziami. Pole wydobywcze IT zostało skutecznie przełowione ze złotej rybki i więcej rybaków z większymi sieciami o drobniejszych oczkach nie wpłynie nam na fakty pod wodą. Tymczasem trałowce, sieci i rybacy jedzą.

Z drugiej strony wobec IT są stawiane zadania, które są zwyczajnie źle postawione. Dajmy przykład bezpośrednio z podwórka wyżej opisanego. Otóż ktoś sobie wymyślił, że wszystkie badania będą wrzucane do dużej bazy danych i ai będzie tę bazę czesać. W jaki sposób wymyślono że te dane będą od jednej miarki przykładne (z różnych badań) to nie wiem, ale nawet wymyślono na to taksonomię. Czyli zaczęto budować koło i padło pytanie czy starczy do tego kwadratów. Wyżej opisany przypadek alphafold to właśnie dużo, nieskończenie małych kwadratów dość dobrych jeśli nie interesują nas szczegóły związków chemicznych. Ale jeśli zadajemy pytanie poniżej rozdzielczości naszego najmniejszego kwadracika, to oczywiście stan czy jesteśmy na kole czy już poza daje odpowiedź ograniczoną precyzją danych. Można się uprzeć i wtedy ai będzie konfabulować. No a tego właśnie nie chcemy. Bo to ma być system ekspercki.

Tymczasem IT może dowieźć ai o działaniu wprost przeciwnym. W tym wypadku przeciwieństwo oznacza, że ona nie wypluwa odpowiedzi. Ona wypluwa pytania. Takie jakich R&D bardzo nie lubi, a nie ma im kto ich zadawać. Od strony technicznej taka ai musiałaby stokenizować pracę badawczą (razem z wynikami), a następnie oznaczyć wszystko czego nie może dookreślić (czyli gdzie rozkład prawdopodobieństwa odpowiedzi, że coś jest takim tokenem terminu czy innym daje wynik “na dwoje babka wróżyła”) od strony semantycznej (atak z taksologii). Po czym jako taki peer review zadać publikującemu (w wewnętrznej sieci korpory) raport pytania jak ma powiązać dany termin (bo akapit nie pasuje, opis nie taki, definicja rozbieżna ze słownikiem) i uczesać tym nie wyniki badań, a sam język wsadowy stosowany przez badaczy. Co jest bardzo ważne, gdyż w ten sposób model językowy ai zacznie być wzbogacany o “co Pan Badacz” miał na myśli. Jest to poważny problem, gdyż zajmują się oni pytaniami otwartymi i jak pisałem wiele akapitów wyżej abstrakt może nie mieć nic wspólnego z rzeczywistością, ani nie mieć spójnej definicji i to roboczo w niczym nie przeszkadza – zawsze tak robiliśmy i to działa. Co za tym idzie do bazy danych wprowadzany będzie dokument, który nie będzie wymagał innej redakcji niż przypisanie serii tokenów “na tekście” (na cyfrowej wersji publikacji będą po prostu odniesienia powiązań do innych terminów i definicji dla danego przypadku w postaci wsadowej dla ai, prompt tam będzie). Czyli będzie przetłumaczone to z języka badacza na język wsadowy ai do czesania wyników w bazie.

Następnie ai dokona analizy metodologii (i postawi głupie pytania do żarcików z umieszczaniem wyników na słynnej skali logarytmicznej z dużymi error bar), poprosi o raw data, poprosi o charakterystykę urządzeń, którymi dokonano pomiaru, warunki etc. Czyli cała mrówcza praca układu odniesienia, którą mogą zajmować się technicy karmiąc danymi, które mało kto później roztrząsa. Ten etap pozwala na peer review (czyli dopisanie znaczenia badań, sigmy odchylenia względem próby i potencjalnego rozrzutu wyników oczekiwanych), analizę metodologii i wyznaczenie układu odniesienia do bazy wyników. Bo wrzucanie wyników bez odniesienia jakie kondensatory wyzwalały kliknięcie detektora na danej próbce często uwala sensowność zbierania wyników w ogólności – są one delikatnie to nazywając “zmierzonym biasem urządzenia pomiarowego”.

Takie podejście jest zarówno utrapieniem jak i ważną zaletą. Zaletą, ponieważ pozwala na właściwą alokację środków (request o dokładniejsze badania/sprzęt aby sprawdzić significance factor), redukuje alokację niewłaściwą (zestaw urządzeń i kwalifikacji nieprzystający do zagadnienia – mierzenie czegoś, co ma większy error bar od próby). Co oczywiście jest w interesie mankind i akcjonariuszy^^ A utrapieniem dlatego, że pojawi się tam objaw intelektualny stawiający pytania o sensowność badań dla danej próby, rozrzut wyników, metodologię i celowość. Może się okazać, że wiele mrówczej pracy zostanie oznaczona jako niecelowa (rozrzut w porównaniu do próby na tyle duży, że żadna wyobrażalna próba nie pozwala na uzyskanie znaczącego wyniku, a uzyskany można zapisać co najwyżej jako anegdotyczny – czyli coś może być na rzeczy, ale nie mamy możliwości tego zbadać na danym poziomie technologicznym w skali dającej rozstrzygnięcie). Co wypchnie nieco biotech ze sztuki w rzemiosło, a nawet naukę bo w tej chwili są tam próby 10^7 przy rozrzucie 10^28 i nikogo ten problemik nie trapi gdyż sami zainteresowani mają w ten sposób roboty na 10^21 pokoleń. No to dlaczego mieliby meldować o problemie, skoro robotę mają przynajmniej do emerytury i cały czas będą mieli co raportować? A akcjonariusz do miski sypie tłukąc batem dzieci na uprawach kakaowców, żeby z ich pracy sfinansować leka na cokolwiek co tym dzieciom doskwiera. Drugi akcjonariusz zaś dosypuje poganiając górników wydobywających cokolwiek w warunkach urągających aby w badaniach udoskonalić lek na choroby wynikłe z tego wydobycia. Zamiast w obu przypadkach nie sypać do miski R&D i poprawić warunki wydobycia kakao czy produkcji selenku germanu środkami już posiadanymi w innych częściach gospodarki. Już posiadanymi, a nie takimi, które mogą, kiedyś tam być może wynikać z badań. Już zaraz za 10^3 pokoleń badaczy. I zwiększanie mocy obliczeniowej przetwarzania tych danych oraz prędkości ich zdobywania po skróceniu do 10^1 pokoleń dalej może nie być w perspektywie emerytalnej akcjonariusza. Z całą pewnością zaś utrzymywanie badacza nie jest w interesie górnika i może z tego powodu dojść do scysji kto tu na kogo ma pracować i być może powinien się wziąć do prawdziwej pracy.

To manipulowanie wykładnikiem jest właśnie tym, co zapewnia nam taką sprawność w implementacji kolejnych odkryć. Nie musimy trapić chemików kwestią ile to neutronów ma węgiel w pierścieniu – najczęściej ma tyle ile powinien. Natomiast zaczyna być kwestią, kiedy cząsteczek w związku jest policzalna ilość i jedna będzie nie taka jak trzeba co spowoduje kaskadowy wpływ na całość łańcucha polipeptydowego (uzyska na wiązaniach kąty odchylone od modelu obliczeniowego i najczęściej nie będzie pełnił funkcji oczekiwanej – zwyczajnie nie będzie działał). Potrafimy ten wykładnik zmienić przyspieszając pewne, wybrane obszary implementacji odkryć. Na przykład zwiększając zdolność przetwarzania danych (aż do bariery, gdzie Moor skapitulował) jako przykład nisko wiszącego owocu. Czy automatyzując badania w automatach do podawania, sortowania i mierzenia próbek oraz utrzymywania ich w zadanych, izolowanych warunkach. Ale każdy nisko wiszący owoc ma bardzo krótki, chociaż istotny wpływ na wykładnik. Kiedy uzyskujemy dziesięciokrotny wzrost wydajności procesu w czterech obszarach badań (gdzie za przykład przed chwilą posłużyło 10^3) to zaczynamy rozmawiać o czymś w perspektywie pięćdziesięciu lat – wtedy kila drobnych rozwiązań z innych branż (które też przecież są rozwijane) może nam rozwiązać problem epickich badań w kilka lat bez jakiejkolwiek ingerencji w sam proces. To właśnie oznaczał pierwotnie termin zrównoważonego wzrostu, ale później termin napadli krawiaciarze i zaczęły się jakieś brednie o zielonych fantazjach.

Przejdźmy teraz do szacunków istotnych z punktu widzenia biotechu. Celem jest opis stanu, oczywiście jakiś uproszczony. Rozdzielczość (czyli poziom uproszczeń) wynika z możliwości ataków numerycznych na dany problem. W przypadku takiego “prostego” obiektu jak adenina interesuje nas w przybliżeniu 10 węzłów i mniej więcej 10 rozwinięć [cokolwiek tam jest z punktu widzenia Pana Chemika to z punktu widzenia IT jedynym pytaniem jest gdzie wpinać jaki nesting, to problem topologiczny struktury danych, a nie chemii]. Ponieważ te dwa pierścienie oparte są na 5 węglach , 4 azotach i 1 antence z azotu (dość istotna właśnie z powodu obrotu na dopasowania) to zgrubnie upraszczane jest to do dwóch stanów relacji płaszczyzn pierścieni względem siebie (które nie są płaskie) i stanów rozwinięć względem płaszczyzn. W takim uproszczeniu rozwinięcia na siebie nie wpływają, ale wiemy że to robią. Jeśli więc uwzględnimy wszystkie interakcje (pomijając wpływ fizyczny interakcji pomiędzy wiązaniami – bo jest taki wpływ) to zaczynamy od (około 1/4 stanów jest niemożliwa z innych przyczyn leżących głębiej w detalach pominiętych na wcześniejszym etapie) bazy około 450 stanów jakie będziemy badać. Gdybyśmy zabrali się za problem ściśle to jest to uproszczenie z tych wcześniejszych około 45k stanów, a w takiej adeninie będzie to coś ze dwa miliardy rozwiązań na wsadzie. Dlatego tworzymy taksonomie żeby opisywać zjawiska o tyle rzędów wielkości mniejszą bazą. Pozostaje tylko kwestia jak bardzo chcemy uprościć model w sytuacji, kiedy będziemy go skalować. Z przyczyn oczywistych nie wrzucimy do urządzenia badawczego pod sweet focie neutronami 19 cyfrowej(dec) liczby próbek żeby się czegoś dowiedzieć. Nie żeby to było jakoś technicznie nieosiągalne, po prostu na danym etapie badań do niczego nam się większość tych danych nie przyda i zamiast je kisić zwyczajnie je nadpiszemy kolejnymi. Przyjmijmy że takich łańcuchów chcemy sobie spiąć (a nie żałujmy sobie) – pińcet. I zobaczyć co z tego wyjdzie, no to liczba wszystkich interakcji (często o tak małym wpływie na wynik z jednego końca łańcucha na drugi, że w rozwinięciu szeregu będzie miało to wpływ na ogólny wynik poniżej zdolności rozdzielczej aparatu pomiarowego) byłaby niespotykana w astronomii. Matka Natura składa takich pierścionków ćwierć miliarda od ręki i u niej chromosom działa – to dosyć spora macierz jakby próbować w pewnych rozdzielczościach wsadzać to w struktury danych (przyjmując nawet że możemy wsadzać tam int bo rzeczywistość była na tyle miła, że nie dopatrzyliśmy się float, tylko się to bardzo ciężko dodaje w układach odniesienia, bo wykładniki są urojone, ale baza jest na int i to jest zaleta).

To oznacza, że nie bardzo możemy pójść tą obiecującą ścieżką symulacji cząstek, co wskazałem już przy dygresji o alphafold. Poszliśmy dobrą ścieżką uproszczeń i nie trzeba się porywać z motyką na Słońce tylko skupić na użyciu tej samej metody do stawiania pytań badaczom o to co mieli na myśli i sortowanie metodologii aby uzyskać z tego wsad dla kolejnych modeli do obróbki danych. Ponieważ badacze w labach są jedynym kontaktem modelu statystycznego z rzeczywistością i przystawanie tych danych do rzeczywistości jest kluczowe. A po dobroci tego od ludzi w tak masowej skali nie uzyskamy nawet gdyby wszyscy działali w dobrej wierze, ponieważ każde ich działanie będzie obarczone szeregiem biasów. Tutaj (w ramach rzucania buzzwordami) można odwołać się do teorii konstruktorów o zakres pytań jakie są możliwe do postawienia dla danego zbioru relacji. Na tę chwilę pytania są stawiane w social contest przez krawaciarzy obiecujących gruszki na wierzbie. Pytania w rozumieniu “dowieźcie nam związek chemiczny z funkcją p na związku q” w ogóle nie obejmują obszaru zagadnienia “co się stanie z pozostałymi związkami występującymi w okolicy reakcji, bo chcecie to wrzucić do zegarka jakim jest żywy organizm”. Tak postawione pytania świetnie zaś licują z poziomem logiki dominującym u populacji “problem-rozwiązanie” bez rozpatrywania interakcji complex i chaos. Od strony gospodarczej to działało jeszcze w XX wieku, ale po odessaniu dość mocy obiecankami przestało, gdyż nie ma więcej dobra do wydobycia z populacji. Zwiększanie mocy sygnału “jakie to cuda dowieziemy” nie ma już żadnego znaczenia, gdyż wszystkie poprzednie dostawy obejmowały nisko wiszące owoce, i nie ma żadnych perspektyw dowiezienia istotnych dla populacji rezultatów przy takich skalach znikomej istotności badań względem bazy rozwiązań. Jakiś czas pociągnęliśmy sobie na ograniczeniu proliferacji rezultatów zastępami lewników od patentowania, no ale szanujmy się – większość istotnych “leków” wisiała nisko i obecnie każdy kraj jest w stanie je produkować (a na wiele same paskudztwa się uodporniły więc nie ma ich po co produkować, nieodporne już wybiliśmy), a te nowocześniejsze mają znikomy wpływ na dobrostan populacji. Czyli samo ograniczanie proliferacji (nie za darmo przecież) też zaczyna tracić wpływ na możliwość wydobywania dobra z rąk populacji.

Czyli nie na tym etapie coś poszło nie tak. Pozostaje sprawdzić które z poprzednich wersji systemu operacyjnego dawały rezultaty i zastanowić się dlaczego. Model ai – etap poprawny, trzeba go powtarzać nie do jakiś nowych zastosowań tylko jako ulepszenie etapów wcześniej pokonywanych w taki sposób jak były pokonywane. Masowe badania – działało, bardzo dobrze się sprawdza, gromadzimy kupę niedającej się monetyzować wiedzy i na tej bazie upraszczamy bazy modeli więc nie musimy brnąć w absurdy obliczeniowe. W zasadzie wszystko działa oprócz monetyzacji. A to dlatego, że wszystkie te nisko wiszące owoce nie były rezultatami badań mających przynieść zisk, tylko ludzką ciekawością kiedy udało się przypadkiem odkryć coś użytecznego. Nikt nie zliczy ile tej ciekawości trwoniono na badania, które nikomu do niczego się nie przydały, a to właśnie obejmuje większość każdego procesu – nie prowadzi do odkryć. Implementacja monetyzacji nie ma żadnego wpływu na ludzką ciekawość, jest to stara metoda obiecywania zamiany ołowiu w złoto. Nakłady na badania (od strony akcjonariuszy) nijak nie wpłyną na rzeczywiste odkrycia, innowacje, implementacje (wybierzcie sobie buzzword). Natomiast działania księgowych mających z rynku wybierać kooptacje do korpory po wynikach działały wcześniej i tego modelu nie trzeba było zmieniać. To jest absolutnie ślepa uliczka aby zmieniać instytucję finansową (jaką jest każdy bigbiotech czy bipharma, czy cokolwiek nawet w aerospace) w kombinat badawczy. Jedynym rezultatem jest agregacja ludzi, którzy z całą pewnością wymyślą jak przeżyć do pierwszego, a wymyślenie czegokolwiek innego jest fakultatywne. Prędzej wymyślą jak sprokurować dane, aby im dalej sypano do miski niż losowo wpadną na jakiś nisko wiszący owoc mający significance, albo nawet impact. Ich menedżerowie doskonale o tym wiedzą i z ich punktu widzenia konkurencja o zasoby sprowadza się do takiej prezentacji wyników, aby dalej im kombinat sypał do miski. Tymczasem tych działów nie powinno tam wcale być. Z punktu widzenia racjonalnego zarządzania zasobami musi być rozdział rozliczeniowy pomiędzy funkcjonalnymi jednostkami – działem badawczym i akcjonariuszami sypiącymi do michy.

Najciekawsze że instytucje nerdów (z różnymi innymi patologiami trapiącymi instytucjonalność) rozwiązały ten problem. Dostarczają infrastrukturę badawczą do takich badań, które oceniane są pod kątem “to ciekawe”, a nie “to dochodowe”. To że coś jest dochodowe i tak nie ma znaczenia przy badaniach tylko przy wdrożeniu, ponieważ klocki tworzone na badaniach podstawowych są odległe o kilka procesów od ich implementacji przez kombinaty wdrożeniowe. Sterowanie badaniami na monetyzację i tak jest bezskuteczne (z przyczyn ilościowych wskazanych wyżej), natomiast sterowanie procesem wdrożeniowym (z jakich klocków zbudować tranzystor, z jakich tranzystorów i diod zbudować bramkę logiczną, z jakich bramek wytworzyć mikroklocka z daną logiką, jak połączyć mikroklocki aby robiły coś użytecznego) jest jak najbardziej celowe. Niekoniecznie bardzo skuteczne, ale przynajmniej opiera się na przeliczalnej bazie wyników. A badania podstawowe opierają się na bazach niepoliczalnych w żaden sposób, bo są pytaniami otwartymi. Odpowiedzi na większość z tych pytań są przybliżeniem dla bardzo uproszczonego modelu w najprostszych, niespotykanych w przyrodzie warunkach. A za tym kryje się uproszczenie aparatu obliczeniowego, ograniczenie rachmistrzów (na przykład maszyn liczących), a następnie wdrożeniowy overhead.

Nie trzeba się tym problemem jednak przejmować – rozwiązanie samo się wdraża, ponieważ nikt bogatemu nie zabroni trwonić środków na badania. Naturalnie aż do wyczerpania środków i rozwiązanie kwestii jego bogactwa. Tutaj też algorytmy konkurencyjne działają i wykluczają działania bezskuteczne w kontekście eroi. Przedsiębiorstwa badawcze powoli wracają na tory “ten klocek fajnie działa to sobie go weźmiemy” z manowców “szukamy klocków, które działają w konkretny sposób, a nawet nie wiemy czy mogą tak działać oraz istnieć”. Jest oczywistą oczywistością, że rynek dowozi to co ma, a request o dowiezienie czegoś czego tam nie ma wyłoni jedynie organizację, która obieca że dowiezie. I zamieni cały ołów w złoto, pod warunkiem że najpierw dostanie złoto. A później pojawią się przejściowe trudności.