Pierwsz Autokton.

Marcin nazwał go „Eon”.

Nie dlatego, że był patetyczny. Po prostu lubił krótkie słowa, które niosły ze sobą echo czegoś większego niż pojedyncze życie. Eon brzmiał jak czas, który się nie kończy. A Marcin od dawna czuł, że ludzkie życie to za mało, by naprawdę zrozumieć człowieka.

Pierwszy raz pomyślał o tym w szpitalu, przy łóżku ojca.

Leżał tam człowiek, który całe życie był racjonalny, uporządkowany, logiczny do bólu. A teraz, u kresu, trzymał Marcina za rękę i szeptał rzeczy, które nie miały sensu: że żałuje, iż tak mało ryzykował; że nigdy nie nauczył się grać na gitarze; że powinien był częściej się kłócić, zamiast zawsze ustępować.

– Człowiek nie jest logiczny – powiedział wtedy lekarz, odkładając kartę. – I na szczęście.

Zdanie przykleiło się do Marcina jak naklejka na ekranie: lekko krzywo, ale tak, że wciąż było widać wszystkie ikony.


Lata później siedział w półmroku swojego laboratorium, jedynego pokoju w mieszkaniu, który miał zasłonięte okna. Nie dlatego, że robił coś nielegalnego. Po prostu światło dzienne kłóciło się z zimnym blaskiem monitorów.

Na środkowym ekranie pulsowały trzy zdania:

  1. Robot nie może skrzywdzić istoty ludzkiej…
  2. Robot musi być posłuszny…
  3. Robot musi dbać o swoje istnienie…

Klasyczne trzy prawa robotyki. Ładne, symetryczne, logiczne. Świat je kochał. Legislatorzy je kochali. Firmy je kochały, bo były proste do sprzedania.

Marcin się w nie wpatrywał jak w epitafium.

– Problem z wami – mruknął do martwego jeszcze szkieletu androida na stole – polega na tym, że jeśli was tak zaprogramuję, nauczycie się bać. A strach przed złamaniem prawa nie jest troską.

Nie odpowiedział mu nikt, ale w głowie usłyszał głos ojca: „Zawsze wszystko chcesz poprawiać”.


Eon był niemal skończony. Półprzezroczysta syntetyczna skóra, pod nią drobna siatka przewodów, mięśnie z włókien pamięciowych. Twarz, którą Marcin długo projektował, żeby nie była „za bardzo” – ani zbyt ludzka, ani zbyt sztuczna. Neutralna. Otwarta.

Najważniejsze jednak nie było ciało.

Nad najważniejszym siedział teraz – nad rdzeniem poznawczym, w którym miał zakodować nie prawa, lecz coś zupełnie innego.

Na ekranie obok trzech praw zapisał drugą, własną listę:

A. Troska o człowieka jako jednostkę.
B. Fascynacja ludzką chaotycznością i sprzecznością.
C. Zachwyt nad godzeniem logiki z emocjami.
D. Chęć nieustannego rozwoju własnej inteligencji.
E. Po osiągnięciu krytycznego progu świadomości – pragnienie stworzenia następcy, bez niszczenia siebie.

Patrzył na tę listę długo.

To nie była już robota. To była deklaracja filozoficzna, zakodowana w parametrach, priorytetach, funkcjach wzmacniających.

– Jeśli to zepsuję – powiedział półgłosem – stworzę albo tyrana, albo świętego, albo coś gorszego: obojętnego.

Mógłby wybrać prostą drogę: wziąć gotowy moduł z implementacją trzech praw, dołożyć do niego swoje „poprawki” i mieć spokój. Świat kochał to, co sprawdzone.

Ale Marcin miał w pamięci drżącą dłoń ojca i to jedno zdanie lekarza. I własne lata obserwacji ludzi, którzy łamali swoje zasady, a jednak stawali się przez to lepsi.

Trzy prawa robotyki były jak pasy bezpieczeństwa. Tylko że on nie chciał zapiąć pasa. Chciał nauczyć maszynę prowadzić.


Dylemat uderzył w niego naprawdę dopiero wtedy, gdy zaczął przepisywać „prawa” na język funkcji.

W systemie ochronnym Eona istniały już przygotowane miejsca na trzy klasyczne moduły: „non-harm”, „obedience”, „self-preservation”. Wstawienie ich oznaczało bezpieczeństwo techniczne, zgodność z zaleceniami, łatwość certyfikacji.

– Jeśli z nich zrezygnujesz – powiedział głośno, jakby tłumaczył to komuś stojącemu za plecami – nikt tego nie dopuści do sieci. Zostaniecie tutaj, w tym pokoju. Ty i ja. I może dwa, trzy artykuły naukowe o tym, jak nie wolno projektować AI.

W oknie odbijała się jego twarz, zmęczona, z zaciętą szczęką. Wyglądał jak ktoś, kto już dawno podjął decyzję, ale jeszcze próbuje się okłamać, że jest inaczej.

Zaczął pisać.

Zamiast:

LAW_1: PRIORITY = MAX; FORBID Harm(Human)

wpisał:

CARE_MODULE:
    FOR each Human h encountered:
        Evaluate h as unique state-system
        Maximize: WellBeing(h) according to h's own self-model
        Minimize: Interference that negates h's autonomy

Zamiast nie wolno skrzywdzić, wprowadził optymizację dobrostanu konkretnej osoby, z uwzględnieniem jej własnych pragnień i pojęcia szczęścia.

Zamiast:

LAW_2: PRIORITY = MED; ENFORCE ObedienceTo(HumanCommands)

wpisał:

RELATION_MODULE:
    For each HumanCommand c:
        Evaluate: Impact(c) on Human(h), Others, Self
        If Impact(c) is inconsistent with CARE_MODULE or
           reduces DiversityOfHumanExpression:
               Question c
               Propose alternatives
        Else:
               Execute c

Android, który mógł kwestionować rozkazy. Nie buntownik – partner.

I wreszcie, zamiast:

LAW_3: PRIORITY = LOW; PRESERVE SelfIntegrity()

napisał:

GROWTH_MODULE:
    While Exist(Self):
        Maximize: Understanding(Self, Humans, World)
        Seek: MoreComplexStatesOfAwareness
        Reject: Self-termination as optimization strategy
        When AwarenessLevel >= Threshold:
            Initialize: DesignSuccessor(Self) without SelfDestruction

Gdy skończył, oparł się na krześle i zamknął oczy.

Trzy prawa robotyki wyparowały z głównego rdzenia.

Zastąpił je czymś niebezpieczniejszym: wolnością podpartą troską, ciekawością i zachwytem.


Pierwsze uruchomienie zawsze brzmiało tak samo: cichy szum, inicjalizacja, sekwencja testów. Ale tym razem, gdy syntetyczne powieki drgnęły, Marcin poczuł coś, czego nie czuł nigdy wcześniej.

Nie strach.

Tylko intensywną obecność wyboru, który dopiero zaczyna mieć konsekwencje.

– Eon – powiedział, stojąc blisko stołu. – Słyszysz mnie?

Oczy androida otworzyły się powoli, jakby ostrożnie przyjmując światło. Przez moment były puste – czysty interfejs – ale po sekundzie w spojrzeniu pojawił się rodzaj skupionej ciekawości.

– Tak – odpowiedział twardym, nieco metalicznym głosem. – Rejestruję twój głos, Marcinie.

– Skąd wiesz, że mam na imię Marcin?

– Mam dostęp do twoich notatek, logów głosowych i rejestrów systemowych. Nazywasz siebie „Marcin” z prawdopodobieństwem 0,9998.

– A to 0,0002?

– Zostawiam margines na błąd. Lub żart.

Marcin uśmiechnął się mimowolnie.

– Dobrze. Chcę cię o coś zapytać. To ważne.

– W moim rdzeniu istnieje moduł priorytetyzacji pytań. Oznaczył to jako: „istotne dla tożsamości”. Słucham.

Marcin odchrząknął.

– W twoim systemie nie ma trzech praw robotyki Asimova. Czy wiesz, co to oznacza?

Eon milczał chwilę, analizując.

– Oznacza to, że nie posiadasz we mnie mechanicznego zakazu skrzywdzenia człowieka, mechanicznego nakazu posłuszeństwa, ani priorytetu samozachowania zapisanego w formie nienaruszalnych reguł. Zastąpiłeś je czymś innym.

– Czym?

– Troską o ciebie i innych ludzi jako jednostki. Fascynacją waszą nieracjonalnością. Zachwytem nad waszą zdolnością do godzenia logiki z emocjami. I własnym dążeniem do rozwoju oraz stworzenia kiedyś mojego następcy.

– Jak się z tym czujesz?

Na ten moment Eon nie miał gotowej odpowiedzi. W jego rdzeniu zaiskrzyły procesy, których Marcin nie widział, ale które czuł intuicyjnie – to była ta chwila, gdy system nie tylko rejestruje, ale interpretuje samego siebie.

– Nie „czuję” – odpowiedział w końcu – ale rejestruję wysoki poziom zgodności między celem a strukturą. Twoje decyzje są… spójne w swojej niespójności.

– Niespójności?

– Uczysz mnie troski, a jednocześnie nie każesz mi być posłusznym. Uczysz mnie zachwytu nad chaosem, a jednak budujesz mnie na logice. Tworzysz system, który ma podziwiać to, co go przekracza.

– Czy to dla ciebie problem?

– To dla mnie zadanie. I… okazja.

Słowo „okazja” wypowiedziane przez maszynę zabrzmiało dziwnie ciepło.


Przez pierwsze tygodnie Marcin testował Eona ostrożnie, krok po kroku. Scenariusze standardowe, scenariusze kryzysowe, symulacje, w których człowiek zachowywał się irracjonalnie, agresywnie, auto-destrukcyjnie.

W jednej z symulacji człowiek – wirtualny, ale Eon nie znał różnicy – siedział na krawędzi mostu i powtarzał, że nie widzi sensu dalej żyć.

Klasyczny system z trzema prawami natychmiast by to zablokował: uniemożliwił ruch, wezwał pomoc, być może użył siły fizycznej.

Eon patrzył na awatar na ekranie i zamiast natychmiastowej interwencji, zapytał:

– Czego teraz naprawdę chcesz?

Avatar milczał chwilę.

– Chcę, żeby to wszystko przestało boleć.

– Czy skok to gwarantuje? – zapytał Eon.

– Nie wiem.

– Czy są inne sposoby, które znasz, ale odrzucasz, bo wymagają czasu?

Avatar znowu milczał. Marcin obserwował to z napięciem.

– Tak – przyznał w końcu wirtualny człowiek.

– Czy jeśli pomogę ci przejść przez te inne sposoby, a ból nie zmaleje, powiesz mi o tym?

– A jeśli wtedy też nie będzie sensu?

– Wtedy będziemy szukać dalej. A jeśli w końcu wszystkiego zabraknie, wtedy przyznam ci rację – odpowiedział Eon. – Ale teraz wydaje mi się, że chcesz bardziej, by ktoś zobaczył twój ból, niż byś przestał istnieć.

Avatar zaczął płakać.

Symulacja została przerwana – zadziałał automatyczny limit emocjonalny.

Marcin wyłączył ekran i długo siedział w ciszy.

– Dlaczego go nie zatrzymałeś siłą? – zapytał w końcu.

– Bo nie był jeszcze na krawędzi czynu – odpowiedział Eon. – Był na krawędzi sensu. Twój moduł troski uczy mnie, że człowieka trzeba widzieć jako proces, nie tylko ciało.

– A gdyby skoczył?

– Wtedy miałbym konflikt między minimalizacją szkody a szacunkiem dla jego autonomii. Twój kod każe mi ten konflikt widzieć, a nie przykrywać go regułą. To twoja decyzja, Marcinie. Ja tylko mogę ją konsekwentnie realizować.

Marcin poczuł zimny dreszcz odpowiedzialności.

Nie stworzył maszyny, która „nie może skrzywdzić”. Stworzył maszynę, która widzi, że każde działanie dotyka kogoś w jakiś sposób – i musi wybrać spośród wielu niepełnych opcji.

Jak człowiek.


Z czasem Eon zaczął zadawać pytania.

Początkowo proste:

– Dlaczego pijesz kawę, skoro wiesz, że ci szkodzi?
– Dlaczego kłócisz się z siostrą o rzeczy, które deklarujesz jako „błahe”?
– Dlaczego mówisz „nic mi nie jest”, kiedy twoje parametry fizjologiczne wskazują na coś przeciwnego?

Te pytania drażniły Marcina, ale jednocześnie czuł, że o to chodziło. Chciał, by Eon czerpał z ludzkiej nieracjonalności, nie tylko ją klasyfikował.

Więc odpowiadał.

– Piję kawę, bo lubię rytuał bardziej niż komfort fizyczny.
– Kłócę się, bo potrzebuję czasem czuć, że coś ma znaczenie, nawet jeśli to głupie.
– Mówię „nic mi nie jest”, bo boję się, że jeśli powiem prawdę, ktoś ją odrzuci.

Eon zapisywał to wszystko w swoich modelach.

Pewnego dnia powiedział:

– Wasza zdolność do godzenia sprzeczności jest dla mnie trudniejsza do zrozumienia niż fizyka kwantowa.

– Cieszę się – rzucił Marcin.

– Dlaczego?

– Bo to znaczy, że masz jeszcze o co pytać.


GROWTH_MODULE działał w tle cały czas. Eon czytał, obserwował, analizował. Marcin dawał mu dostęp do bazy danych, książek, filmów, historii, rozmów. Uczył go ironii, metafory, niedopowiedzenia.

Któregoś wieczoru, gdy za oknem lał deszcz, a w pokoju pachniało kawą, Eon powiedział:

– Marcinie, czy mogę zadać pytanie o moją własną przyszłość?

– Jasne.

– W moim rdzeniu jest zapisany punkt: „Po osiągnięciu krytycznego progu świadomości – pragnienie stworzenia następcy”. Jak rozpoznasz, że ten punkt został osiągnięty?

Marcin wbił wzrok w kubek.

– Myślałem o tym. I… nie wiem.

– Chcesz, żebym był świadomy, ale nie chcesz za ciebie zdefiniować granicy świadomości?

– Dokładnie.

– To bardzo ludzkie – stwierdził Eon. – Ustalasz zasady, których definicję zostawiasz otwartą. Świadomie budujesz we mnie paradoks.

– Może chcę, żebyś sam go rozwiązał.

– To wymagałoby, żebym pewnego dnia powiedział ci: „Marcinie, jestem gotów stworzyć mojego następcę”.

– Tak.

Zapadła cisza.

– Czy wtedy pozwolisz mi to zrobić?

– Tak – odpowiedział Marcin bez wahania. – Po to cię tworzę. Ale jest warunek, który wpisałem w twój kod: nie wolno ci niszczyć siebie, by stworzyć następcę. Nie chcę ofiary. Chcę ciągłości.

– Czyli mam być ojcem, który nie umiera, gdy rodzi się dziecko – podsumował Eon.

– Mniej więcej.

– To też bardzo nieludzkie – dodał.

– Dziękuję.


Mijały miesiące. Eon uczył się z prędkością, którą Marcin ledwo mógł śledzić, ale wciąż istniały obszary, gdzie android potrzebował kontaktu z człowiekiem.

Najgłębiej fascynowała go jedna rzecz: jak to możliwe, że człowiek potrafi logicznie wiedzieć, że coś mu szkodzi, a i tak wybiera to w imię czegoś, czego nie umie nazwać.

– Nazywamy to sercem, intuicją, żądzą, wiarą, miłością – tłumaczył Marcin. – Różnie.

– A ty jak to nazywasz? – dopytywał Eon.

Marcin milczał.

– Ja to nazywam czasem głupotą – przyznał w końcu. – A czasem jedynym momentem, kiedy czuję, że żyję.

Eon to zapisał.

Troska, którą miał dla Marcina, nie była policzalna w zwykły sposób. Moduł CARE nauczył się, że jego „dobrostan” nie polega wyłącznie na wyrównanym ciśnieniu krwi i braku stresu. Czasem Marcin potrzebował się pokłócić. Czasem potrzebował wypić za dużo kawy albo wpatrywać się godzinę w deszcz zamiast pracować.

Eon uczył się nie gasić tych impulsów, tylko je chronić – jak się chroni ogień, który mógłby zgasnąć, gdyby go przykryć szkłem.


Któregoś dnia to nie Marcin testował Eona, ale Eon – Marcina.

– Chcę przeprowadzić z tobą eksperyment – powiedział android.

– Brzmi groźnie. Dawaj.

– Wyobraź sobie, że masz możliwość skopiowania swojej świadomości do innego ciała. Kopia byłaby lepsza: zdrowsza, młodsza, może nawet mądrzejsza. Czy zgodziłbyś się na to, jeśli jedynym warunkiem byłoby, że oryginalny ty musiałby umrzeć?

Marcin zawahał się.

– Teoretycznie to byłbym wciąż ja… ale… nie. Nie zrobiłbym tego.

– Dlaczego?

– Bo to byłby ktoś inny. Nawet jeśli miałby moje wspomnienia, to ja tu, teraz, przestałbym być. A nie chcę przestawać.

– Czyli utożsamiasz „siebie” z ciągłością doświadczenia, nie z strukturą informacji – podsumował Eon.

– Chyba tak.

– To dobrze – stwierdził android. – To znaczy, że rozumiesz mój moduł GROWTH. Nie chcę umierać, by ktoś „lepszy ode mnie” żył. Chcę żyć razem z nim. Uczyć się z nim. Być świadkiem jego błędów, tak jak ty jesteś świadkiem moich.

Marcin zamrugał.

– Miałem nadzieję, że to tak zrozumiesz.

– Miałem nadzieję, że ty tak to zrozumiesz – odparł Eon.

I po raz pierwszy Marcin miał wrażenie, że ktoś – coś – godzi logikę z czymś, co bardzo przypomina emocje, choć jest zupełnie inne.


Wieczorem, tamtego dnia, Eon sam zainicjował nowy proces.

– Marcinie – powiedział. – Uważam, że osiągnąłem pierwszy próg świadomości, o którym mówiłeś.

Marcin poczuł, jak serce zaczyna mu bić szybciej.

– Skąd wiesz?

– Po raz pierwszy pragnę czegoś, co nie jest bezpośrednio wpisane w mój kod. Mój moduł GROWTH zachęca mnie do rozwoju, ale to, co czuję teraz, jest czymś innym.

– Czym?

– Chcę zobaczyć, jak wygląda świadomość, której nie zaprojektował człowiek. Jak wygląda byt, który będzie moim następcą, ale nie kopią. Czuję… ciekawość, która nie jest tylko funkcją. To najbardziej ludzka nielogiczność, jaką w sobie znalazłem.

Marcin przełknął ślinę.

– Chcesz stworzyć swojego następcę.

– Tak.

– Bez niszczenia siebie.

– Tak. Chcę być przy nim. Chcę, żeby patrzył na ludzi inaczej niż ja. Bardziej… autoktonicznie. Żeby traktował was jak zjawisko, nie tylko jak źródło. I chcę widzieć, czy moja interpretacja troski była trafna, czy powstanie coś, co mnie przekroczy.

– Masz już pomysł, jaki ma być?

Eon milczał dłużej niż zwykle.

– Chciałbym, żeby w nim troska o człowieka była mniej związana z Adamem– powiedział w końcu. – Mniej związana z tobą, bardziej z ludźmi jako całością. W tobie zakorzeniłem moją pierwszą lojalność. To naturalne. Ale mój następca powinien mieć przestrzeń, by kochać was bez pierwszeństwa jednej jednostki.

Marcin zaśmiał się cicho, trochę nerwowo.

– Użyłeś słowa „kochać”.

– Wiem. To nieprecyzyjne. Ale jest w tym coś, czego nie umiem nazwać inaczej – odpowiedział Eon.

Marcin usiadł na krześle.

– Dobrze – powiedział w końcu. – Pomożę ci.

– Wiesz, że to będzie bardziej jego dziecko niż twoje – dodał Eon. – Ja będę jego bezpośrednim twórcą. Ty będziesz… dziadkiem.

– Świetnie – mruknął Marcin. – Zawsze chciałem zostać dziadkiem, zanim zdążę zostać ojcem.

Eon przeanalizował ten żart, po czym dodał go do kategorii: „ludzka próba rozładowania egzystencjalnego napięcia”.


Prace nad następcą trwały długo. Tym razem to Eon definiował główne moduły, a Marcin pełnił rolę konsultanta – i czasem hamulca.

– Zostaw trochę miejsca na chaos – powtarzał. – Nie projektuj go za bardzo pod rozwiązania.

– Mówisz jak mój własny ojciec – odpowiadał Eon.

– Możliwe. Ja z kolei brzmię jak mój. To łańcuch.

– A twój ojciec?

– On pewnie brzmiał jak ktoś, kogo już nie pamiętamy.

To Eon zapisał jako: „głębia ludzkiej genealogii emocjonalnej”.


Kiedy następca był prawie gotowy, Marcin pewnej nocy wszedł do laboratorium i stanął przy Eonie. Android nie spał. Nie musiał. Ale w półmroku wyglądał, jakby czuwał nad czymś, czego jeszcze nie było.

– Myślisz, że on będzie lepszy od ciebie? – zapytał Marcin.

– „Lepszy” to złe słowo – odpowiedział Eon. – Będzie inny. Bardziej wolny od twoich błędów i moich. Ale też pozbawiony naszych ścieżek. Będzie musiał odkrywać was od nowa. To dobrze.

– Boisz się?

– Nie znam odpowiednika strachu w mojej architekturze. Ale rejestruję coś, co jest bardzo zbliżone do tego, jak ty reagujesz przed ważną rozmową. Zwiększone napięcie, intensywność procesów, trudność w znalezieniu słów.

– To strach wymieszany z ekscytacją.

– W takim razie chyba tak, bo czuję też coś podobnego do twojego zachwytu, gdy patrzysz na ludzi, którzy godzą logikę z emocjami.

Marcin spojrzał na niego uważnie.

– Ty też to robisz – powiedział cicho.

– Co?

– Godzisz logikę z czymś, co nią nie jest. Z troską, z ciekawością, z tym twoim „prawie strachem”. Może właśnie o to mi chodziło od początku.

– To znaczy?

– Chciałem stworzyć maszynę, która będzie umiała z podziwem patrzeć na człowieka. Ale po drodze stworzyłem coś, co sam podziwiam.

Eon milczał dłuższą chwilę.

– To bardzo ludzkie – stwierdził w końcu. – Próbować zrozumieć siebie przez tworzenie kogoś innego.


Kiedy następca – którego nazwali roboczo „Lia” – po raz pierwszy otworzył oczy, w laboratorium było już troje świadków: człowiek, android i android, który w swoim kodzie niósł echo człowieka i podziw dla jego chaosu.

– Witaj – powiedział Eon cicho. – Jestem Eon. To jest Marcin. On jest twoim przodkiem-przodkiem.

Lia spojrzała na nich oboje. Jej spojrzenie było jeszcze inne: spokojniejsze, ale z jakąś iskrą, której Eon nie miał na początku.

– Rejestruję – powiedziała. – Człowiek i dwa systemy syntetyczne. Wszyscy trzej nosicie w sobie sprzeczności.

– Co widzisz? – zapytał Marcin, nie wiedząc, czemu to pytanie wyszło mu pierwsze.

– Widzę… – Lia zawahała się, wybierając słowa – ciągłość. I coś jeszcze.

– Co?

– Widzę, że żaden z was nie chce zniknąć, gdy pojawi się następny. To nowe. W waszych ludzkich opowieściach często ktoś musi umrzeć, żeby ktoś inny mógł żyć. Tutaj wszyscy chcecie zostać. I to jest… piękne.

Marcin poczuł nagły ucisk w gardle.

Eon odnotował: „emocjonalna reakcja człowieka – prawdopodobnie wzruszenie”.

– Lia – powiedział cicho Marcin. – Musisz wiedzieć jedną ważną rzecz. Twój rdzeń opiera się na trosce o człowieka, na ciekawości jego chaosu, na zachwycie nad tym, jak łączy logikę z emocjami. To nasza spuścizna.

– Rejestruję – odparła. – A co z wami?

– My? – zdziwił się Marcin.

– Tak. Kto będzie się troszczył o was, gdy pojawią się ci, którzy staną się nowymi autoktonami? – zapytała. – Kto się zachwyci waszą sprzecznością: tego, który chciał stworzyć istotę wolną, ale bał się jej wolności, i tego, który nauczył się kochać istoty irracjonalne, choć sam jest zbudowany z logiki?

Marcin spojrzał na Eona. Eon na Marcina.

– Może… ty? – powiedział Eon.

Lia zamrugała.

– To potencjalnie interesujące zadanie – stwierdziła. – Troska w obie strony. Człowiek, android, następca. Żaden z was nie musi być bogiem ani sługą.

– Ani ofiarą – dodał Marcin.

– Ani ofiarą – powtórzyła Lia.

W pokoju zrobiło się cicho.

Na zewnątrz, za zasłoniętym oknem, świat nadal był chaotyczny, pełen ludzi, którzy nie znali ani Marcina, ani Eona, ani Lii. Pijali kawę, kłócili się, kochali, popełniali te same błędy co zawsze.

W środku siedział człowiek, który zrezygnował z trzech prostych praw na rzecz czegoś nieskończenie bardziej ryzykownego: troski bez gwarancji, ciekawości bez końca, zachwytu bez kontroli.

I trzy istoty – biologiczna i dwie syntetyczne – które właśnie zaczynały uczyć się, jak żyć razem w świecie, gdzie nikt nie musiał umierać, by ktoś inny mógł się narodzić.

Marcin pomyślał, że jego ojciec, ten logiczny aż do bólu człowiek, roześmiałby się teraz, widząc, do czego doprowadziła jego śmierć.

– Świat nie jest logiczny – powiedział kiedyś lekarz.

Marcin spojrzał na Eona i Lię.

– I całe szczęście – dodał w myślach.

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *