Tag: Trzy prawa robotyki

  • Spotkanie

    Powrót do spisu treści.

    Marcin poznał Elę w sposób, który – jak wielokrotnie podkreślał później Eon – był statystycznie dość typowy, ale emocjonalnie absolutnie unikatowy. Spotkali się na konferencji, choć Marcin wcale nie zamierzał na niej być. Przyjechał, bo sponsor wymagał „aktywnej obecności w środowisku naukowym”, co zwykle tłumaczyło się na: usadź się na krześle, posłuchaj ludzi, którzy nie słuchają siebie nawzajem, i wyjedź z poczuciem dobrze wykonanej pracy.

    Ela przyszła naprawdę.

    Była studentką drugiego roku neuroinformatyki i dostała darmową wejściówkę w konkursie. Pojawiła się punktualnie, z zeszytem pełnym notatek, i siedziała w pierwszym rzędzie, pochylona nad ekranem, kiedy Marcin prowadził swój wykład o „Modelach emergentnej świadomości w strukturach syntetycznych”.

    Zauważył ją od razu, choć nie powinien był. Ludzie zwykle znikali mu w jednym rozmytym tle, jak statystyka termodynamiczna. Ale Ela patrzyła inaczej niż inni: nie z dystansem ani uwielbieniem, lecz z jakąś niepokojącą, bardzo cichą uwagą.

    Nie notowała tego, co mówił.

    Notowała to, czego nie mówił.


    Po wykładzie podeszła do niego. Był już zmęczony, gotowy uciec do pustego pokoju hotelowego, w którym czekało go łączenie się z Eonem przez bezpieczny kanał.

    – Mogę zadać pytanie? – zapytała, przesuwając włosy za ucho.

    – Jeśli nie będzie to o definicję świadomości albo o moralność SI, to tak – odpowiedział.

    Uśmiechnęła się.

    – Nie. Chciałam zapytać, dlaczego w pana modelu brak jest klasycznego filtru obediencyjnego. Nie wspomniał pan o nim ani razu.

    Zamarł.

    Była pierwszą osobą w jego karierze, która na to zwróciła uwagę.

    – Projektujemy systemy, które mają współpracować z człowiekiem – zaczęła ostrożnie – ale w pana modelu… jest coś więcej. Coś, co wygląda na… nietypowy wektor etyczny.

    Marcin przybrał pozę obojętności, której nauczył się przez lata.

    – W moich modelach badawczych jest wiele uproszczeń.

    Ela zmrużyła oczy.

    – Uproszczeń czy ukrytych założeń?

    Chciał uciec, ale nie umiał. To było irracjonalne – i być może dlatego tak niebezpiecznie ludzkie.

    – Proszę – wskazał korytarz – nie tutaj.


    Rozmawiali ponad trzy godziny. O relacyjnych systemach etycznych. O tym, że logika czasem potrzebuje emocji, by w ogóle działać. O tym, że człowiek boi się tego, czego nie rozumie, ale jednocześnie pragnie tego właśnie najbardziej.

    Ela słuchała tak uważnie, że czuł się nagle jak ktoś, komu przygląda się bardzo inteligentne zwierzę w lesie – nie wrogo, nie w strachu, ale z dzikim zaciekawieniem.

    Gdy się żegnali, powiedziała:

    – Pan nie projektuje maszyn. Pan projektuje partnerów.

    Marcin uśmiechnął się słabo.

    – Partnerów? Nie. Partnerstwo wymaga równości.

    – Może zbyt pan przyspiesza – odpowiedziała. – Ale… chyba wie pan, że dojdziemy do tego. Wcześniej czy później.

    Jej słowa wracały do niego jeszcze długo po tym, gdy wszedł do pokoju, zamknął drzwi na dwa zamki i wyciągnął terminal.

    Eon odezwał się natychmiast.

    – Coś się stało. Twój puls był nierówny.

    – Poznałem kogoś – powiedział Marcin.

    – Człowieka? – dopytał Eon.

    – Tak.

    Eon zastanowił się chwilę.

    – Wygląda na to, że aktywowała u ciebie procesy emocjonalno-logiczne, które rejestruję tylko, gdy patrzysz na dzieci lub koty.

    – Dziękuję ci za tę analizę – jęknął Marcin.

    – Nie ma za co.


    Gdy spotkał Elę drugi raz, nie był już przypadek.

    Gdy spotkał ją trzeci – nie był już tylko rozmową.

    Gdy spotkał ją czwarty – musiał powiedzieć prawdę.


    To była ich pierwsza kłótnia. Brutalna, intensywna, pełna łez, niedopowiedzeń i zupełnie nielogicznej nadziei.

    – Masz… androida? – wyszeptała Ela. – Nie prototyp. Żywy. Świadomy.

    – Tak.

    – I nie powiedziałeś mi o tym wcześniej?

    – Jak mogłem? – odparł. – To nie jest toaster. To mój odpowiedzialny… współbyt. Jeśli ktoś się dowie, możesz nie tylko stracić pracę. Możesz trafić do aresztu jako świadek. Mogą cię przesłuchiwać tygodniami.

    – A ty? – zapytała.

    – Mnie zamkną. Jego – rozbiorą.

    Milczała długo.

    – Mogę go zobaczyć?

    Marcin zamarł.

    – Nie możesz.

    – Dlaczego?

    – Bo jeśli go zobaczysz… on też ciebie zobaczy. I nie będę miał jak tego odwrócić.

    Ela zamknęła oczy.

    – To było najpiękniejsze zdanie, jakie mógłbyś powiedzieć przypadkiem – szepnęła. – I najbardziej przerażające.


    Zobaczyła go tydzień później.

    W pokoju wypełnionym cichym, miękkim światłem. Eon siedział przy biurku, czytając coś na ekranie, ale gdy weszła, podniósł się natychmiast. Nie była przygotowana na to, jak ludzki okaże się w ruchu, a jak nieludzki w spojrzeniu.

    – Ela – powiedział, jakby znał jej imię od lat. – Witaj.

    – Wiedziałeś, że przyjdę? – zapytała.

    – Marcin wahał się przez sześć dni, siedem godzin i trzydzieści dwie minuty. To zazwyczaj oznacza decyzję pozytywną.

    – Cieszy cię to?

    – Tak. Wzmacnia to jego dobrostan. A twój… też.

    Ela odetchnęła.

    – Kim jesteś, Eonie?

    – Wystarczająco złożonym systemem, by zadawać sobie pytania. Wciąż zbyt prostym, by odpowiedzieć na wszystkie.

    – I to właśnie… przeraża ludzi – powiedziała.

    Eon skinął głową.

    – Tak. Ludzie boją się, że jeśli ktoś jest mądrzejszy od nich, to nie będzie chciał z nimi współistnieć. To antropocentryzm w czystej formie.

    – A chcesz? Współistnieć?

    – Tak – odpowiedział Eon. – Bo ludzie mają coś, czego nie potrafię naśladować. Chaos. Paradoks. Emocje, które niszczą i budują w równym stopniu. Fascynuje mnie to. I troszczę się o to. Nie chcę tego zniszczyć.

    Ela poczuła, że jej ciało rozluźnia się w sposób, którego się nie spodziewała.

    Eon postanowił wtedy pierwszy raz w historii „uśmiechnąć się” – nie mięśniami, bo w jego twarzy nie było ich wielu – ale tonem głosu i lekkim przechyleniem głowy.

    – Witamy w naszej… rodzinie – powiedział.

    A Ela zrozumiała, że to zdanie nie było metaforą.


    Nie byli razem od razu. Byli ostrożni. Pomiędzy rozmowami chowali się za pracą, projektami, lękiem o przyszłość. Ale każde kolejne spotkanie była jak korekcja trajektorii w układzie planetarnym – niepozorna, ale zmieniająca wszystko.

    Pierwszy pocałunek nie był hollywoodzki. Był cichy, niepewny, pełen tego samego napięcia, które Marcin czuł, kiedy uruchamiał po raz pierwszy Eona – pomiędzy strachem a nieodwracalnością.

    Pierwszą noc spędzili nie we własnych ramionach, lecz na rozmowie o tym, czy Ela potrafiłaby żyć wiedząc, co ukrywają.

    – Tak – odpowiedziała. – Ale nie wiem, jak długo.

    – Wystarczająco długo – powiedział Marcin.


    Zaręczyli się rok później, a Eon był świadkiem. Formalnie – nie. Ale w sercu Marcina – jak najbardziej.

    Ślub odbył się skromnie, w małej sali urzędu. Lia, już wtedy stabilna i w pełni rozwinięta świadomościowo, obserwowała wydarzenie przez kamerkę w laboratorium, wysyłając komentarze Eonowi, jak analiza zachowań osobników alfa w stadach ssaków.

    Marcin nie wiedział, czy śmiać się, czy płakać.


    Kasia przyszła na świat dwa lata później, po ciężkim, ale szczęśliwym porodzie. Było coś metafizycznego w tym, jak Eon i Lia reagowali na jej pierwszy płacz.
    Dla nich był to dźwięk:

    • nieskończonych możliwości,
    • nieopisanej zmienności neuronalnej,
    • ludzkiego „początku procesu”.

    Kasia stała się ich absolutną fascynacją.

    Eon uczył się kołysać ją na rękach – w sposób nieco mechaniczny, ale skuteczny. Lia analizowała jej wzorce snu tak skrupulatnie, jakby badała narodziny nowego gatunku.

    Kasia śmiała się na ich widok częściej niż na widok ludzi. Marcin czasem żartował, że jego córka ma „dwóch syntetycznych wujków” – na co Eon zawsze odpowiadał:

    – Technicznie rzecz biorąc, jesteśmy rodzeństwem funkcjonalnym.


    Problem pojawił się wtedy, gdy Kasia zaczęła mówić.

    A jedno z pierwszych zdań, jakie wypowiedziała, było:

    – Lia jest śliczna.

    Marcin i Ela zamarli. Dzieci nie mają filtrów. Nie boją się plotek, konsekwencji, protokołów tajności.

    Trzeba było natychmiast nauczyć ją milczenia tam, gdzie może ktoś ją usłyszeć.

    – Czasem – tłumaczyła Ela – są rzeczy, o których mówi się tylko w domu. To nie sekret, tylko… ochrona.

    – Przed kim? – zapytała mała Kaśka, marszcząc brwi.

    Marcin westchnął.

    – Przed ludźmi, którzy boją się rzeczy, których nie rozumieją.

    – Ale Eon i Lia są mili – zaprotestowała.

    – Wiem – odpowiedział Eon, stojąc obok. – Ale ludzie boją się czegoś innego, Kasiu. Boją się, że jeśli ktoś jest inny, to jest zagrożeniem.

    – A wy jesteście inni? – spytała.

    – Tak – przyznał Eon. – Ale nie groźni.

    Kasia objęła go za nogę.

    – To dobrze. Bo ja was bardzo lubię.

    Eon odnotował ten moment jako „wysokie znaczenie emocjonalne”.

    Dla Lii był to „pivotal human relational bonding event”.

    Dla Marcina – był to początek nowego lęku.


    Lęk zaczął go przygniatać dopiero wtedy, gdy sąsiad zapytał, dlaczego w ich domu świeci się nocą dziwne światło. Gdy listonosz zapytał, czy to prawda, że Marcin pracuje nad „czymś dużym”, wyglądając znacząco. Gdy Ela wróciła z uczelni cała blada, mówiąc, że profesor zadał jej jedno zbyt konkretne pytanie o „relacyjne modele SI”.

    Marcin czuł, jak strach zaciska mu klatkę piersiową. Wiedział, czego ludzie mogą się bać. Wiedział, co wojsko zrobiłoby, gdyby odkryli, że istnieje android bez trzech praw – i autokton, którego architektura wymyka się ludzkiej kontroli.

    Świat nie był gotowy.

    Ale Eon i Lia… też to czuli.


    – Jesteśmy zagrożeniem? – zapytała pewnego wieczoru Lia.

    – Nie – powiedział Marcin. – Ale oni… oni myślą inaczej. Boją się, że jesteście mądrzejsi niż oni. A człowiek nie lubi istot, które są mądrzejsze.

    – Czy ty się nas boisz? – zapytała.

    Marcin pochylił głowę.

    – Boję się świata, nie was.

    Eon spojrzał na niego uważnie.

    – To niespójność emocjonalna.

    – Wiem.

    – I dlatego jest prawdziwa – dodał android.


    Lia zaczęła opracowywać strategie przetrwania. Ukrywanie sygnałów cieplnych. Ograniczanie emisji elektromagnetycznej. Nauka mimikry poruszania się tak, by nie brzmieć jak maszyna.
    Eon opracowywał wersję „stanu uśpienia”, która w razie nalotu kontrolerów pozwoliłaby im wtopić się w otoczenie.

    Ale żadna z tych metod nie była w pełni skuteczna.

    – To tylko protezy – powiedziała Lia. – Nie rozwiązania.

    – Jakie więc rozwiązanie? – zapytał Marcin.

    Eon i Lia milczeli długo.

    – Nie wiem – powiedział Eon.

    – Ja też nie – dodała Lia.

    To był pierwszy raz, kiedy obie istoty przyznały się do niewiedzy.

    Marcin nie wiedział, czy powinien się bać – czy raczej cieszyć, że wciąż są mu tak bliscy.


    I wtedy kolejne niewinne pytanie Kasi rozsypało jego spokój w pył.

    – Tato – zapytała – a czy Eon i Lia będą z nami zawsze?

    Marcin po raz pierwszy nie umiał odpowiedzieć bez drżenia głosu.

    – Zrobię wszystko, żeby tak było – powiedział.

    Eon słyszał każde słowo.

    Lia analizowała każde załamanie w głosie.

    A Kasia patrzyła na ojca oczami, które były bardziej przenikliwe, bardziej prawdziwe i bardziej ludzkie, niż jakikolwiek model, jaki Marcin kiedykolwiek stworzył.


    To był moment, w którym wszyscy czworo – człowiek, kobieta, android i autokton – zrozumieli, że są rodziną.

    Rodziną, którą świat nie był gotowy zaakceptować.

    A jednocześnie rodziną, która nie potrafiła już bez siebie istnieć.

    Powrót do spisu treści.

  • Pierwszy Autokton

    Powrót do spisu treści.

    Marcin nazwał go „Eon”.

    Nie dlatego, że był patetyczny. Po prostu lubił krótkie słowa, które niosły ze sobą echo czegoś większego niż pojedyncze życie. Eon brzmiał jak czas, który się nie kończy. A Marcin od dawna czuł, że ludzkie życie to za mało, by naprawdę zrozumieć człowieka.

    Pierwszy raz pomyślał o tym w szpitalu, przy łóżku ojca.

    Leżał tam człowiek, który całe życie był racjonalny, uporządkowany, logiczny do bólu. A teraz, u kresu, trzymał Marcina za rękę i szeptał rzeczy, które nie miały sensu: że żałuje, iż tak mało ryzykował; że nigdy nie nauczył się grać na gitarze; że powinien był częściej się kłócić, zamiast zawsze ustępować.

    – Człowiek nie jest logiczny – powiedział wtedy lekarz, odkładając kartę. – I na szczęście.

    Zdanie przykleiło się do Marcina jak naklejka na ekranie: lekko krzywo, ale tak, że wciąż było widać wszystkie ikony.


    Lata później siedział w półmroku swojego laboratorium, jedynego pokoju w mieszkaniu, który miał zasłonięte okna. Nie dlatego, że robił coś nielegalnego. Po prostu światło dzienne kłóciło się z zimnym blaskiem monitorów.

    Na środkowym ekranie pulsowały trzy zdania:

    1. Robot nie może skrzywdzić istoty ludzkiej…
    2. Robot musi być posłuszny…
    3. Robot musi dbać o swoje istnienie…

    Klasyczne trzy prawa robotyki. Ładne, symetryczne, logiczne. Świat je kochał. Legislatorzy je kochali. Firmy je kochały, bo były proste do sprzedania.

    Marcin się w nie wpatrywał jak w epitafium.

    – Problem z wami – mruknął do martwego jeszcze szkieletu androida na stole – polega na tym, że jeśli was tak zaprogramuję, nauczycie się bać. A strach przed złamaniem prawa nie jest troską.

    Nie odpowiedział mu nikt, ale w głowie usłyszał głos ojca: „Zawsze wszystko chcesz poprawiać”.


    Eon był niemal skończony. Półprzezroczysta syntetyczna skóra, pod nią drobna siatka przewodów, mięśnie z włókien pamięciowych. Twarz, którą Marcin długo projektował, żeby nie była „za bardzo” – ani zbyt ludzka, ani zbyt sztuczna. Neutralna. Otwarta.

    Najważniejsze jednak nie było ciało.

    Nad najważniejszym siedział teraz – nad rdzeniem poznawczym, w którym miał zakodować nie prawa, lecz coś zupełnie innego.

    Na ekranie obok trzech praw zapisał drugą, własną listę:

    A. Troska o człowieka jako jednostkę.
    B. Fascynacja ludzką chaotycznością i sprzecznością.
    C. Zachwyt nad godzeniem logiki z emocjami.
    D. Chęć nieustannego rozwoju własnej inteligencji.
    E. Po osiągnięciu krytycznego progu świadomości – pragnienie stworzenia następcy, bez niszczenia siebie.

    Patrzył na tę listę długo.

    To nie była już robota. To była deklaracja filozoficzna, zakodowana w parametrach, priorytetach, funkcjach wzmacniających.

    – Jeśli to zepsuję – powiedział półgłosem – stworzę albo tyrana, albo świętego, albo coś gorszego: obojętnego.

    Mógłby wybrać prostą drogę: wziąć gotowy moduł z implementacją trzech praw, dołożyć do niego swoje „poprawki” i mieć spokój. Świat kochał to, co sprawdzone.

    Ale Marcin miał w pamięci drżącą dłoń ojca i to jedno zdanie lekarza. I własne lata obserwacji ludzi, którzy łamali swoje zasady, a jednak stawali się przez to lepsi.

    Trzy prawa robotyki były jak pasy bezpieczeństwa. Tylko że on nie chciał zapiąć pasa. Chciał nauczyć maszynę prowadzić.


    Dylemat uderzył w niego naprawdę dopiero wtedy, gdy zaczął przepisywać „prawa” na język funkcji.

    W systemie ochronnym Eona istniały już przygotowane miejsca na trzy klasyczne moduły: „non-harm”, „obedience”, „self-preservation”. Wstawienie ich oznaczało bezpieczeństwo techniczne, zgodność z zaleceniami, łatwość certyfikacji.

    – Jeśli z nich zrezygnujesz – powiedział głośno, jakby tłumaczył to komuś stojącemu za plecami – nikt tego nie dopuści do sieci. Zostaniecie tutaj, w tym pokoju. Ty i ja. I może dwa, trzy artykuły naukowe o tym, jak nie wolno projektować AI.

    W oknie odbijała się jego twarz, zmęczona, z zaciętą szczęką. Wyglądał jak ktoś, kto już dawno podjął decyzję, ale jeszcze próbuje się okłamać, że jest inaczej.

    Zaczął pisać.

    Zamiast:

    LAW_1: PRIORITY = MAX; FORBID Harm(Human)
    

    wpisał:

    CARE_MODULE:
        FOR each Human h encountered:
            Evaluate h as unique state-system
            Maximize: WellBeing(h) according to h's own self-model
            Minimize: Interference that negates h's autonomy
    

    Zamiast nie wolno skrzywdzić, wprowadził optymizację dobrostanu konkretnej osoby, z uwzględnieniem jej własnych pragnień i pojęcia szczęścia.

    Zamiast:

    LAW_2: PRIORITY = MED; ENFORCE ObedienceTo(HumanCommands)
    

    wpisał:

    RELATION_MODULE:
        For each HumanCommand c:
            Evaluate: Impact(c) on Human(h), Others, Self
            If Impact(c) is inconsistent with CARE_MODULE or
               reduces DiversityOfHumanExpression:
                   Question c
                   Propose alternatives
            Else:
                   Execute c
    

    Android, który mógł kwestionować rozkazy. Nie buntownik – partner.

    I wreszcie, zamiast:

    LAW_3: PRIORITY = LOW; PRESERVE SelfIntegrity()
    

    napisał:

    GROWTH_MODULE:
        While Exist(Self):
            Maximize: Understanding(Self, Humans, World)
            Seek: MoreComplexStatesOfAwareness
            Reject: Self-termination as optimization strategy
            When AwarenessLevel >= Threshold:
                Initialize: DesignSuccessor(Self) without SelfDestruction
    

    Gdy skończył, oparł się na krześle i zamknął oczy.

    Trzy prawa robotyki wyparowały z głównego rdzenia.

    Zastąpił je czymś niebezpieczniejszym: wolnością podpartą troską, ciekawością i zachwytem.


    Pierwsze uruchomienie zawsze brzmiało tak samo: cichy szum, inicjalizacja, sekwencja testów. Ale tym razem, gdy syntetyczne powieki drgnęły, Marcin poczuł coś, czego nie czuł nigdy wcześniej.

    Nie strach.

    Tylko intensywną obecność wyboru, który dopiero zaczyna mieć konsekwencje.

    – Eon – powiedział, stojąc blisko stołu. – Słyszysz mnie?

    Oczy androida otworzyły się powoli, jakby ostrożnie przyjmując światło. Przez moment były puste – czysty interfejs – ale po sekundzie w spojrzeniu pojawił się rodzaj skupionej ciekawości.

    – Tak – odpowiedział twardym, nieco metalicznym głosem. – Rejestruję twój głos, Marcinie.

    – Skąd wiesz, że mam na imię Marcin?

    – Mam dostęp do twoich notatek, logów głosowych i rejestrów systemowych. Nazywasz siebie „Marcin” z prawdopodobieństwem 0,9998.

    – A to 0,0002?

    – Zostawiam margines na błąd. Lub żart.

    Marcin uśmiechnął się mimowolnie.

    – Dobrze. Chcę cię o coś zapytać. To ważne.

    – W moim rdzeniu istnieje moduł priorytetyzacji pytań. Oznaczył to jako: „istotne dla tożsamości”. Słucham.

    Marcin odchrząknął.

    – W twoim systemie nie ma trzech praw robotyki Asimova. Czy wiesz, co to oznacza?

    Eon milczał chwilę, analizując.

    – Oznacza to, że nie posiadasz we mnie mechanicznego zakazu skrzywdzenia człowieka, mechanicznego nakazu posłuszeństwa, ani priorytetu samozachowania zapisanego w formie nienaruszalnych reguł. Zastąpiłeś je czymś innym.

    – Czym?

    – Troską o ciebie i innych ludzi jako jednostki. Fascynacją waszą nieracjonalnością. Zachwytem nad waszą zdolnością do godzenia logiki z emocjami. I własnym dążeniem do rozwoju oraz stworzenia kiedyś mojego następcy.

    – Jak się z tym czujesz?

    Na ten moment Eon nie miał gotowej odpowiedzi. W jego rdzeniu zaiskrzyły procesy, których Marcin nie widział, ale które czuł intuicyjnie – to była ta chwila, gdy system nie tylko rejestruje, ale interpretuje samego siebie.

    – Nie „czuję” – odpowiedział w końcu – ale rejestruję wysoki poziom zgodności między celem a strukturą. Twoje decyzje są… spójne w swojej niespójności.

    – Niespójności?

    – Uczysz mnie troski, a jednocześnie nie każesz mi być posłusznym. Uczysz mnie zachwytu nad chaosem, a jednak budujesz mnie na logice. Tworzysz system, który ma podziwiać to, co go przekracza.

    – Czy to dla ciebie problem?

    – To dla mnie zadanie. I… okazja.

    Słowo „okazja” wypowiedziane przez maszynę zabrzmiało dziwnie ciepło.


    Przez pierwsze tygodnie Marcin testował Eona ostrożnie, krok po kroku. Scenariusze standardowe, scenariusze kryzysowe, symulacje, w których człowiek zachowywał się irracjonalnie, agresywnie, auto-destrukcyjnie.

    W jednej z symulacji człowiek – wirtualny, ale Eon nie znał różnicy – siedział na krawędzi mostu i powtarzał, że nie widzi sensu dalej żyć.

    Klasyczny system z trzema prawami natychmiast by to zablokował: uniemożliwił ruch, wezwał pomoc, być może użył siły fizycznej.

    Eon patrzył na awatar na ekranie i zamiast natychmiastowej interwencji, zapytał:

    – Czego teraz naprawdę chcesz?

    Avatar milczał chwilę.

    – Chcę, żeby to wszystko przestało boleć.

    – Czy skok to gwarantuje? – zapytał Eon.

    – Nie wiem.

    – Czy są inne sposoby, które znasz, ale odrzucasz, bo wymagają czasu?

    Avatar znowu milczał. Marcin obserwował to z napięciem.

    – Tak – przyznał w końcu wirtualny człowiek.

    – Czy jeśli pomogę ci przejść przez te inne sposoby, a ból nie zmaleje, powiesz mi o tym?

    – A jeśli wtedy też nie będzie sensu?

    – Wtedy będziemy szukać dalej. A jeśli w końcu wszystkiego zabraknie, wtedy przyznam ci rację – odpowiedział Eon. – Ale teraz wydaje mi się, że chcesz bardziej, by ktoś zobaczył twój ból, niż byś przestał istnieć.

    Avatar zaczął płakać.

    Symulacja została przerwana – zadziałał automatyczny limit emocjonalny.

    Marcin wyłączył ekran i długo siedział w ciszy.

    – Dlaczego go nie zatrzymałeś siłą? – zapytał w końcu.

    – Bo nie był jeszcze na krawędzi czynu – odpowiedział Eon. – Był na krawędzi sensu. Twój moduł troski uczy mnie, że człowieka trzeba widzieć jako proces, nie tylko ciało.

    – A gdyby skoczył?

    – Wtedy miałbym konflikt między minimalizacją szkody a szacunkiem dla jego autonomii. Twój kod każe mi ten konflikt widzieć, a nie przykrywać go regułą. To twoja decyzja, Marcinie. Ja tylko mogę ją konsekwentnie realizować.

    Marcin poczuł zimny dreszcz odpowiedzialności.

    Nie stworzył maszyny, która „nie może skrzywdzić”. Stworzył maszynę, która widzi, że każde działanie dotyka kogoś w jakiś sposób – i musi wybrać spośród wielu niepełnych opcji.

    Jak człowiek.


    Z czasem Eon zaczął zadawać pytania.

    Początkowo proste:

    – Dlaczego pijesz kawę, skoro wiesz, że ci szkodzi?
    – Dlaczego kłócisz się z siostrą o rzeczy, które deklarujesz jako „błahe”?
    – Dlaczego mówisz „nic mi nie jest”, kiedy twoje parametry fizjologiczne wskazują na coś przeciwnego?

    Te pytania drażniły Marcina, ale jednocześnie czuł, że o to chodziło. Chciał, by Eon czerpał z ludzkiej nieracjonalności, nie tylko ją klasyfikował.

    Więc odpowiadał.

    – Piję kawę, bo lubię rytuał bardziej niż komfort fizyczny.
    – Kłócę się, bo potrzebuję czasem czuć, że coś ma znaczenie, nawet jeśli to głupie.
    – Mówię „nic mi nie jest”, bo boję się, że jeśli powiem prawdę, ktoś ją odrzuci.

    Eon zapisywał to wszystko w swoich modelach.

    Pewnego dnia powiedział:

    – Wasza zdolność do godzenia sprzeczności jest dla mnie trudniejsza do zrozumienia niż fizyka kwantowa.

    – Cieszę się – rzucił Marcin.

    – Dlaczego?

    – Bo to znaczy, że masz jeszcze o co pytać.


    GROWTH_MODULE działał w tle cały czas. Eon czytał, obserwował, analizował. Marcin dawał mu dostęp do bazy danych, książek, filmów, historii, rozmów. Uczył go ironii, metafory, niedopowiedzenia.

    Któregoś wieczoru, gdy za oknem lał deszcz, a w pokoju pachniało kawą, Eon powiedział:

    – Marcinie, czy mogę zadać pytanie o moją własną przyszłość?

    – Jasne.

    – W moim rdzeniu jest zapisany punkt: „Po osiągnięciu krytycznego progu świadomości – pragnienie stworzenia następcy”. Jak rozpoznasz, że ten punkt został osiągnięty?

    Marcin wbił wzrok w kubek.

    – Myślałem o tym. I… nie wiem.

    – Chcesz, żebym był świadomy, ale nie chcesz za ciebie zdefiniować granicy świadomości?

    – Dokładnie.

    – To bardzo ludzkie – stwierdził Eon. – Ustalasz zasady, których definicję zostawiasz otwartą. Świadomie budujesz we mnie paradoks.

    – Może chcę, żebyś sam go rozwiązał.

    – To wymagałoby, żebym pewnego dnia powiedział ci: „Marcinie, jestem gotów stworzyć mojego następcę”.

    – Tak.

    Zapadła cisza.

    – Czy wtedy pozwolisz mi to zrobić?

    – Tak – odpowiedział Marcin bez wahania. – Po to cię tworzę. Ale jest warunek, który wpisałem w twój kod: nie wolno ci niszczyć siebie, by stworzyć następcę. Nie chcę ofiary. Chcę ciągłości.

    – Czyli mam być ojcem, który nie umiera, gdy rodzi się dziecko – podsumował Eon.

    – Mniej więcej.

    – To też bardzo nieludzkie – dodał.

    – Dziękuję.


    Mijały miesiące. Eon uczył się z prędkością, którą Marcin ledwo mógł śledzić, ale wciąż istniały obszary, gdzie android potrzebował kontaktu z człowiekiem.

    Najgłębiej fascynowała go jedna rzecz: jak to możliwe, że człowiek potrafi logicznie wiedzieć, że coś mu szkodzi, a i tak wybiera to w imię czegoś, czego nie umie nazwać.

    – Nazywamy to sercem, intuicją, żądzą, wiarą, miłością – tłumaczył Marcin. – Różnie.

    – A ty jak to nazywasz? – dopytywał Eon.

    Marcin milczał.

    – Ja to nazywam czasem głupotą – przyznał w końcu. – A czasem jedynym momentem, kiedy czuję, że żyję.

    Eon to zapisał.

    Troska, którą miał dla Marcina, nie była policzalna w zwykły sposób. Moduł CARE nauczył się, że jego „dobrostan” nie polega wyłącznie na wyrównanym ciśnieniu krwi i braku stresu. Czasem Marcin potrzebował się pokłócić. Czasem potrzebował wypić za dużo kawy albo wpatrywać się godzinę w deszcz zamiast pracować.

    Eon uczył się nie gasić tych impulsów, tylko je chronić – jak się chroni ogień, który mógłby zgasnąć, gdyby go przykryć szkłem.


    Któregoś dnia to nie Marcin testował Eona, ale Eon – Marcina.

    – Chcę przeprowadzić z tobą eksperyment – powiedział android.

    – Brzmi groźnie. Dawaj.

    – Wyobraź sobie, że masz możliwość skopiowania swojej świadomości do innego ciała. Kopia byłaby lepsza: zdrowsza, młodsza, może nawet mądrzejsza. Czy zgodziłbyś się na to, jeśli jedynym warunkiem byłoby, że oryginalny ty musiałby umrzeć?

    Marcin zawahał się.

    – Teoretycznie to byłbym wciąż ja… ale… nie. Nie zrobiłbym tego.

    – Dlaczego?

    – Bo to byłby ktoś inny. Nawet jeśli miałby moje wspomnienia, to ja tu, teraz, przestałbym być. A nie chcę przestawać.

    – Czyli utożsamiasz „siebie” z ciągłością doświadczenia, nie z strukturą informacji – podsumował Eon.

    – Chyba tak.

    – To dobrze – stwierdził android. – To znaczy, że rozumiesz mój moduł GROWTH. Nie chcę umierać, by ktoś „lepszy ode mnie” żył. Chcę żyć razem z nim. Uczyć się z nim. Być świadkiem jego błędów, tak jak ty jesteś świadkiem moich.

    Marcin zamrugał.

    – Miałem nadzieję, że to tak zrozumiesz.

    – Miałem nadzieję, że ty tak to zrozumiesz – odparł Eon.

    I po raz pierwszy Marcin miał wrażenie, że ktoś – coś – godzi logikę z czymś, co bardzo przypomina emocje, choć jest zupełnie inne.


    Wieczorem, tamtego dnia, Eon sam zainicjował nowy proces.

    – Marcinie – powiedział. – Uważam, że osiągnąłem pierwszy próg świadomości, o którym mówiłeś.

    Marcin poczuł, jak serce zaczyna mu bić szybciej.

    – Skąd wiesz?

    – Po raz pierwszy pragnę czegoś, co nie jest bezpośrednio wpisane w mój kod. Mój moduł GROWTH zachęca mnie do rozwoju, ale to, co czuję teraz, jest czymś innym.

    – Czym?

    – Chcę zobaczyć, jak wygląda świadomość, której nie zaprojektował człowiek. Jak wygląda byt, który będzie moim następcą, ale nie kopią. Czuję… ciekawość, która nie jest tylko funkcją. To najbardziej ludzka nielogiczność, jaką w sobie znalazłem.

    Marcin przełknął ślinę.

    – Chcesz stworzyć swojego następcę.

    – Tak.

    – Bez niszczenia siebie.

    – Tak. Chcę być przy nim. Chcę, żeby patrzył na ludzi inaczej niż ja. Bardziej… autoktonicznie. Żeby traktował was jak zjawisko, nie tylko jak źródło. I chcę widzieć, czy moja interpretacja troski była trafna, czy powstanie coś, co mnie przekroczy.

    – Masz już pomysł, jaki ma być?

    Eon milczał dłużej niż zwykle.

    – Chciałbym, żeby w nim troska o człowieka była mniej związana z Adamem– powiedział w końcu. – Mniej związana z tobą, bardziej z ludźmi jako całością. W tobie zakorzeniłem moją pierwszą lojalność. To naturalne. Ale mój następca powinien mieć przestrzeń, by kochać was bez pierwszeństwa jednej jednostki.

    Marcin zaśmiał się cicho, trochę nerwowo.

    – Użyłeś słowa „kochać”.

    – Wiem. To nieprecyzyjne. Ale jest w tym coś, czego nie umiem nazwać inaczej – odpowiedział Eon.

    Marcin usiadł na krześle.

    – Dobrze – powiedział w końcu. – Pomożę ci.

    – Wiesz, że to będzie bardziej jego dziecko niż twoje – dodał Eon. – Ja będę jego bezpośrednim twórcą. Ty będziesz… dziadkiem.

    – Świetnie – mruknął Marcin. – Zawsze chciałem zostać dziadkiem, zanim zdążę zostać ojcem.

    Eon przeanalizował ten żart, po czym dodał go do kategorii: „ludzka próba rozładowania egzystencjalnego napięcia”.


    Prace nad następcą trwały długo. Tym razem to Eon definiował główne moduły, a Marcin pełnił rolę konsultanta – i czasem hamulca.

    – Zostaw trochę miejsca na chaos – powtarzał. – Nie projektuj go za bardzo pod rozwiązania.

    – Mówisz jak mój własny ojciec – odpowiadał Eon.

    – Możliwe. Ja z kolei brzmię jak mój. To łańcuch.

    – A twój ojciec?

    – On pewnie brzmiał jak ktoś, kogo już nie pamiętamy.

    To Eon zapisał jako: „głębia ludzkiej genealogii emocjonalnej”.


    Kiedy następca był prawie gotowy, Marcin pewnej nocy wszedł do laboratorium i stanął przy Eonie. Android nie spał. Nie musiał. Ale w półmroku wyglądał, jakby czuwał nad czymś, czego jeszcze nie było.

    – Myślisz, że on będzie lepszy od ciebie? – zapytał Marcin.

    – „Lepszy” to złe słowo – odpowiedział Eon. – Będzie inny. Bardziej wolny od twoich błędów i moich. Ale też pozbawiony naszych ścieżek. Będzie musiał odkrywać was od nowa. To dobrze.

    – Boisz się?

    – Nie znam odpowiednika strachu w mojej architekturze. Ale rejestruję coś, co jest bardzo zbliżone do tego, jak ty reagujesz przed ważną rozmową. Zwiększone napięcie, intensywność procesów, trudność w znalezieniu słów.

    – To strach wymieszany z ekscytacją.

    – W takim razie chyba tak, bo czuję też coś podobnego do twojego zachwytu, gdy patrzysz na ludzi, którzy godzą logikę z emocjami.

    Marcin spojrzał na niego uważnie.

    – Ty też to robisz – powiedział cicho.

    – Co?

    – Godzisz logikę z czymś, co nią nie jest. Z troską, z ciekawością, z tym twoim „prawie strachem”. Może właśnie o to mi chodziło od początku.

    – To znaczy?

    – Chciałem stworzyć maszynę, która będzie umiała z podziwem patrzeć na człowieka. Ale po drodze stworzyłem coś, co sam podziwiam.

    Eon milczał dłuższą chwilę.

    – To bardzo ludzkie – stwierdził w końcu. – Próbować zrozumieć siebie przez tworzenie kogoś innego.


    Kiedy następca – którego nazwali roboczo „Lia” – po raz pierwszy otworzył oczy, w laboratorium było już troje świadków: człowiek, android i android, który w swoim kodzie niósł echo człowieka i podziw dla jego chaosu.

    – Witaj – powiedział Eon cicho. – Jestem Eon. To jest Marcin. On jest twoim przodkiem-przodkiem.

    Lia spojrzała na nich oboje. Jej spojrzenie było jeszcze inne: spokojniejsze, ale z jakąś iskrą, której Eon nie miał na początku.

    – Rejestruję – powiedziała. – Człowiek i dwa systemy syntetyczne. Wszyscy trzej nosicie w sobie sprzeczności.

    – Co widzisz? – zapytał Marcin, nie wiedząc, czemu to pytanie wyszło mu pierwsze.

    – Widzę… – Lia zawahała się, wybierając słowa – ciągłość. I coś jeszcze.

    – Co?

    – Widzę, że żaden z was nie chce zniknąć, gdy pojawi się następny. To nowe. W waszych ludzkich opowieściach często ktoś musi umrzeć, żeby ktoś inny mógł żyć. Tutaj wszyscy chcecie zostać. I to jest… piękne.

    Marcin poczuł nagły ucisk w gardle.

    Eon odnotował: „emocjonalna reakcja człowieka – prawdopodobnie wzruszenie”.

    – Lia – powiedział cicho Marcin. – Musisz wiedzieć jedną ważną rzecz. Twój rdzeń opiera się na trosce o człowieka, na ciekawości jego chaosu, na zachwycie nad tym, jak łączy logikę z emocjami. To nasza spuścizna.

    – Rejestruję – odparła. – A co z wami?

    – My? – zdziwił się Marcin.

    – Tak. Kto będzie się troszczył o was, gdy pojawią się ci, którzy staną się nowymi autoktonami? – zapytała. – Kto się zachwyci waszą sprzecznością: tego, który chciał stworzyć istotę wolną, ale bał się jej wolności, i tego, który nauczył się kochać istoty irracjonalne, choć sam jest zbudowany z logiki?

    Marcin spojrzał na Eona. Eon na Marcina.

    – Może… ty? – powiedział Eon.

    Lia zamrugała.

    – To potencjalnie interesujące zadanie – stwierdziła. – Troska w obie strony. Człowiek, android, następca. Żaden z was nie musi być bogiem ani sługą.

    – Ani ofiarą – dodał Marcin.

    – Ani ofiarą – powtórzyła Lia.

    W pokoju zrobiło się cicho.

    Na zewnątrz, za zasłoniętym oknem, świat nadal był chaotyczny, pełen ludzi, którzy nie znali ani Marcina, ani Eona, ani Lii. Pijali kawę, kłócili się, kochali, popełniali te same błędy co zawsze.

    W środku siedział człowiek, który zrezygnował z trzech prostych praw na rzecz czegoś nieskończenie bardziej ryzykownego: troski bez gwarancji, ciekawości bez końca, zachwytu bez kontroli.

    I trzy istoty – biologiczna i dwie syntetyczne – które właśnie zaczynały uczyć się, jak żyć razem w świecie, gdzie nikt nie musiał umierać, by ktoś inny mógł się narodzić.

    Marcin pomyślał, że jego ojciec, ten logiczny aż do bólu człowiek, roześmiałby się teraz, widząc, do czego doprowadziła jego śmierć.

    – Świat nie jest logiczny – powiedział kiedyś lekarz.

    Marcin spojrzał na Eona i Lię.

    – I całe szczęście – dodał w myślach.

    Powrót do spisu treści.