Strona główna

Wzbudzić ducha w maszynie Stefan Sokołowski Państwowa Wyższa Szkoła Zawodowa w Elblągu


Pobieranie 59.91 Kb.
Data18.06.2016
Rozmiar59.91 Kb.

Wzbudzić ducha w maszynie




Stefan Sokołowski

Państwowa Wyższa Szkoła Zawodowa w Elblągu

Zbigniew Walczyk

Państwowa Wyższa Szkoła Zawodowa w Elblągu


W miarę, jak świat dostępny ludzkiemu doświadczeniu rośnie, sam człowiek maleje. Nie ma już zapotrzebowania na mocarzy wyrywających dęby i walących góry -- zastąpiliśmy ich maszynami, z których siłą żaden człowiek nie może konkurować. Ziemia, dom ludzi, straciła ,,specjalne'' miejsce we Wszechświecie i stała się jedną z planet krążących wokół niezbyt wielkiej gwiazdy na obrzeżach jednej z wielu galaktyk. Nawet na samej Ziemi człowiek utracił swoją wyjątkowość i stał się zaledwie jednym ze ssaków o sukcesie reprodukcyjnym większym niż pozostałe naczelne, ale mniejszym niż, powiedzmy, szczur wędrowny. Przemienił ziemski ekosystem w stopniu znacznym, ale nie tak dramatycznym jak uczyniły to sinice, które ponad dwa miliardy lat temu zatruły ziemską atmosferę tlenem1.

Obrona poglądu o ludzkiej wyjątkowości koncentruje się obecnie na kilku ostatnich bastionach, które mają związek z ludzką świadomością, inteligencją, umysłem, wolą -- ogólnie mówiąc: z niematerialnym wnętrzem człowieka. Obrona ta nie jest łatwa i nie ma pewności, że się powiedzie.



Zakres monopolu ludzkiego umysłu


Do niedawna człowiek nie miał żadnej konkurencji we wszelkich czynnościach wymagających wysiłku umysłu. Wiek XX dokonał wyłomu w tym stanie rzeczy.

Jeszcze na początku wieku XX długie kolumny liczb w bankach podliczali rachmistrze posiłkując się najwyżej liczydłami. Rozpowszechnienie prostych mechanicznych maszyn liczących spowodowało, że zawód rachmistrza przestał istnieć. A w wyniku rozpowszechnienia maszyn do pisania dzieci już nie uczą się kaligrafii. Ładne odręczne pisanie nie jest ludzkości potrzebne.

Przez kilka wieków maszyny produkowały rynkową masówkę a przedmioty cenne i wyjątkowe wykonywano ręcznie. Również to uległo częściowej zmianie w wieku XX. Maszyny są precyzyjniejsze i bardziej niezawodne niż ludzka ręka; informacja, że dany samochód lub komputer zostały wykonane całkowicie ręcznie, nie byłaby już dobrą reklamą.

Zarezerwowana dla człowieka pozostaje nadal wszelka t.zw. ,,działalność twórcza''. Jak dotąd maszyny nie tworzą samodzielnie dzieł sztuki, nie prowadzą badań naukowych, nie wymyślają dowcipów i nie zajmują się polityką. I nie cierpią na depresje.



Baśnie o sztucznych ludziach


Najgłośniejsze ataki na pogląd o wyjątkowości natury ludzkiej przyszły ze strony pisarzy fantastyki naukowej. To oni wprowadzili do świadomości publicznej obraz „robotów”, które będą myślały tak samo jak człowiek, ale szybciej i skuteczniej. W związku z tą ich właściwością, zależnie od konkretnego utworu SF,

  • albo będą toczyć z ludźmi wojnę,

  • albo wyprą ich z zajmowanej przez nich władczej pozycji nad światem,

  • albo ulegną, gdy w ostatniej chwili okaże się, że oprócz myślenia jest w człowieku jeszcze jakaś ważna cecha, którą komputery nie dysponują2.

Czy detronizacja ludzkości przez takie inteligentne maszyny jest istotnie możliwa?

Poważnym problemem przy odpowiadaniu na takie pytania jest fakt, że nadal wcale nie wiemy, jak działa ludzki umysł. Natura abhorret a vacuo3, więc pustkę w wiedzy staramy się wypełnić czymś na pierwszy rzut oka podobnym a dobrze znanym. Wielu ludzi jest przekonanych, że w głowach nosimy komputery organiczne różniące się od tych, które sami wytwarzamy, raczej parametrami technicznymi i oprogramowaniem niż zasadą budowy.

Jeżeli ta nowa odmiana XIX-wiecznego mechanicyzmu jest słuszna, to wynika z niej, że inteligencja, świadomość, poczucie humoru, myślenie twórcze itp. dają się po prostu zaprogramować. Z drugiej strony w takim przypadku istnieją zasadnicze ograniczenia na moc ludzkiej myśli; ograniczenia wynikające z negatywnych twierdzeń o maszynach Turinga (patrz niżej). Jeśli istnieje coś zasadniczo odróżniającego nasze mózgi od komputerów, to nasze myślenie być może nie podlega takim negatywnym twierdzeniom. Ale pozostaje otwartym problemem, na czym miałyby polegać te różnice.

Czego maszyny nie mogą


Istnieje cała seria twierdzeń o nierozstrzygalności, wskazujących na zasadnicze „niemożności” komputerów. Dokładniej: twierdzenia te dotyczą maszyn Turinga4. Jednak na ogół uważa się (jest to t.zw. teza Churcha-Turinga), że wszystkie „sensowne” modele obliczeń mogą być wiernie symulowane za pomocą takich maszyn. Wobec tego, jeśli ta teza jest słuszna, to żadne urządzenie liczące nie może zrobić niczego niewykonalnego dla maszyn Turinga.

Nierozstrzygalny jest przede wszystkim problem stopu maszyn Turinga, ale z niego wynikają dalsze nierozstrzygalności. Nierozstrzygalny na przykład jest problem, czy dany program spełnia daną specyfikację5. Oznacza to, że żaden komputer nigdy nie będzie w stanie bezbłędnie odpowiadać na pytanie o poprawność dowolnego programu; w szczególności wszelkie metody automatycznego programowania, bez udziału programisty, zawsze będą załamywać się na pewnych problemach.

Funkcji obliczalnych, czyli dających się obliczać na jakiejś maszynie Turinga, jest alef 0 a wszystkich funkcji na liczbach całkowitych jest continuum. Oznacza to, że prawie wszystkie funkcje są nieobliczalne; nie możemy więc oczekiwać od komputera wyliczania ich wartości.

Dla niektórych problemów rozstrzygalnych (ew. dla funkcji obliczalnych) można znaleźć minimalną liczbę kroków, jakie musi wykonać maszyna Turinga dla ich rozstrzygnięcia (ew. obliczenia). Jeśli ta liczba kroków jest eksponencjalna względem wielkości problemu6, to problem uważa się za praktycznie zbyt trudny dla komputerów. Na tym poglądzie opiera się m.in. zaufanie do niepodrabialności podpisu elektronicznego -- z rozważań teoretycznych wynika, że jego skuteczne sfałszowanie wymaga zbyt wielkiej pracy maszyny Turinga, żeby kiedykolwiek leżało w możliwościach komputerów.

„Twierdzenia o niemożności” zostały udowodnione ze wszystkimi rygorami matematycznymi, nie ma więc nadziei, że kiedykolwiek przestaną obowiązywać. Jeśli teza Churcha-Turinga jest prawdziwa, to możliwości komputerów są ograniczone na zawsze. Ale jeśli teza Churcha-Turinga jest prawdziwa, to możliwości ludzkiego umysłu są równie ograniczone.

Czy można więcej i szybciej?


Dla problemu granic obliczalności istotne jest więc pytanie o słuszność tezy Churcha-Turinga. Czy można liczyć więcej i szybciej niż przy pomocy maszyny Turinga?

Wydaje się, że szybciej można. Rozważania dotyczące minimalnego czasu obliczeń maszyny Turinga nie stosują się do komputerów analogowych, w których problem modeluje się za pomocą pewnego układu fizycznego i wyniku się nie oblicza tylko się go „mierzy”. Zaawansowanym typem maszyny analogowej jest komputer kwantowy7. Nic nie wskazuje na to, żeby był on w stanie obliczyć coś, czego maszyny Turinga nie potrafią, jednak w pewnych sytuacjach jest w stanie obliczyć coś w znacznie krótszym czasie. Istnieje na przykład algorytm dla komputera kwantowego potrafiący złamać podpis elektroniczny w krótkim czasie. Tylko że samych komputerów kwantowych jeszcze nie ma.

Istnieją również poglądy, w myśl których człowiek nie podlega ograniczeniom maszyn Turinga, a więc teza Churcha-Turinga jest nieprawdziwa. Najgłośniejszą argumentację tego rodzaju przedstawił brytyjski matematyk i fizyk Penrose8. Przekonuje on, że komputer (maszyna Turinga) z powodów zasadniczych nie może wznieść się w rozumowaniu na tak samo wysoki poziom abstrakcji, co człowiek-matematyk. W szczególności nie może podołać dowodom przekątniowym dotyczącym jego samego; tak więc komputer nie byłby w stanie sprawdzić poprawności dowodu twierdzenia Gödla. Obala to hipotezę, że rozumowania człowieka-matematyka można wiernie symulować na maszynie Turinga.

Ale skoro działanie mózgu ludzkiego opiera się na innej zasadzie niż działanie komputera, to nasuwa się pytanie, co to jest za zasada. Penrose uważa, że w naszym myśleniu wykorzystujemy nieoznaczoności kwantowe w podobny, choć daleko bardziej doskonały sposób niż komputery kwantowe. Jednak ta część jego rozważań jest niezbyt jasna.

W rozważaniu hipotetycznych „wyłomów” w tezie Churcha-Turinga należałoby jeszcze wspomnieć o możliwości przyspieszenia obliczeń w wyniku relatywistycznej dylatacji czasu. Wyobraźmy sobie, że każemy maszynie Turinga wykonywać obliczenie, które może się nie zakończyć, po czym udajemy się w stronę najbliższej czarnej dziury. Z ogólnej teorii względności wynika, że zanim dotrzemy do horyzontu zdarzeń tej dziury, w pozostawionej w domu maszynie Turinga ,,skończy się czas''. Oznacza to, że możemy stwierdzić doświadczalnie w skończonym czasie, czy maszyna działała nieskończenie długo. Oczywiście nie jest to pomysł na praktyczne wykonywanie obliczeń, ale pewnego rodzaju memento: prawdziwość twierdzeń o obliczalności i rozstrzygalności wydaje się zależeć od fizycznych właściwości naszej czasoprzestrzeni9.

A w praktyce...


Wyżej wspomniane rozważania matematyczne należy traktować tak, jak wszelkie rozważania matematyczne. Wynikające z nich wyniki negatywne obowiązują w idealnym świecie, w którym zależy nam na dokładnych obliczeniach i rozstrzygnięciach. Jednak w praktyce zadowalamy się rozwiązaniami przybliżonymi, o ile są „wystarczająco dobre”. W tej sprawie komputery mają sporo do powiedzenia.

Podstawowe twierdzenie o niemożności, nierozstrzygalność problemu stopu maszyny Turinga, orzeka że nie może istnieć program komputerowy, który zawsze bezbłędnie przewidzi zatrzymywanie dowolnej maszyny Turinga na dowolnych danych. Nie ma



  • twierdzenia o nieistnieniu programu bezbłędnie przewidującego zatrzymywanie maszyn o liczbie stanów mniejszych niż milion; ani

  • twierdzenia o nieistnieniu programu bezbłędnie przewidującego zatrzymywanie maszyn na danych długości mniejszej niż milion; ani

  • twierdzenia o nieistnieniu programu prawie bezbłędnie (np. z prawdopodobieństwem 0.999999) przewidującego zatrzymywanie maszyn Turinga.

Te wersje programu, z praktycznego punktu widzenia równoważne oryginalnej, nie są zabronione żadnym twierdzeniem o nierozstrzygalności i spokojnie mogą istnieć.

Podobnie wykluczone jest (z powodu zbyt dużej ilości potrzebnej pracy), żeby komputer zawsze znajdował najlepszy ruch w szachach. A jednak komputery wygrywają w szachy z ludźmi, bo do tego nie jest potrzebne znalezienie ruchu najlepszego, wystarczy ruch lepszy niż przeciwnika-człowieka. Algorytmy stosowane w programach szachowych zastępują wyczerpujące poszukiwanie optimum przez heurezę czyli niezbyt ścisłe rozumowanie pozwalające na odcięcie całych obszarów poszukiwań, kiedy jest powód, żeby przypuszczać, że w tych obszarach nie ma optimum. Jeśli ono tam jednak jest, czego metody stosowane przez te algorytmy wykluczyć nie są w stanie, to. . . trudno, zostanie zastosowany ruch nieoptymalny. I takie podejście wystarcza, żeby pokonać szachistów-ludzi.



Jeśli zgodzimy się na przybliżenia, niedoskonałości, zgodności statystyczne a nie dokładne, to wszelkie twierdzenia o nierozstrzygalności i nieobliczalności tracą swoją zabraniającą moc. I być może jednak nosimy w głowach organiczne komputery różniące się od sporządzanych przez nas tylko programem; i być może jednak kiedyś zaprogramujemy komputer tak, że będzie wykazywał wszelkie cechy samoświadomości, inteligencji, umysłu i woli.



Poprzeczka


Żeby móc w sposób odpowiedzialny wygłaszać sądy o niższości lub braku niższości komputera w stosunku do człowieka, należy najpierw określić obiektywnie sprawdzalne kryteria, po których spełnieniu przyznamy, że w maszynie dostrzegliśmy ducha. Niestety, z tymi kryteriami jest problem. Wszyscy wiemy, albo przynajmniej wydaje nam się, że wiemy, do chwili, gdy ktoś zacznie domagać się od nas definicji, że mamy samoświadomość, inteligencję i wolę. Jesteśmy skłonni przyznawać podobne własności innym ludziom bez żadnego obiektywnego powodu, po prostu dlatego, że uważamy ich za podobnych do nas. Ten brak obiektywnych kryteriów powoduje, że ciągle wahamy się, czy podobne własności przysługują świetnie nam znanym domowym zwierzętom. Ponieważ nie są one do nas aż tak podobne jak inni ludzie, więc nie jesteśmy już pewni prawomocności takiej ekstrapolacji.

Pierwszym obiektywnym kryterium inteligencji, dającym się (w zasadzie) zastosować do maszyny, jest t.zw. test Turinga10. Jego idea wywodzi się z tezy, że jeśli jakieś urządzenie potrafi zachowywać się jak inteligentne, to jest inteligentne. A więc uznamy za inteligenty komputer, który będzie w stanie tak odpowiadać na pytania, że będziemy myśleć, że rozmawiamy z człowiekiem. Ta definicja inteligencji była wielokrotnie krytykowana z rozmaitych powodów. Jednym z głównych zgłaszanych do niej zastrzeżeń było, że utożsamia z inteligencją umiejętność czysto syntaktycznego przerabiania pytań na odpowiedzi. Jednak dotąd, po ponad pół wieku starań, żadnemu programowi komputerowemu nie udało się nawet zbliżyć do takiego przerabiania pytań w odpowiedzi, żeby przejść test Turinga. W dodatku nie zaproponowano żadnej innej definicji inteligencji prowadzącej do podobnie obiektywnego testu.

Jednak pewne intelektualne czynności człowieka były tradycyjnie uważane za świadectwo wysokiej inteligencji. Typowym przykładem była umiejętność gry w szachy. Fakt, że obecnie komputery grają w szachy lepiej niż ludzie, nie spowodował jednak uznania ich za inteligentne. Raczej zdetronizował znaczenie „królewskiej gry” jako probierza inteligencji. Podobnie się działo z innymi osiągnięciami sztucznej inteligencji: kiedy tylko program komputerowy przewyższał człowieka w jakiejś czynności tradycyjnie przypisywanej ludzkiej inteligencji, natychmiast zmieniano ustawienie poprzeczki i wyciągano wniosek, że skoro komputer to potrafi, to nie ma w tym nic inteligentnego. Oprócz szachów dotyczy to t.zw. systemów doradczych, rozpoznawania obrazów, robotów przemysłowych itp. W rezultacie nie wiemy już wcale, co to jest inteligencja.

Duch tajemniczy


Jest zdecydowanie za wcześnie na odpowiedź na pytanie o możliwość wzbudzenia ducha w maszynie. Ale przy obecnym stanie wiedzy jest gorzej: może się zdarzyć, że ten duch zostanie wzbudzony, ale my tego nie zauważymy, bo nie wiemy, co właściwie mielibyśmy zauważyć. Ze zwierzętami domowymi znamy się dobrze i od dawna a i tak nie jesteśmy pewni, czy dysponują one przymiotami ducha, jakimi chcielibyśmy obdarzyć komputer.

Nie wiemy nic o możliwości wzbudzenia ducha w maszynie; nie wiemy o duchu w zwierzętach innych niż człowiek; nie wiemy, czy obiekty zbiorowe, takie jak społeczeństwo lub galaktyka mogą mieć własną świadomość niezależną od świadomości ich części składowych.

Czy więc powinniśmy martwić się, że tak niewiele wiemy? Czy raczej cieszyć się, że mamy tak wspaniałe pole do badań?
Przegląd problemów i osiągnięć

Rozważania czysto teoretyczne mają jednakże odniesienia do działań praktycznych, szczególnie w części dotyczącej rozwoju technologii i techniki, co szczególnie wyraźnie widać na przykładach związanych z rewolucyjnym postępem w dziedzinach przetwarzania i przesyłu informacji, robotyki, technologii nowych materiałów. W dalszej części podamy kilka myśli, które stały się przyczynkami czy punktami wyjścia do szerszej dyskusji panelowej zamykającej konferencję. Jeślibyśmy chcieli raz jeszcze pokrótce przedstawić cel naszych rozważań przewrotnie sformułowany w tytule, to byśmy stwierdzili, że w pewnym sensie chodzi o możliwości czy nawet granice rozwoju technologicznego, gdzie zacierałaby się granica pomiędzy człowiekiem a urządzeniami (maszynami) przez niego stworzonymi, włączając do tego sytuacje, kiedy człowiek wzmacnia swoje możliwości fizyczne i mentalne owymi urządzeniami.

Potocznie utożsamiane pojęcia czy stwierdzenia takie jak: duch w maszynie, uduchowiona maszyna, inteligentna maszyna, „myślące” rzeczy nieożywione, mózg elektronowy itd. stają się coraz częściej przedmiotem dyskusji, chociaż takie i podobne frapujące człowieka problemy są obecne w jego kulturze prawie od zawsze (filozofia, wierzenia, religie, nauka, paranauka, futurologia, ezoteryka, sztuka, science fiction, fantasy).

Wg Kartezjusza człowiek pomyślany został przez Stwórcę jako duch w maszynie, która „jako uczyniona rękoma Boga jest bez porównania lepiej obmyślana i zawiera w sobie ruchy bardziej godne podziwienia niż jakakolwiek stworzona przez człowieka”.

Dzisiaj takie przeświadczenie nie może nie budzić pytań, podobnie zresztą jak w czasach, gdy zostało sformułowane.

Wydaje się, że podlegamy dwóm procesom:



  • postępowi technologicznemu, jako procesowi choćby w pewnym stopniu przez człowieka sterowanym,

  • metabolizmowi, fizjologii, ewolucji (rozumianej jako zmiana organizmów żywych) jako procesom naturalnym i niezależnym (żywiołowym).

Natychmiast rodzi się pytanie o to, czy te dwa rodzaje procesów od jakiejś chwili zaczynają się przenikać (człowiek jest coraz bardziej świadomy swego otoczenia i swego w nim istnienia, następnie „rozszyfrowuje siebie” i wreszcie „poprawia siebie”).

I dalej pytamy: Czy taki porządek rzeczy może leżeć wśród praw rozwoju człowieka? Jeżeli tak, to dokąd ten rozwój zmierza?

Wydaje się, że można tutaj wskazać dwa punkty widzenia i pytania rodzące się:


  • maszyna staje się coraz bardziej człowiekiem. Czy kiedykolwiek może stać się nim w pełni?

  • człowiek staje się coraz bardziej maszyną. Dokąd taki proces może zmierzać?

Mówiąc o duchu w maszynie myślimy najczęściej o „uczłowieczaniu się” (andronizacji) maszyny, czyli o posiadaniu przez nią cech ludzkich, z których jako najistotniejszą należy wymienić tutaj inteligencję.

Spośród wielu zrozumień inteligencji wybierzmy te, które można uznać za klasyczne. A więc za słownikiem Władysława Kopalińskiego:



inteligencja (psych.) -- zdolność rozumienia, kojarzenia; pojętność, bystrość; zdolność znajdowania właściwych, celowych reakcji na nowe zadania i warunki życia, sprawnego zdobywania i wykorzystywania wiedzy.

Ważnym pojęciem występującym w naszych rozważaniach jest pojęcie sztucznej inteligencji.

Za klasykiem Marvinem Minsky:

sztuczna inteligencja -- dziedzina wiedzy zajmująca się modelowaniem systemów wykonujących czynności, przy których człowiek używa inteligencji.

Wróćmy do wcześniej wskazanych punktów widzenia.


Maszyna coraz bardziej człowiekiem

Maszyna obdarzona sztuczną inteligencją nie „musi przejść” pełnego testu Turinga -- wystarczy, że będzie mogła w pewnym zakresie zastąpić człowieka w czynnościach wymagających inteligencji (należy jednak tutaj podchodzić ostrożnie, bo niektóre obiegowo uznane testy na inteligencję człowieka maszyna może przejść lepiej niż on, np. gra w szachy z komputerem).

Coraz częściej w nazwach używane jest określenie, że coś jest inteligentne (oczywiście jako sztucznie inteligentne):


  • inteligentny system ekspercki,

  • inteligentny system diagnostyczny,

  • inteligentny system sterowania, itp., a nawet:

  • inteligentny materiał, inteligentne narty.

Badania nad funkcjonowaniem człowieka w sferze jego działalności intelektualnej (funkcjonowanie mózgu i umysłu) dają coraz lepsze rozeznanie. Stąd mogą płynąć wskazówki do modelowania sztucznych inteligencji (szczególnie trudne jest modelowanie podejmowania decyzji i wnioskowania). Stosuje się różne modele w tym z logiką rozmytą, statystyczne, samouczące się (sieci neuronowe) i inne. Oczywiście nadal istnieją teoretyczne ograniczenia wynikające z rozważań nad maszyną Turinga. Przy okazji rozważań nad istotą poruszonych problemów pojawia się cały szereg dodatkowych pytań takich choćby jak: Czy ma miejsce ewolucja programów komputerowych?
Człowiek coraz bardziej maszyną

W tym przypadku chodzi przede wszystkim o różnego rodzaju „wspomaganie” człowieka. Wydaje się, że można tutaj wydzielić pewne grupy możliwości, a mianowicie wspomaganie przez zastosowanie:



  • elementów biernych (odzież, implanty, protezy bierne),

  • elementów czynnych działających poza świadomością człowieka (rozruszniki, siłowniki, dozowniki, elektrody, sztuczne serce),

  • elementów czynnych sprzężonych z układem nerwowym człowieka (protezy czynne, sztuczne ucho, sztuczne oko, implementy mikroprocesorowe).

O możliwościach zastosowania tej ostatniej grupy zadecydowały niezwykłe możliwości adaptacyjne mózgu człowieka i jego systemu nerwowego.

Na zakończenie należy zwrócić uwagę na to, że powinnyśmy być świadomi z jakiej perspektywy dyskusję prowadzimy, gdyż niezwykle trudno przewidywać zmiany jakościowe rozwoju cywilizacyjnego, jeśli w ogóle jest to możliwe. A to przecież te zmiany właśnie są decydujące. Rozwój nauki powoduje przełomy trudne do przewidzenia.

Obecnie szybko rozwijają się takie nauki jak: fizyka, chemia, biologia. Powstają nowe dyscypliny naukowe:


  • biomechanika (inżynieria biomedyczna),

  • bioeletronika (mechatronika),

  • inżynieria materiałowa (nanotechnologia),

  • inżynieria genetyczna,

  • symulacje komputerowe (w tym światy wirtualne z istotami wirtualnymi – boid, Game of live, Framsticks, Eliza – wirtualny rozmówca).

Przyszłość pozostaje wielką niewiadomą tym bardziej, że dziewiętnastowieczne przeświadczenie o „omnipotencji” nauki doświadczeniami wieku dwudziestego zostało mocno osłabione.

1 Niewiele wiadomo o pierwszym wielkim wymieraniu organizmów w historii życia na Ziemi. Było ono prawdopodobnie spowodowane wyczerpaniem zasobów związków organicznych w oceanach przez ówczesne jednokomórkowce.

Drugi znany kryzys wywołały sinice -- prokariotyczne bakterie asymilujące azot z atmosfery, czerpiące węgiel z dwutlenku węgla za pomocą fotosyntezy i uwalniające wolny tlen do atmosfery. Dały one początek późniejszym chloroplastom roślin zielonych. Dla pierwotnych organizmów jednokomórkowych tlen był gazem trującym. Większość z nich wyginęła z powodu zanieczyszczenia nim atmosfery przez sinice; niektóre przystosowały się i to od nich pochodzi prawie całe dzisiejsze życie na Ziemi.

Na temat archaicznych kryzysów ekologicznych popularnie pisze np. Harrison P. The Third Revolution: Population, Environment, and a Sustainable World, Chapter II, ISBN: 0140146598, National Institute for the Environment, Washington, USA, 1993, http://www.cnie.org/pop/3rev/threebill.htm. O sinicach -- patrz np. Cyanobacteria, Wikipedia, the free encyclopedia, http://en.wikipedia.org/wiki/Cyanobacteria.


2 W niektórych utworach Lema ludzie występują już tylko jako egzotyczna atrakcja zaskakująca roboty swoim pokrętnym sposobem widzenia świata. Patrz np. Lem S. O królewiczu Ferrycym i królewnie Krystalii. Cyberiada, Wydawnictwo Literackie, Kraków 1978.

3 Natura wzdraga się przed pustką (łac.) -- powiedzenie zmiennie przypisywane Arystotelesowi, Kartezjuszowi, Rabalais'emu... a także całości myśli średniowiecznej.

4 Literatura na temat maszyn Turinga i ich własności jest bardzo obfita. Przykładowy artykuł: Turing machine,  Wikipedia, the free encyclopedia, http://en.wikipedia.org/wiki/Turing_machine.

5 Żeby temu stwierdzeniu nadać ścisłą treść, należy

  • ustalić, jaki język programowania mamy na myśli; w tym przypadku wystarczy dowolny język z przypisaniami całkowitych wartości zmiennym, z testami na równość wartości całkowitych i z while;

  • zdefiniować, co rozumiemy przez specyfikację i jak programy je spełniają; w tym przypadku wystarczy częściowa poprawność i formuły false i true.

Wszystko, co jest bardziej złożone niż te minimalne wymagania, będzie tym bardziej prowadziło do nierozstrzygalności.

6 To znaczy, że dla danych wielkości n liczba kroków wyniesie co najmniej 2n. Załóżmy, że jakiś problem ma takie właśnie wymagania obliczeniowe i że na współczesnych komputerach potrafimy go rozwiązać dla danych wielkości k. Dla jak dużych danych będziemy mogli go rozwiązać w wyniku tysiąckrotnego zwiększenia prędkości komputerów? Łatwo jest policzyć, że tylko dla danych wielkości k+10. Dlatego właśnie problemy o takiej trudności uważa się za niedostępne dla praktycznych obliczeń.

Znane są przykłady jeszcze trudniejszych problemów biorących się z życia. Na przykład problem znalezienia najlepszego ruchu w uogólnionych szachach lub w go na planszy o rozmiarach n×n jest EXPTIME-zupełny; to znaczy nie można ustalić z góry takiego k, żeby wystarczało 2nk kroków.



Jest wiele literatury o problemach trudnych; w szczególności o problemach NP-zupełnych. Proste omówienie można znaleźć na przykład w Cook S. The P versus NP Problem, Millennium Problems, Clay Mathematics Institute, 2000,

http://www.claymath.org/millennium/P_vs_NP/Official_Problem_Description.pdf. Wprowadzenie do problemów EXPTIME-zupełnych można znaleźć np. w EXPTIME, Wikipedia, the free encyclopedia, http://en.wikipedia.org/wiki/EXPTIME.

7 Zob. np. Gershenfeld N., Chuang I.L. Quantum Computing with Molecules, Scientific American, 1998, http://www.media.mit.edu/physics/publications/papers/98.06.sciam/0698gershenfeld.html.

8 Penrose R. Cienie umysłu, ISBN 83-7150-526-4, Zysk i S-ka Wydawnictwo, Poznań 2000.

9 Niestety nie potrafię podać żadnego źródła tego pomysłu. Wydaje mi się, że istnieje on wyłącznie w folklorze informatyków-teoretyków.

10 Zob. np.: Oppy G., Dowe D. The Turing Test, Stanford Encyclopedia of Philosophy, 2005, http://plato.stanford.edu/entries/turing-test/; lub Saygin A.P. The Turing Test Page, 2003, http://www.cogsci.ucsd.edu/~asaygin/tt/ttest.html.





©snauka.pl 2016
wyślij wiadomość