Chiński pokój a test Turinga. John Searle o „myśleniu” maszyn

Piotr Bylica

Alan Turing twierdził, że jeśli maszyna odpowiadająca na pytania oszuka człowieka, przekonując, że też jest człowiekiem, to powinniśmy na tej podstawie uznać, że ona myśli. Piszemy o tym w tekście Kłopotliwe założenia testu Turinga na temat myślenia. Popularna dziś teza głosi, że myślenie ludzkie nie jest niczym więcej niż tym, z czym mamy do czynienia w przypadku funkcjonowania komputerów. Poniższy tekst prezentuje krytykę tego podejścia, jaką przedstawił John Searle, uznany amerykański ateistyczny filozof, który specjalizuje się w filozofii umysłu.

 

Searle argumentuje, że choć maszyna może odpowiadać tak samo na zadane pytania jak człowiek, to od człowieka różni ją to, że nie rozumie ani pytań, ani odpowiedzi. Searle odwołuje się więc do rozróżnienia między syntaktyką a semantyką, by wykazać, że myślenie człowieka jest odmienne niż to, z czym mamy do czynienia w przypadku maszyn cyfrowych.

 

Emergentyzm, a nie dualizm

Jeśli chodzi stosunek umysłu do ciała, John Searle znany jest jako zwolennik stanowiska określanego mianem emergentyzmu. Searle głosi, że stany mentalne są stanami mózgu wyższego rzędu. Uznaje więc stany mentalne za coś realnego, zdolnego do przyczynowego oddziaływania na człowieka, czyli inaczej niż eliminatywiści i behawioryści inspirowani neopozytywistyczną teorią poznania, o których piszemy w tekście Kłopotliwe założenia testu Turinga na temat myślenia. Uważali oni, że terminy i twierdzenia, które nie dają się odnieść do tego, co można zaobserwować zmysłowo, są bezsensowne. Ponieważ stany umysłowe, stany wewnętrzne i tym podobne nie są w ten sposób obserwowalne, to twierdzenia o nich uznawano za pozbawione wartości poznawczej. Jeśli człowiek jako istota racjonalna powinien budować swój obraz świata na twierdzeniach sensownych, to nie ma w nim miejsca na twierdzenia głoszące istnienie takich rzeczy, które oddajemy za pomocą słów „umysł”, „myśli”, „stany wewnętrzne” i tym podobne, przynajmniej w powszechnie przyjętym rozumieniu tych terminów. Według niektórych ujęć w ramach tego podejścia przyjmowano, że myślenie nie jest niczym innym niż sposobem określonego zachowania. Na takim założeniu zdaje się opierać test Turinga, w którym na podstawie zachowania maszyny (w formie odpowiedzi na pytania) ocenia się, czy ona myśli, czy nie. Nie bierze się przy tym pod uwagę tego, czy ma ona stany mentalne, takie jak żywienie przekonania, doznania, pragnienia…

Searle uznaje, że stany mentalne są czymś realnym i nie redukują się do zachowania człowieka ani nawet do stanów mózgu, to znaczy, że opisów stanów mentalnych nie da się przetłumaczyć na opisy, które ograniczają się jedynie do wyrażania tego, jaki proces zaszedł w jakiej części mózgu. Searle nie jest jednak dualistą uznającym istnienie niematerialnych substancji duchowych zdolnych do funkcjonowania niezależnie od mózgu. Zjawiska psychiczne uznaje za własności mózgu, tyle że własności wyższego rzędu niż własności fizyczne, takie jak kształt czy waga. Jak pisze: „zjawiska psychiczne są po prostu cechą mózgu”1John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.. Searle jest więc naturalistą, ale nie redukcjonistą, który uważałby, że stany mentalne redukują się do stanów mózgu lub zachowania człowieka, ani eliminatywistą, który by utrzymywał, że należy zrezygnować z mówienia o stanach mentalnych lub w ogóle z uznawania ich istnienia. (Więcej na temat emergentyzmu Searle’a można przeczytać w tekście Naturalizm w naukach o świadomości).

 

O analogii między działaniem ludzkiego mózgu i cyfrowego komputera

Searle, choć jest naturalistą i nie wierzy, by myślenie człowieka było funkcją niematerialnej duszy, krytykuje podejście, które uznaje, że nasze myślenie nie różni się zasadniczo od tego, co robią komputery. Podejście to charakteryzuje następująco:

 

W filozofii, psychologii i teorii sztucznej inteligencji przeważa stanowisko podkreślające analogie pomiędzy działaniem ludzkiego mózgu i cyfrowego komputera. Zgodnie ze skrajną wersją tego stanowiska, mózg jest rodzajem komputera, zaś umysł rodzajem komputerowego programu. Można ten pogląd streścić – określam go mianem „silnego podejścia w teorii sztucznej inteligencji” lub „silną SI (w języku angielskim AI)” – mówiąc, że umysł jest tym dla mózgu, czym program dla komputera.

Konsekwencją takiego poglądu jest uznanie, że nie ma niczego zasadniczo biologicznego w ludzkim umyśle. Mózg staje się tu jedną z mnóstwa maszyn liczących, w których mogą być realizowane programy stwarzające ludzką inteligencję. Z tego punktu widzenia każdy system fizyczny odpowiednio zaprogramowany, mający odpowiednie wejścia i wyjścia, będzie obdarzony umysłem dokładnie takim samym jak umysł Czytelnika i mój umysł. Zatem, jeśli zrobilibyśmy komputer z puszek po piwie, napędzanych wiatrakami, jeśli zaprogramowalibyśmy go odpowiednio, byłby on obdarzony umysłem. Problem nie polega na tym, że w świetle naszej wiedzy taki system mógłby myśleć i odczuwać, raczej na tym, że musiałby on myśleć i czuć, gdyż jedynym warunkiem myślenia i odczuwania jest zainstalowanie odpowiedniego programu. Większość zwolenników tego stanowiska sądzi, że nie stworzyliśmy jeszcze programów będących umysłami. Panuje jednak między nimi zgoda, że jest to tylko kwestia czasu, aż do chwili, gdy specjaliści od maszyn cyfrowych i sztucznej inteligencji stworzą odpowiednie urządzenia „hardware’owe” i programy, które będą ekwiwalentami ludzkich mózgów i umysłów. Wtedy powstaną sztuczne mózgi i umysły całkowicie porównywalne z ludzkimi mózgami i umysłami2John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995..

 

 

Czy jednak rzeczywiście odpowiednie urządzenia „hardware’owe” i programy mogą być ekwiwalentami naszych mózgów i umysłów? Według Searle’a nie mogą ze względu na to, że komputery są maszynami, których działanie opiera się na samej syntaktyce, a myślenie człowieka wiąże się jeszcze z semantyką.

O co chodzi? Na lekcjach języka polskiego poznajemy między innymi składnię właściwą dla naszego języka. Poprawność danego zdania można oceniać na podstawie samej jego budowy, czyli tego, czy odpowiada ono regułom składniowym. Jeśli ktoś powie „Zośka lubi chodźmy”, to widzimy, że zdanie to składa się ze źle dobranych słów, bo po czasowniku „lubi” powinien znaleźć się rzeczownik. Zawsze gdy tylko po słowie „lubi” będziemy wstawiać dowolny odpowiednio odmieniony rzeczownik, otrzymamy poprawne składniowo zdanie. Można powiedzieć, że będziemy postępować zgodnie z instrukcją języka polskiego. Ogólna nauka, która mówi o tym, jak łączyć ze sobą znaki słowne, aby uzyskać składniowo poprawnie zbudowane wyrażenia złożone, nazywa się syntaktyką. Reguły syntaktyczne to reguły łączenia znaków ze sobą. Tym, co robią komputery, jest właśnie łączenie ze sobą znaków zgodnie z instrukcjami zawartymi w programie. Czym innym jest semantyka. Zdania „Zośka lubi psy” i „Zośka lubi książki” są identyczne pod względem budowy, czyli syntaktyki. Stwierdzają jednak różne rzeczy i żeby wiedzieć, czy są prawdziwe, trzeba rozumieć, co one mówią. To znaczy, że należy znać znaczenie słów (znaków), jakie występują w tych zdaniach. Ogólna nauka o znaczeniach znaków nazywa się semantyką. Normalnie w rozmowach między ludźmi ważny jest aspekty semantyczny i syntaktyczny.

Według Searle’a właśnie posiadanie treści przez nasze myśli jest czymś, co definiuje nasze umysły, a jednocześnie ten semantyczny aspekt naszych myśli wykracza poza czysto syntaktyczne operacje, do których sprowadza się działanie komputerów:

 

Mieć umysł to coś więcej niż realizować formalne czy syntaktyczne operacje. Nasze stany umysłowe, na mocy definicji, maja zawsze jakąś treść. Jeśli myślę o Kansas City, życzyłbym sobie wypić szklankę zimnego piwa bądź zastanawiam się, czy będzie spadek notowań giełdowych, w każdym wypadku mój stan umysłowy, niezależnie od tego, jakie formalne właściwości mu przypiszemy, ma jakieś psychiczne treści. To znaczy, nawet jeśli moje myśli są ciągiem symboli, musi być w myśleniu coś więcej niż abstrakcyjne symbole, gdyż ciągi symboli same w sobie nie maja żadnego znaczenia. Jeżeli myśl jest zawsze myślą o czymś, przeto dany ciąg symboli musi mieć jakieś znaczenie, by stał się myślą. Mówiąc krótko, umysł ma coś więcej niż syntaktykę, ma semantykę. Powód, dla którego komputerowy program nie może być umysłem, jest prosty, komputerowy program ma cechy syntaktyczne, umysły mają coś więcej niż syntaktyka. Umysły są semantyczne w tym sensie, że poza strukturą formalną mają jeszcze jakieś treści3John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995 (wyróżnienia autora)..

 

Nasze myśli są zawsze myślami o czymś, a nie tylko znakami uporządkowanymi zgodnie z odpowiednimi regułami syntaktycznymi.

 

Chiński pokój

By zilustrować różnicę między myśleniem człowieka a tym, co robi komputer, Searle prezentuje eksperyment myślowy znany jako chiński pokój:

 

Wyobraźmy sobie, że zespół programistów napisał program, który jest w stanie symulować rozumienie języka chińskiego. Zatem, na przykład, jeśli komputerowi zadaje się pytanie w tym języku, może porównać je ze swoją pamięcią lub bazą danych i wyprodukować w języku chińskim odpowiedź na zadane pytanie. Załóżmy, dla celów dyskusji, że odpowiedzi te są tak dobre jak odpowiedzi osoby, której ojczystym językiem jest język chiński. Czy w takiej sytuacji komputer rozumie język chiński, czy rozumie go dokładnie tak, jak użytkownicy języka chińskiego rozumieją swój ojczysty język? Wyobraźmy sobie teraz, że ktoś z nas jest zamknięty w pokoju i że w pokoju tym jest szereg koszy wypełnionych znakami z języka chińskiego. Załóżmy, że osoba ta, podobnie jak autor myślowego eksperymentu, nie zna języka chińskiego, otrzymała jednak napisaną w jej ojczystym języku książkę reguł manipulowania znakami języka chińskiego. Reguły te opisują używanie symboli w sposób czysto formalny, opisują manipulowanie nimi w sposób syntaktyczny, nie semantyczny. Mogą mieć postać: „Wybierz ten znak z podwójnym zakrętasem z kosza numer jeden i połóż go za znakiem z dwoma zawijasami z kosza numer dwa”, przyjmijmy teraz, że w pokoju pojawiają się jakieś nowe symbole, a osoba w nim siedząca otrzymuje instrukcje, jakie chińskie symbole ma wysłać z pokoju w odpowiedzi na te, które się pojawiły. Załóżmy, że siedzący w pokoju nie wie, iż wysyłane przez ludzi z zewnątrz do pokoju symbole nazywane są przez nich pytaniami, zaś symbole, które siedzący w pokoju wysyła na zewnątrz, nazywane są odpowiedziami na pytania. Przyjmijmy poza tym, że programiści napisali na tyle dobry program, zaś siedząca w pokoju osoba jest do tego stopnia dobra w manipulowaniu symbolami, że jej odpowiedzi są nieodróżnialne od odpowiedzi osoby faktycznie znającej język chiński. Zatem jakaś osoba zamknięta jest w pokoju, w którym wybiera symbole chińskie i wysyła je w odpowiedzi na inne pojawiające się w pokoju chińskie symbole. W sytuacji, jaką tu opisałem, nie ma możliwości, by w wyniku takiej manipulacji formalnie zdefiniowanymi symbolami nauczyć się języka chińskiego4John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995..

 

Mamy więc sytuację, w której ktoś otrzymuje na swoje pytania poprawne składniowo odpowiedzi od osoby, która dostarcza mu odpowiednich znaków zgodnie z otrzymaną instrukcją, sama jednak tych znaków nie rozumiejąc. Jest to analogia z testem Turinga, gdzie na podstawie otrzymywanych odpowiedzi na swoje pytania pytający oceniał, czy ma do czynienia z człowiekiem, czy z maszyną. Turing uważał, że wystarczy, iż na podstawie odpowiedzi maszyny człowiek uzna, że ma do czynienia z człowiekiem, by stwierdzić, że maszyna myśli. Milcząco definiował więc myślenie zgodnie z materialistycznym stanowiskiem behawioryzmu jako zdolność do inteligentnego zachowania się. Searle w swoim eksperymencie pokazuje, że myślenie, z jakim mamy do czynienia w przypadku człowieka, różni się zasadniczo od tego, co jest w stanie zrobić komputer. Komputer nie rozumie, tak jak człowiek w chińskim pokoju nie rozumie chińskich znaków, które otrzymuje i przekazuje jako odpowiedź:

 

Meritum mojego myślowego eksperymentu jest następujące: realizując taki formalny komputerowy program, z punktu widzenia obserwatora z zewnątrz, zachowujemy się dokładnie tak, jak byśmy rozumieli język chiński, jednocześnie jednak nie znamy ani jednego słowa z tego języka naturalnego. Jeśli wykonanie komputerowego programu symulującego rozumienie języka chińskiego nie jest wystarczające dla nas, byśmy ten język rozumieli, nie może być wystarczające także dla maszyny liczącej. Wyjaśnienie tego stanu rzeczy jest całkiem proste. Jeśli w takiej sytuacji człowiek nie rozumie chińskiego, to inne „komputery” go nie rozumieją, gdyż żaden komputer cyfrowy nie może, dzięki temu, że zrealizuje program, uzyskać zdolności, której nie uzyskuje człowiek. To wszystko, co ma komputer i co my mamy, siedząc w chińskim pokoju, jest jedynie formalnym programem pozwalającym na manipulowanie5John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995 (wyróżnienia autora)..

 

Jest dla nas jasne, że człowiek nieznający chińskiego, który jedynie operował znakami zgodnie z instrukcją, nie rozumiał znaków, które przekazywał. Tak też możemy więc powiedzieć o komputerze, który przecież robi dokładnie to samo, on również nie rozumie, nie ma dostępu do znaczenia znaków, którymi operuje. Jedynie wykonuje instrukcje:

 

Powtórzmy to – komputer opanowuje syntaktykę, nie zaś semantykę. Cały morał naszej historii o chińskim pokoju przypomina nam to, co już wiemy. Rozumienie języka – a z pewnością i posiadanie wszelkich innych stanów umysłowych – wymaga czegoś więcej niż garści symboli formalnych. Konieczna tu jest jeszcze interpretacja lub znaczenie związane z tymi symbolami. Komputer cyfrowy zaś, na mocy definicji, nie może mieć niczego więcej poza formalnymi symbolami, gdyż operacje komputerowe, jak to już powiedziano, definiuje się w terminach maszynowej zdolności do wykonywania programów. Programy natomiast mają czysto formalną charakterystykę, to znaczy nie mają semantycznych treści. Możemy się przekonać o sile tego argumentu, jeśli porównamy sytuację, w której otrzymujemy pytania i udzielamy odpowiedzi w naszym ojczystym języku, z sytuacją, w której pytają nas i odpowiadamy w języku, w którym nie znamy znaczenia ani jednego słowa. Wyobraźmy sobie, że jesteśmy w chińskim pokoju, gdzie zadają nam w naszym ojczystym języku pytania dotyczące takich spraw, jak nasz wiek czy fakty z naszej biografii, i że odpowiadamy na te pytania. Jaka jest różnica pomiędzy posługiwaniem się językiem chińskim a posługiwaniem się językiem polskim? Otóż, jeśli ktoś nie zna języka chińskiego, a zna język polski, różnica jest oczywista. Rozumiemy pytania zadane po polsku, bo wyrażone są one symbolami, których znaczenie jest nam znane. Analogicznie, odpowiadając po polsku, produkujemy symbole, które mają dla nas znaczenie. W przypadku języka chińskiego zaś nic takiego nie występuje. W przypadku chińskiego posługujemy się po prostu formalnymi symbolami, zgodnie z komputerowym programem, jednak nie potrafimy przypisać tym elementom żadnego znaczenia6John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995..

 

Zakończenie

W czasach smartfonów i sztucznej inteligencji pytanie o to, co odróżnia człowieka od komputera, wiąże się z podejrzeniem, czy nie jesteśmy czasem jedynie bardzo złożonymi maszynami. Szczególnie jeśli odrzuci się tradycyjny pogląd, że myślenie jest funkcją niematerialnej duszy. Gdyby samo zachowanie maszyn miało być podstawą tego, by przypisać im własność myślenia takiego jak nasze, to pojawia się pytanie, czy nie powinniśmy nadać im także praw, które przysługują człowiekowi. Czy nie powinniśmy przypisywać im godności na wzór godności człowieka, która przysługiwałaby im od momentu uruchomienia? Może nie należałoby ich wyłączać, kiedy chcemy, wyrzucać na śmietnik albo ich obrażać. Brak dobrego kryterium odróżniającego człowieka od maszyny może prowadzić do takich problemów, szczególnie jeśli nie da się odróżnić myślenia ludzkiego od tego, co robi maszyna. Niektórzy wskazują, że czymś specyficznie ludzkim są charakterystyczne dla człowieka subiektywne stany świadomościowe, doznania. W tekście Jak to jest być kosmitą albo… nietoperzem? Thomas Nagel o niepowodzeniach naturalizmu w redukowaniu i eliminowaniu stanów wewnętrznych prezentujemy odwołującą się do istnienia subiektywnej sfery doznań argumentację tego ateistycznego filozofa przeciwko założeniom, na których opierało się twierdzenie Turinga o myśleniu maszyn. Powszechnie uznaje się, że maszyny nie czują, że nie mają emocji. Searle zwraca uwagę na inny aspekt problemu, który został pominięty w teście Turinga. Komputery nie rozumieją, nie mają dostępu do znaczeń. Gdy rozmawiamy z botem, może on odpowiadać poprawnie pod względem składniowym na nasze pytania i nawet z sensem, ale bot realizuje tylko instrukcję, nie rozumie tego, co mówi czy pisze.

Searle uważa, że kategoria emergencji wystarczy, by wyjaśnić myślenie człowieka jako niezwiązane z niematerialną duszą. W innym tekście (Naturalizm w naukach o świadomości) prezentujemy podaną przez niego analogię relacji między stanami mentalnymi a mózgiem oraz relacji zachodzącej między wodą i cząsteczkami H2O. Nagel, też naturalista, uważa, że ani ta, ani inne proponowane analogie (w tym analogie komputerowe) nie pozwalają na adekwatne wyjaśnienie tego, czym jest umysł człowieka i że naturalizm ma w tej sprawie jeszcze wiele do zrobienia (patrz Jak to jest być kosmitą albo… nietoperzem? Thomas Nagel o niepowodzeniach naturalizmu w redukowaniu i eliminowaniu stanów wewnętrznych). Widać więc, że problem naturalistycznego wyjaśnienia, czym jest umysł, jaka jest jego relacja względem ciała, wciąż istnieje. Naturalizacja umysłu i świadomości, czyli ich wyjaśnienie bez odwołania się do niematerialnej duszy, to raczej wciąż problem niż rozwiązanie.

 

Mogą zainteresować Cię również:

Jak to jest być kosmitą albo… nietoperzem? Thomas Nagel o niepowodzeniach naturalizmu w redukowaniu i eliminowaniu stanów wewnętrznych

Kłopotliwe założenia testu Turinga na temat myślenia

Świadomość – trudna sprawa dla naturalizmu

 

Piotr Bylica

Przypisy:

  • 1 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.
  • 2 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.
  • 3 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995 (wyróżnienia autora).
  • 4 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.
  • 5 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995 (wyróżnienia autora).
  • 6 John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.

Nota bibliograficzna:

John R. Searle, Umysł, mózg i nauka, tłum. Jerzy Bobryk, Wydawnictwo Naukowe PWN, Warszawa 1995.