|
Может случиться и то, что среди вопросов найдутся такие, которые «выявят принципиальное НЕПОНИМАНИЕ» «китайской комнатой» всех текстов, и это мне видится возможным, потому что Джону Сёрлу и его респондентам казалось странным (на мой взгляд), что так называемая «strong AI», или гипотеза о возможности прохождения машиной теста Тьюринга, решается в рамках «тайны китайской комнаты» отрицательно: машина, которую изображает комната, ничего не понимает и, несмотря на это, отвечает на вопросы так, как будто бы она их понимала.
Ключ к ЭТОМУ находится в «пакете вопросов». <…> Так как вопросы «направленно сжаты» текстом рассказа, то тем самым они предопределены, то есть они вероятностно продетерминированы в рамках такого «fuzzy set», такого размытого собрания, которое имеет направляющую стрелу, уже a priori ориентирующую его на «такое-сякое понимание». <…> Так пусть Сёрл, вместо того чтобы описывать мысленные эксперименты, уничтожающие ложный миф об умных компьютерах, позволит закрыть себя в комнате, пусть ему всунут этот шрифт и этот рассказ, всего лишь скромно ограниченный стихами «Wlazі kotek na płotek i mruga, krótka to piosenka nie długa», пусть спросят (по-китайски, на карточках) о виде плетня, о породе кота и о том, имеет ли какое-то особое значение, когда кот моргает, или скорее всего он моргает просто так, а по-польски только для рифмы. И пусть Сёрл ответит более или менее дельно. Тексты такого рода, не хвастаясь, я могу производить возами, и из этого абсолютно ничего не следует. <…> Люди, занимающиеся АI, пока только узнали, что для игры в вопросы и ответы нужно создавать тщательные ситуационные РАМКИ («frames»), но также известно из опыта сегодняшнего дня, что можно спросить кухарку о том, как она делает поджарку, но скорее всего не следует ожидать её осмысленного ответа на вопрос, почему в поршневом двигателе сжигания новейших автомобилей нет двух клапанов (всасывающего и выхлопного), а только четыре или хотя бы три. Она ничего не скажет, потому что понятия не имеет, и это с «пониманием» или с «непониманием» грамматики, идиоматики, синтаксиса языка не имеет ничего общего. Чтобы понимать высказывание, следует ухватить его смысл и его смысловой радиус, и last but not least его специфическую предметную ориентацию.
Китайская комната Сёрла, как и моя puzzle, ничего не предопределяет, ничего не обещает, ничего не предетерминирует, ничего не «решает» раз и навсегда. <…> на особом месте в моей библиотеке находится книга 1924 года издания, написанная немецким ДОКТОРОМ (но не медицины), который математически, химически и физически доказал в ней полную невозможность космических полетов и даже получения ракетой ускорения, способного преодолеть гравитацию, чтобы она смогла выйти на околоземную орбиту. Это очень хорошее доказательство, «проведённое исключительно формальными средствами». О нём стоит помнить оппонентам искусственного интеллекта. Основным упреком против моего сведения «тайны китайской комнаты» к головоломке типа puzzle является чрезмерное упрощение дела. <…> Ранее Сёрл несколько вскружил голову тем, кому он описывал свой эксперимент, что это «китайщина» и т. п. Сейчас видно, что в принципе возможно при чисто формальном подходе (тоже складываются куски по их ФОРМЕ, а не по их смыслу) проведение эксперимента. Однако вместе с тем видно, на этот раз уже очень явно, что китаец в «английской комнате» действительно НИЧЕГО не понимает. Итак, КТО же понимает тексты в ОБОИХ случаях, в случае Сёрла и в моём? Конечно, тот, кто весь эксперимент — как первый, так и второй — выдумал, составил и запрограммировал. «Понимание» не находится ни в какой из комнат, ни в той «китайской» с англичанином, ни в «английской» с китайцем, <…> существенным является исключительно поведение складывающего, который и здесь и там ничего не понимает из текста, и не важно, видит ли он текст и не понимает его, не зная китайского, или же не видит текст (китаец), потому что если бы он его видел, ТО ТОЖЕ БЫ НЕ понял, если уж он должен соединять формы, а не символы. Короче говоря, эксперимент вводит нас в заблуждение, при этом Хофштадтер в своей книге[1] ТОЖЕ так считает, но зря усложнил объяснения. Не в том загвоздка, что китайское письмо несравненно труднее было бы приспосабливать к китайскому (НАПИСАННЫЕ буквы для невежды могут восприниматься графически как очень разные, например, латинская буква «f» формально тождественна «F»), но загвоздка в том, что работа всегда асемантично формальна. Следовательно, «понимание» в самих текстах не участвует вообще и a fortiori нет и речи о присутствующем «сознании». Возможен ли искусственный интеллект, покажет будущее. С обсуждаемым «reductio ad absurdum» это будущее НЕ ИМЕЕТ НИЧЕГО ОБЩЕГО.
|
|
Możliwe jest też zresztą, żeby wśród pytań znalazły się takie, które „zdemaskują zasadnicze NIEROZUMIENIE” wszystkich tekstów przez „chiński pokój”, co o tyle widzę jako dozwolone, ponieważ Johnowi Searle i jego respondentom dziwacznie (w mych oczach) wydawało się, że tak zwana strong AI, czyli hipoteza możliwości pokonania testu Turinga przez maszynę, zostaje w ramach „tajemnicy chińskiego pokoju” załatwiona negatywnie: maszyna, jaką udaje pokój, nic nie rozumie, a mimo to odpowiada na pytania tak, jakby je rozumiała.
Klucz do TEJ sprawy tkwi w „pakiecie pytań”. <…> Ponieważ pytania są „ściskane kierunkowo” przez tekst opowieści, są zarazem dawane przedustawnie, czyli są probabilistycznie predeterminowane w obrębie takiego fuzzy set, takiego rozmytego zbioru, który posiada strzałkę kierunkową orientującą go już a priori w „jakie takie rozumienie”. <…> Niechże Searle, zamiast opisywać myślowe eksperymenty, miażdżące rzekomy mit o rozumnych komputerach, da się zamknąć w pokoju, niech mu tam wsuną ten „skrypt” i tę opowieść, ograniczoną nader skromnie do wersów „Wlazł kotek na płotek i mruga, krótka to piosenka nie długa” i niech spytają (po chińsku, na kartkach) o rodzaj plota, o rasę kota, o to, czy jak kot mruga, to ma jakieś specjalne znaczenie, czy raczej mruga ot tak sobie, a po polsku tylko dla rymu. I niech Searle odpowie jako tako dorzecznie. <…> Ludzie parający się AI na razie dowiedzieli się, że trzeba dla gry w pytania i odpowiedzi stwarzać porządne RAMY (frames) sytuacyjne, ale wiadomo też z doświadczeń dnia powszedniego, że można pytać kucharkę o to, jak zasmażkę robi, ale się raczej nie należy spodziewać jej sensownej odpowiedzi na pytanie, dlaczego w tłokowych silnikach spalinowych nowszych modeli aut nie ma dwu zaworów (ssania i wydechu), tylko cztery albo chociażby trzy. Nie powie nic, bo pojęcia nie ma, co z „rozumieniem” albo i „nierozumieniem” gramatyki, idiomatyki, składni języka nie ma nic wspólnego. Żeby rozumieć wypowiedź, należy uchwycić jej sens i jej zakres znaczeniowy i last but not least jej desygnatywną orientacją specyficzną.
Chiński pokój Searle’a, podobnie jak mój puzzle, niczego nie przesądza, niczego nie klaruje, niczego nie predeterminuje, niczego nie „załatwia” raz na zawsze. <…> w wyróżnionym miejscu mej biblioteki znajduje się pochodząca z roku 1924 książka niemieckiego DOKTORA (ale nie medycyny), który matematycznie, chemicznie i fizycznie udowodnił w niej zupełną niemożliwość lotów kosmicznych, a nawet uzyskania przez rakietę napędu zdolnego pokonać grawitację, żeby mogła wejść na orbitę okołoziemską. Jest to bardzo ładny dowód „przeprowadzony ściśle formalnymi środkami”. Warto o nim pamiętać adwersarzom Sztucznej Inteligencji. Głównym zarzutem przeciw memu sprowadzeniu „tajemnicy chińskiego pokoju” do składanki typu puzzle byłoby nadmierne uproszczenie sprawy. <…> Uprzednio Searle zamącił co nieco w głowach tym, którym swój eksperyment opisał, bo to „chińszczyzna” itp. Teraz widać, że istotnie możliwe jest przy postępowaniu czysto formalnym (też składa się kawałki wedle ich FORMY, a nie ich sensu) dokonanie eksperymentu. Wszelako jednocześnie widać, tym razem już bardzo wyraźnie, że Chińczyk w „angielskim pokoju” istotnie NIC nie rozumie. Więc KTO rozumie teksty w OBU wypadkach, Searle’a i moim? Oczywiście ten, kto cały eksperyment — tak pierwszy, jak drugi — wymyślił, ułożył i zaprogramował. „Rozumienie” nie znajduje się w żadnym pokoju, ani w tym „chińskim” z Anglikiem, ani w tym „angielskim” z Chińczykiem, <…> istotne jest wyłącznie postępowanie układającego, który tu i tam nic nie rozumie z tekstu i nie jest ważne, czy widzi tekst, ale nie rozumie go, nie znając chińskiego, czy raczej tekstu nie widzi (Chińczyk), ponieważ jakby go widział, TOBY TEŻ NIE ZROZUMIAŁ, skoro ma zespalać formy, a nie symbole. Eksperyment, mówiąc krótko, wyprowadza nas w pole, przy czym Hofstadter w swej książce TEŻ tak uważa, ale niepotrzebnie wyjaśnienia skomplikował. Nie w tym sęk, że chińskie pismo do chińskiego pisma byłoby nieporównanie trudniej dopasować (litery PISANE mogą się dla ignoranta różnić jak graficznie bardzo odmienne litery łacińskie — czy „f” jest tożsame formalnie z „F”?), ale w tym sęk, że robota jest zawsze asemantycznie formalna. Tak zatem „rozumienie” w samych testach nie uczestniczy w ogóle i a fortiori nie ma mowy o obecnej „świadomości”. Czy inteligencja sztuczna jest możliwa, pokaże przyszłość. Z omawianą reductio ad absurdum ta przyszłość NIE MA NIC WSPÓLNEGO.
|