Chinese kamerargument

in Wikipedia, die vrye ensiklopedie

Die Chinese kamerargument is van mening dat 'n digitale rekenaar wat 'n program uitvoer, nie 'n "verstand", "begrip" of "bewussyn" kan hê nie, ongeag hoe intelligent of mensagtig die program die rekenaar kan laat optree. Die argument is aangebied deur filosoof John Searle in sy referaat "Minds, Brains, and Programs", gepubliseer in Behavioral and Brain Sciences in 1980. Soortgelyke argumente is aangebied deur Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) en Ned Block (1978). Searle se weergawe is wyd bespreek in die jare daarna.[1] Die middelpunt van Searle se argument is 'n gedagte-eksperiment bekend as die Chinese kamer.[2]

Die argument is gerig teen die filosofiese posisies van funksionalisme en rekenaarlisme[3] wat argumenteer dat die verstand beskou kan word as 'n inligtingsverwerkingstelsel wat op formele simbole werk, en dat simulasie van 'n gegewe geestestoestand voldoende is vir die teenwoordigheid daarvan. Spesifiek, die argument is bedoel om 'n posisie te weerlê wat Searle die sterk KI-hipotese noem: "Die toepaslik geprogrammeerde rekenaar met die regte insette en uitsette sal daardeur 'n verstand hê in presies dieselfde sin wat mense verstand het."

Alhoewel dit oorspronklik aangebied is in reaksie op die stellings van kunsmatige intelligensie (KI) navorsers, is dit nie 'n argument teen die doelwitte van hoofstroom KI navorsing nie, want dit toon nie 'n beperking in die hoeveelheid "intelligente" gedrag wat 'n masjien kan vertoon nie.[4] Die argument is slegs van toepassing op digitale rekenaars wat programme gebruik en is nie van toepassing op masjiene in die algemeen nie.[5]

Chinese kamer gedagte-eksperiment[wysig | wysig bron]

Searle se gedagte-eksperiment begin met hierdie hipotetiese uitgangspunt: veronderstel dat kunsmatige intelligensie-navorsing daarin geslaag het om 'n rekenaar te konstrueer wat optree asof dit Chinees verstaan. Dit neem Chinese karakters as invoer en, deur die instruksies van 'n rekenaarprogram te volg, produseer ander Chinese karakters, wat dit as uitvoer aanbied. Gestel, sê Searle, dat hierdie rekenaar sy taak so oortuigend uitvoer dat dit die Turingtoets gemaklik slaag: dit oortuig 'n menslike Chinese spreker dat die program self 'n lewendige Chinese spreker is. Op al die vrae wat die persoon vra, gee dit gepaste antwoorde, sodat enige Chinese spreker oortuig sal wees dat hulle met 'n ander Chineessprekende mens praat.

Die vraag wat Searle wil beantwoord is die volgende: "verstaan" die masjien letterlik Chinees? Of simuleer dit bloot die vermoë om Chinees te verstaan?[6][7] Searle noem die eerste posisie "sterk KI" en laasgenoemde "swak KI".[8]

Searle neem dan aan dat hy in 'n geslote kamer is en 'n boek het met 'n Engelse weergawe van die rekenaarprogram, saam met voldoende papiere, potlode, uitveërs en liasseerkaste. Searle kon Chinese karakters deur 'n gleuf in die deur ontvang, dit volgens die program se instruksies verwerk, en Chinese karakters as uitvoer produseer, sonder om enige van die inhoud van die Chinese skrif te verstaan. As die rekenaar die Turingtoets op hierdie manier geslaag het, volg dit, sê Searle, dat hy dit ook sou doen, bloot deur die program met die hand te laat loop.

Searle beweer dat daar geen wesenlike verskil is tussen die rolle van die rekenaar en homself in die eksperiment nie. Elkeen volg eenvoudig 'n program, stap-vir-stap, wat gedrag produseer wat dan deur die gebruiker geïnterpreteer word as 'n demonstrasie van intelligente gesprek. Searle self sou egter nie die gesprek kon verstaan nie. ("Ek praat nie 'n woord Chinees nie ",[9] wys hy daarop.) Daarom, voer hy aan, volg dit dat die rekenaar ook nie die gesprek sou kon verstaan nie.

Searle voer aan dat, sonder "begrip" (of "opsetlikheid"), ons nie kan beskryf wat die masjien doen as "dink" nie en aangesien dit nie dink nie, het dit nie 'n "verstand" in iets soos die normale sin van die woord. Daarom kom hy tot die gevolgtrekking dat die "sterk KI"-hipotese vals is.

Verwysings[wysig | wysig bron]

  1. Harnad 2001, p. 1.
  2. Roberts 2016.
  3. Searle 1992, p. 44.
  4. Russell & Norvig 2021, p. 986.
  5. Searle 1980, p. 11.
  6. Searle 1980, p. 2.
  7. Searle skryf dat "volgens Sterk KI, die korrekte simulasie werklik 'n verstand is. Volgens Swak KI is die korrekte simulasie 'n model van die verstand."
  8. Searle 2004, p. 66.
  9. Searle 1980, p. 3.