G.J.C. Lokhorst. Connectionisme en cognitie. Thauma, 4 (15): 40-47, April 1988.
De cognitieve wetenschap zoals die vanaf de jaren zestig is bedreven is inmiddels zo ingeburgerd geraakt dat ze de benaming "klassieke" cognitieve wetenschap heeft gekregen. Deze wetenschap heeft zich ten doel gesteld de "functionele architectuur" van de menselijke cognitie in kaart te brengen. Ze probeert de menselijke geest te ontrafelen in verscheidene functionele modules, na te gaan hoe deze modules interageren, wetmatigheden en regelmatigheden op te sporen, enzovoort. Het resultaat is een "geografie van de geest", bestaande uit stroomdiagrammen en "regels" of "wetten", die het menselijke leren, denken, waarnemen, spreken, handelen en vergeten op een systematischer manier beschrijven dan ze zich in het dagelijks leven aan ons voordoen. Soms, maar niet vaak, zijn de modellen zo gedetailleerd uitgewerkt dat ze kunnen worden omgezet in computerprogramma's en men kan controleren of ze werken. Voorbeelden van deze benadering zijn onder andere allerlei taal-, leer- en waarnemingsmodellen uit de cognitieve psychologie, analyses van het menselijk vermogen puzzels op te lossen [1], en Dennetts cognitieve theorie van het bewustzijn [2].
De klassieke cognitieve wetenschap heeft allerlei interessante inzichten opgeleverd, maar kan toch nooit meer dan een eerste stap in een wetenschap van de menselijke cognitie zijn. Haar tekortkomingen zijn velerlei.
In de eerste plaats geeft ze niet veel meer dan een nette, gesystematiseerde herbeschrijving van cognitieve verschijnselen. Door te classificeren en structuur aan te brengen kunnen hun onderlinge relaties economischer, eenvoudiger en duidelijker worden beschreven dan eerst mogelijk was, maar er wordt geen verklaring van de verschijnselen gegeven. Hoe slagen gezonde mensen erin om grammaticale zinnen te produceren? Wat is de precieze rol van het centrum van Broca in de hersenen daarbij, en hoe is het mogelijk dat een infarct in dit centrum voldoende is om dat vermogen te laten verdwijnen? Waarom praten mensen wel en dieren niet? De hele cognitieve psycholinguïstiek kan er niets over zeggen.
In de tweede plaats heeft de cognitieve wetenschap de pretentie verklaringen te geven op een niveau dat lager ligt dan dat van gehele individuen, terwijl ze in feite niets meer doet dan beschrijvingen die in eerste instantie gelden voor gehele mensen toepassen op delen van die mensen. Mensen nemen waar, herkennen, leren, vergelijken en vergeten; in deze modellen worden precies dezelfde intentionele beschrijvingen gebruikt om aan te geven wat er in die mensen gebeurt. Er zouden "informatiestromen" bestaan tussen functionele submodules en er zouden "symbolen met een representatieve inhoud" en "zinnen in een taal van het denken" (die altijd verdacht veel op gewoon Engels lijkt) heen en weer worden geschoven: allemaal begrippen die in de eerste plaats van toepassing zijn op mensen, niet op delen van mensen.[3] Sommigen hebben er zelfs geen bezwaar tegen om de functionele, infrapersoonlijke psychologische subeenheden maar meteen "homunculi" te noemen, die waarnemen, herkennen, leren, vergelijken en vergeten.[4] Zo zijn we weer terug bij het beginpunt en weten we nog steeds niet hoe waarnemen, leren, vergelijken en vergeten in hun werk gaan. Daarvoor is een beschrijving in andere termen nodig.
In de derde plaats zijn er vrijwel geen criteria om concurrerende modellen van elkaar te onderscheiden, en hun adequaatheid te vergelijken. Het enige criterium op grond waarvan een cognitief model kan worden afgewezen is de onmogelijkheid een werkende computerimplementatie te geven. Maar is een computer- implementatie voor beide modellen mogelijk, dan is er geen verder criterium voorhanden om aan één van beide de voorkeur te geven.
Eén van de weinigen die criteria hebben opgesteld die in zulke gevallen uitkomst zouden moeten bieden, is Pylyshyn.[5] Hij suggereert bijvoorbeeld om te kijken naar de complexiteit van modellen. Men kan aannemen dat complexere modellen langzamer worden uitgevoerd dan simpele, en op grond van gemeten reactietijden kan dan een keuze tussen verschillende modellen worden gemaakt. Of men kan bekijken welke functionele modules in modellen voorkomen, en nagaan of de onderverdelingen corresponderen met empirisch waargenomen selectieve functie-uitvalsverschijnselen. Maar dit kan natuurlijk nooit een betrouwbare methode zijn, omdat deze kwesties volstrekt afhankelijk zijn van de implementatie in mensen. Men kan er nooit een antwoord op krijgen als men de cerebrale implementatie in het midden laat, en hier laten de "klassieke" cognitieve onderzoekers zich juist nooit over uit.
Ten vierde is het onduidelijk hoe de relatie van modellen van het klassieke type met de neurofysiologische werkelijkheid er ooit uit zou kunnen zien. Fodor en Pylyshyn [6] vinden dit niet bezwaarlijk. Zoals de geologie een discipline is die autonoom is ten opzichte van de quantummechanica, zo kan de psychologie autonoom zijn ten opzichte van de neurofysiologie. Maar er is één groot verschil: bij geologie en quantummechanica kunnen we het verband dat er tussen de twee disciplines en hun onderzoeksobjecten bestaat heel goed in grote trekken schetsen. De twee gebieden mogen een zekere autonomiteit en een zeker eigen jargon hebben, ze liggen wel degelijk in elkaars verlengde. Bij de klassieke cognitieve wetenschap en een discipline als de neurofysiologie is dat niet het geval. Een ontwikkeling op het laatste gebied zal nooit repercussies hebben op het eerste (en vice versa), terwijl de quantummechanica wel degelijk resultaten kan opleveren die van belang zijn voor de geologie.
Een discontinuïteit zoals die tussen de klassieke cognitieve wetenschap en empirisch-natuurwetenschappelijk onderzoek bestaat komt in de rest van de wetenschap vrijwel niet voor. De cognitieve taalkunde heeft geen theorieën opgeleverd die aansluiten op het empirische onderzoek van het taalvermogen (electrofysiologische studies, afasiologie en dergelijke). Cognitieve leer- en geheugentheorieën gaan niet in op de rol van de amygdala, en ga zo maar door. De sfeer in het onderzoek is een geesteswetenschappelijke of aprioristisch-wiskundige, geen empirisch-natuurwetenschappelijke. Hoe worden de cognitieve modellen geïmplementeerd in de menselijke hersenen, wat zijn de causale voorwaarden voor het hebben van bepaalde cognitieve vaardigheden, enzovoort? De cognitieve psychologie zegt er niets over; de vraag naar het hoe--de wetenschappelijke vraag bij uitstek--blijft onbeantwoord.
De enige fysiologische consequentie van cognitieve theorieën die Fodor en Pylyshyn weleens hebben aangegeven, is dat deze theorieën impliceren dat er "conjunctieve" fysiologische toestanden zijn. Als we geloven dat de zon schijnt en het warm is is onze toestand de "fysiologische conjunctie" van de toestand waarin we verkeren als we geloven dat de zon schijnt en de toestand waarin we verkeren als we geloven dat het warm is.[7] Dat valt dus tegen: een inhoudslozer fysiologische uitspraak is nauwelijks voorstelbaar!
De reactie van de kant van natuurwetenschappelijk georiënteerde onderzoekers op dit soort getheoretiseer is een verregaande ongeïnteresseerdheid. Op hen komen de theorieën als volstrekt wereldvreemd en onwerkelijk over. Ze blijven tezeer aan de oppervlakte steken. Ze geven niets anders dan min of meer gekunstelde herbeschrijvingen van cognitieve verschijnselen in dezelfde termen als waarin deze verschijnselen in de alledaagse spreektaal worden beschreven. Het beschrijvingsniveau is dat van de gewone spreektaal, het intentionele jargon dat wij allen gebruiken, terwijl werkelijke verklaringen juist een kijkje achter de schermen daarvan zouden moeten geven.
Gedurende verscheidene decennia heeft er in de cognitieve wetenschap weinig anders bestaan dan theorieën van de hierboven beschreven soort. Niet dat er geen dissidenten waren. De belangrijkste van hen was de wiskundige Stephen Grossberg.[8] Hij presenteerde psychologische modellen die nauw samenhingen met wat er over de hersenen bekend is. Zijn neuronale netwerken waren wèl echte, niet-circulaire en neuronaal realistische verklaringen van psychologische fenomenen als leren en waarnemen. Ze hadden voorspellende kracht, zowel op psychologisch als op fysiologisch niveau. Grossberg slaagde er zelfs in om enige biochemische consequenties van bepaalde psychologische postulaten af te leiden. Maar zijn werk werd veel te moeilijk gevonden. Het is heel wat gemakkelijker om een stroomdiagram van het bewustzijn à la Dennett te schetsen dan een stelsel van niet-lineaire differentiaalvergelijkingen op te lossen. Ook iedereen in de neurofysiologie die psychologische verschijnselen wilde verklaren in termen van de wiskundige eigenschappen van kleine netwerken van neuronen (enige duizenden of miljoenen cellen) hield zich natuurlijk verre van de cognitieve psychologie en filosofische theorievorming zoals die in zwang was, en stelde zijn eigen modellen voor.[9]
Nu begint het tij echter te keren. In de VS is er al twee, drie jaar een onstuitbare opmars in gang van een nieuwe stroming, het "connectionisme" [10], die precies díe naturalistische verklaringen van cognitieve verschijnselen probeert te geven die we in de klassieke cognitieve wetenschap zo missen. De doorbraak is vooral te danken aan Rumelhart's en McClelland's Parallel Distributed Processing (1986), dat 's werelds meest geciteerde wetenschappelijke tijdschrift, Nature, onlangs betitelde als "one of the publishing events of the year".
De connectivisten hebben de homunculus- en computer-metaforen laten vallen voor de "hersenmetafoor". Zij geven psychologische verklaringen voor verschijnselen als patroonherkenning en het begrijpen van woorden in termen van modellen die een sterk neurofysiologische sfeer ademen, en waarvan het in principe voorstelbaar is dat zij door de hersenen kunnen worden gerealiseerd. Er wordt terdege rekening gehouden met neurofysiologische randvoorwaarden, waarvan de belangrijkste zijn:
1) Neuronen zijn langzaam, miljoenen keren langzamer dan transistoren en chips. Toch voeren mensen de meeste cognitieve vaardigheden waartoe ze in staat zijn binnen een seconde uit. Dat betekent dat een psychologisch model nooit meer dan zo'n honderd stappen mag kennen. (Traditionele modellen hebben vaak miljoenen stappen nodig).
2) De traagheid wordt gecompenseerd door een enorm aantal parallel aan elkaar verlopende processen en een hoge mate van verbondenheid van de eenheden. Per eenheid gebeurt er slechts weinig. De parallellie verklaart dat het brein zeer goed bestand is tegen beschadigingen. Continu sterven er neuronen af, terwijl dat op het cognitieve vlak niet te merken is. (Bij een computer kan het uitvallen van één element fataal zijn.)
3) Er is geen centrale processor, zoals in een conventionele computer. Er bestaat een sterke ruimtelijke distributie van activiteit.
4) Netwerken van zenuwcellen behoeven niet geprogrammeerd te worden. Ze leren uit zichzelf en zijn heel goed in stimulus-generalisatie, patroon-voltooiing, enz. Dit zijn eigenschappen die we tevergeefs zoeken in de traditionele computermodellen van cognitieve processen.
De modellen van de connectionisten bevatten "eenheden" of "knopen" die zich ongeveer hetzelfde gedragen als neuronen. Ze hebben bijvoorbeeld drempelwaarden die bepalen of de eenheid actief wordt bij een gegeven mate van stimulatie. De knopen zijn verbonden door verbindingen die op axonen lijken. Deze oefenen bijvoorbeeld een inhiberende of exciterende werking uit op andere eenheden. In totaal gedragen de netwerken zich ongeveer zoals delen van de hersenen dat doen.
Uitgaande van bovenstaande principes zijn reeds modellen gemaakt met verbluffende eigenschappen. Zo is er een model dat automatisch de verleden tijd van Engelse werkwoorden leert als het voldoende voorbeelden aangeboden heeft gekregen, en dat in het begin ongeveer dezelfde fouten maakt als Engelse kinderen doen. Er is een model dat Engelse woorden leert lezen en deze, na voldoende oefening, correct uitspreekt. En zo kan er nog veel meer worden opgenoemd. We staan nog maar aan het begin, maar de ontwikkeling is al bijzonder veelbelovend. Programmeurs komen er nauwelijks aan te pas. Er hoeven geen regels in de modellen te worden geprogrammeerd (laten we zeggen die van de Chomsky-grammatica), en ze bevatten ook absoluut geen interne representaties van deze regels als het leerproces is voltooid--en toch is het net alsof ze regelgeleid gedrag vertonen.
En dit alles gebeurt dan volgens principes die de hersenen waarschijnlijk ook gebruiken en die zich lenen voor wiskundige bestudering. Het is geen wonder dat neurofysiologen en natuurkundigen nu opeens weer "on speaking terms" met psychologen zijn. De modellen trekken bovendien sterk de aandacht van artificiële intelligentie onderzoekers en computerontwerpers. De eersten zijn gefrappeerd doordat allerlei problemen die zij in dertig jaar niet hebben kunnen oplossen (automatische patroonherkenning en dergelijke) nu opeens wel opgelost zijn. De laatsten zijn geïnteresseerd in de snelheid van modellen, hun ongevoeligheid voor defecten, en hun bezit van een geheugen dat toegankelijk is op grond van de inhoud (in plaats van alleen het adres) van het gezochte. Zij zijn dan ook druk doende met het bouwen van parallel-werkende, "neurale" computers, die een grote verbetering te zien zouden kunnen geven op terreinen als het machinaal lezen van postcodes en het besturen van cruise missiles.
De filosofische reacties op bovenstaande ontwikkelingen zijn verdeeld. Sommige filosofen zijn bijzonder enthousiast [11], bij andere komt het vooralsnog slechts tot een gearticuleerd gemopper.[12]
Dennett is een geval apart.[13] Aan de ene kant probeert hij zich de nieuwe benadering integraal toe te eigenen door te zeggen dat ze voor de oplettende lezer al helemaal in zijn Content and Consciousness (1969) te vinden is. Aan de andere kant probeert hij alles wat hij vroeger als klassieke cognitivist heeft beweerd te redden door te zeggen dat mensen in psychologisch opzicht virtuele Von Neumann machines zijn. Weliswaar zijn het connectionistische machines, maar deze gedragen zich precies zo alsof het klassieke Von Neumann machines zijn, en daarom zijn al Dennetts vroegere uitspraken nog onverminderd van kracht. Het enige argument dat hij voor deze bewering heeft is dat de stroom van het bewustzijn serieel is, net zoals de informatie die door een Von Neumann machine stroomt. De stroom van het bewustzijn is volgens Dennett de "gebruikersillusie" van het connectionistische systeem dat de Von Neumann machine simuleert.
Dennetts poging "to eat his cake and have it too" is doorzichtig en zwak. Vanuit psychologisch opzicht lijkt de mens, met zijn vermogen tot automatische generalisatie, associatie en patroonvoltooiing en zijn op inhoud aanspreekbare geheugen, nauwelijks op een Von Neumann machine. Onvrede met die laatste metafoor heeft juist tot de opkomst van het connectionisme geleid. De serialiteit van het bewustzijn is zowat het enige aspect dat de mens in mentaal opzicht met een Von Neumann computer gemeen heeft; voor de rest lijken er alleen maar verschillen te zijn.
In ieder geval zal het connectionisme de komende jaren nog veel stof in de filosofische wereld doen opwaaien. Het zal zeker leiden tot een hernieuwde bespreking van thema's als de emergentie van het mentale uit het niet-mentale, de mogelijkheid van reductie van het mentale tot het niet-mentale, en de status van psychologische "Gestalten". Nu kunnen immers pas voor het eerst concrete, heldere voorbeelden van deze verschijnselen worden gegeven. Emergentie is in connectionistische contexten een vanzelfsprekende zaak, en gedistribueerde, "Gestalt"-achtige psychologische patronen zijn er aan de orde van de dag. Het interessantste aspect van dit alles zal ongetwijfeld de "emergentie" van quasi-regelgeleid gedrag uit niet-regelgeleide onderliggende processen zijn, en daarmee samenhangend, de "emergentie" van mentale representaties met intentionele inhoud uit niet-symbolische, niet-representationele mechanismen.
Op deze zaken zullen we hier niet verder ingaan. In ieder geval ziet het er naar uit dat de philosophy of mind samen met de cognitieve wetenschap aan het begin van een nieuwe fase staat. Laten we hopen dat de filosofische besprekingen meer dan louter epifenomenen van de wetenschappelijke ontwikkelingen zullen zijn.
Gert-Jan Lokhorst is afgestudeerd in de geneeskunde en in de filosofie. Hij is momenteel verbonden aan de Faculteit der Wijsbegeerte van de Erasmus Universiteit Rotterdam. Enige thema's uit bovenstaand artikel worden uitgebreider besproken in zijn "Intelligence and the brain", lezing op het symposium The Nature of Intelligence, Erasmus Universiteit Rotterdam, 20 november 1987 (te verschijnen).
Previous | Up | Next
gjclokhorst@gmail.com || July 17, 2015 || HTML 4.01 Strict