Computers en filosofie hebben heel wat meer met elkaar te maken dan, bijvoorbeeld, stoommachines en filosofie. De ontwikkeling van de computer, en de manieren om er mee om te gaan, laat tot in onze tijd toe een nauwe samenhang zien met de filosofie.G.J.C. Lokhorst. Computers en filosofie. Rotterdams Wijsgerig Genootschap Pierre Bayle, November 16, 1988.
Zoals de filosoof Martin Gardner in zijn aardige boekje Logic machines, diagrams and Boolean algebra beschrijft, is de computer de culminatie van eeuwenlange pogingen om logica-machines te maken, machines om mee te redeneren. Tot in de vorige eeuw waren deze machines gebaseerd op de Aristotelische logica. Ze waren gemaakt van karton of van hout, en bevatten soms ook nog allerlei tandwielen, en je kon er syllogismen mee uitrekenen.
In de negentiende eeuw vond de Engelse wiskundige Boole echter een nieuwe manier uit om de "wetten van het denken", zoals hij ze noemde, te beschrijven. Deze Boole-algebra bleek veel geschikter zijn om als basis te gebruiken voor het construeren van logica-machines dan de Aristotelische logica. Er wordt in gerekend met ééntjes en nulletjes, die staan voor "waar" en "onwaar", en die in een machine gemakkelijk kunnen worden weergegeven als "schakeling dicht" en "schakeling open". Deze Boole-algebra is tot op de dag van vandaag het hart van de computer. Ik denk dat dat nog steeds het enige is dat filosofie-opleidingen en technische ingenieurs-opleidingen met elkaar verbindt, en hen onderscheidt van alle andere studies (met uitzondering misschien van de wiskunde): in beide studies raak je vertrouwd met de fijne kneepjes van de Boole-algebra.
Uit deze ontwikkeling blijkt al duidelijk dat er een historische band is tussen filosofie en computers. Zonder pogingen om de wetten van het denken, of de geldige wijzen van redeneren vast te leggen--filosofische bekommernissen bij uitstek--waren er tegenwoordig nooit computers geweest. Een computer is eenvoudigweg gestolde logica.
De invloed van de logica op het construeren van redenerende machines is niet in de negentiende eeuw opgehouden. Onder de computerbouwers van het eerste uur waren veel mensen die zelf logicus waren. De twee "vaders van de moderne computer" zijn Von Neumann en Turing. Wel, Von Neumann deed in de jaren twintig heel veel zuiver logisch werk, dat een belangrijke rol speelde in de geschiedenis van de logica. Het werk van Turing in de logica was zo mogelijk nog belangrijker. Hij was één van de eersten die de implicaties van de stelling van Gödel inzag voor zover het mensen en machines betrof, en hij bewees in de jaren dertig een Gödel-achtige stelling over de beperkingen van iedere mogelijke machine. Turing was trouwens ook directer bij de filosofie betrokken: in 1935 was hij de enige student van de filosoof Wittgenstein in Cambridge, en één van de weinige artikelen die hij schreef verscheen in het filosofie-tijdschrift bij uitstek, Mind. Deze betrokkenheid bij de filosofie is niet verwonderlijk. Want waar anders dan bij de filosofie zouden de computerbouwers te rade moeten gaan voor hun meest algemene ideeën?
Een goed voorbeeld van ontwikkelingen in de logica die hun stempel regelrecht op de computer hebben gedrukt, is het werk aan de eerste-orde predikatenlogica, een logisch systeem dat in 1879 door de wiskundige en filosoof Frege is uitgevonden, en in onze eeuw tot een hoge mate van verfijning is gebracht. De programmeertaal PROLOG, die veel bij het onderzoek van kunstmatige intelligentie wordt gebruikt, is volledig gebaseerd op dit onderdeel uit de logica. Omdat iedere filosofie-student de eerste-orde predikatenlogica al in de propedeuse-fase van de studie onder ogen krijgt, is het onder de knie krijgen van PROLOG voor hem of haar een koud kunstje, dat met veel déjà-vu ervaringen gepaard gaat.
Bij degenen die zich met computers bezighouden, vooral de mensen die streven naar kunstmatige intelligentie, bestaat nog steeds een grote belangstelling voor wat filosofen doen. Hoe gaan allerlei soorten van redeneren in hun werk? Hoe brengen we deze vormen van redeneren, die soms zelfs ogenschijnlijk van enige intelligentie getuigen, terug tot de logica van nullen en enen, de enige die de computer begrijpt? Dat is wat kunstmatige intelligentie onderzoekers vaak moeten weten, en filosofen zijn de enigen die zich hier beroepshalve soms al over hebben gebogen.
Dat filosofische analyses soms direct in de praktijk toepasbaar zijn verbaasde me eerst heel sterk; ik was uiterst verbaasd toen ik een paar jaar geleden colleges analytische filosofie volgde en eens voor de aardigheid een boek over kunstmatige intelligentie van de plank nieuwe aanwinsten in de bibliotheek pakte en dat doorbladerde. Ik keek in de sectie "Advanced topics", en het eerste dat ik zag was dat iemand in die kringen goede sier maakte met precies dát onderwerp dat wij bij filosofie behandelden, namelijk de analyses van geloofszinnen die door de Finse filosoof Hintikka waren bedacht. Sinds deze eerste kennismaking is me gebleken dat veel meer analytische filosofie rechtstreeks kan worden benut op deze manier.
Er zijn tegenwoordig ook veel logici en filosofen die precies díe onderwerpen bestuderen waarvan de oplossing het programmeren een stuk verder zou helpen. Mensen kunnen bijvoorbeeld redeneren op grond van onvolledige en tegenstrijdige gegevens--ze laten zich daardoor althans niet van hun stuk brengen. Er is geen computerprogramma dat dat kan, omdat niemand nog de precieze regels heeft opgeschreven die in dit soort situaties gebruikt kunnen worden, dat wil zeggen, de exacte logica voor dit soort situaties bestaat nog niet. Het zou heel wenselijk zijn als computers die met mensen in contact staan--bijvoorbeeld computers die je kunt opbellen en dan vluchten voor je boeken, of medische expertsystemen die diagnoses stellen op grond van altijd maar een beperkte hoeveelheid informatie--ook konden redeneren met onvolledige en tegenstrijdige gegevens. Logici en filosofen over de hele wereld zijn tegenwoordig dan ook druk bezig om deze behoefte van programmeurs te bevredigen.
Omdat ze zo geschoold zijn in het formeel analyseren en evalueren van redeneringen en kennisaanspraken, daarom schreef de Herald Tribune een paar jaar geleden al dat je filosofie moet gaan studeren als je werkelijk rijk wilt worden. Aan dit bericht schijnt nu ook in Nederland gevolg te worden gegeven: in Utrecht kun je aan de Faculteit der Wijsbegeerte tegenwoordig worden opgeleid tot kennis-ingenieur, en al de mensen die deze opleiding volgen schijnen tijdens hun studie al banen bij het bedrijfsleven aangeboden te krijgen. Als ze daar op ingaan, schijnen ze vaak binnen een paar jaar al een miljoen gulden per jaar te verdienen! Zó schijnt de wereld tegenwoordig verlegen te zitten om filosofen!
Tot zover het belang van de filosofie, met name de logica en analytische filosofie, voor de computer-business. Zijn, andersom, computers nu ook interessant voor filosofen, behalve dan dat ze een wereld vertegenwoordigen die ons voor een belangrijk deel al vertrouwd is voor we haar hebben betreden, en die ons toelaat onze theorieën in tastbare vorm gestalte te geven en op hun merites te toetsen (namelijk in de vorm van programma's)?
Ik denk het wel. We kunnen dan aan twee grote onderscheiden gebieden denken. Ten eerste is daar het macro-niveau, het niveau van mensen, groepen van mensen, en maatschappijen. De grootschalige introductie van computers in de maatschappij brengt bijvoorbeeld grote ethische en morele problemen met zich mee. Denk alleen maar eens aan de vraag wie verantwoordelijk is als het beste medische expertsysteem dat er in de hele wereld te koop is, een foute beslissing neemt, die vervolgens door degene die dat systeem raadpleegt wordt opgevolgd, met mogelijk fatale gevolgen. Een ander probleem is de atomisering van de samenleving die zich zal voordoen als straks niemand meer naar kantoor gaat en zijn werk op de tijd die hem of haar het best gelegen komt thuis aan de terminal afwerkt. Verder is er een tendens, waar vooral Weizenbaum voor heeft gewaarschuwd, om alle problemen als "puzzles" te gaan zien, die om een technische oplossing vragen; al ons denken zou "problem-solving" zijn of moeten zijn, een activiteit die volgens regels verloopt en tot heldere oplossingen leidt, in plaats van een veel diffusere, niet goed vast te leggen onderneming. Dit zijn interessante kwesties voor de meer beschouwelijk, in plaats van logisch, aangelegde filosoof.
Ten tweede is er een "micro-niveau", het niveau van het individu, of zelfs nog lagere niveaus daaronder. Ook op dit niveau speelt de computer een rol. Het is namelijk gebruikelijk geworden om de computer als hét toonbeeld van een redenerende entiteit te gaan; alle andere redenerende organismen, inclusief mensen, zouden ongeveer op dezelfde manier redeneren als computers dat doen. Mensen worden zélf als een soort computers gezien; er is een hele computermetafoor van het menselijk denken en de menselijke geest ontstaan. Het viel me op hoe vaak gewone mensen in de Verenigde Staten spraken over "the computer between your ears", in de fragmenten die we de laatste tijd vaak zagen in verband met de presidentsverkiezingen.
Deze inspiratie door de computer druist natuurlijk absoluut niet in tegen de bedoelingen van de oorspronkelijke ontwerpers. Boole zelf noemde zijn belangrijkste boek al niet voor niets "An investigation of the laws of thought"; hij dacht werkelijk dat de Boole algebra de wetten van het menselijk denken codificeert. Ook mensen als Von Neumann gingen nadrukkelijk uit van de ideeën die zij hadden over de manier waarop mensen te werk gaan bij het oplossen van problemen. Zo is de computer geschapen naar ons beeld, of althans het beeld dat men in de jaren veertig van ons had. Het is dus niet zo gek om hem nu, andersom, te gebruiken om weer licht te werpen op ons zelf. De gehele cognitieve wetenschap is tegenwoordig dan ook doordrenkt van de computermetafoor, en bestaat voor een groot deel uit computermodellen van menselijke cognitieve aktiviteit--men heeft het zelfs al over computermodellen van menselijke emoties. Ook filosofen als Fodor en Pylyshyn doen niets liever dan mensen zien als een zelfde soort symbool-verwerkende organismen als computers.
Het lijkt me echter, dat dit gebruik van de computer als middel om licht te werpen op de menselijke cognitieve aktiviteit verre van gelukkig is. Mensen functioneren helemaal niet op de manier waarop onze tegenwoordige computers dat doen.
Neem bijvoorbeeld eens de kwestie van het volgen van regels. Computers manipuleren met symbolen op grond van allerlei regels die in het programma zijn vastgelegd. Het is maar zeer de vraag of mensen ook van die regels hebben die ze gebruiken bij het verwerken en bewerken van informatie. In ieder geval zijn ze zich niet expliciet bewust van die regels. Daarom is het bouwen van expertsystemen, waartoe ook systemen behoren die zoiets ogenschijnlijk eenvoudigs doen als het onderscheiden van een boom van een huis op een foto van een landschap, zo moeilijk: geen expert kan aangeven welke regels hij allemaal volgt bij het redeneren op zijn terrein. En als hij er al eens een paar kan aangeven, blijken er ook weer allerlei uitzonderingen op te bestaan, die hij ook weer niet expliciet kan opsommen, enz. Het is zo'n moeizame affaire om achter dit alles te komen, dat er tegenwoordig al weer een afzonderlijk specialisme bestaat--kennis-elicitatie--om er toch nog iets van terecht te brengen. Is er eenmaal een aantal regels gevonden, vaak na jaren werk, dan blijken ze ook weer veel te star te zijn. En dan is er het "brittleness" probleem: je hoeft je maar een heel kleine beetje buiten het domein te begeven waarvoor het systeem is gemaakt, of het is gelijk onbruikbaar. Het lijkt wel alsof men hier gewoon op een geheel dood spoor zit; de resultaten van al dit werk lijken in hun werkwijze absoluut niet op menselijke experts, die eerder spreken over inzicht, over het zien van analogieën tussen nieuwe en oude situaties, enz.
Ook filosofen hebben er al lang op gewezen dat menselijk intelligent gedrag niet zomaar uit het volgen van regels kan bestaan. Ryle wees erop dat een zodanige opvatting tot oneindige regressie leidt. Intelligente activiteit kan immers niet het gevolg zijn van het op een domme manier toepassen van de regels. Ze moeten intelligent gevolgd worden. Maar dat betekent, als je consequent aan deze opvatting wilt vasthouden, dat andere, meta-regels gevolgd moeten worden om de regels toe te passen. Deze moeten op hun beurt ook weer intelligent worden toegepast, en zo voort ad infinitum. De latere Wittgenstein heeft er natuurlijk ook vaak op gewezen dat dit maar een heel dubieuze notie is, regels volgen.
Dit is dus al één belangrijk verschil tussen menselijke en machinale intelligentie. Er zijn echter ook andere verschillen, die meer op het "hardware" vlak gelegen zijn, hoewel software en hardware in de praktijk natuurlijk vaak niet goed los van elkaar besproken kunnen worden. Ik zal ze even kort opsommen:
Ten eerste: zenuwcellen zijn langzaam, miljoenen keren langzamer dan transistoren en chips. Toch voeren mensen de meeste cognitieve vaardigheden waartoe ze in staat zijn binnen een seconde uit. Dat betekent dat een computermodel voor een menselijke cognitieve vaardigheid nooit meer dan zo'n honderd stappen mag kennen wil het realistisch zijn. Het is onmogelijk om de dergelijke programma's voor de tegenwoordige computers te schrijven. Een computer doet bijna niets binnen honderd stappen, en traditionele computermodellen hebben dan ook vaak miljoenen stappen nodig.
(Aan de TH in Delft is een patroon-herkennend systeem ontwikkeld, dat in staat is om de opgave die we hierboven beschreven, namelijk het onderscheiden van een boom en een huis op een foto van een landschap, op te lossen. Op een grote en snelle computer afgedraaid, deed het programma er veertien uur om tot een goed resultaat te komen.)
Ten tweede: de traagheid wordt gecompenseerd door een enorm aantal parallel aan elkaar verlopende processen en een hoge mate van verbondenheid van de rekeneenheden. Per eenheid gebeurt er slechts weinig. De parallellie verklaart dat het brein zeer goed bestand is tegen beschadigingen. Continu sterven er neuronen af, terwijl dat op het cognitieve vlak niet te merken is. (Bij een computer kan het uitvallen van één element fataal zijn.)
Ten derde: er is geen centrale processor (een "centrale homunculus") zoals in een conventionele computer; er zijn miljarden gelijkwaardige processoren naast elkaar. Er bestaat een sterke ruimtelijke distributie van activiteit.
En ten vierde: netwerken van zenuwcellen hoeven niet geprogrammeerd te worden. Ze leren uit zichzelf en zijn heel goed in stimulus-generalisatie, patroon-voltooiing, enz. Dit zijn eigenschappen die we tevergeefs zoeken in de traditionele computermodellen van cognitieve processen.
Dit zijn nog maar de belangrijke verschillen tussen de architectuur van onze wetware en de hardware van de tegenwoordige computers.
Dit soort overwegingen lijken het voor mij vanzelfsprekend te maken dat mensen die de computermetafoor van de mens aanhangen, zoals Fodor en Pylyshyn, het bij het verkeerde eind hebben.
Maar er is nu hoop: in de VS is er al twee, drie jaar een onstuitbare opmars in gang van een nieuwe stroming, het "connectionisme", die precies díe natuurwetenschappelijk realistische verklaringen van cognitieve verschijnselen probeert te geven die we in de klassieke cognitieve wetenschap zo missen. De oorsprong van deze nieuwe benadering ligt bij de filosofische psycholoog William James en de filosoof-psychiater-logicus-ingenieur Warren McCulloch, maar de doorbraak is vooral te danken aan Parallel Distributed Processing van Rumelhart en McClelland (twee delen, 1986), dat op het moment zo'n beetje de grootste bestseller is van MIT Press.
De connectionisten hebben de homunculus- en computer-metaforen laten vallen voor de "hersenmetafoor". Zij geven psychologische verklaringen voor verschijnselen als patroonherkenning en het begrijpen van woorden in termen van modellen die terdege rekening houden met de hierboven genoemde randvoorwaarden en die een sterk neurofysiologische sfeer ademen, en waarvan het in principe voorstelbaar is dat zij door de hersenen kunnen worden gerealiseerd.
De modellen van de connectionisten bevatten "eenheden" of "knopen" die zich ongeveer hetzelfde gedragen als neuronen. Ze hebben bijvoorbeeld drempelwaarden die bepalen of de eenheid actief wordt bij een gegeven mate van stimulatie. De knopen zijn verbonden door verbindingen die op axonen lijken. Deze oefenen een inhiberende of exciterende werking uit op andere eenheden. In totaal gedragen de netwerken zich ongeveer zoals delen van de hersenen dat doen.
Uitgaande van deze basisprincipes zijn reeds modellen gemaakt met verbluffende eigenschappen. Zo is er een model dat automatisch de verleden tijd van Engelse werkwoorden leert als het voldoende voorbeelden aangeboden heeft gekregen, en dat in het begin ongeveer dezelfde fouten maakt als Engelse kinderen doen. Er is een model dat Engelse woorden leert lezen en deze, na voldoende oefening, correct uitspreekt. En zo kan er nog veel meer worden opgenoemd. We staan nog maar aan het begin, maar de ontwikkeling is al bijzonder veelbelovend. Programmeurs komen er nauwelijks aan te pas. Er hoeven geen regels in de modellen te worden geprogrammeerd (laten we zeggen die van de Chomsky-grammatica), en ze bevatten ook absoluut geen interne representaties van deze regels als het leerproces is voltooid--en toch is het net alsof ze regelgeleid gedrag vertonen.
En dit alles gebeurt dan volgens principes die de hersenen waarschijnlijk ook gebruiken en die zich lenen voor wiskundige bestudering. Het is geen wonder dat neurofysiologen en natuurkundigen nu opeens weer "on speaking terms" met psychologen zijn. De modellen trekken bovendien sterk de aandacht van artificiële intelligentie onderzoekers en computerontwerpers. De eersten zijn gefrappeerd doordat allerlei problemen die zij in dertig jaar niet hebben kunnen oplossen (automatische patroonherkenning en dergelijke) nu opeens wel opgelost zijn. De laatsten zijn geïnteresseerd in de snelheid van modellen, hun ongevoeligheid voor defecten, en hun bezit van een geheugen dat toegankelijk is op grond van de inhoud (in plaats van alleen het adres) van het gezochte. Zij zijn dan ook druk doende met het bouwen van parallel-werkende, "neurale" computers die een grote verbetering te zien zouden kunnen geven op terreinen als het machinaal lezen van postcodes en het besturen van cruise missiles. Vooralsnog bestaan deze neurale computers nog voornamelijk uit simulaties op conventionele computers, maar men is al druk doende om chips te bouwen die dezelfde architectuur hebben als stukjes zenuwweefsel. De eerste "neurale coprocessoren", die je zo in je PC kunt inpluggen, zijn al te koop.
Deze nieuwe ontwikkelingen nu lijken me erg interessant voor de filosofie, vooral de "philosophy of mind". Onze huidige computers zeggen niets over onszelf, maar met deze nieuwe generatie, "neurale" computers kan dat wel eens heel anders gesteld zijn.
Het is nog niet zover dat de "philosophy of mind" al even doortrokken is van deze nieuwe benadering als van de traditionele computermetafoor. Toch krijgt ze nu al steeds meer bespreking. Vorige maand zei een Amerikaan die aan de Rotterdamse faculteit der wijsbegeerte een lezing hield over Spinoza na afloop van zijn lezing dan ook tegen de plaatselijke Spinoza-expert: "Connectionisme, dát is wat je moet gaat doen!"
De meest enthousiaste verdedigers van de nieuwe benadering zijn meneer en mevrouw Churchland; de laatste heeft een dik boek, Neurophilosophy, geschreven, waarin ze een lans breekt voor de nieuwe stroming. Dennett bleek vorig jaar hier in Rotterdam zo onder de indruk te zijn dat hij het bestond om te beweren dat ze voor de oplettende lezer eigenlijk al helemaal in zijn Content and Consciousness uit 1969 te vinden is. Aan de andere kant probeert hij alles wat hij vroeger als klassieke cognitivist heeft beweerd te redden door te zeggen dat mensen in psychologisch opzicht virtuele Von Neumann machines zijn. Weliswaar zijn het connectionistische machines, maar deze gedragen zich precies zo alsof het klassieke Von Neumann machines zijn, en daarom zijn al Dennetts vroegere uitspraken nog onverminderd van kracht. Dit is echter een slecht argument. Vanuit psychologisch opzicht lijkt de mens, met zijn vermogen tot automatische generalisatie, associatie en patroonvoltooiing en zijn op inhoud aanspreekbare geheugen, nauwelijks op een Von Neumann machine. Onvrede met die laatste metafoor heeft juist tot de opkomst van het connectionisme geleid. De serialiteit van het bewustzijn is zowat het enige aspect dat de mens in mentaal opzicht met een Von Neumann computer gemeen heeft; voor de rest lijken er alleen maar verschillen te zijn.
In ieder geval zal het connectionisme de komende jaren nog veel stof in de filosofische wereld doen opwaaien. Het zal zeker leiden tot een hernieuwde bespreking van thema's als de emergentie van het mentale uit het niet-mentale, de mogelijkheid van reductie van het mentale tot het niet-mentale, en de status van psychologische "Gestalten". Nu kunnen immers pas voor het eerst concrete, heldere voorbeelden van deze verschijnselen worden gegeven. Emergentie is in connectionistische contexten een vanzelfsprekende zaak, en gedistribueerde, "Gestalt"-achtige psychologische patronen zijn er aan de orde van de dag. Het interessantste aspect van dit alles zal ongetwijfeld de "emergentie" van quasi-regelgeleid gedrag uit niet-regelgeleide onderliggende processen zijn, en daarmee samenhangend, de "emergentie" van mentale representaties met intentionele inhoud uit niet-symbolische, niet-representationele mechanismen.
Op deze zaken zullen we hier niet verder ingaan. In ieder geval ziet het er naar uit dat de philosophy of mind samen met de cognitieve wetenschap aan het begin van een nieuwe fase staat--een fase die nauw samenhangt met een nieuwe generatie computers.
Dit alles moge duidelijk hebben gemaakt dat filosofie en computers (of, beter gezegd, informatica in het algemeen) sterk met elkaar te maken hebben, al eeuwenlang een bevruchtende werking op elkaar hebben uitgeoefend, en dat, zoals het er nu naar uit ziet, waarschijnlijk ook nog heel lang zullen blijven doen.
Lezing Wijsgerig Genootschap Pierre Bayle, Erasmus Universiteit Rotterdam, 16 november 1988.
Previous | Up | Next
gjclokhorst@gmail.com || July 17, 2015 || HTML 4.01 Strict