Het frame-probleem
Het onderzoek naar Artificiële Intelligentie (AI) zou ons niet alleen slimme(re) robots moeten opleveren, maar pretendeert zelfs ons inzicht te geven in de werking van onze eigen, natuurlijke intelligentie en het orgaan dat daar voor zorgt: de hersenen. Desalniettemin, is sinds Alan Turing’s artikel “Computing Machinery and Intelligence” [6] in 1950 verscheen, échte kunstmatige intelligentie voornamelijk een droom gebleven. Zijn de hersenen werkelijk zo complex, zo ondoorgrondelijk dat het altijd een droom zal blijven? Ligt de werking van de hersenen, en daarmee de artificiële intelligentie, voorbij onze grenzen van kennis?
Een aantal argumenten is gegeven: Searle’s Chinese room argument [4] bijvoorbeeld. Searle stelt een systeem voor dat enkel mechanisch en begripsloos symbolen manipuleert maar zich gedraagt alsof het wel degelijk begrip heeft: een man — die geen Chinees begrijpt — zit in een kamer met een boek waarin staat welke Chinese karakters hij moet teruggeven als antwoord op de karakters die hem aangereikt worden. De man begrijpt geen Chinees, maar reageert toch alsof. Hieruit concludeert Searle dat we misschien uiteindelijk wel een machine kunnen bouwen die ons lijkt te begrijpen — die intelligent lijkt — maar dat dat niet wil zeggen dat die machine ook intelligent is. Een ander argument tegen AI, het frame-probleem[5], werd door de filosoof Daniel Dennett in 1969 gepresenteerd in zijn artikel “Cognitive Wheels: The Frame Problem of AI” [3]. Dat probleem is niet alleen interessant vanwege de implicaties voor AI zelf maar ook omdat, zoals we zullen zien, er via dit frame-probleem parallellen te trekken zijn tussen mens en machine. In dit artikel zal ik dit probleem bespreken.
In het kort is dit het frame-probleem: als een robot met alle mogelijke gevolgen van zijn acties rekening moet houden, gaat hij nooit tot actie over. Zijn capaciteiten zijn simpelweg onvoldoende om rekening te houden met de (bijna) oneindig grote hoeveelheid mogelijke gevolgen. Verandert de naam van de hoofdstad van China als ik de deur open doe? Verandert het materiaal van de deur als ik de deur open doe? Et cetera. Om de taak uitvoerbaar te maken moet een agent (een robot, een mens, een computerprogramma) eigenlijk alleen rekening houden met de relevante gevolgen. Zoals dat de deur opengaat als je er tegen duwt. Of, dat als de deur opengaat de emmer met water die op de deur staat, omvalt. Maar hoe bepaal je of iets relevant is? Is het relevant om te bekijken of de hoofdstad van China misschien verandert? Is het relevant om te controleren of het materiaal van de deur verandert als de deur open gaat? Enfin, zo komen we natuurlijk niet verder. Dit probleem, het probleem dat een agent alleen rekening moet (en kan) houden met de relevantia bij zijn acties, terwijl bepalen wat relevant is net zo problematisch is, heet het frame-probleem.
Wat is dat eigenlijk, ‘relevantie’? Kunnen we het definiëren? In het voorbeeldje met de emmer op de deur is het relevant of de emmer valt of niet. Dus hangt relevantie dan altijd samen met het object waarop de actie wordt uitgevoerd? Nee, want bepalen of de deur van kleur verandert is nog steeds irrelevant, hoewel ’kleur’ een eigenschap van de deur is. Maar de mogelijkheid dat de naam van de hoofdstad van China verandert, kunnen we nu links laten liggen. Wil een mogelijk resultaat relevant zijn, dan moet het object van de actie (dat waar mee iets wordt gedaan) in ieder geval een rol spelen in het resultaat van die actie. We definiëren:
Resultaat R is relevant bij actie A met object O, dan en slechts dan als O voorkomt in de formulering van resultaat R.
In de tweede helft van de definitie speelt de actie A zélf geen rol. We zouden kunnen toevoegen dat resultaat R een gevolg moet zijn van actie A:
Resultaat R is relevant bij actie A met object O, dan en slechts dan als O voorkomt in de formulering van resultaat R en R een gevolg is van actie A.
Hebben we nu dan een definitie van relevantie gevonden? Niet echt. De scharnieren van de deur (object O) slijten een beetje (resultaat R) als je de deur open doet (actie A), maar het slijten van scharnieren is niet relevant. Los daarvan, ik heb het wel zo makkelijk over ’gevolg’ gehad, maar hoe makkelijk is het eigenlijk om te bepalen of iets ergens een gevolg van is? Het lijkt me dat bepalen of iets een gevolg is precies even moeilijk is als bepalen of iets ‘relevant’ is. En hoe snel de scharnieren slijten is misschien niet relevant voor de bewoners van een huis, maar wel degelijk relevant voor de ontwerper van een onderzeeër of iets dergelijks.
‘Relevantie’ is een lastig begrip. En toch lossen mensen het probleem op de een of andere manier op. Daniel Dennett schrijft:
But when we think before we leap, how do we do it? The answer seems obvious: an intelligent being learns from experience, and then uses what it has learned to guide expectation in the future. Hume explained this in terms of habits of expectation, in effect. But how do the habits work? Hume had a hand-waving answer – associationism – to the effect that certain transition paths between ideas grew more likely-to-be-followed as they became well worn, but since it was not Hume’s job, surely, to explain in more detail the mechanics of these links, problems about how such paths could be put to good use – and not just turned into an impenetrable maze of untraversable alternatives – were not discovered. [3]
We kunnen bepalen wat gevolgen zijn dankzij de ervaringen die we opdoen. Is het frame-probleem nu opgelost? Nee. Want als we bepalen welke ervaringen relevant zijn via ‘associatie’ – een associatie van ervaringen met resultaten van die ervaringen – hoe beslissen we dan welk resultaat we willen? Komen we dan niet alsnog terecht in een ondoordringbaar doolhof van onoverkomelijke alternatieven zoals Dennett vreest? Als ik mijn hoofd stoot omdat ik het deurtje van het keukenkastje open heb laten staan waarom leer ik dan dat ik geen keukenkastjes open moet laten staan of op moet letten bij het opstaan en niet dat ik niet de keuken in moet lopen of geen oude koekenpannen met oranje stelen moet pakken uit witte kastjes van 49x57x48 centimeter?
Maar we moeten niet vergeten dat mensen vooral leren bij de gratie van duidelijk positieve of negatieve resultaten. Laten we dat toevoegen aan de gemankeerde definitie van relevantie die we hadden gevonden en verworpen:
Resultaat R is relevant bij actie A met object O, dan en slechts dan als O voorkomt in de formulering van resultaat R en R een gevolg is van actie A en R een positief of negatief gevolg is voor de uitvoerder van actie A.
Eén probleem is nu: hoe weten we achteraf welke acties welke gevolgen hebben gehad? We zullen dat moeten weten om te beoordelen hoe gunstig of ongunstig de uitkomst van een actie is geweest.
Nou, de wetenschapper onderzoekt het verband tussen oorzaak en gevolg door onderzoek te doen. Maar lang niet alle variabelen zijn te beheersen in een onderzoek. Natuurkundigen nemen ook maar aan dat de natuurwetten over een uur hetzelfde zijn als nu, terwijl sociale wetenschappers vertrouwen op statistiek om te bekijken hoe goed de gevonden oorzaken het resultaat verklaren.
Weten we ooit zeker welke actie welke gevolgen heeft gehad? Het lijkt mij niet. Is dat belangrijk? Welnee, het gaat ons, zeker in het dagelijks leven, vrij aardig af. We leren dat we uit moeten kijken met keukenkastjes in het algemeen als we ons hoofd stoten en niet alleen dat we voorzichtig moeten zijn bij specifieke keukenkastjes waaraan we ons zojuist stootten.
Zijn er systemen in de hersenen die ervoor zorgen dat mensen – zij het dus suboptimaal – oorzaken en gevolgen kunnen beoordelen? En kunnen die systemen stuk?
De neuroloog Antonio Damasio schrijft:
The patiënt pulled out his appointment book and began consulting the calendar. The behavior that ensued, which was witnessed by several investigators, was remarkable. For the better part of a half-hour, the patiënt enumerated reasons for and against each of the two dates: previous engagements, proximity to other engagements, possible meteorological conditions, virtually anything that one could reasonably think about concerning a simple date. Just as calmly as he had driven over the ice, and recounted that episode, he was now walking us through a tiresome cost-benefit analysis, an endless outlining and fruitless comparison of options and possible consequences. [2, p.193]
Deze patiënt lijkt last te hebben van het frame-probleem. Of beter gezegd, dát deel van de hersenen dat ervoor zorgt dat het frame-probleem niet zo’n probleem is bij mensen, lijkt bij hem slecht te functioneren. Hoewel niet in die woorden, beschrijft Damasio een systeem in de hersenen dat nu juist precies het frame-probleem omzeilt bij mensen. Grofweg, emotie:
In short, somatic markers are a special instance of feelings generated from [..] emotions. Those emotions and feelings have been connected, by learning, to predicted future outcomes of certain scenarios. When a negative somatic marker is juxtaposed to a particular future outcome the combination functions as an alarm bell. When a positive somatic marker is juxtaposed instead, it becomes a beacon of incentive. [2, p. 174]
Deze ‘somatic markers’ zijn misschien wel de oplossing van het frame-probleem. Ze richten het organisme in ieder geval op díe dingen die relevant zijn voor zijn of haar voortbestaan. Pijn, als somatic marker, is duidelijk een waarschuwing om iets niet meer te doen. Genot, als somatic marker, spoort aan om meer chocolade te eten, meer heroïne te gebruiken en meer nageslacht te verwekken.
Is het echt zo dat die basale evolutionaire systemen toch zo belangrijk zijn bij onze normale, heldere, logische rede? Ondanks experimenten (zoals de ‘Damasio gambling task’ die in een ander experiment voorkwam bij de nationale wetenschapsquiz van dit jaar) en gesprekken met patiënten die inderdaad zijn gelijk lijken aan te tonen, is Damasio voorzichtig in zijn conclusie:
At the beginning of this book I suggested that feelings are a powerful influence on reason, that the brain systems required by the former are enmeshed in those needed by the latter, and that such specific systems are interwoven with those which regulate the body. [..] Feelings do seem to depend on a dedicated multi-component system that is indissociable from biological regulation. Reason does seem to depend on specific brain systems, some of which happen to process feelings. Thus there may be a connection trail, in anatomical and functional terms, from reason to feeling to body. [2, p. 245]
Een robot met kunstmatige intelligentie als belichaming van de zuiverste ratio is daarom misschien onmogelijk, paradoxaal genoeg, vanwege die verbindingen tussen rede en emotie in het menselijk brein. Onze robots hebben misschien een beetje emotie nodig om überhaupt rationeel te kunnen zijn. Als je er over nadenkt, is het eigenlijk ook niet meer dan logisch dat de mens als ‘informatie verwerkend systeem’ met dezelfde problemen te kampen heeft als een door mensen gebouwd informatie verwerkend systeem. En vergelijkbare problemen vragen om vergelijkbare oplossingen.
De discussie van het frame-probleem in de filosofische literatuur is ondertussen een beetje bekoeld en Damasio’s somatic marker hypothesiswordt door Bennett en Hacker in hun “Philosophical Foundations of Neuroscience” [1, p. 212 e.v.] stevig bekritiseerd. Maar toch wijzen zijn experimenten en Dennett’s denkwerk niet alleen op de mogelijkheid om schijnbaar ‘puur geestelijke’ processen als rationaliteit neurologisch te onderzoeken, maar ook op de relevantie van AI bij dat soort onderzoek. Het is misschien ironisch te noemen dat een nieuw probleem voor een al zo door problemen en scepsis geplaagd vakgebied als Artificiële Intelligentie juist daarop wijst.
Noten en/of literatuur
1. Bennett, M.R. and P.M.S Hacker. Philosophical Foundations of Neuroscience.Blackwell Publishing, 2003.
2. Damasio, Antonio R. Descartes’ Error. Emotion, Reason and the Human Brain. Quill, 2000.
3. Dennett, Daniel. “Cognitive Wheels: The Frame Problem of AI.” In C. Hookway, ed. Minds, Machines and Evolution. pp. 129-151. Cambridge University Press, 1984.
4. Searle, John. Minds, Brains and Programs.http://members.aol.com/NeoNoetics/MindsBrainsPrograms.html, 1980.
5. Shanahan, Murray. Stanford Encyclopedia of Philosophy: The Frame Problem. http://plato.stanford.edu/entries/frame-problem/, 2004.
6. Turing, Alan. Computing Machinery and Intelligence.http://www.abelard.org/turpap/turpap.htm, 1950.
Bas Leerintveld studeert Cognitieve Kunstmatige Intelligentie aan de Universiteit van Utrecht