\documentclass[10pt,a4paper,portrait]{article}
\usepackage[pdftex]{graphicx}
\usepackage[dutch]{babel}
%\usepackage{fullpage}
\usepackage{url}

\begin{document}
\begin{center}
Filosofie van Kunstmatige Intelligentie, 2008 \\
0440949 Andreas van Cranenburgh \\
{\em Sat Oct  4 17:51:08 CEST 2008}
\end{center}

%Dennett, D., 'Cognitive wheels: The Frame Problem of AI', in C. Hookway, ed.,
%Minds, machines, and evolution, pages 129-151, Cambridge, 1984.

%Geef in je eigen woorden weer wat volgens jou de centrale stelling van het
%artikel is, en hoe Dennett deze stelling beargumenteert. Leg hierbij uit wat
%cognitive wheels zijn en welke functie ze hebben in Dennett's betoog. Geef ook
%aan of je het met genoemde stelling eens bent en om welke redenen.

%Omvang ongeveer 400 woorden.

%Inleveren per email, uiterlijk dinsdag 7 oktober 2008, om 14.00 uur, aan
%Steijn.Kistemaker@student.uva.nl34. Zet in de subjectregel: "[FAI] wk 6".

\section{Het Frame Probleem}
Volgens Dennett (1984) is het Frame probleem de moeilijkheid die optreed bij
het redeneren over de gevolgen van een actie. Een actie moet een eindig aantal
gevolgen hebben (anders duurt het oneindig lang om ze te vinden), maar welke
regels moeten er worden toegepast, welke inferenties kunnen er worden gemaakt?
(En welke dus niet)

Dit probleem is lang over het hoofd gezien omdat er tot nog toe altijd vanuit
mensen wordt geredeneerd, bepaalde intuities en vaardigheden worden niet
opgemerkt, terwijl ze voor een mechanisering van rationaliteit onmisbaar zijn.

{\em Cognitive wheels} zijn volledig niet biologisch plausibele mechanismen
die dus niet een realistisch beeld kunnen geven van de werking van de
menselijke geest. Het is maar de vraag of deze {\em cognitive wheels} wel
nuttig kunnen zijn. Ook al is het mogelijk dat een model van de geest met {\em
cognitive wheels} tot een zeker niveau realistisch is, het is niet gezegd dat
dit niveau bestaat. Verder kan het zijn dat zo een model niets zegt over hoe de
fenomenologie van de geest tot stand komt.

\subsection{Mening}
Ik vind dat Dennett de plank volledig misslaat door een probleem met
logische representaties voor te doen als een algemeen epistemologisch probleem.
Verder moet ook niet onvermeld blijven dat het probleem uitgaat van een
computationalistische kijk op de menselijke geest. Connectionistische modellen
worden maar terloops besproken, zonder dat daarbij wordt vermeldt dat deze
mogelijk het probleem oplossen door gevolgen niet expliciet te representeren,
en door geen {\em a priori} representatie te hanteren (door middel van
gedistribueerde representaties). In dat geval is het ook niet meer mogelijk of
zinnig om allerlei wereldkennis {\em a priori} mee te geven, en moet vooral het
leeralgoritme efficient werken.

Ten laatste vond ik verdacht de stelling dat ``brains are not all that large.''
Wat kan hiermee bedoeld worden? Het menselijk brein bevat gemiddeld 100 biljoen
neuronen, waarvan elk tot wel 10.000 verbindingen kan hebben. Dit lijkt me
genoeg voor een behoorlijke encyclopedie. Bovendien hoeven alleen feiten die
waargenomen zijn, of recombinaties daarvan (generalisaties), opgeslagen te
worden. Zolang mayonaise niet in beton verandered hoeft dit ook niet te worden
opgeslagen, oftewel er kan een {\em closed-world assumption} worden toegepast.
Het volgens Hardin gestelde probleem hiermee, dat acties meerdere gevolgen
hebben, hoeft niet te gelden voor connectionistische modellen, die een
parallele natuur hebben.


\subsection{Bronnen}
Dennett, D., 'Cognitive wheels: The Frame Problem of AI', in C. Hookway, ed., Minds, machines, and evolution, pages 129-151, Cambridge, 1984.

\end{document}
