Części funkcjonalne układu nerwowego mogą więc być zrealizowane w podzespołach elektronicznych. Komputer opisywany na głębokim poziomie jego konstrukcji jest urządzeniem cyfrowym, lecz rozważany na innych poziomach może symulować urządzenie analogowe. Na ogół mózg rozważany jest jako taki właśnie typ urządzenia. Nie można jednak mówić o psychologii modeli sztucznej inteligencji, ponieważ byłoby to przypisaniem im zbyt wielu funkcji. Można natomiast, zdaniem Dennetta uznać, że sztuczna inteligencja obala filozoficzno – psychologiczny argument mówiący, że jedyna psychologia, która mogłaby wyjaśnić złożoność aktywności ludzkiej musi używać wewnętrznych reprezentacji. Uważali tak prawie wszyscy, za wyjątkiem radykalnych behawiorystów. Dla Hume’a reprezentacjami były idee i wrażenia. Później psychologowie poznawczy zaczęli mówić o hipotezach, mapach, schematach, twierdzeniach, sygnałach neuronalnych.
Nic nie jest reprezentacją wewnętrznie, jest nią zawsze dla kogoś. Każda reprezentacja lub system reprezentacji wymaga przynajmniej jednego użytkownika lub interpretatora. Musi on być zdolnym do robienia porównań, mieć przekonania i cele, a więc być, jak pisze Dennett, czymś w rodzaju homunculusa. Psychologia bez homunculusów jest niemożliwa, a psychologia z homunculusami prowadzi do regresu do nieskończoności.
Jest to, zdaniem Dennetta, stosunkowo wyabstrahowana wersja pewnej grupy problemów. Dennett nazywa ją problemem Hume’a, ponieważ jego wrażenia i idee uznać można za wewnętrzne reprezentacje. Hume próbował uniknąć wprowadzenia pojęcia jaźni wewnętrznej (inner self), która mogłaby inteligentnie manipulować reprezentacjami. Postawiło go to w sytuacji, gdzie idee i wrażenia musiały zacząć myśleć same za siebie. Rezultatem tego była teoria jaźni jako wiązki wrażeń i idei. Wchodziły one w interakcje, łączyły się samoczynnie, bez udziału nadrzędnego w stosunku do nich, nadzorującego ich działanie podmiotu. Coś takiego nie mogło funkcjonować, wrażenia i idee nie posiadały do tego celu dostatecznej ilości informacji.
Pojawia się więc problem regresu do nieskończoności, gdyż trzeba dodać choć jednego rozumiejącego interpretatora reprezentacji, a on pociąga za sobą kolejnych. Dennett stwierdza, że dopiero sztuczna inteligencja umożliwiła uniknięcie tego problemu. Wprowadziła ona pojęcie struktur danych (data-structures), które zdaniem Dennetta są funkcjonalnymi przykładami reprezentacji. W wymaganym tu sensie można o nich powiedzieć, że rozumieją same siebie.
Dennett wyjaśnia to zaczynając od poziomu osoby lub organizmu poznającego, który nazywa systemem intencjonalnym. Następnie rozbija ten system na organizacje podsystemów, z których również może być rozpatrywany jako system intencjonalny, ze swoimi przekonaniami i pragnieniami, a więc jako homunculus. Mówienie o homunculusach jest wszechobecne w sztucznej inteligencji i jest to tylko metaforyczny sposób wyrażania się. W systemach intencjonalnych istotna jest organizacja i współdziałanie wyspecjalizowanych homunculusów. Funkcja każdego z nich jest dalej dzielona na podfunkcje niższych homunculusów, aż do homunculusa, który zdolny jest “powiedzieć” tylko “tak” lub “nie”, i którego zastąpić może maszyna.
Homunculusy działają, wysyłają wiadomości, a więc muszą mieć reprezentacje. Dla stosunkowo słabo zinterpretowanej reprezentacji, np. wzór na siatkówce, potrzebny jest bardziej złożony interpretator i użytkownik. Jeżeli interpretacja zawiera więcej informacji, np. co do związanego z nią postępowania, jej użytkownik może być mniej złożony. Nie występują reprezentacje rozumiejące się całkowicie samodzielnie, poza sytuacją, kiedy z globalnego punktu widzenia obserwowane są wszystkie reprezentacje systemu intencjonalnego. Pojedyncze homunculusy nie mogą zastąpić reprezentacji, czy zdolności językowych człowieka jako całości.
Jeżeli przyjmie się punkt widzenia, że struktury danych nie są reprezentacjami, to zdaniem Dennetta sukcesy sztucznej inteligencji świadczą o tym, że psychologia nie potrzebuje wcale reprezentacji i może posługiwać się takimi pseudoreprezentacjami, jakimi są struktury danych. Dennett twierdzi, że są one jedynym znanym rozwiązaniem problemu Hume’a.
Intencjonalność, w ujęciu Dennetta, może być realizowana przy udziale wielkiej, ale skończonej liczby homunculusów, które można też nazwać modułami operacyjnymi, np. moduł pamięci, rozpoznawania figur, dokonywania operacji arytmetycznych itp. Żaden z tych modułów nie posiada wewnętrznie tej treści intencjonalnej, jaką posiada człowiek jako całościowo potraktowany system intencjonalny. Homunculusy mają wewnętrznie struktury danych nazywane reprezentacjami lub pseudoreprezentacjami[87]. Człowiek jako całość nie musi tych cząstkowych intencjonalności posiadać wewnętrznie, w sensie uświadamiania ich sobie. Posiada je natomiast w sensie fizykalnego posiadania mózgu wraz z jego strukturami neuronalnymi. Zaczynając od tego poziomu wyodrębniać można coraz bardziej złożone homunculusy, posiadające wewnętrznie pewne treści intencjonalne lub struktury danych, aż do poziomu człowieka jako całości.
4.4. Maszyny myślące i odczuwające.