Filosofia dell'informazione/Filosofia della mente

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search
Concetti fondamentali
I computer nella società
Mente e Intelligenza Artificiale
Mondi reali e virtuali
Linguaggio e conoscenza
Logica e probabilità
Scienza e tecnologia
Risorse

Computazionalismo, Connettivismo e Filosofia della Mente, Brian P. McLaughlin[modifica]

Gli argomenti centrali della filosofia della mente sono la natura dei fenomeni mentali e come i fenomeni mentali si inseriscono nella struttura causale della realtà. Il principio centrale della teoria è che la mente funziona come un computer; stati mentali ed eventi entrano in relazioni causali tramite operazioni del computer. L’obiettivo principale della teoria è quello di individuare quale meccanismo computazionale ha la mente. Un computer è un sistema di strutture, funzionalmente organizzato, in grado di eseguire calcoli. I compiti della teoria computazionale della mente sono due:

  1. identificare l’architettura funzionale del sistema informatico che fonda le nostre capacità mentali;
  2. spiegare come queste abilità siano esercitate attraverso le operazioni del sistema.

I computazionalisti sostengono che la funzionale architettura del sistema informatico, che fonda le nostre capacità mentali, risiede nei nostri cervelli. Esistono due paradigmi di ricerca dominanti all’interno della teoria computazionale della mente: “paradigma del sistema dei simboli” e “paradigma connessionista”. Il primo presuppone che la mente sia una sorta di sistema formale automatico, mentre il secondo presuppone che sia un sistema di reti confessioniste.


La Teoria Computazionale della Mente[modifica]

Avere una mente significa avere delle abilità mentali come, ad esempio, avere la capacità di pensare. Secondo la teoria computazionale della mente, l’esercizio delle abilità mentali consiste nel calcolo di alcune funzioni, dette funzioni cognitive. Le funzioni sono relazioni, ma non tutte le relazioni sono funzioni. Una funzione è una relazione “one-one” oppure “many-one”, che presenta argomenti e valori. L’insieme degli argomenti della funzione è il suo dominio, e l’insieme di valori è il suo intervallo, inoltre per ogni argomento del dominio c’è un valore univoco nell’intervallo. Le funzioni sono caratterizzate da insiemi di coppie ordinate; il primo elemento di ogni coppia ordinata è un argomento della funzione, mentre il secondo è il valore univoco della funzione per quell’argomento. Una funzione calcolabile è quella che può essere calcolata, ma non tutte le funzioni sono calcolabili. Una funzione è calcolabile se e solo se esiste un algoritmo che permette di trovare un valore della funzione per qualsiasi argomento del suo dominio. L’algoritmo è un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari e per calcolare una funzione, bisogna eseguire uno o più algoritmi. Il modo con cui viene calcolata una funzione dipenderà dalla struttura della macchina. I simboli hanno proprietà formali e semantiche. Le prime riguardano la forma o la struttura sintattica, mentre le seconde operano su simboli in virtù di alcune delle loro proprietà formali, ma non tutti gli algoritmi vengono risolti attraverso l’uso di simboli. La teoria computazionale della mente, riguarda gli algoritmi con cui calcoliamo le funzioni cognitive. Per vedere come un algoritmo può essere eseguito senza un ragionamento complesso, consideriamo i circuiti elettronici come porte veritiere, ad esempio una porta AND costituita da due fili d’ingresso e un filo d’uscita. Quando riceve corrente su entrambi i fili, la porta si chiude, inviando corrente lungo il suo cavo di uscita. Quando invece riceve corrente da un solo cavo d’ingresso, o non ne riceve per niente, la porta rimane aperta e non invia nessuna corrente lungo il cavo d’uscita. Questo tipo di circuito è chiamato porta AND perché, se indichiamo con T il passaggio di corrente lungo un filo e con F l’assenza di corrente lungo un filo, possiamo costruire una tabella che rappresenta come funziona questo circuito che sarà esattamente simile alla tavola della verità della congiunzione. Per qualsiasi tavola della verità esiste sempre un circuito elettronico formalmente equivalente.

Il Livello Computazionale, Algoritmico e Implementativo[modifica]

David Marr distinse tre livelli di analisi per affrontare un problema computazionale: 1-analisi a livello computazionale: specifica quale funzione cognitiva viene calcolata; 2-analisi a livello algoritmico: descrive come viene calcolata la funzione; 3-analisi a livello implementativo: descrive come vengono implementati i passaggi di quell’algoritmo. Marr suggerì che l’analisi del livello computazionale poteva essere svolta, in gran parte, indipendentemente dall’analisi del livello algoritmico e quest’ultimo, in gran parte, indipendentemente dall’analisi implementativa. Il livello computazionale non determina il livello algoritmico: infiniti algoritmi possono calcolare la stessa funzione. Inoltre, il livello algoritmico, a sua volta, sottodimensiona il livello implementativo: un dato algoritmo può essere implementato in infiniti modi possibili. Gli algoritmi che una macchina può eseguire, dipendono dalla sua architettura funzionale. Ne consegue che due macchine con la stessa architettura possono eseguire esattamente gli stessi algoritmi e quindi svolgere le stesse funzioni e, per la proprietà transitiva, due macchine, aventi la stessa architettura funzionale, saranno in grado di svolgere le stesse funzioni. Tuttavia, l’architettura funzionale non influenza la potenza computazionale; macchine con architetture molto diverse possono avere la stessa potenza computazionale.

Macchina di Turing e Computabilità di Turing[modifica]

Hilary Putnam dichiarò che siamo automi a stati finiti, con ciò intendeva dire che siamo macchine di Turing con nastri finiti. L’idea che le nostre menti abbiano un’architettura funzionale di una macchina di Turing, non deve essere presa sul serio. Nessun computazionalista pensa che la mente abbia un’architettura di una macchina di Turing, ma quello che intendeva dire Putnam,è che le nostre funzioni cognitive possono essere calcolate da una macchina di Turing. Secondo la teoria computazionale della mente, tutte le funzioni cognitive possono essere calcolate da algoritmi. Secondo la teoria di Church-Turing ogni funzione, che può essere calcolata da un algoritmo, può essere calcolata da una macchina di Turing.

Il Santo Graal dell'Intelliggenza Artificiale[modifica]

Dal momento che l’architettura funzionale delle nostre menti risiede nel nostro cervello, Marvin Minsky ha chiamato le nostre menti “macchine di carne”. Il Santo Graal del campo dell’intelligenza artificiale consiste nel costruire qualcosa con abilità mentali che non sia, però, costituito da tessuto vivente. Nel perseguire questo obiettivo, l’IA assume la teoria computazionale della mente. Se quest’ultima è corretta, allora è almeno logicamente possibile che una mente, essenzialmente come la nostra, sia costituita da materiali completamente diversi. Il materiale non è tanto importante quanto le strutture e le organizzazioni funzionali della macchina. L’IA ha avuto un successo straordinario nella progettazione di macchine in grado di eseguire compiti difficili senza la nostra supervisione. Tuttavia, trovare il Santo Graal rimane un sogno irrealizzato perché, nonostante i grandi progressi nel campo dell’IA, ancora non esistono macchine in grado di emulare le abilità mentali. Per quanto ne sappiamo è fisicamente impossibile, date le leggi della natura, realizzare una mente composta, per esempio, interamente di silicio.


Il sistema dei simboli de " La mente paradigmatica" come sistema formale automatico interpretato[modifica]

Secondo i fautori del paradigma del sistema simbolico, la mente è un sistema formale automatico interpretato (Haugeland 1985); avere abilità mentali consiste nell'essere costituito, da un sistema formale automatico interpretato. Un sistema formale è un sistema per manipolare automaticamente oggetti discreti in virtù delle loro proprietà formali; ad esempio, scacchi e dama sono sistemi formali. I giochi che sono sistemi formali condividono le seguenti caratteristiche: sono giocabili finitamente e sono giocati manipolando oggetti discreti secondo le regole del gioco. In un sistema formale automatico interpretato gli elementi discreti che sono manipolati comprendono simboli o rappresentazioni: elementi discreti con proprietà semantiche e formali. Le regole con le quali vengono manipolate prescrivono operazioni algoritmiche su di esse. Pertanto, questo paradigma viene talvolta chiamato paradigma de "le regole e rappresentazioni".

Le macchine di Turing sono sistemi automatici interpretati. Esistono molte macchine computazionalmente equivalenti che sono sistemi formali automatici con architetture funzionali diverse da quelle di una macchina di Turing. Una di queste macchine è una macchina di von Neumann, così chiamata in onore di John vonNeumann. L'architettura funzionale di tale macchina include una Central Processing Unit (CPU), un'unità aritmetica, posizioni di memoria e due tipi di accesso alla memoria. La CPU ha accesso alla memoria funzioni e strutture, e determina quali operazioni il computer deve eseguire consultando le istruzioni (programmi) che si trovano nella memoria. Una funzione simile all'architettura formale è in alcuni modelli simbolici di abilità mentali: l'elaborazione online viene effettuata utilizzando un archivio di memoria a breve termine che contiene informazioni rilevanti per il processo in corso. Seconto molti computazionalisti l'architettura funzionale della mente non è l'architettura di von Neumann. Linguaggi di programmazione di livello superiore come Basic, Pascal, FORTRAN, Cobol, Java e C ++, e Lisp (List Processing) sono (o descrivono) macchine universali che sono sistemi formali automatici.

Secondo John Haugeland (1985) alcune di queste lingue sono utili perché costruiamo macchine facili da costruire e le usiamo per simulare macchine facili da programmare. I linguaggi di programmazione di livello superiore sono quindi macchine virtuali collegate al linguaggio macchina del computer.

I sistemi di produzione sono equivalenti ai linguaggi di programmazione di livello superiore utilizzati da Turing nella ricerca del paradigma simbolico. I sistemi di produzione consistono in regole che specificano le azioni da eseguire quando vengono soddisfatte determinate condizioni. Ma è ampiamente sostenuto dai ricercatori del paradigma simbolico che non sappiamo ancora quale sia l'architettura funzionale della mente. L'obiettivo fondamentale della ricerca del paradigma simbolico è determinare quale tipo di sistema formale automatico è la mente.

Mente come motore sintattico[modifica]

Gli algoritmi simbolici sono definiti rispetto alle proprietà formali dei simboli (es. Le loro strutture sintattiche), possono governare le transizioni da simbolo a simbolo. Nella teoria delle prove, le relazioni logiche sono trattate come mosse in un gioco formale; le mosse formali preservano la verità e ,un algoritmo può farlo. Il sistema simbolico del paradigma viene spesso usato per presupporre una concezione teoretica della mente. Gli algoritmi possono essere definiti rispetto alle proprietà formali dei simboli così da preservare altri tipi di proprietà semantiche, in modo che le transizioni di simboli possano implementare processi di ragionamento di ogni tipo: ragionamento deduttivo, induttivo, analogico, processo decisionale, ecc. Haugeland (1985) suggerisce il seguente motto simbolista: "Prenditi cura della sintassi (le operazioni formali ), e la semantica si prenderà cura di se stessa." Daniel Dennett ha giustamente osservato che il paradigma simbolico presuppone che la mente sia "un motore sintattico".

Il linguaggio del pensiero[modifica]

Jerry Fodor e Zenon Pylyshyn hanno articolato un programma di ricerca nel paradigma simbolico per spiegare atteggiamenti proposizionali e processi mentali che li coinvolgono, programma che invoca l'ipotesi che esista "un linguaggio del pensiero". Gli atteggiamenti proposizionali hanno una modalità intenzionale e un contenuto proposizionale; I primi includono:convinzione, desiderio, speranza, desiderio, paura, intenzione e simili. I secondi sono espressi usando tali clausole. Secondo l'ipotesi del linguaggio del pensiero, alcuni simboli mentali sono atomici, altri sono molecolari in quanto contengono diversi simboli mentali come costituenti. I contenuti degli atteggiamenti proposizionali sono espressi da simboli mentali simili a frasi, e il contenuto dei concetti con simboli simili a parole. Secondo Fodor e Pylyshyn (1988), possiamo fare appello al sistema dei simboli mentali, se include un linguaggio di pensiero, per spiegare la sistematicità e la produttività del pensiero.

  • Il pensiero è produttivo in quanto si potrebbe pensare a un numero infinito di pensieri, ma si ha una durata di vita finita e risorse di memoria finite.
  • Il pensiero è sistematico in quanto le coppie di capacità di avere pensieri nello stesso modo intenzionale e con contenuti correlati ,sono dipendenti l'uno dall'altro, dato che uno avrebbe un membro della coppia se uno avrebbe l'altro (Es.un individuo può pensare che Romeo ama Juliet può pensare che Juliet ama Romeo).

Psychosemantics[modifica]

Sorge spontanea la domanda su come i simboli mentali -rappresentazioni mentali- possano acquisire i loro contenuti o significati. La corrente, lungo i fili di ingresso e di uscita di un circuito di computer elettronico, deriva i loro significati dai nostri incarichi stipulativi intenzionali. Abbiamo bisogno di un resoconto del loro significato che non faccia appello alle convenzioni linguistiche o alle intenzioni semantiche, poiché questi presuppongono intenzionalità (Fodor 1990). L'articolo "Chinese Room" di John Searle dimostra che le proprietà semantiche dei simboli non sovrastano le loro relazioni sintattiche, e quindi che i fenomeni intenzionali come la comprensione del cinese non possono essere spiegati solo con appello alle relazioni computazionali. Se Searle avesse ragione, allora i tipi di semantica in questione non possono avere successo. Forse i simboli logici - i simboli funzionali alla verità (es. "E" e "o") ei simboli per i quantificatori universali ed esistenziali ("tutti" e "alcuni") - possono essere definiti da schemi di relazioni inferenziali. Tuttavia, sembra che la maggior parte dei simboli (ad es. "Mucca" e "corsa") non possano. Gli esternalisti affermano che una teoria computazionale dell'intenzionalità deve essere integrata da una spiegazione naturalistica esternalista del significato, che non fa appello alle nozioni intenzionali. Esistono vari programmi per tentare di spiegare le proprietà semantiche dei simboli mentali in termini puramente naturalistici.

I dualemansantisti sperano di combinare la semantica del ruolo inferenziale o concettuale con un account esternalistico naturalistico per determinare le proprietà semantiche delle rappresentazioni mentali (Block 1986). Questo progetto, però, affronta il problema di specificare quali relazioni inferenziali siano costitutive della componente interna del significato (Fodor & LePore 1992). Inoltre, non è certo se una tale combinazione possa dare significati determinati per i simboli mentali. Saul Kripke (1981) ha sostenuto che poiché le nostre disposizioni inferenziali sono in realtà finite, lasceranno i significati dei simboli radicalmente indeterminati. Quindi, supponiamo che uno sia effettivamente disposto a eseguire solo 500 milioni di calcoli con il simbolo "+". Anche se l'output di ciascuno di questi 500 milioni di calcoli può essere interpretato sistematicamente come un calcolo della funzione più, le proprie disposizioni da calcolare saranno compatibili con i simboli che esprimono invece la "funzione quus", che può essere definita come segue: x quus y = x più y, per ogni y <500.000,001, altrimenti x quus y = 5. I teorici del ruolo concettuale considerano questo problema come uno dei modi in cui i ruoli concettuali dovrebbero essere idealizzati. Non è stata ancora proposta una soluzione del tutto soddisfacente al problema di Kripke. Infatti il problema di come le rappresentazioni mentali acquisiscono i loro significati è forse il problema più profondo che affronta qualsiasi teoria riduttiva dell'intenzionalità.

Paradigma computazionale[modifica]

L'architettura funzionale delle nostre menti è un po 'come si realizza nel nostro cervello. Sappiamo che il cervello è un sistema di reti neurali, che non sono ben comprese,così come i neuroni. Esistono da 50 a 500 diversi tipi di neuroni corticali, e questi diversi tipi di neuroni sembrano svolgere funzioni specializzate non ancora comprese (Churchland & Sejnowski 1993).Mentre le operazioni delle reti neurali reali non sono ben comprese, il paradigma computazionale connessionista esplora architetture funzionali che sono almeno "ispirate neuricamente". Alcune reti di connessione, chiamate "reti neurali artificiali", sono specificamente progettate per approssimare vari tipi di reti neurali reali sotto vari aspetti: le unità (o nodi) nelle reti neurali artificiali sono analoghe ai neuroni, le connessioni tra unità analoghe agli assoni e pesi o punti di forza delle connessioni analoghi alle sinapsi. Queste reti sono utilizzate nel settore della neuroscienza computazionale. Le reti connessioniste impiegate per modellare il calcolo delle funzioni cognitive di solito non fanno alcun tentativo di realismo neurale, ma hanno almeno "un sapore neurale".

Reti connessioniste[modifica]

Una rete connessionista è composta da unità (o nodi) interconnesse, che eseguono tutte le operazioni di elaborazione delle informazioni: non vi è alcun dirigente o CPU. Non c'è nessun programma memorizzato; il programma è implicito nel modello di connettività mostrato dalle unità. Molte unità elaborano le informazioni simultaneamente, così la rete nel suo insieme si impegna nell'elaborazione parallela distribuita (PDP).

A seconda dell'architettura di rete, un'unità può avere solo due stati di attivazione, "on" e "off", tre o più stati discreti di attivazione, o livelli continui di attivazione, limitati o non legati.Le unità elaborano le informazioni modificando o mantenendo il loro stato di attivazione in risposta ai segnali di attivazione dalle loro unità di invii. Le connessioni tra le unità possono essere di vari punti di forza o di peso, che influenzano la misura in cui l'uscita di attività di un'unità di invio influenza gli stati di attivazione delle unità riceventi. I collegamenti possono essere eccitatori o inibitori. La connessione da un'unità Ui a un'unità Uj è eccitatoria se l'uscita di attivazione di Ui tende ad aumentare il livello di attivazione di Uj e inibisce se tende a diminuirla.La notazione "wij" è usata per indicare un numero reale che indicizza la connessione dall'unità Ui all'unità Uj per il suo peso e tipo. Il numero è positivo quando la connessione è eccitatoria, negativo quando è inibitoria. Il peso della connessione è il valore assoluto di wij. In molte reti, l'estensione e il tipo di influenza causale di un'unità Ui esercita su un'unità Uj è indicizzata dal prodotto di wij è una funzione di tre fattori:

  • la totalità dell'input all'unità;
  • lo stato di attivazione corrente dell'unità;
  • il bias dell'unità (se presente) che può essere positivo o negativo.

Un'unità calcola una funzione di attivazione che mappa il suo input di attività di rete totale (e eventuale input esterno), il suo stato di attivazione corrente e il suo bias (se presente) in uno stato di attivazione.

L'attività di rete totale immessa in Uj è la somma di tutte le influenze causali delle unità di invio: è la somma del prodotto di ciascun valore di attivazione da un'unità di invio e il numero reale indicizza il peso e il tipo di connessione a cui l'unità di invio si riferisce Ui. Se un'unità ha una polarizzazione negativa, può inviare 0, il segnale nullo, a meno che il suo valore di attivazione non superi una certa soglia. Se ha una polarizzazione positiva, può inviare un certo valore di attivazione diverso da 0 a meno che il suo valore di stato di attivazione non scenda al di sotto di una certa soglia. Nelle reti di Hopfield, le unità hanno una risposta sigmoidale (a forma di S) all'input netto: il loro output aumenta solo di una certa quantità dato un aumento dell'input netto; dopo di ciò, non aumentano ulteriormente. Ma le unità hanno anche funzioni di output gaussiane (a campana) e altri tipi non lineari. Le unità di ingresso di una rete ricevono i segnali direttamente dall'ambiente della rete, mentre le unità di uscita inviano i segnali direttamente all'ambiente. Dato che le unità di input e output interagiscono direttamente con l'ambiente, sono chiamate "unità visibili", mantre le "unità nascoste" interagiscono direttamente solo con altre unità. Alcune reti, chiamate "perceptron", hanno due livelli di unità: uno strato di unità di input e uno strato di unità di output.

Minsky e Pappert (1969) hanno dimostrato che le percezioni sono limitate nel loro potere computazionale: ad esempio, non possono calcolare XOR (esclusivo o).Il problema di determinare il valore della funzione XOR è un problema lineare inseparabile e i percettori non possono risolverlo. Rumelhart, nel 1986 ha dimostrato, che le reti con tre o più livelli possono calcolare XOR e, più in generale, possono risolvere i problemi decidibili linearmente inseparabili. Le reti feedforward con uno o più livelli di unità nascoste sono chiamate reti "multistrato". La rete di Hamming è una rete di feedforward ampiamente utilizzata con tre livelli di unità. Le reti Feedforward non sono interattive: l'attivazione scorre dalle unità di input attraverso ogni livello di unità nascoste alle unità di output. Nelle reti interattive, due unità possono influenzarsi reciprocamente, quindi un'unità può essere correlata a un'altra sia come unità di input sia come unità di uscita. Nelle reti interattive, le connessioni bidirezionali tra le unità sono spesso simmetriche, quindi wij = wji. Nelle reti competitive, le unità formano delle piscine: le unità in una piscina sono reciprocamente inibitorie, mentre le unità al di fuori della piscina portano connessioni eccitatorie a una o più unità nella piscina. Nelle reti ricorrenti, ci sono schemi di connessione che contengono loop, in modo che un'unità sia collegata a se stessa come un'unità di input o vi sia una serie di connessioni dall'unità a se stessa, in modo che l'uscita di un'unità in una volta possa influenza causalmente il suo stato di attivazione su un altro. Nelle reti auto-associative, ogni unità è collegata a tutte le altre unità, inclusa se stessa.

Il comportamento di una rete nel suo complesso è una conseguenza del modello di connettività mostrato dalle sue unità e dallo stato di attivazione globale della rete in quel momento. Un vettore di numeri reali viene utilizzato per indicizzare lo stato di attivazione globale. Il valore di attivazione di ciascuna unità nella rete in quel momento è indicizzato da un solo elemento del vettore, quindi il numero di elementi nel vettore sarà uguale al numero di unità nella rete. L'insieme di tutti gli stati di attivazione globale di una rete è il suo spazio di attivazione, la cui dimensionalità è esattamente uguale al numero di unità nella rete. Una rete con n unità sarà quindi indicizzata da una n-tupla di numeri reali che identifica una posizione in uno spazio vettoriale n-dimensionale. Quella posizione rappresenta lo stato di attivazione globale della rete alla volta. Una serie temporale di stati di attivazione globale traccia un percorso attraverso uno spazio vettoriale. L'elaborazione delle informazioni di rete è caratterizzata come l'evoluzione nel tempo dei modelli globali di attivazione. Le reti possono essere interpretate sistematicamente come operazioni matematiche su matrici come la moltiplicazione di matrici. Le rappresentazioni esplicite in una rete connessionista possono essere locali o distribuite. Le rappresentazioni locali sono singole unità o singole unità a determinati livelli di attivazione. Le rappresentazioni distribuite sono schemi di attività su un gruppo di unità. Il modello di connettività di una rete è talvolta caratterizzato come rappresentazione implicita. Come risultato del modello di connettività mostrato dalle sue unità, una rete nel suo complesso può comportarsi in modo simile a regole per calcolare le funzioni. Quando una rete feedforward calcola una funzione, gli argomenti della funzione sono rappresentati da diversi schemi di attività sulle unità di input e i valori di tali argomenti per la funzione in base ai modelli di attività sulle unità di uscita. Nel calcolare la funzione, la rete funge da tabella di ricerca. I modelli di attivazione degli input funzionano come le domande poste alla rete (ad esempio, "A quale categoria appartiene?") E i modelli di output funzionano come le risposte alla domanda ("Alla categoria C"). A differenza di una tabella di ricerca simbolica, tuttavia, le risposte non vengono memorizzate come strutture di dati; piuttosto sono implicitamente rappresentati nel modello di connettività. (A volte, tuttavia, le unità nascoste sono rappresentazioni esplicite.) In unità interattive, l'argomento di una funzione potrebbe essere rappresentato da un modello iniziale di attivazione su unità nella rete e il valore della funzione per tale argomento da un modello di attivazione su quelle stesse unità, un modello che la rete "si sistema" or “relaxes” into after information processing.

Il "sapore neurale" delle reti connessioniste non è affatto la loro unica attrazione per i computazionisti. Le reti di connessione sono valide per le attività di riconoscimento dei pattern: pattern matching, pattern completion e pattern association. Si degradano con garbo nell'esecuzione di un tasK quando una rete viene danneggiata (ad es. Quando un'unità viene persa) e di fronte a dati rumorosi o incompleti, ma possono imparare,cioè, con una formazione adeguata, possono migliorare le loro prestazioni in vari compiti. Inoltre, sono molto efficaci nell'ottenere soluzioni ottimali o quasi ottimali per risolvere i problemi.