Filosofia dell'informazione/Filosofia dell'Intelligenza Artificiale
Questo modulo necessita di essere "wikificato", ovvero formattato secondo gli standard di Wikibooks. Nota: almeno da dividere in sezioni
Collabora anche tu a rendere questo modulo conforme alle linee guida e poi rimuovi questo avviso. |
Filosofia dell'IA
[modifica | modifica sorgente]Sfondo storico
Prima dell’avvento delle macchine informatiche, lo studio teorico sulla natura dei processi del pensiero era prevalentemente esercitato dai filosofi, tra cui forse il più influente teoricamente è stato René Descartes o Cartesio, secondo il quale la mente è sostanza pensante, alla quale possiamo accedere mediante l’introspezione, una percezione interiore degli stati mentali di una persona. La tesi di Cartesio esercitò un’enorme influenza nel ventesimo secolo, quando lo sviluppo di computer iniziò a attirare l’immaginazione di coloro che cercavano una concezione più scientifica e meno soggettiva della natura dei processi del pensiero. Le più importanti innovazioni invece furono introdotte da Alan Turing, un brillante matematico britannico, teorico e filosofo che creò delle macchine per la risoluzione di algoritmi chiamate appunto "macchine di Turing" capaci di rappresentare e svolgere i processi del pensiero sotto forma di algoritmi matematici la cui soluzione è ottenibile sulla base dell’applicazione di regole logiche.
Il test di Turing''
Il lavoro di Turing che si appellava alla sua macchina, ha fornito un modello astratto per l’incarnazione fisica delle procedure del pensiero e gettato le basi per la teoria di computabilità. La pretesa di Turing di aver fondato l’IA portò al "test di Turing", dove un essere umano e una macchina inanimata (equipaggiata con un programma adatto a modalità di comunicazione) rispondevano a vari quesiti, se l’interlocutore non era in grado di distinguerli in base alle risposte fornite alle domande che venivano poste, uomo e macchina dovrebbero essere considerati equipotenti in intelligenza. (Turing 1950). Questo rappresentò un notevole progresso rispetto alle concezioni cartesiane.
Macchine fisiche
La concezione di Turing di queste macchine come cose pensanti dipende dal loro esercizio della capacità di manipolare i dati come condizioni sufficienti per il possesso di informazioni, sviluppando un intelligenza che potrebbe essere paragonabile a quella di esseri umani se opportunamente programmate e correttamente funzionanti. Le macchine di Turing possono definirsi come artificiali cose pensanti o, nella frase di John McCarthy, come "intelligenze artificiali", tuttavia hanno il potenziale di malfunzionamento e prestazioni variabili come ogni macchina e le loro capacità sono determinate da specifiche proprietà.
Sistemi e simboli
L’approccio di Turing è stato un mezzo per la concezione del sistema fisico simbolico che Alan Newell e Herbert Simon hanno avanzato, dove i sistemi di simboli sono macchine fisiche che elaborano le strutture dei simboli fisici nel tempo, speciali tipi di macchine digitali che si qualificano come macchine di elaborazione seriale (o Von Neumann), implementano quindi la concezione di Turing in computer fisici che manipolano i simboli. Diventa quindi importante, distinguere tra "macchine di Turing" come entità astratte e "computer digitali" come strumenti fisici in cui hanno cercato di chiarire lo stato dei "marchi" ai quali i computer sono soggetti a manipolazione. Li hanno interpretati come insiemi di fisici modelli che hanno chiamato "simboli", che possono verificarsi in componenti di altri modelli che hanno chiamato "Espressioni" (o "strutture simbolo"). I "Sistemi di simboli" quindi vengono concepiti come macchine fisiche che manipolano simboli.
La stanza cinese
John Searle avanzò una critica alle prospettive dell’IA che è diventata nota come "La stanza cinese" e mise tutto in dubbio (Searle 1980). L’argomentazione di Searle era un contro-esempio per il test di Turing, il quale sostiene che le somiglianze nelle prestazioni indicano somiglianze nell’intelligenza. Nella stanza cinese, gli stessi "input" restituiscono lo stesso "Output", ma i processi e le procedure per produrli non sono gli stessi. Searle così dimostra, che anche se il test di Turing è sufficiente per il confronto del comportamento di input / output (simulazioni), non è sufficiente per i confronti dei processi o delle procedure che producono quegli output (repliche).
IA debole
Searle ha anche differenziato tra ciò che ha chiamato "IA forte" e "IA debole". L’IA debole sostiene che i computer sono strumenti utili nello studio della mente, specialmente nella produzione di modelli utili (o simulazioni), mentre l’IA forte sostiene che quando stanno eseguendo programmi, i computer si qualificano come menti (o repliche). L’IA debole rappresenta quindi un posizione epistemica sul valore dei modelli o simulazioni, mentre l’IA forte rappresenta una posizione ontologica sui tipi di cose che in realtà sono esempi di menti. Sommariamente, un’IA forte implica un’IA debole.
IA forte
Charniak e McDermott mantengono l’obiettivo ultimo della ricerca dell’intelligenza artificiale di costruire una persona o più umilmente, un animale artificiale. La loro concezione è che per la costruzione di questi esseri artificiali, questi devono acquisire le proprietà chiave delle loro controparti biologiche, almeno con rispetto ai tipi di input, tipi di elaborazione e tipi di output. Quindi, gli "input" che considerano una visione chiara (vista) e discorso (suoni), vengono elaborati mediante moduli interni per l’apprendimento, deduzione, spiegazione e pianificazione, che comportano meccanismi di ricerca e ordinamento. Questi, combinati con le capacità vocali e motorie a produrre "output" sotto forma di parola (suoni) e comportamento (movimenti), creano macchine chiamate "ro-bot." La questione cruciale diventa così se questi "robot" si comportano come esseri umani, se come simulazioni (senza mente) o se invece incarnano repliche (consapevoli).
Psicologia popolare
Gli esseri umani sono meccanismi complessi. Non a caso, i fattori causali rilevanti in grado di apportare una differenza al comportamento umano sono: motivazioni, credenze, etiche, abilità, capacità, opportunità etc... Gli esseri umani trascorrono molte ore cercando di spiegare il comportamento proprio e degli altri : è il campo di indagine della psicologia popolare.
Eliminativismo
Paul Churchland sostiene che la psicologia popolare è incompleta e imprecisa riguardo agli stati interni e agli stati mentali. Inoltre, sostiene che il progresso della neuroscienza dovrebbe condurre ad una totale scomparsa della psicologia popolare. L’eliminativismo difficilmente potrà essere ritenuta una neuroscienza matura capace di raggiungere i propri obiettivi se non è in grado di mettere in relazione gli stati cerebrali agli effetti comportamentali: sarebbe infondato mettere in relazione stati mentali con stati cerebrali e stati cerebrali con il comportamento umano. Una scienza sul comportamento umano potrà svilupparsi cercando e scoprendo gli stati cerebrali che stanno alla base, dove quelle disposizioni verso il comportamento sono legate in maniera appropriata a quegli stati cerebrali.
Processo di sintassi
Jerry Fodor elabora una relazione tra la sintassi e la semantica dei pensieri, sostenendo che i pensieri sono diversi nel contenuto solo se possono essere identificati attraverso rappresentazioni diverse. Stephen Stich ha introdotto la teoria sintattica della mente, la quale afferma che le teoria psicologiche non hanno bisogno di postulare proprietà semantiche.
Motori semantici
Un sistema formale è il nome di un sistema logico solitamente definito in modo matematico. Quando sono soggetti ad interpretazioni,lo studio dei sistemi formali sfocia nella matematica applicata. Le macchine computazionali possono essere qualificate come sistemi formali automatici, quando eseguono dei programmi, i quali diventano significativi solo se la loro sintassi soddisfa i vincoli di un’interpretazione già pianificata. Un sistema formale automatico, “dove la semantica segue la sintassi”, è stato denominato un motore semantico da Daniel Dennett.
Il linguaggio del pensiero
Jerry Fodor ha ipotizzato l’esistenza di un linguaggio innato. Egli lo chiama il “mentalese”, ovvero linguaggio del pensiero. Mettere in relazione una lingua appresa con il linguaggio del pensiero fa degli esseri umani dei motori semantici. Tuttavia, Fodor commette un errore nella sua teoria, lasciandosi sfuggire che la prima comprensione è non-linguistica. Una volta che la comprensione non-linguistica è stata acquisita, l’acquisizione delle disposizioni linguistiche per descriverle non appare problematica. Questa lingua base deve essere completa affinché possa sostenere correlazioni tra qualsiasi altra lingua naturale.
Sistemi formali
Noam Chomsky ipotizza una sintassi innata. Ogni essere vivente capace di utilizzare un linguaggio possiede una competenza computazionale illimitata, dove infinite frasi possono essere costruite da una base finita. Il linguaggio del pensiero è modellato su sistemi formali. I principi di quest’ultimi potranno o non potranno transferire da contesti astratti a contesti fisici, siccome i sistemi fisici sono limitati nelle loro capacità. Attraverso una comparazione, le macchine digitali e gli esseri umani possiedono una competenza computazionale limitata. Le proprietà dei sistemi formali impongono limiti sui processi mentali e sembrano avere rilevanza sullo studio della natura della cognizione.
Inclinazioni mentali
Secondo Roger Penrose, il pensiero è un fenomeno quantico e non-algoritmico. Se i processi mentali sono algoritmici, devono quindi essere deterministici, ma siccome i fenomeni quantici non sono deterministici e i fenomeni mentali sono processi quantici, quest’ultimi non sono funzioni, quindi le variabili non vengono specificate.
The frame problem
La causazione probabilistica agisce in tre contesti : nei processi sensoriali; nelle transizioni tra un modello e l’altro di attivazione; nella produzione di suoni e altri movimenti come risposta comportamentale.
La difficoltà emerge nel cercare di spiegare e fare delle previsioni. Questa difficoltà è altresì conosciuta come frame problem, ovvero il bisogno di dedurre che uno o più stati non cambi nel tempo, il quale forma una “struttura” dentro la quale gli stati potrebbero cambiare. Il problema dell’induzione si riscontra nel tentativo di predire il futuro in base alle informazioni sul passato. Hume osservò che non ci sono deduzioni in grado di garantire che il futuro segui il passato, siccome rimane logicamente possibile che non lo faccia.
Menti e cervelli
Poiché il connessionismo fa appello a modelli di attivazione dei nodi neurali, piuttosto che a quelli individuali, appare migliorare il concetto basato sulla computazione in diversi aspetti come ad esempio i completamenti concettuali di modelli familiari o il riconoscimento di nuovi modelli. I connettori “cervelli” sono capaci di ciò che è noto come “elaborazione parallela”, il che significa che a differenza delle macchine di Turing (sequenziali), essi sono capaci di elaborare simultaneamente più di un flusso di dati. I vantaggi dell’elaborazione parallela sono considerevoli, specialmente dal punto di vista dell’evoluzione ( rilevare gli odori e i suoni dei predatori prima di vederli offrirebbe vantaggi adattivi). Inoltre, l’apprendimento può essere considerato come un processo di aumento o diminuzione delle soglie di intervento per schemi specifici di nodi. Mentre, dunque, le rappresentazioni computazionali sono distribuite, gli esseri umani sono motori semantici con rappresentazioni distribuite. Tuttavia il connessionismo non conta come teoria del cervello perché esso non può spiegare la relazione tra corpi e menti senza una concezione della mente secondo cui essa dovrebbe chiarire l’incapacità di pensare qualcosa da parte di sistemi simbolici e sistemi semantici.
Sistemi semiotici
La concezione delle menti come sistemi semiotici ( o come sistemi di segnalazione) avanza un’alternativa al modello del connessionismo. I sistemi semiotici forniscono quadri non computazionali per investigare la natura della mente, la relazione tra mente e corpo e l’esistenza di altre menti. La relazione semiotica, elaborata da Peirce ( 1839-1914), è triadica: -relazione di causalità tra i segni e i loro utenti; -relazione tra i segni e ciò per cui stanno; -relazione interpretativa tra ciò che viene rappresentato dai segni e gli utenti di tali segni. Ci sono tre rami della teoria semiotica: -sintassi (studio dei segni e delle modalità di combinazione di questi) -semantica (studio della relazione tra i segni e ciò per cui esistono) -pragmatica (studio della relazione tra ciò che viene rappresentato dai segni e gli utenti). Diversi tipi di menti possono essere classificati in base ai tipi di segni che queste riescono a utilizzare: -iconici (utilizzo delle icone, che assomigliano a ciò per cui esse esistono) -indicizzati (utilizzo di indici, che sono causa o effetto di qualcosa) -simboliche (utilizzo di simboli, che sono abitualmente associati a quello a cui fanno riferimento). I significati sono indicati come la totalità dei comportamenti che un utente di segni potrebbe adottare in funzione del contesto. In questo contesto i modelli di attivazione neurali possono funzionare come segni interni.
Differenze critiche
Esaminando le più importanti differenze tra sistemi semiotici e calcoli computazionali diventa evidente a questo punto, perché la dimensione semantica della mentalità è stata compresa dalla definizione di sistemi di questo tipo. Innanzitutto una distinzione deve essere fatta tra quei segni che sono significativi per l’uso da parte di un sistema e segni significativi per gli utenti di quel sistema. “Simboli” nel senso di sistemi semiotici deve essere chiaramente distinto da “simboli” intesi come segni che possono non avere senso. Questa differenza riflette quella tra i sistemi del computer e il pensare. Un’ulteriore differenza è che le macchine digitali sono controllate da programmi in cui gli algoritmi costituiscono procedure decisionali efficaci e affidabili nella produzione di soluzioni a problemi. Le menti, invece, che sappiamo non essere controllate da algoritmi, vivono di un’altra dinamica. Ci sono molti tipi di pensiero che non soddisfano i vincoli imposti dalle procedure decisionali effettive. Essi non sono affidabili processi di risoluzione e non hanno bisogno di cedere soluzioni definitive ai problemi in un numero finito di passaggi. I collegamenti causali che influenzano la transizione dei pensieri sembra dipendere molto di più dai nostri contesti pragmatici che dalla semantica o dalla sintassi. Anche lo stesso segno può essere considerato icona, indice o simbolo in funzione del contesto di un utente in un determinato momento.
Critica ermeneutica
Dreyfus, attraverso la critica ermeneutica, non solo ha contestato la concezione atomica della rappresentazione che garantiva le basi per la composizione del significato, ma ha anche sottolineato l’importanza del ruolo dei corpi come veicoli di significato, specialmente attraverso le interazioni con il mondo. L’idea stessa di creare oggetti pensati artificialmente, in cui le menti non sono inestricabilmente intrecciati con i corpi, diventa sempre meno plausibile. In definitiva l’adeguatezza di una teoria della mente dipende dall’adeguatezza della teoria del significato fornita che mette in relazione cervelli, menti e comportamenti. Essa dovrebbe fornire un resoconto completamente causale di come i segni impiegati dalle menti costituiscano una differenza tra il comportamento di questi sistemi. Un modo attraverso cui ciò può accadere emerge dai differenti modi in cui le sensazioni influenzano il comportamento.
Convenzioni e comunicazioni
Poiché utenti differenti possono usare segni differenti con stesso significato o con significato differente, può darsi il caso in cui un utente combini i segni in modo tale che essi nella oro totalità non siano gli stessi di un altro utente. Ciò implica che la concezioni sociali del linguaggio, secondo cui i linguaggi privati sono impossibili, non sono fondate seguendo la prospettiva dei sistemi semiotici. Nel caso in cui un utente inventasse un nuovo sistema di segni che avesse significato solo per lui, questo sarebbe tuttavia ancora apprendibile o pensabile da un altro utente (anche se ciò non si è mai verificato). In situazioni di comunicazione parlate o scritte, un utente tende a subentrare quando vengono utilizzati i suoi stessi segni. Ciò è possibile quando lo stesso segno S rappresenta la medesima cosa X per due utenti Z1 e Z2. Ci sono circostanze in cui preferiremmo che i segni siano confidenziali (Turing trascorse molto tempo a decifrare i messaggi in codice tedeschi durante la Seconda Guerra Mondiale). Altre circostanze incoraggiano l’uso degli stessi segni negli stessi modi, ad esempio all’interno di una comunità di membri con comuni obiettivi.
Altre menti
Quando relazioni causali avvengono (input producono output) e quegli input e quegli output non servono come segni di un sistema, essi possono essere classificati come stimoli. Quando gli effetti sono provocati in virtù della loro preparazione per i sistemi che li usano, essi possono essere classificati come segni. Quando si verificano relazioni semiotiche (segni utilizzati da un utente sono interpretabili da un altro) tra i sistemi, essi possono essere classificati come segnali (intenzionali e non). Ogni segno deve essere uno stimolo e ogni segnale deve essere anche un segno ma non viceversa. E’ evidente che le macchine di Turing, i computer digitali sono differenti dalle menti umane. Se il pensiero fosse governato da algoritmi, queste eseguirebbero semplicemente delle istruzioni in maniera meccanica come i robot, e non avrebbero bisogno di intuizione, invenzione. Le nostre attività mentali richiedono molto di più. Alcuni dei più distintivi aspetti del pensiero tendono a separare le menti dalle macchine. Le simulazioni sono chiaramente troppo deboli e le emulazioni, che svelano stessi input, stessi output, stesso processo e stessa materia, sono troppo forti. MACCHINE INTELLIGENTI Un approccio di questo tipo può spiegare perché i sistemi di simboli e i motori semantici non sono cose pensanti: le loro proprietà giustificano la forma dei pensieri ma non i loro contenuti. Il connessionismo come concezione delle reti neurali richiede un’indagine sulla natura della mente che non è computabile. Computare, infatti, è solo un modo speciale di pensare. Gli organismi primitivi avevano delle abilità semiotiche estremamente elementari, come ad esempio la sensibilità della luce. Se vivere alla luce promuoveva la sopravvivenza e riproduzione, allora quel comportamento avrebbe apportato benefici a questo sistema. Grazie all’influenza della mutazione genetica, la selezione naturale, la riproduzione sessuale, l’evoluzione biologica che continua tutt’oggi, siamo in grado di usare sistemi semiotici sempre più complessi. I sistemi connessionali creati dall’uomo si sono così evoluti che non dovrebbe sorprendere il fatto di poterli considerare cose pensanti artificiali. Anche se i sistemi simbolici e motori semantici sembrano non potersi qualificare come cose pensati, ciò non significa che non possono essere considerate come macchine intelligenti (capaci di elaborare complessi compiti in maniera attendibile). L’avvento delle macchine intelligenti arrivò molto tempo fa. La seducente tentazione concettuale è stata quella di confondere le macchine intelligenti con le cose pensanti.