Filosofia dell'informatica/L'intelligenza artificiale: differenze tra le versioni

Wikibooks, manuali e libri di testo liberi.
Contenuto cancellato Contenuto aggiunto
Riga 51: Riga 51:


==La posizione di Federico Faggin==
==La posizione di Federico Faggin==
Il fisico italiano [[w:Federico Faggin|Federico Faggin]], capo progetto dei primi microprocessori e fondatore della [[w:Synaptics|Synaptics]], ditta sviluppatrice dei primi [[w:Touchpad|Touchpad]] e [[w:Touchscreen|Touchscreen]], si sta occupando dal 2011 allo studio della consapevolezza, tramite la Federico and Elvia Faggin Foundation, fondazione no-profit da lui creata. La questione della consapevolezza è fortemente legata al dibattito sull'intelligenza artificiale. In un articolo del dicembre 2015, pubblicato da "Mondo digitale"<ref>http://mondodigitale.aicanet.net/2015-6/articoli/01_sara_possibile_fare_un_computer_consapevole.pdf</ref>, Faggin inizia, infatti, la sua riflessione chiedendosi se sarà davvero possibile - come ritengono molti suoi colleghi - costruire delle macchine pienamente in grado di riprodurre azioni e pensieri umani, fino a superare l'intelligenza degli esseri umani stessi. Faggin ammette che dei successi nel campo delle IA sono stati raggiunti (giocare a scacchi e sconfiggere un avversario di medio livello, svolgere in un tempo brevissimo calcoli molto complessi, ecc.) ma che essi si riducono paradossalmente al campo dei problemi di grande difficoltà, mentre l'IA resta impotente di fronte a quelli ritenuti "semplici" dagli esseri umani (il riconoscimento di un volto, ecc.). Malgrado la potenza e la velocità di calcolo sempre maggiori dei moderni computer, essi restano incapaci di riprodurre il pensiero umano. Questo perché, secondo Faggin, il cervello umano ha sviluppato, nel corso dei secoli, un pattern recognition in grado di trovare delle scorciatoie in breve tempo quando ci si trova di fronte a problemi immediati, come un pericolo imminente (una pantera semicoperta dai cespugli). Questa capacità di risolvere operazioni "matematiche" di natura sconosciuta viene definita da Faggin "forza sottile", che non siamo in grado di programmare nei computer, dotati, invece di "forza bruta" (rapidità nello svolgere calcoli matematici espliciti). Il cervello umano opererebbe, quindi, una sorta di catalogazione dei problemi, dunque dei dati ricevuti, in grado di rendere più immediata la risoluzione di quelli più imminenti o più abituali. Ciò significa che il cervello umano è in grado di "pesare" i dati ricevuti, ovvero di capirne il significato. L'uomo ha, dunque, consapevolezza di sé, di ciò che pensa, di ciò che sa e di ciò che non sa. Ed è proprio questa consapevolezza ha renderlo vivo e, quindi, assolutamente diverso da un computer, che non è vivo. Per Faggin la consapevolezza non è un epifenomeno dei processi neurologici, come ritengono molti scienziati, ma un qualcosa di realmente esistente. La sua opinione è che siccome non si è mai riusciti a comprendere scientificamente la consapevolezza, la si è ritenuta non esistente. Essa non potrà mai essere compresa finché si continuerà ad applicare uno studio [[w:riduzionismo|riduzionistico]] ad un sistema [[w:olismo|olistico]] quale è l'uomo e quale è la cellula stessa. Come dimostrato dalla [[w:meccanica quantistica|meccanica quantistica]], infatti, l'[[w:universo|universo]] è un sistema olistico, in cui le parti non sono separate dal tutto, e il tutto solo limita alla semplice somma delle parti, ma l'Uno (inteso come totalità dell'esperienza, interna e esterna) è costantemente in comunicazione con se stesso e può, quindi, avere autoconoscenza di sé. Questa è la grande differenza dell'uomo con i computer, che, in quanto sistemi riduzionistici, raggiungono la consapevolezza del migliore dei transistor che lo compongono e, in essi ogni parte non è connessa con il tutto: ogni parte svolge il suo ruolo senza essere consapevole del lavoro delle altre. Le IA non potranno, dunque, equiparare l'intelletto umano finché saranno basate su sistemi riduzionistici, in quanto dotati di una consapevolezza inferiore non per grado, ma per qualità. Degli sviluppi interessanti potrebbero aversi con l'utilizzo di computer quantistici - e quindi non più basati sulla [[w:meccanica classica|meccanica classica]] - ma la possibilità reale di raggiungere le capacità dell'uomo si avrà solo con la realizzazione di computer dotate di cellule animali, in particolare umane, ipotesi molto lontana dal presente. Per tale motivo, Faggin ritiene che lo sviluppo di computer sempre più potenti non dovrebbe creare preoccupazione sulla possibilità di una loro "ribellione" all'uomo, ma sulla possibilità reale di finire nelle mani di uomini malvagi che li userebbero per i loro fini, perché, in quanto inconsapevoli, i computer si limitano ad eseguire i comandi per i quali sono stati programmati.


==Riferimenti bibliografici==
==Riferimenti bibliografici==

Versione delle 03:24, 9 lug 2016

Indice del libro

L'Intelligenza Artificiale

L'Intelligenza Artificiale consiste nella costruzione di macchine "pensanti", ossia capaci di aiutare o assistere l'uomo nel risolvere compiti teorici o pratici. La sua nascita ufficiale risale al 1956. Già Alan Turing, uno dei padri dei moderni computer, affrontò i principali problemi che hanno dato luogo a diverse interpretazioni del programma di ricerca dell'IA. Con l'avvento della sua macchina, Turing discusse le obiezioni di una "macchina intelligente" dovute all'incompatibilità della nozione di "automatismo" con quella di "intelligenza".

Tra i diversi campi di studio dell'IA, si è sviluppata la robotica, il cui scopo principale è quello di sostituire l'uomo in alcune attività produttive. I robot della prima generazione hanno capacità di memoria, mentre quelli della seconda vengono progettati per interagire con l'ambiente esterno. Nel 1956 Allen Newell e Herbert Simon e Shaw hanno creato il Logic Theorist, un programma capace di imitare il problem solving di un essere umano.

Il Logic Theorist ha avuto un ruolo protagonista nel seminario estivo organizzato da Minsky, Rochester, Shannon e McCarty. L'obiettivo di tale incontro era quello di esaminare che ogni aspetto dell'apprendimento può essere specificato, affinché sia possibile costruire una macchina che la simuli. Il seminario si tenne nel Dartmouth College. Qui i fondatori dell'IT discussero con McCarthy sul fatto che la programmazione dell'LT non fosse scritta in linguaggio macchina, bensì di un livello superiore. Esso fu considerato come il miglior progetto in stato di realizzazione avanzato tra quelli discussi a Dartmouth.

Le origini del pensiero meccanico

Il seminario di Dartmouth

Pro e contro il logicismo, la Visione Artificiale

Nel 1958 il ricercatore John McCarthy delineò un programma, l'Advice Taker, che avrebbe dovuto essere in grado di elaborare piani e ricavare conseguenze sulla base di un corpo di conoscenze adeguatamente esteso. In seguito Cordell Green, uno studente di McCarthy, implementò l'Advice Taker in un programma, il QA3, in grado di rispondere a diverse domande su domini specifici. Green introdusse una nuova procedura di deduzione automatica, ideata da J.Alan Robinson, il principio di risoluzione: un calcolo logico senza assiomi, avente come obiettivo non la simulazione di processi umani, ma risultati logici di tipo euristico.

Durante gli anni '70 gran parte della ricerca dell'IA si interessò alla formulazione teorica del ragionamento automatico legato ai problemi logici del buon senso, al fine di creare programmi che permettono ai computer di ragionare in modo parzialmente o addirittura completamente automatico.

Gran parte della ricerca sulla deduzione automatica si concentrò sui cosiddetti raffinamenti della risoluzione. Ma a seguito degli insoddisfacenti risultati ottenuti, l’attenzione si spostò sulle procedure euristiche, ispirate ai metodi umani di risoluzione dei problemi. L’impossibilità di utilizzare le prestazioni di QA3 in presenza di problemi complessi mise in evidenza il cosiddetto frame problem, formulato da McCarthy e Patrick Hayes, derivante dai cambiamenti che in un mondo reale possono verificarsi durante l’esecuzione di un piano e che la nostra mente risolve tramite lo sfumato ragionamento del buon senso, caratteristica precipua della logica grigia umana. I due ricercatori posero una netta differenziazione tra i problemi derivanti dal controllo delle inferenze, definiti euristici e i problemi relativi alla rappresentazione della conoscenza, tramite un linguaggio formale, definiti come epistemologici. Per McCarthy la corretta impostazione dei problemi epistemologici può essere preliminare alla soluzione di altri; occorre quindi chiarire prima gli aspetti della logica necessari per catturare il carattere non monotono del ragionamento del buon senso.

Marvin Minsky lanciò un pesante attacco alle tesi logiciste, che a suo avviso non erano in grado di affrontare il carattere olistico della conoscenza umana. Un'idea dominante nel pensiero di Minsky è quella di rendere un computer in grado di gestire non solo dati numerici, ma anche simboli di tipo linguistico per la comprensione di forme di ragionamento basate su analogie e sul senso comune. Secondo Minsky la logica usata nei calcolatori non è adatta a descrivere i processi di pensiero adottati dagli uomini nelle comuni situazioni quotidiane. Egli ricorre pertanto al concetto di frame, un sistema di riferimento capace di fornire al programma una gamma di informazioni che trattano una classe di oggetti o di situazioni. Quando si trova di fronte a un problema da risolvere, il programma seleziona un frame e tenta di applicarlo alla soluzione del problema; se l'esito è negativo, prova con un altro frame, e così via.

Un dibattito tra due scuole di pensiero, dichiarativisti e proceduralisti, divise, sempre negli anni '70, il mondo dell’IA. La tesi dichiarativista, sostenuta in particolare dai logicisti, per la quale la conoscenza è in primo luogo sapere che, e consiste quindi nell'utilizzo di un insieme di fatti e regole per inferirne altri e la tesi proceduralista, per cui la conoscenza è prima di tutto sapere come, e consiste pertanto nel disporre di procedure per l’uso della conoscenza stessa.

Una risoluzione a questi dibattiti fu fornita dalla visione artificiale ideata da David Marr, per il quale sono le caratteristiche fisiche degli oggetti e non le conoscenze del sistema sugli oggetti, a guidare dal basso la loro identificazione nei primi due stadi della percezione visiva (visione primaria). La visione, affermò Marr: "è un processo che a partire da immagini del mondo esterno produce una descrizione utile allo spettatore e non ingombra di informazioni non pertinenti".

Vecchi e nuovi progetti

Nel 1975, Newell e Simon, ritenendo che un sistema intelligente dovesse essere in grado di trasformare espressioni simboliche in altre, formularono l'ipotesi del sistema fisico di simboli. Partendo da questo presupposto, Newell indagò l'architettura generale dell'intelligenza studiando i sistemi di produzione e arrivando alla creazione di SOAR, architettura basata su un meccanismo di apprendimento detto chunking. Simon, invece, si concentrò sulla simulazione del comportamento umano tramite protocolli verbali, contribuendo alla fondazione del programma BACON. Un passo in avanti fu svolto da Douglas Lenat, interessato alle capacità di apprendimento di una macchina, che avviò, nel 1984, il programma CYC.

Intensificandosi le ricerche sull'IA, nacque, come vera e propria disciplina, la scienza cognitiva che vide coinvolti Zenon Pylyshyn e Philip Johnson-Laird, sostenitori della possibilità di giungere alla conoscenza per via computazionale attraverso strutture di simboli e interessati all'indagine sui limiti dei processi cognitivi. Pylyshyn, distingue i processi cognitivi in penetrabili e non-penetrabili dove i primi sono quelli percettivi, basati su credenze e conoscenze, e i secondi sono quelli superiori, adibiti alla soluzione dei problemi. Johnson-Laird, invece, elaborò la struttura dei modelli mentali. Fu proprio grazie alla nascita di questa disciplina che furono formulate numerose teorie sulle reti neurali favorendo il confronto e il dibattito tra filosofi e psicologi cognitivi. Si iniziò a discutere sulla identità mente-cervello - condivisa dai filosofi - secondo cui ci sarebbe corrispondenza tra uno stato mentale ed uno cerebrale; questa fu ampiamente criticata da Putman, tramite l'ipotesi del funzionalismo. Newell diede un apporto significativo: introdusse il livello della conoscenza ai due già individuati dall'IA, quello fisico (hardware) e quello dei simboli; ed individua la mente come un dispositivo sintattico che imita il funzionamento della realtà; in questo senso, ciò che causa un evento fisico non è il contenuto di una rappresentazione, ma è la struttura fisica di simboli stessa.

Alla fine degli anni '80 si sono ormai consolidate diverse posizioni, tra cui le più influenti vennero riassunte in cinque punti da David Kirsh:

  1. l'importanza delle regole e della rappresentazione della conoscenza;
  2. il disembodiment, mero studio della cognizione senza tener conto del rapporto mente-corpo;
  3. il carattere linguistico dell'attività cognitiva;
  4. lo studio dei processi cognitivi astratti dal contesto naturale;
  5. l'invariabilità dell'architettura durante l'intero processo di cognizione.

Con l'adesione o meno a queste teorie, i contributi più significativi videro la fondazione dell'IA distribuita, importante per il suo approccio cooperativo - dovuto alla nascita dei sistemi di blackboard- e per il suo approccio sociale. Significativo fu anche l'intervento di Rodney Brooks, il quale contrapponeva all'approccio robotico dall'alto un'architettura della sussunzione, permettendo così la costruzione di robot mobili e automatizzati, in grado di agire in tempo reale in caso di situazioni non previste. Questo fu possibile grazie all'approccio denominato scomposizione di comportamento, dove l'agente è diviso in moduli di controllo specifici e interconnessi tra loro così che si attivino o inibiscano a vicenda, adattando il modello del mondo ai propri scopi. Un altro approccio significativo, un approccio dal basso, fu dato da John Holland, fondatore degli algoritmi genetici, capaci di generare una "prole" di regole per la soluzione di un problema; questi furono inseriti nei sistemi classificatori permettendo di incrementare la conoscenza tramite un processo di aggiunta di nuove stringhe di informazioni finalizzate ad una determinata azione.

La nuova IA

Accanto all' intelligenza artificiale classica o simbolica, che alla fine del '900 si avvia a compiere cinquant'anni di storia, se ne inserisce un'altra chiamata "nuova", la cui filosofia è sintetizzata molto bene nel volume di Pfiefer e Scheier intitolato "Understanding intelligence". Uno dei principali esiti di questa nuova IA è costituito dalla robotica, che ai tempi di Brooks si è trovata a dover affrontare problemi non facili: uno di questi riguarda il sistema di controllo in robot basati sull'architettura della sussunzione, che consiste nell'assegnare ad ogni comportamento un modulo di controllo .Tale architettura incontra difficoltà nell'integrare efficacemente i moduli man mano che questi vengono aggiunti per ottenere prestazioni più complesse del robot. Da tali difficoltà è partita la robotica evolutiva , che ha usato gli algoritmi genetici come procedura automatica per sviluppare in modo evolutivo il sistema di controllo di un robot nel corso della sua interazione con l'ambiente esterno. Obiettivo della nuova robotica evolutiva è l'autonomia estesa dal livello del comportamento a quello della progettazione e fabbricazione; lo scopo è, in sostanza, costruire riducendo al massimo l'intervento dell'uomo. Tornando a Brooks, bisogna dire che già alcune ricerche indipendenti da Brooks avevano sperimentato sistemi di rappresentazione della conoscenza " ibridi". Successivamente,nel 1998 al simposio della American Association for the Artificial Intelligence, viene proposto un Manifesto della robotica cognitiva basato sull'idea di robot ibridi, con i quali si intendono architetture in grado di manifestare robustezza e azione in tempo reale e di usare sistemi di pianificazione e rappresentazione della conoscenza.In effetti, la nuova robotica ha dovuto fare i conti con lo slogan di Brooks "Intelligenza senza rappresentazione" e con la difficoltà sollevata da Kirsh, consistente nello sviluppare le capacità dei robot da un livello reattivo ad uno che prevede attività più complesse di interazione con l'ambiente. Tuttavia, lo stesso Brooks è tornato su questa difficoltà, proponendo un nuovo slogan, ossia " Intelligenza senza ragione", ma precisando che la sua precendente critica alle rappresentazioni era diretta contro quelle com'erano concepite dall'IA e la robotica classiche e non contro le rappresentazioni come "modelli parziali del mondo". Tali conclusioni sono rilevanti su due fronti: in primo luogo per la nuova robotica con vocazione etologica; in secondo luogo per la robotica umanoide: essa prevede la realizzazione di robot umanoidi, concepiti per essere in grado di interagire ed eventualmente cooperare con gli essere umani. In virtù di tali compiti ambiziosi, nascono non poche controversie riguardo al rapporto tra esseri umani e robot. I robot umanoidi hanno posto il problema di come dotarli di una morfologia somigliante a quella degli esseri umani, come ad esempio dar loro capacità di mimica facciale e manifestazioni di emozioni. Un esempio di un robot umanoide è il robot Kismet, in grado di manifestare sia semplici espressioni facciali sia elementari convenzioni sociali. Un progetto di ricerca della nuova IA, critico nei confronti dell'IA simbolica e del connessionismo, è stato " la modellistica neurale sintetica" di G. Edelman. Con diversi collaboratori egli aveva già costruito automi a reti neurali simulati. Gli automi neurali di Edelman incorporano i principi del "darwinismo neurale", teoria secondo la quale l'apprendimento è il risultato di un processo evoluzionistico di selezione di gruppi diversi di neuroni durante lo sviluppo dell'organismo e la sua interazione con l'ambiente . Le macchine sono da lui considerate un controllo di questa teoria. Inoltre, nel campo della nuova IA non mancano anche posizioni che tentano di esplorare un "terreno intermedio" tra sistemi connessionisti e quelli simbolici. As esempio, Thorntonha sostenuto un approccio "ibrido" nel quale si integrano reciprocamente le esigenze evolutive poste dalla vita artificiale e quelle rappresentazionali dell'IA classica.Tuttavia, frequente è anche la discussione circa l'incompatibilità tra spiegazione classica e spiegazione dinamicista della cognizione. Sarebbe,in ogni caso, preferibile non fare dell'IA vecchia e nuova dei paradigmi contrapposti. In modo particolare, ad insistere sulla contrapposizione del loro paradigma " subsimbolico" con quello "simbolico" dell'IA sono stati soprattutto i connessionisti degli anni '80. Tale contrapposizione sembrava inizialmente derivare dal libro pubblicato da Minsky e Papert , che avevano ingiustamente cancellato le reti neurali dal mondo della ricerca. Ma, in realtà, James McClelland ha dichiarato di non credere che l'evento decisivo per l'arresto della ricerca sulle reti neurali sia stato il libro succitato, ma piuttosto egli riteneva che "non si era pronti" per tale ricerca. Un caso diverso da quello delle reti neurali è quello della traduzione automatica, i cui finanziamenti furono interotti nella metà degli anni '60; essa fu ripresa qualche anno dopo quando si individuò una strada più promettente per affrontarla, che permise di ricollegare la traduzione automatica ai nuovi studi sul linguaggio naturale.

La posizione di Federico Faggin

Il fisico italiano Federico Faggin, capo progetto dei primi microprocessori e fondatore della Synaptics, ditta sviluppatrice dei primi Touchpad e Touchscreen, si sta occupando dal 2011 allo studio della consapevolezza, tramite la Federico and Elvia Faggin Foundation, fondazione no-profit da lui creata. La questione della consapevolezza è fortemente legata al dibattito sull'intelligenza artificiale. In un articolo del dicembre 2015, pubblicato da "Mondo digitale"[1], Faggin inizia, infatti, la sua riflessione chiedendosi se sarà davvero possibile - come ritengono molti suoi colleghi - costruire delle macchine pienamente in grado di riprodurre azioni e pensieri umani, fino a superare l'intelligenza degli esseri umani stessi. Faggin ammette che dei successi nel campo delle IA sono stati raggiunti (giocare a scacchi e sconfiggere un avversario di medio livello, svolgere in un tempo brevissimo calcoli molto complessi, ecc.) ma che essi si riducono paradossalmente al campo dei problemi di grande difficoltà, mentre l'IA resta impotente di fronte a quelli ritenuti "semplici" dagli esseri umani (il riconoscimento di un volto, ecc.). Malgrado la potenza e la velocità di calcolo sempre maggiori dei moderni computer, essi restano incapaci di riprodurre il pensiero umano. Questo perché, secondo Faggin, il cervello umano ha sviluppato, nel corso dei secoli, un pattern recognition in grado di trovare delle scorciatoie in breve tempo quando ci si trova di fronte a problemi immediati, come un pericolo imminente (una pantera semicoperta dai cespugli). Questa capacità di risolvere operazioni "matematiche" di natura sconosciuta viene definita da Faggin "forza sottile", che non siamo in grado di programmare nei computer, dotati, invece di "forza bruta" (rapidità nello svolgere calcoli matematici espliciti). Il cervello umano opererebbe, quindi, una sorta di catalogazione dei problemi, dunque dei dati ricevuti, in grado di rendere più immediata la risoluzione di quelli più imminenti o più abituali. Ciò significa che il cervello umano è in grado di "pesare" i dati ricevuti, ovvero di capirne il significato. L'uomo ha, dunque, consapevolezza di sé, di ciò che pensa, di ciò che sa e di ciò che non sa. Ed è proprio questa consapevolezza ha renderlo vivo e, quindi, assolutamente diverso da un computer, che non è vivo. Per Faggin la consapevolezza non è un epifenomeno dei processi neurologici, come ritengono molti scienziati, ma un qualcosa di realmente esistente. La sua opinione è che siccome non si è mai riusciti a comprendere scientificamente la consapevolezza, la si è ritenuta non esistente. Essa non potrà mai essere compresa finché si continuerà ad applicare uno studio riduzionistico ad un sistema olistico quale è l'uomo e quale è la cellula stessa. Come dimostrato dalla meccanica quantistica, infatti, l'universo è un sistema olistico, in cui le parti non sono separate dal tutto, e il tutto solo limita alla semplice somma delle parti, ma l'Uno (inteso come totalità dell'esperienza, interna e esterna) è costantemente in comunicazione con se stesso e può, quindi, avere autoconoscenza di sé. Questa è la grande differenza dell'uomo con i computer, che, in quanto sistemi riduzionistici, raggiungono la consapevolezza del migliore dei transistor che lo compongono e, in essi ogni parte non è connessa con il tutto: ogni parte svolge il suo ruolo senza essere consapevole del lavoro delle altre. Le IA non potranno, dunque, equiparare l'intelletto umano finché saranno basate su sistemi riduzionistici, in quanto dotati di una consapevolezza inferiore non per grado, ma per qualità. Degli sviluppi interessanti potrebbero aversi con l'utilizzo di computer quantistici - e quindi non più basati sulla meccanica classica - ma la possibilità reale di raggiungere le capacità dell'uomo si avrà solo con la realizzazione di computer dotate di cellule animali, in particolare umane, ipotesi molto lontana dal presente. Per tale motivo, Faggin ritiene che lo sviluppo di computer sempre più potenti non dovrebbe creare preoccupazione sulla possibilità di una loro "ribellione" all'uomo, ma sulla possibilità reale di finire nelle mani di uomini malvagi che li userebbero per i loro fini, perché, in quanto inconsapevoli, i computer si limitano ad eseguire i comandi per i quali sono stati programmati.

Riferimenti bibliografici

Note

  1. http://mondodigitale.aicanet.net/2015-6/articoli/01_sara_possibile_fare_un_computer_consapevole.pdf