Filosofia dell'informazione/Cibernetica

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search
Concetti fondamentali
I computer nella società
Mente e Intelligenza Artificiale
Mondi reali e virtuali
Linguaggio e conoscenza
Logica e probabilità
Scienza e tecnologia
Risorse

Tra il 1960 e il 1970, le precedenti linee di ricerca utilizzate nella cibernetica classica furono abbandonate; si verificarono in quegli anni, infatti, i primi successi di una nuova disciplina, la quale riassunse l’ambizione della stessa cibernetica e il suo battersi per lo studio pianificato di organismi e macchine, sebbene su basi completamente differenti: l’Intelligenza Artificiale (AI). Nonostante ciò, molti tipici programmi di ricerca cibernetici furono ripresi, includendo il tentativo di riformulare la materia. L’obiettivo dell’AI può essere definito funzionalmente tramite la nozione di feedback negativo, nonostante molti filosofi argomentassero che quest’ultima non adempisse realmente alle condizioni necessarie per considerarla uno schema comportamentale appropriato: una definizione tale è infatti esclusivamente relativa ad un osservatore esterno, il quale attribuisce un obiettivo al sistema, tuttavia essa non dice nulla riguardo l’obiettivo del sistema in questione. È infatti opportuno puntualizzare che il segnale di feedback in sé rappresenta uno scopo già esistente nell’ambiente esterno, il quale guida un determinato comportamento del sistema: nel caso di “oggetti non esistenti”, che possono ciononostante rappresentare il contenuto di credenze o desideri del sistema, l’approccio cibernetico non sembra avere nulla da dire. I pionieri della AI criticano inoltre la capacità di simulazione dei processi cognitivi dei sistemi proposti dalla cibernetica, la quale puntò su ciò con l’intento di riprodurre comportamenti teleologici artificiali, come creare deduzioni o risolvere problemi, al fine di studiare le procedure d’azione del sistema, realizzate da uno specifico programma teleologicamente orientato. In questo caso, furono utilizzate strutture simbolo degli scopi perseguiti, detentrici di informazioni riguardo gli scopi perseguiti; alcune di esse erano atte ad organizzare il comportamento del sistema in complesse gerarchie, selezionando metodi per testare il raggiungimento dei singoli scopi. Due esempi sono il giocare a scacchi e il provare teoremi, attività riguardanti l’ambito di compiti preferito dalla prima AI: in essi, la risoluzione dei problemi costruisce una rappresentazione interna dello spazio del problema e lavora a strategie finalizzate a trovare una soluzione, o obiettivo; in questi casi, non è necessario per l’attività teleologica essere guidata da uno stato finale che realmente esiste nell’ambiente esterno (Phiylyshyn 1984). Come ritiene la simulazione dei processi cognitivi, l’introduzione dei concetti di algoritmi, che sottolinea il concetto di programma, rappresenta un importante progresso, portando allo sviluppo della Scienza Cognitiva. Suggerito dalla nozione di algoritmo o, più precisamente, della macchina di Touring, è una critica posizione filosofica di materialismo riduzionista all’interno del problema mente-corpo, ovvero il funzionalismo, introdotto da Putnam con il suo articolo Menti e macchine (1960). Putnam argomentò che vi è la possibilità di studiare gli stati mentali non riferendoli direttamente a stati cerebrali, ma sulle basi della loro organizzazione funzionale, che riguarda le loro interazioni reciproche e con input sensoriali e output comportamentali. Il declino della ricerca sui network neurali divenne generalizzato dopo una pubblicazione di Minsky e Papert del 1969, la quale dimostrava le difficoltà effettive riscontrate dai Perceptron nel discernere anche stimoli visuali molto semplici. Nonostante questi primi fallimenti, molti ricercatori continuarono a lavorare sui network neurali; il lavoro di Rosenblatt giustificò tale continuità nei primi anni ‘80, grazie allo sviluppo dei grandi computer, permettendo la finallora impossibile simulazione di complessi network neurali. David Rumelhart e diversi collaboratori pubblicarono inoltre una serie di documenti basati sui trattamenti paralleli distribuiti approcciati all’informazione, mostrando come un algoritmo d’insegnamento basato sulla correzione dell’errore renda possibile superare le principali limitazioni dei network neurali riportate da Minsky e Papert. A partire dal 1980, le ricerche sui network neurali differirono fortemente dall’originale realizzazione di Perceptron, e proposero modelli con un’architettura molto più vicina al cervello umano rispetto ai modelli algoritmici proposti dall’AI e dalla Scienza Cognitiva. Anche la costruzione di robot mobili arrivò molto presto al proprio declino, dovuto alla predominanza dell’interesse in AI nelle procedure di ragionamento, pianificazione e problem solving. Rodney Brooks ha puntualizzato i limiti di entrambe la robotica AI e la robotica cibernetica, come ad esempio la sottovalutazione della possibilità di decomporre comportamenti in semplici moduli o il mancato riconoscimento del potenziale comunicativo digitale e la sua grande flessibilità di computazione analogica. Il nuovo progetto proposto da Brooks apparve come una radicale alternativa all’approccio della robotica AI: esso si basava infatti su livelli distinti di controllo funzionale, agenti progressivamente sull’ambiente senza essere supervisionati da un controllo centralizzato e da un centro di pianificazione dell’azione, come nel caso invece della robotica AI. Un esempio ne è il robot Allen, primo membro di questa generazione di nuove “creature”, capace di evitare ostacoli nel suo cammino e continuando invece a perseguire un obiettivo assegnatogli. Nonostante tale approccio fosse limitato dalla difficoltà di combinare un numero crescente di moduli elementari per ottenere comportamenti più complessi, esso riuscì a portare alla luce molti aspetti trascurati dalla prima AI e dal funzionalismo radicale, come lo sviluppo cognitivo. Contemporaneamente ai molti tentativi di sviluppare modelli cibernetici dalle funzioni di organismi viventi, un approccio maggiormente radicale cominciò ad acquistare popolarità: il cardine della cibernetica, ovvero il controllo di feedback e dell’informazione, applicato allo studio di un ampio campo comprendente ogni forma di interazione fra organismi o agenti. In questo modo, la cibernetica cominciò ad essere usata come un campo di incontro per specialisti in differenti discipline, come dichiarato a partire dalla Macy Foundation Conferences, tenuta a New York tra il 1946 e il 1953. Il coinvolgimento di neurologi e psicologi si dimostro inevitabile sin dal principio; in aggiunta a tali studiosi, i seminari interdisciplinari furono presenziati dai pionieri della teoria dell’informazione, come sociologi, ecologi e scienziati sociali. Il principio di feedback negativo cominciò presto un principio universale, con lo scopo di interpretare l’evoluzione attraverso uno stato di equilibrio di un vasto campo di complessi sistemi sociali, politici, pedagogici, economici, industriali ed ecologici. In quegli anni, grazie al lavoro di vari ricercatori, i quali sperimentarono nuovi strumenti di sintesi concettuale su problemi specifici, sorse una popolare filosofia della cibernetica, che talvolta impiegò concetti cibernetici metaforicamente, al fine di interpretare la nozione di feedback come rivelatore del segreto della natura. Da quel momento in poi si verificò un trasferimento di concetti fondamentali della cibernetica a molti campi, tramite differenti progetti interdisciplinari: ne è un esempio il progetto per una “teoria generale di sistema” inizialmente proposta dal biologo Ludwig Von Bertalanffy. Tale studioso adottò un approccio basato su un particolare sistema atto a “scambiare” materia ed energia con l’ambiente, definibile come termodinamicamente aperto; successivamente, Hya Prigogine sviluppò ulteriormente questo approccio, partendo da teorie che analizzavano sistemi caotici e dinamici. Altri autori concentrarono invece la propria attenzione sul concetto dell’autorganizzazione e dell’autonomia, insistendo sulla centralità di queste nozioni e, in particolare, su un classico tema della filosofia della coscienza: la relazione tra il soggetto, o osservatore, e l’oggetto o ciò che è osservato. Da questa prospettiva, la realtà in sé stessa diventa un oggetto interattivo, ritenendo che l’osservatore e l’osservato esistano in un perpetuo e ininterrotto sistema circolare. Da tale prospettiva, inoltre, si considera l’attività del sapere come un atto di replicazione, attraverso rappresentazioni simboliche interne già presenti nel mondo esterno, come processo costruito dall’osservatore stesso. Il principale obiettivo di tali studiosi è liberarsi da ciò che essi ritengono sia il “dogma” scientifico-filosofico per eccellenza, ovvero che la scienza debba occuparsi della presunta precostituita realtà esistente in quanto tale, indipendentemente dall’osservatore. La critica di questi scopi epistemologici ha il proprio punto di partenza nella Cibernetica di secondo ordine di Heinz von Foerster e nella Metodologia operazionale di Silvio Ceccato. In conclusione, tale percorso di ricerca rende chiaro un duplice risultato, il quale vede, da un lato, il “costruttivismo radicale” di Hernst von Glasersfeld, secondo il quale è il soggetto che costruisce ciò che esso conosce sulle basi della propria esperienza; dall’altro lato si hanno invece visioni del mondo più generali, nelle quali si collocano insieme cognizione e costruttivismo, autopoiesi e ermeneutica di Hans Gadamer, la filosofia di Martin Heidegger e la filosofia buddista in un criticismo dello “scienziato occidentale” e della tradizione “razionalista”. Nonostante sia ancora poco chiaro se tali posizioni apportino un reale avanzamento dell’accezione cibernetica in connessione ai fenomeni, è opportuno sottolineare il fondamentale ruolo della ricerca in tale campo, la quale ha contribuito sensibilmente alla tradizione, segnando un significativo ed indiscusso progresso.