Filosofia dell'informatica/I concetti fondamentali

Wikibooks, manuali e libri di testo liberi.
Indice del libro

Per tracciare il perimetro filosofico dell'informatica, occorre prendere le mosse dalla definizione dei suoi concetti più importanti e dall'individuazione dei suoi elementi teorici più caratterizzanti.

Le origini: padre Roberto Busa e l'Index Thomisticus[modifica]

Padre Roberto Busa (1913-2011[1]) è considerato il fondatore dell'informatica umanistica e in particolare della linguistica computazionale[2] e pioniere dell'ipertesto [3] grazie alla produzione del monumentale Index Thomisticus[4] iniziato nel 1949 per mezzo della tecnologia IBM[5]. In un'intervista del 1995 ha esposto brevemente la sua concezione del rapporto tra l'informatica e le scienze umane[6].

Umanistica digitale[modifica]

Con l'ingresso nell'era del digitale anche il panorama umanistico ha subito delle trasformazioni. Se tempo addietro è stata la stampa cartacea a incentivare la diffusione del sapere umanistico, attualmente, in soccorso alla stessa, giungono anche la rete e le innovazioni tecnologiche. Vi è stato, così, il passaggio a una nuova tipologia di Umanistica denominata Digitale, che ha portato con sé nuove tematiche e problematiche da affrontare. Il sapere è divenuto un bene facilmente accessibile a chiunque abbia una connessione alla rete internet e tutti ne possono essere, non solo, fruitori, ma anche, portatori. Si è passati da una logica di "grande libro" a una di "grande progetto", in cui la produzione dei dati non è più individuale, ma collettiva, comportando, a seguire, un maggiore focus sull’attendibilità e la sperimentabilità degli stessi[7].

Informatica e scienze dell'informazione[modifica]

L’informatica è l’ambito di ricerca che si occupa dei processi di gestione ed elaborazione (reperimento, digitalizzazione, organizzazione e memorizzazione) dell’informazione per mezzo dei calcolatori elettronici. In altre parole, l’informatica è la scienza della rappresentazione e dell’elaborazione automatica dell’informazione.

Le scienze dell'informazione sono tutte le discipline che si occupano dei processi e dei sistemi di reperimento, conservazione, trasformazione e trasmissione dei dati informativi. L’informatica obbliga a trasformare i dati informativi in oggetti computabili e in sistemi formali, costruiti cioè in base a precisi schemi e secondo specifiche regole.

Occupandosi anche dell’applicazione dell’informazione nelle organizzazioni, del loro uso nelle interazioni delle persone e dell’organizzazione di sistemi informazionali, l’informatica analizza l’interazione tra persone e computer (Human Computer Interaction: HCI) e il modo in cui le persone generano e usano le informazioni. Perciò le tecnologie della comunicazione e dell’informazione (ICT) sono correlate ai temi della cibernetica, delle scienze cognitive e dell’intelligenza artificiale.

I fondamenti teorici dell’informatica si ritrovano nel pensiero di Gottfried Leibniz, Thomas Hobbes, Georges Boole e Gottlob Frege, e più direttamente nei lavori di Charles Babbage, Vannevar Bush, Alan Turing e John von Neumann.

L'idea del Computer e la filosofia[modifica]

Il Computer è un dispositivo automatico, che esegue algoritmi per risolvere problemi in base a dati e istruzioni. Un computer si può analizzare a tre livelli: la struttura fisica (hardware), le strutture algoritmiche (software) e la teoria della computabilità, che studia il modo di eseguire calcoli in maniera meccanica e discute la natura e i limiti delle procedure implementabili dal computer.

L’idea di costruire una macchina che esegue ragionamenti rigorosi, logicamente fondati e universalmente accettabili risale almeno a Raimondo Lullo, che già nel XIV secolo sosteneva la necessità di definire un meccanismo per provare verità irrefutabili, e trova un primo fondamento concettuale in Thomas Hobbes, che considerava il ragionamento una manipolazione meccanica di simboli. I primi tentativi di costruzione di un calcolatore meccanico e una rigorosa definizione teorica risalgono al 1700, con Pascal e Leibniz. Nel 1800, Charles Babbage progettò e costruì parzialmente il primo tentativo di calcolatore meccanico universale.

I primi computer furono analogici. Tra il 1930 e il 1950, nuovi progressi scientifici e tecnici permisero il passaggio a calcolatori elettromeccanici e poi elettronici. Il modello astratto di macchina universale introdotto da Alan Turing nel 1936 e l’analisi dell’attività dei neuroni in termini di logica dei circuiti elettrici, sono il punto di svolta nello sviluppo teorico del computer e delle sue implicazioni filosofiche. Il primo computer digitale risale al 1939. La seconda generazione di computer digitali fu caratterizzata dall'uso di diodi e transistor. L’introduzione del microchip ha portato all’avvento del personal computer.

Lo sviluppo del computer ha prodotto almeno tre effetti in filosofia: ha stimolato diversi progetti di ricerca interdisciplinari tra scienze cognitive e intelligenza artificiale, dando nuovo impulso alla filosofia della mente, del linguaggio e della conoscenza; ha suggerito l'applicazione di modelli computazionali ai tradizionali problemi filosofici; ha prodotto nuovi paradigmi concettuali e una nuova area filosofica: la cosiddetta filosofia dell'informazione, elaborata da Luciano Floridi.

L’attuale centralità dell’informatica deve essere ricondotta al passaggio dal modello analogico al modello digitale nella codifica dei dati, unito alle possibilità offerte dallo sviluppo della tecnologia, la cui evoluzione è stata caratterizzata da tre percorsi: l’estensione del digitale dai soli linguaggi naturali e formali al mondo delle immagini e dei suoni, lo sviluppo delle rappresentazioni grazie al miglioramento delle interfacce grafiche, l’integrazione in un unico network dei vari domini di informazioni esistenti.

Analogico e digitale sono modi di codificare, elaborare e comunicare informazioni in un sistema. Un sistema è detto analogico se i valori dei suoi segnali sono continui (infiniti) in un dato intervallo; è detto digitale se tali valori sono misurati mediante un sistema numerale finito e discreto. Digitale deriva dall'inglese digit (dal latino digitus, dito) e indica ciò che si conta con un insieme finito e discreto, come le dita di una mano. In un sistema digitale i segnali sono rappresentati attraverso la numerazione binaria; il bit - la più piccola unità di informazione di un sistema computazionale - è una contrazione dell’espressione binary digit.

Sapere digitale e organizzazione della conoscenza[modifica]

L’ultimo percorso, caratterizzato dal passaggio dal personal computer a Internet, è frutto della crescita e della ricomposizione del dominio digitale in un network sempre più ampio, che consente di sviluppare una versione digitale del sapere umano. L’informatica influenza la crescita, la gestione e la fruizione delle informazioni e del sapere sotto tre aspetti fondamentali: il calcolo, la modellistica e l’information management, cioè la gestione del sapere codificato. Con l’avvento delle ICT il sapere umano si è trasformato in una enciclopedia digitale globale, fatta di comunicazione telematica, banche dati e archivi di testi elettronici, immagini, suoni. Se da un lato l’avvento dei computer ha accelerato il processo di espansione delle conoscenze, dall’altro l’informatica ha fornito soluzioni ai problemi sorti dalla gestione del sapere, procurando gli strumenti atti a ordinare e rendere accessibile ogni singola parte dell’enciclopedia universale.

L’organizzazione del sapere o della conoscenza è la disciplina che si occupa di come la conoscenza prodotta e accumulata dall’uomo possa essere strutturata. Le unità di conoscenza fondamentali sono i concetti: la rete dei concetti e delle loro relazioni va formando strutture di conoscenza via via più complesse. La conoscenza umana viene espressa, trasmessa e conservata in supporti materiali, i documenti. Un sistema efficace per sintetizzare le strutture della conoscenza in schemi e prospetti è la catalogazione o indicizzazione dei documenti, che può essere descrittiva, quando ne descrive le caratteristiche formali, o semantica, che ne fa emergere gli argomenti trattati in modo primario. I sistemi per l’organizzazione della conoscenza (Knowledge Organization Systems: KOS) sono di diversi tipi: parole-chiave, vocabolari controllati (thesauri), schemi di classificazione, ontologie.

Ontologia e web semantico[modifica]

Possiamo distinguere tre nozioni di ontologia: l'ontologia filosofica (lo studio dell’essere e dell’ente in quanto ente e deduzione delle categorie ontologiche); l'ontologia classificatoria (che può essere descrittiva o formale); l'ontologia informatica (la codificazione formale di una classificazione concettuale quale base di un software). Le ontologie in ambito informatico si configurano come un patrimonio di competenze semantiche trasferite dall’uomo alla macchina.

Lo sviluppo di Internet ha ulteriormente radicalizzato l’esigenza di una proficua comunicazione tra sistemi di organizzazione e classificazione (database) eterogenei: si vedano i recenti sviluppi del semantic web, termine coniato dal suo ideatore, Tim Berners-Lee, con cui si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, files, immagini, e così via) siano associati ad informazioni e dati (metadati) che ne specifichino il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e all'elaborazione automatica. Con tale nuova interpretazione del contenuto dei documenti, saranno possibili ricerche molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

Internet[modifica]

Internet è il sistema globale di comunicazione e interazione costituito dal collegamento di numerose reti di computer in grado di scambiarsi informazioni per mezzo di vari protocolli, cioè di regole standard che consentono di instaurare e controllare lo scambio di dati online. Internet è la combinazione di tre spazi, ciascuno con una propria architettura: lo spazio fisico, quello digitale e quello semantico (cyberspazio).

Come infrastruttura fisica, Internet è una rete di computer, detti hosts, i quali contengono dati e servizi, che si scambiano grazie alla condivisione di vari protocolli, come il TCP/IP. Ogni host è identificato da un indirizzo (IP address) unico a livello globale. Lo spazio fisico implementa i protocolli telecomunicativi e determina una piattaforma di memoria globale, uno spazio digitale, risultato della coesione di tutti gli spazi di memoria che ciascun host rende disponibile pubblicamente. La totalità dei servizi e dei documenti registrati nella memoria del network compone uno spazio funzionale-semantico detto cyberspazio: una realtà non fisica ma concettuale, esperibile e navigabile attraverso percorsi sia lineari sia ipertestuali.

Ipertesto[modifica]

L’ipertesto è un insieme di documenti messi in relazione tra loro tramite parole chiave. Può essere visto come una rete; i documenti ne costituiscono i nodi. La caratteristica principale di un ipertesto è che la lettura può svolgersi in maniera non lineare, per cui all'interno dell'ipertesto sono possibili praticamente infiniti percorsi di lettura. L'ipertesto informatico è la versione di ipertesto oggi più diffusa: le parole chiave funzionano come collegamenti ipertestuali (hyperlink); tutto il web, è stato concepito da Tim Berners-Lee come un ipertesto globale.

Macchina, automa, meccanicismo[modifica]

In generale, una macchina è un sistema (naturale o artificiale, concreto o astratto) composto di meccanismi in grado di compiere un determinato lavoro, cioè di produrre un effetto prestabilito nell’ambiente in cui si trova o di trasformare un determinato impulso (una forza) per favorire la produzione di tale effetto. Di conseguenza, un meccanismo è un sistema le cui trasformazioni interne generano un risultato esterno prestabilito.

In filosofia, l’idea moderna di macchina è radicata nel pensiero cartesiano e nei precedenti tentativi di sostituire la forza vitale con una qualche forza fisica, nell’intento di giustificare l’origine del movimento. Con Cartesio, il modello meccanico è applicato a tutti i fenomeni fisici, compreso, per la prima volta, l’uomo: la divisione tra res cogitans e res extensa è il primo passo verso un’analisi scientifica, materiale, analitica dell’uomo. In modo simile, nella monadologia leibniziana, ogni corpo organico è una macchina divina, un automa naturale ben al di là di tutti gli automi artificiali. Il concetto di macchina è utilizzato da Leibniz come una metafora per indicare il grado di complessità di una monade, la cui origine e il cui termine (fine) dipendono da Dio: così l’universo non è altro che un singolo sistema meccanico composto di parti fisiche la cui interazione è completamente determinata dal progetto divino.

La cibernetica e l’Intelligenza Artificiale hanno rinnovato il concetto di macchina mediante lo studio di retroazione (feedback), apprendimento, autonomia e controllo: entrambe hanno prodotto le basi teoriche per la costruzione di modelli del cervello o per la spiegazione del comportamento in chiave meccanicistica. La cibernetica ha cercato di fornire una soluzione meccanica del comportamento rivolto a uno scopo, considerato dai vitalisti una caratteristica essenziale e irriducibile del vivente. L’opera di Alan Turing in materia d’Intelligenza Artificiale e la sua provocatoria domanda "può una macchina pensare?" hanno aperto la strada alla caratterizzazione di macchine logiche sempre più raffinate e hanno centrato il problema filosofico su che cosa sia il pensiero e se sia possibile fornirne una spiegazione meccanicista. La Filosofia dell’Informazione ha sintetizzato queste istanze proponendo un’analisi di stampo minimalista, costruzionistica e meccanicistica dei sistemi fenomenologici e concettuali.

Cibernetica, Intelligenza Artificiale[modifica]

La Cibernetica è la scienza che studia i sistemi dotati di strutture cicliche (loop) di controllo; tali sistemi sono specificati definendo la loro organizzazione interna e la loro capacità di comunicazione intersistemica. Secondo la classica definizione di Norbert Wiener, la cibernetica è "lo studio del controllo e della comunicazione negli animali e nelle macchine". La storia della cibernetica è delineata dall’intreccio delle varie discipline che hanno contribuito allo sviluppo dei suoi principi teorici - ingegneria, biologia, filosofia, psicologia, logica, neuroscienze, sociologia ed economia - e alla costruzione di alcune macchine che incorporano tali principi. La spiccata interdisciplinarietà è legata all’intento di unificare i vari approcci sotto principi astratti comuni.

L’Intelligenza Artificiale (IA) si propone di riprodurre con programmi per calcolatore, o con robot mobili, comportamenti che, se osservati negli esseri umani, o più in generale negli organismi viventi, verrebbero definiti "intelligenti". La nascita ufficiale dell’IA risale al 1956, quando negli Stati Uniti, a Dartmouth (New Hampshire), si svolse un seminario organizzato da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon. Da sempre l’IA si è presentata sotto un duplice profilo: quello di disciplina ingegneristica, con l’obiettivo di costruire macchine in grado di assistere l’uomo, e magari di competere con esso; e quello di disciplina psicologica, con l’obiettivo di costruire macchine le quali, riproducendo da vicino caratteristiche essenziali dell’attività umana, gettino nuova luce su alcuni tradizionali enigmi della mente, come il problema del rapporto mente-corpo.

L’obiettivo dell’Intelligenza Artificiale degli esordi era la costruzione di modelli computazionali, ovvero di programmi per calcolatore che simulassero i processi cognitivi umani in modo psicologicamente realistico. Ma l’intelligenza non è solo la capacità selettiva della mente umana: le difficoltà nascono quando si è cercato di emulare il ragionamento umano, estremamente duttile, alle prese con i "problemi della vita reale", quali comprendere una lingua, riassumere un testo ecc. Gli sviluppi odierni dell’IA puntano sulle reti neurali artificiali (congegni in grado di simulare, grazie alle grandi capacità di memoria e di calcolo dei calcolatori, alcune proprietà del sistema nervoso degli organismi) e sul web, con la costruzione di ipertesti e di motori di ricerca intelligenti, dove svolgono un ruolo di rilievo la rappresentazione della conoscenza e l’elaborazione del linguaggio naturale.

Filosofia dell'informazione, etica informatica[modifica]

L’informatica è divenuta uno degli ambiti prioritari e privilegiati della ricerca filosofica e ha portato all’emergere della Filosofia dell’informazione, la quale studia il concetto di informazione, le sue dinamiche e il suo utilizzo e indaga l’impiego delle metodologie delle scienze computazionali e dell’informatica teorica nelle tradizionali indagini filosofiche. La sua metodologia è debitrice dei metodi formali, delle neuroscienze computazionali, della progettazione di software. La Filosofia dell’informazione, basata sui concetti di informazione e computazione, si occupa di investigare criticamente la natura concettuale, i principi di base, la dinamica, l’impiego delle scienze dell’informazione. L’obiettivo è produrre, tramite l’utilizzo di un metodo peculiare, una famiglia di teorie dell’informazione che possano fungere da solida base per lo sviluppo di una teoria della conoscenza: per questo è nata l’International Association for Computing and Philosophy.

La diffusione capillare delle ICT ha inoltre determinato la nascita e il rapido incremento di un nuovo ambiente, l’infosfera, costituito dalla totalità dei documenti, degli agenti e delle loro operazioni e concepito come continuo, finito ma potenzialmente illimitato e immateriale. Il rapido ampliarsi dell’Infosfera ha creato nuovi problemi etici e sociali: la proprietà intellettuale, la privacy, il digital divide, l’accesso e la gestione dei documenti. La nascita e diffusione di Internet ha modificato alcuni classici problemi filosofici (come il concetto di presenza) e ne ha sollevati di nuovi, specie di natura etica ed epistemologica, quali le trasformazioni legate al telelavoro e alla formazione a distanza, gli effetti del big brain factor, l’evoluzione del concetto di testo da cartaceo a digitale, il rapporto tra democrazia e sviluppo delle ICT, i problemi di privacy e di gestione delle informazioni, le violazioni del diritto d’autore, studiati dall’etica informatica.

L’etica informatica è una teoria etica secondo cui il modo migliore per comprendere e risolvere i problemi etici sollevati dalle tecnologie della comunicazione e dell’informazione (ICT) è adottare un approccio ambientalista, attraverso il quale tali problemi sono inseriti nell’analisi di un nuovo ambiente ecologico, l’infosfera. I nuovi problemi etici sono legati solo in parte all'uso etico degli strumenti informatici, come era già chiaro a Wiener, che nel 1950 individuò alcune questioni chiave dell’etica informatica. A partire dagli anni ‘90 del secolo scorso, l'Information Ethics Group dell’università di Oxford ha iniziato a promuovere una nuova teoria etica, detta Information Ethics, che si pone come rifondazione filosofica dell’etica informatica e che oggi è il modello etico dominante in etica informatica. I suoi elementi essenziali sono: l’approccio ambientalista e l'infosfera, il metodo di astrazione, l’impostazione costruzionista e minimalista.

Teoria della computabilità[modifica]

La Teoria della computabilità studia la nozione di calcolo effettuabile per mezzo di un algoritmo, ossia di un calcolo eseguibile in modo meccanico. Essa è nata nel corso degli anni ‘30 del secolo scorso nell’ambito delle ricerche sulla logica e sui fondamenti della matematica a opera di autori quali Alan Turing, Kurt Gödel (1906-1978). La scuola formalista di David Hilbert (1862-1943) si pose il problema di stabilire se tutti i problemi matematici fossero in linea di principio risolubili per mezzo di un algoritmo.

Con lo sviluppo dei calcolatori digitali, la teoria della computabilità ha assunto il ruolo di disciplina dei fondamenti per l’informatica teorica, estendendo la propria influenza all'Intelligenza Artificiale, alle scienze cognitive, alla linguistica. I risultati di teoria della computabilità coinvolgono temi filosofico-scientifici quali i risultati di limitazione della logica, i limiti dei calcolatori digitali e dei processi di calcolo, la natura degli stati mentali, il rapporto mente-corpo.

Riferimenti bibliografici[modifica]

Enciclopedie[modifica]

  • Enciclopedia filosofica, a cura del Centro studi filosofici di Gallarate, Bompiani 2006, s.v. Informatica, Computer, Internet, Cibernetica, Intelligenza artificiale, Analogico/digitale, Etica informatica/etica dell'informazione.

Libri[modifica]

  • Tito Orlandi, Informatica umanistica, Roma 1990.
  • Fabio Ciotti - Gino Roncaglia, Il mondo digitale. Introduzione ai nuovi media, Roma-Bari 2000 (2007).
  • Informatica per le scienze umanistiche, a cura di Teresa Numerico e Arturo Vespignani, Bologna 2003 (2007).
  • Francesca Tomasi, Metodologie informatiche e discipline umanistiche, Roma 2008.
  • S. Castano - A. Ferrara - S. Montanelli, Informazione, conoscenza e web per le scienze umanistiche, Milano 2009.
  • Teresa Numerico - Domenico Fiormonte - Francesca Tomasi, L'umanista digitale, Bologna 2010.
  • M. Lazzari - A. Bianchi - M. Cadei - C. Chesi - S. Maffei, Informatica umanistica, Milano 2010.
  • La macchina nel tempo. Studi di informatica umanistica in onore di Tito Orlandi, a c. di L. Perilli e D. Fiormonte, Firenze 2011 (rist. 2012).
  • Dall'Informatica umanistica alle culture digitali. Atti del convegno di studi (Roma, 27-28 ottobre 2011) in memoria di Giuseppe Gigliozzi, a c. di F. Ciotti - G. Crupi, 2012.
  • F. Ciracì, Informatica per le scienze umane, McGraw-Hill, Milano 2012.
  • Anne Burdick - Johanna Drucker - Peter Lunenfeld - Todd Presner - Jeffrey Schnapp, Digital Humanities, MIT 2012, tr. it. Umanistica digitale, Milano 2014.

Articoli[modifica]

Note[modifica]

  1. Francesco Ognibene, L'informatico con la tonaca, "Avvenire", 11 agosto 2011.
  2. Andrea Penso, Le radici delle Digital Humanities: l'opera di padre Roberto Busa, Fonte Gaia Blog, 22 maggio 2015.
  3. Antonio Spadaro, Ricordando padre Roberto Busa, il gesuita pioniere dell'ipertesto, CyberTeologia, 18 agosto 2011.
  4. Index Thomisticus.
  5. Gli albori della linguistica computazionale e la più grande opera a stampa mai prodotta al mondo
  6. Intervista a Mediamente, Roma, Università La Sapienza, 24 novembre 1995.
  7. Anne Burdick - Johanna Drucker - Peter Lunenfeld - Todd Presner - Jeffrey Schnapp, Digital Humanities, MIT 2012, tr. it. Umanistica digitale, Milano 2014.