Filosofia dell'informatica/Versione stampabile

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search

I concetti fondamentali

Indice del libro

Per tracciare il perimetro filosofico dell'informatica, occorre prendere le mosse dalla definizione dei suoi concetti più importanti e dall'individuazione dei suoi elementi teorici più caratterizzanti.

Le origini: padre Roberto Busa e l'Index Thomisticus[modifica]

Padre Roberto Busa (1913-2011[1]) è considerato il fondatore dell'informatica umanistica e in particolare della linguistica computazionale[2] e pioniere dell'ipertesto [3] grazie alla produzione del monumentale Index Thomisticus[4] iniziato nel 1949 per mezzo della tecnologia IBM[5]. In un'intervista del 1995 ha esposto brevemente la sua concezione del rapporto tra l'informatica e le scienze umane[6].

Umanistica digitale[modifica]

Con l'ingresso nell'era del digitale anche il panorama umanistico ha subito delle trasformazioni. Se tempo addietro è stata la stampa cartacea a incentivare la diffusione del sapere umanistico, attualmente, in soccorso alla stessa, giungono anche la rete e le innovazioni tecnologiche. Vi è stato, così, il passaggio a una nuova tipologia di Umanistica denominata Digitale, che ha portato con sé nuove tematiche e problematiche da affrontare. Il sapere è divenuto un bene facilmente accessibile a chiunque abbia una connessione alla rete internet e tutti ne possono essere, non solo, fruitori, ma anche, portatori. Si è passati da una logica di "grande libro" a una di "grande progetto", in cui la produzione dei dati non è più individuale, ma collettiva, comportando, a seguire, un maggiore focus sull’attendibilità e la sperimentabilità degli stessi[7].

Informatica e scienze dell'informazione[modifica]

L’informatica è l’ambito di ricerca che si occupa dei processi di gestione ed elaborazione (reperimento, digitalizzazione, organizzazione e memorizzazione) dell’informazione per mezzo dei calcolatori elettronici. In altre parole, l’informatica è la scienza della rappresentazione e dell’elaborazione automatica dell’informazione.

Le scienze dell'informazione sono tutte le discipline che si occupano dei processi e dei sistemi di reperimento, conservazione, trasformazione e trasmissione dei dati informativi. L’informatica obbliga a trasformare i dati informativi in oggetti computabili e in sistemi formali, costruiti cioè in base a precisi schemi e secondo specifiche regole.

Occupandosi anche dell’applicazione dell’informazione nelle organizzazioni, del loro uso nelle interazioni delle persone e dell’organizzazione di sistemi informazionali, l’informatica analizza l’interazione tra persone e computer (Human Computer Interaction: HCI) e il modo in cui le persone generano e usano le informazioni. Perciò le tecnologie della comunicazione e dell’informazione (ICT) sono correlate ai temi della cibernetica, delle scienze cognitive e dell’intelligenza artificiale.

I fondamenti teorici dell’informatica si ritrovano nel pensiero di Gottfried Leibniz, Thomas Hobbes, Georges Boole e Gottlob Frege, e più direttamente nei lavori di Charles Babbage, Vannevar Bush, Alan Turing e John von Neumann.

L'idea del Computer e la filosofia[modifica]

Il Computer è un dispositivo automatico, che esegue algoritmi per risolvere problemi in base a dati e istruzioni. Un computer si può analizzare a tre livelli: la struttura fisica (hardware), le strutture algoritmiche (software) e la teoria della computabilità, che studia il modo di eseguire calcoli in maniera meccanica e discute la natura e i limiti delle procedure implementabili dal computer.

L’idea di costruire una macchina che esegue ragionamenti rigorosi, logicamente fondati e universalmente accettabili risale almeno a Raimondo Lullo, che già nel XIV secolo sosteneva la necessità di definire un meccanismo per provare verità irrefutabili, e trova un primo fondamento concettuale in Thomas Hobbes, che considerava il ragionamento una manipolazione meccanica di simboli. I primi tentativi di costruzione di un calcolatore meccanico e una rigorosa definizione teorica risalgono al 1700, con Pascal e Leibniz. Nel 1800, Charles Babbage progettò e costruì parzialmente il primo tentativo di calcolatore meccanico universale.

I primi computer furono analogici. Tra il 1930 e il 1950, nuovi progressi scientifici e tecnici permisero il passaggio a calcolatori elettromeccanici e poi elettronici. Il modello astratto di macchina universale introdotto da Alan Turing nel 1936 e l’analisi dell’attività dei neuroni in termini di logica dei circuiti elettrici, sono il punto di svolta nello sviluppo teorico del computer e delle sue implicazioni filosofiche. Il primo computer digitale risale al 1939. La seconda generazione di computer digitali fu caratterizzata dall'uso di diodi e transistor. L’introduzione del microchip ha portato all’avvento del personal computer.

Lo sviluppo del computer ha prodotto almeno tre effetti in filosofia: ha stimolato diversi progetti di ricerca interdisciplinari tra scienze cognitive e intelligenza artificiale, dando nuovo impulso alla filosofia della mente, del linguaggio e della conoscenza; ha suggerito l'applicazione di modelli computazionali ai tradizionali problemi filosofici; ha prodotto nuovi paradigmi concettuali e una nuova area filosofica: la cosiddetta filosofia dell'informazione, elaborata da Luciano Floridi.

L’attuale centralità dell’informatica deve essere ricondotta al passaggio dal modello analogico al modello digitale nella codifica dei dati, unito alle possibilità offerte dallo sviluppo della tecnologia, la cui evoluzione è stata caratterizzata da tre percorsi: l’estensione del digitale dai soli linguaggi naturali e formali al mondo delle immagini e dei suoni, lo sviluppo delle rappresentazioni grazie al miglioramento delle interfacce grafiche, l’integrazione in un unico network dei vari domini di informazioni esistenti.

Analogico e digitale sono modi di codificare, elaborare e comunicare informazioni in un sistema. Un sistema è detto analogico se i valori dei suoi segnali sono continui (infiniti) in un dato intervallo; è detto digitale se tali valori sono misurati mediante un sistema numerale finito e discreto. Digitale deriva dall'inglese digit (dal latino digitus, dito) e indica ciò che si conta con un insieme finito e discreto, come le dita di una mano. In un sistema digitale i segnali sono rappresentati attraverso la numerazione binaria; il bit - la più piccola unità di informazione di un sistema computazionale - è una contrazione dell’espressione binary digit.

Sapere digitale e organizzazione della conoscenza[modifica]

L’ultimo percorso, caratterizzato dal passaggio dal personal computer a Internet, è frutto della crescita e della ricomposizione del dominio digitale in un network sempre più ampio, che consente di sviluppare una versione digitale del sapere umano. L’informatica influenza la crescita, la gestione e la fruizione delle informazioni e del sapere sotto tre aspetti fondamentali: il calcolo, la modellistica e l’information management, cioè la gestione del sapere codificato. Con l’avvento delle ICT il sapere umano si è trasformato in una enciclopedia digitale globale, fatta di comunicazione telematica, banche dati e archivi di testi elettronici, immagini, suoni. Se da un lato l’avvento dei computer ha accelerato il processo di espansione delle conoscenze, dall’altro l’informatica ha fornito soluzioni ai problemi sorti dalla gestione del sapere, procurando gli strumenti atti a ordinare e rendere accessibile ogni singola parte dell’enciclopedia universale.

L’organizzazione del sapere o della conoscenza è la disciplina che si occupa di come la conoscenza prodotta e accumulata dall’uomo possa essere strutturata. Le unità di conoscenza fondamentali sono i concetti: la rete dei concetti e delle loro relazioni va formando strutture di conoscenza via via più complesse. La conoscenza umana viene espressa, trasmessa e conservata in supporti materiali, i documenti. Un sistema efficace per sintetizzare le strutture della conoscenza in schemi e prospetti è la catalogazione o indicizzazione dei documenti, che può essere descrittiva, quando ne descrive le caratteristiche formali, o semantica, che ne fa emergere gli argomenti trattati in modo primario. I sistemi per l’organizzazione della conoscenza (Knowledge Organization Systems: KOS) sono di diversi tipi: parole-chiave, vocabolari controllati (thesauri), schemi di classificazione, ontologie.

Ontologia e web semantico[modifica]

Possiamo distinguere tre nozioni di ontologia: l'ontologia filosofica (lo studio dell’essere e dell’ente in quanto ente e deduzione delle categorie ontologiche); l'ontologia classificatoria (che può essere descrittiva o formale); l'ontologia informatica (la codificazione formale di una classificazione concettuale quale base di un software). Le ontologie in ambito informatico si configurano come un patrimonio di competenze semantiche trasferite dall’uomo alla macchina.

Lo sviluppo di Internet ha ulteriormente radicalizzato l’esigenza di una proficua comunicazione tra sistemi di organizzazione e classificazione (database) eterogenei: si vedano i recenti sviluppi del semantic web, termine coniato dal suo ideatore, Tim Berners-Lee, con cui si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, files, immagini, e così via) siano associati ad informazioni e dati (metadati) che ne specifichino il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e all'elaborazione automatica. Con tale nuova interpretazione del contenuto dei documenti, saranno possibili ricerche molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

Internet[modifica]

Internet è il sistema globale di comunicazione e interazione costituito dal collegamento di numerose reti di computer in grado di scambiarsi informazioni per mezzo di vari protocolli, cioè di regole standard che consentono di instaurare e controllare lo scambio di dati online. Internet è la combinazione di tre spazi, ciascuno con una propria architettura: lo spazio fisico, quello digitale e quello semantico (cyberspazio).

Come infrastruttura fisica, Internet è una rete di computer, detti hosts, i quali contengono dati e servizi, che si scambiano grazie alla condivisione di vari protocolli, come il TCP/IP. Ogni host è identificato da un indirizzo (IP address) unico a livello globale. Lo spazio fisico implementa i protocolli telecomunicativi e determina una piattaforma di memoria globale, uno spazio digitale, risultato della coesione di tutti gli spazi di memoria che ciascun host rende disponibile pubblicamente. La totalità dei servizi e dei documenti registrati nella memoria del network compone uno spazio funzionale-semantico detto cyberspazio: una realtà non fisica ma concettuale, esperibile e navigabile attraverso percorsi sia lineari sia ipertestuali.

Ipertesto[modifica]

L’ipertesto è un insieme di documenti messi in relazione tra loro tramite parole chiave. Può essere visto come una rete; i documenti ne costituiscono i nodi. La caratteristica principale di un ipertesto è che la lettura può svolgersi in maniera non lineare, per cui all'interno dell'ipertesto sono possibili praticamente infiniti percorsi di lettura. L'ipertesto informatico è la versione di ipertesto oggi più diffusa: le parole chiave funzionano come collegamenti ipertestuali (hyperlink); tutto il web, è stato concepito da Tim Berners-Lee come un ipertesto globale.

Macchina, automa, meccanicismo[modifica]

In generale, una macchina è un sistema (naturale o artificiale, concreto o astratto) composto di meccanismi in grado di compiere un determinato lavoro, cioè di produrre un effetto prestabilito nell’ambiente in cui si trova o di trasformare un determinato impulso (una forza) per favorire la produzione di tale effetto. Di conseguenza, un meccanismo è un sistema le cui trasformazioni interne generano un risultato esterno prestabilito.

In filosofia, l’idea moderna di macchina è radicata nel pensiero cartesiano e nei precedenti tentativi di sostituire la forza vitale con una qualche forza fisica, nell’intento di giustificare l’origine del movimento. Con Cartesio, il modello meccanico è applicato a tutti i fenomeni fisici, compreso, per la prima volta, l’uomo: la divisione tra res cogitans e res extensa è il primo passo verso un’analisi scientifica, materiale, analitica dell’uomo. In modo simile, nella monadologia leibniziana, ogni corpo organico è una macchina divina, un automa naturale ben al di là di tutti gli automi artificiali. Il concetto di macchina è utilizzato da Leibniz come una metafora per indicare il grado di complessità di una monade, la cui origine e il cui termine (fine) dipendono da Dio: così l’universo non è altro che un singolo sistema meccanico composto di parti fisiche la cui interazione è completamente determinata dal progetto divino.

La cibernetica e l’Intelligenza Artificiale hanno rinnovato il concetto di macchina mediante lo studio di retroazione (feedback), apprendimento, autonomia e controllo: entrambe hanno prodotto le basi teoriche per la costruzione di modelli del cervello o per la spiegazione del comportamento in chiave meccanicistica. La cibernetica ha cercato di fornire una soluzione meccanica del comportamento rivolto a uno scopo, considerato dai vitalisti una caratteristica essenziale e irriducibile del vivente. L’opera di Alan Turing in materia d’Intelligenza Artificiale e la sua provocatoria domanda "può una macchina pensare?" hanno aperto la strada alla caratterizzazione di macchine logiche sempre più raffinate e hanno centrato il problema filosofico su che cosa sia il pensiero e se sia possibile fornirne una spiegazione meccanicista. La Filosofia dell’Informazione ha sintetizzato queste istanze proponendo un’analisi di stampo minimalista, costruzionistica e meccanicistica dei sistemi fenomenologici e concettuali.

Cibernetica, Intelligenza Artificiale[modifica]

La Cibernetica è la scienza che studia i sistemi dotati di strutture cicliche (loop) di controllo; tali sistemi sono specificati definendo la loro organizzazione interna e la loro capacità di comunicazione intersistemica. Secondo la classica definizione di Norbert Wiener, la cibernetica è "lo studio del controllo e della comunicazione negli animali e nelle macchine". La storia della cibernetica è delineata dall’intreccio delle varie discipline che hanno contribuito allo sviluppo dei suoi principi teorici - ingegneria, biologia, filosofia, psicologia, logica, neuroscienze, sociologia ed economia - e alla costruzione di alcune macchine che incorporano tali principi. La spiccata interdisciplinarietà è legata all’intento di unificare i vari approcci sotto principi astratti comuni.

L’Intelligenza Artificiale (IA) si propone di riprodurre con programmi per calcolatore, o con robot mobili, comportamenti che, se osservati negli esseri umani, o più in generale negli organismi viventi, verrebbero definiti "intelligenti". La nascita ufficiale dell’IA risale al 1956, quando negli Stati Uniti, a Dartmouth (New Hampshire), si svolse un seminario organizzato da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon. Da sempre l’IA si è presentata sotto un duplice profilo: quello di disciplina ingegneristica, con l’obiettivo di costruire macchine in grado di assistere l’uomo, e magari di competere con esso; e quello di disciplina psicologica, con l’obiettivo di costruire macchine le quali, riproducendo da vicino caratteristiche essenziali dell’attività umana, gettino nuova luce su alcuni tradizionali enigmi della mente, come il problema del rapporto mente-corpo.

L’obiettivo dell’Intelligenza Artificiale degli esordi era la costruzione di modelli computazionali, ovvero di programmi per calcolatore che simulassero i processi cognitivi umani in modo psicologicamente realistico. Ma l’intelligenza non è solo la capacità selettiva della mente umana: le difficoltà nascono quando si è cercato di emulare il ragionamento umano, estremamente duttile, alle prese con i "problemi della vita reale", quali comprendere una lingua, riassumere un testo ecc. Gli sviluppi odierni dell’IA puntano sulle reti neurali artificiali (congegni in grado di simulare, grazie alle grandi capacità di memoria e di calcolo dei calcolatori, alcune proprietà del sistema nervoso degli organismi) e sul web, con la costruzione di ipertesti e di motori di ricerca intelligenti, dove svolgono un ruolo di rilievo la rappresentazione della conoscenza e l’elaborazione del linguaggio naturale.

Filosofia dell'informazione, etica informatica[modifica]

L’informatica è divenuta uno degli ambiti prioritari e privilegiati della ricerca filosofica e ha portato all’emergere della Filosofia dell’informazione, la quale studia il concetto di informazione, le sue dinamiche e il suo utilizzo e indaga l’impiego delle metodologie delle scienze computazionali e dell’informatica teorica nelle tradizionali indagini filosofiche. La sua metodologia è debitrice dei metodi formali, delle neuroscienze computazionali, della progettazione di software. La Filosofia dell’informazione, basata sui concetti di informazione e computazione, si occupa di investigare criticamente la natura concettuale, i principi di base, la dinamica, l’impiego delle scienze dell’informazione. L’obiettivo è produrre, tramite l’utilizzo di un metodo peculiare, una famiglia di teorie dell’informazione che possano fungere da solida base per lo sviluppo di una teoria della conoscenza: per questo è nata l’International Association for Computing and Philosophy.

La diffusione capillare delle ICT ha inoltre determinato la nascita e il rapido incremento di un nuovo ambiente, l’infosfera, costituito dalla totalità dei documenti, degli agenti e delle loro operazioni e concepito come continuo, finito ma potenzialmente illimitato e immateriale. Il rapido ampliarsi dell’Infosfera ha creato nuovi problemi etici e sociali: la proprietà intellettuale, la privacy, il digital divide, l’accesso e la gestione dei documenti. La nascita e diffusione di Internet ha modificato alcuni classici problemi filosofici (come il concetto di presenza) e ne ha sollevati di nuovi, specie di natura etica ed epistemologica, quali le trasformazioni legate al telelavoro e alla formazione a distanza, gli effetti del big brain factor, l’evoluzione del concetto di testo da cartaceo a digitale, il rapporto tra democrazia e sviluppo delle ICT, i problemi di privacy e di gestione delle informazioni, le violazioni del diritto d’autore, studiati dall’etica informatica.

L’etica informatica è una teoria etica secondo cui il modo migliore per comprendere e risolvere i problemi etici sollevati dalle tecnologie della comunicazione e dell’informazione (ICT) è adottare un approccio ambientalista, attraverso il quale tali problemi sono inseriti nell’analisi di un nuovo ambiente ecologico, l’infosfera. I nuovi problemi etici sono legati solo in parte all'uso etico degli strumenti informatici, come era già chiaro a Wiener, che nel 1950 individuò alcune questioni chiave dell’etica informatica. A partire dagli anni ‘90 del secolo scorso, l'Information Ethics Group dell’università di Oxford ha iniziato a promuovere una nuova teoria etica, detta Information Ethics, che si pone come rifondazione filosofica dell’etica informatica e che oggi è il modello etico dominante in etica informatica. I suoi elementi essenziali sono: l’approccio ambientalista e l'infosfera, il metodo di astrazione, l’impostazione costruzionista e minimalista.

Teoria della computabilità[modifica]

La Teoria della computabilità studia la nozione di calcolo effettuabile per mezzo di un algoritmo, ossia di un calcolo eseguibile in modo meccanico. Essa è nata nel corso degli anni ‘30 del secolo scorso nell’ambito delle ricerche sulla logica e sui fondamenti della matematica a opera di autori quali Alan Turing, Kurt Gödel (1906-1978). La scuola formalista di David Hilbert (1862-1943) si pose il problema di stabilire se tutti i problemi matematici fossero in linea di principio risolubili per mezzo di un algoritmo.

Con lo sviluppo dei calcolatori digitali, la teoria della computabilità ha assunto il ruolo di disciplina dei fondamenti per l’informatica teorica, estendendo la propria influenza all'Intelligenza Artificiale, alle scienze cognitive, alla linguistica. I risultati di teoria della computabilità coinvolgono temi filosofico-scientifici quali i risultati di limitazione della logica, i limiti dei calcolatori digitali e dei processi di calcolo, la natura degli stati mentali, il rapporto mente-corpo.

Riferimenti bibliografici[modifica]

Enciclopedie[modifica]

  • Enciclopedia filosofica, a cura del Centro studi filosofici di Gallarate, Bompiani 2006, s.v. Informatica, Computer, Internet, Cibernetica, Intelligenza artificiale, Analogico/digitale, Etica informatica/etica dell'informazione.

Libri[modifica]

  • Tito Orlandi, Informatica umanistica, Roma 1990.
  • Fabio Ciotti - Gino Roncaglia, Il mondo digitale. Introduzione ai nuovi media, Roma-Bari 2000 (2007).
  • Informatica per le scienze umanistiche, a cura di Teresa Numerico e Arturo Vespignani, Bologna 2003 (2007).
  • Francesca Tomasi, Metodologie informatiche e discipline umanistiche, Roma 2008.
  • S. Castano - A. Ferrara - S. Montanelli, Informazione, conoscenza e web per le scienze umanistiche, Milano 2009.
  • Teresa Numerico - Domenico Fiormonte - Francesca Tomasi, L'umanista digitale, Bologna 2010.
  • M. Lazzari - A. Bianchi - M. Cadei - C. Chesi - S. Maffei, Informatica umanistica, Milano 2010.
  • La macchina nel tempo. Studi di informatica umanistica in onore di Tito Orlandi, a c. di L. Perilli e D. Fiormonte, Firenze 2011 (rist. 2012).
  • Dall'Informatica umanistica alle culture digitali. Atti del convegno di studi (Roma, 27-28 ottobre 2011) in memoria di Giuseppe Gigliozzi, a c. di F. Ciotti - G. Crupi, 2012.
  • F. Ciracì, Informatica per le scienze umane, McGraw-Hill, Milano 2012.
  • Anne Burdick - Johanna Drucker - Peter Lunenfeld - Todd Presner - Jeffrey Schnapp, Digital Humanities, MIT 2012, tr. it. Umanistica digitale, Milano 2014.

Articoli[modifica]

Note[modifica]

  1. Francesco Ognibene, L'informatico con la tonaca, "Avvenire", 11 agosto 2011.
  2. Andrea Penso, Le radici delle Digital Humanities: l'opera di padre Roberto Busa, Fonte Gaia Blog, 22 maggio 2015.
  3. Antonio Spadaro, Ricordando padre Roberto Busa, il gesuita pioniere dell'ipertesto, CyberTeologia, 18 agosto 2011.
  4. Index Thomisticus.
  5. Gli albori della linguistica computazionale e la più grande opera a stampa mai prodotta al mondo
  6. Intervista a Mediamente, Roma, Università La Sapienza, 24 novembre 1995.
  7. Anne Burdick - Johanna Drucker - Peter Lunenfeld - Todd Presner - Jeffrey Schnapp, Digital Humanities, MIT 2012, tr. it. Umanistica digitale, Milano 2014.


Le radici filosofiche dell'informatica

Indice del libro

L'eredità pitagorica[modifica]

L'assunto di fondo della filosofia digitale è che l'universo possa essere presentato come una gigantesca macchina che processa informazione di bits, di 0 e di 1. Tale impostazione epistemologica può essere ricondotta a un'antica tradizione di pensiero, la quale ha inizio con la Scuola italica di matematiche: i Pitagorici per primi credettero che i principi della matematica fossero principi di tutti gli esseri. Il modello bipolare è caratteristico di molte scuole filosofiche dell'antichità: anche per i pitagorici, tutti i numeri del mondo possono essere ricavati da due soli principi, il pari e il dispari, l'illimite e il limite.

I Pitagorici erano convinti che l’universo si reggesse su accordi aritmetici. Tutto era riconducibile a semplici proporzioni ed era perfetto, cioè compiuto, come le corde della lira. La matematica era il mezzo per unificare musica, cosmologia, filosofia, religione. La loro astrazione matematica sconfinava però nella contemplazione mistica: nessuno doveva dubitare che i numeri interi e i loro rapporti, cioè i numeri razionali (ratio in latino vuol dire rapporto) fossero l’essenza genuina della natura, basato su valenze etiche.

Ippaso di Metaponto

Eppure, uno di loro, Ippaso di Metaponto, dubitò: nel V secolo a.C. i dotti della Scuola s’impantanarono in una problematica solo all’apparenza banale: calcolare la diagonale del quadrato. La risoluzione passò attraverso il famoso Teorema di Pitagora: in un triangolo rettangolo la somma dei quadrati costruiti sui cateti è equivalente al quadrato costruito sull'ipotenusa. Ippaso comprese per primo che una semplice formula mai avrebbe fornito in quel caso un risultato preciso e nemmeno una serie limitata di calcoli avrebbe potuto derivarlo: sussistevano pertanto grandezze incommensurabili, sfuggenti, come √2 o ∏: quantità reali che sviluppano dopo la virgola una serie infinita di decimali. La “terribile” scoperta dei numeri irrazionali (numeri che hanno una serie infinita e non ripetitiva di cifre decimali) mise in discussione l’idea che “tutto è numero” e mise in crisi il primo tentativo di decodificare ciascun ente nel mondo, matematicamente, come “misto” di due sole cifre, e aprì la prima grave crisi nella storia delle matematiche.

Per i pitagorici nessuno doveva dubitare che i numeri interi e i loro rapporti, cioè i numeri razionali, fossero l’essenza genuina del Creato: per questo motivo la scoperta che alcuni rapporti, come quello tra la diagonale e il lato del quadrato non fossero esprimibili mediante numeri interi, fu un grave colpo. Ippaso di Metaponto dubitò: egli scoprì che il valore esatto di √2 non poteva essere ricavato da una semplice formula e neppure da una serie limitata di calcoli. Aveva in pratica scoperto l'esistenza di grandezze incommensurabili, cioè non misurabili esaustivamente con metodi numerici.

La scoperta di Ippaso ha un significato teorico di enorme portata poiché introduce la matematica nei meandri affascinanti dell’infinito. Ippaso divulgò la scoperta dell’incommensurabilità della diagonale del quadrato, contravvenendo ai tabù della Scuola che non poteva accettare l’idea di valori non del tutto calcolabili, conseguenza di un cosmo incompiuto e impuro. La parola cosmo fu coniata proprio dai pitagorici per rappresentare un universo rigidamente ordinato. L’irregolarità imprevedibile dei decimali nello sviluppo di un numero irrazionale non poteva adeguarsi a questo punto di vista. Radiando Ippaso dalla propria scuola, i Pitagorici mancarono così una grande occasione. La sovranità dei numeri razionali durò per 2300 anni, sino a quando i tedeschi Cantor e Dedekind tornarono ad affrontare e a risolvere la questione degli irrazionali e dell’infinito.

Neopitagorismo e combinatoria nei secoli medievali[modifica]

Tracce significative di una visione matematica dell’universo – per cui le cose esistono in quanto sono ordinate e sono ordinate perché regolate da leggi matematiche – si ritrovano in diversi pensatori latini dell’età tardoantica e altomedievale, che si ricollegano più o meno esplicitamente al patrimonio concettuale pitagorico. In particolare, si può individuare un percorso che va da Agostino d'Ippona ai Carolingi e da qui fino alla scuola di Chartres, passando per Prisciano, Cassiodoro e soprattutto Severino Boezio e il suo De arithmetica, derivazione dell’Introduzione all’aritmetica di Nicomaco di Gerasa (neopitagorico della seconda metà del secolo II d. C.) che egli aveva tradotto in latino, e punto di riferimento per tutti i matematici dei secoli successivi.

Boezio e l'Aritmetica in un manoscritto tedesco del XV secolo

L’opera boeziana inaugura un filone di pensiero speculativo che nei secoli a venire vede protagonisti alcuni dei personaggi di maggiore rilievo della cosiddetta rinascita ottoniana, testimoni di una rinascenza degli studi matematici e di una messa a punto di una filosofia del numero – che in riferimento ad autori moderni come Leibniz è stato definito ‘paradigma computazionale’ – e di una visione ordinata del mondo che aggiorna il sogno dell’armonia pitagorica con l’orizzonte trascendente della sapienza cristiana.

Non è un caso che il prodotto speculativo più rilevante di Abbone di Fleury (945-1004) sia un commento al Calculus di Vittorio d’Aquitania, un manuale di calcolo scritto con finalità prevalentemente pratiche intorno al 450 e composto principalmente da tavole di moltiplicazione. L’intento di Abbone, che compone l’opera intorno al 985, è quello di fornire un ‘ponte introduttivo’ all’aritmetica (ysagoge arithmeticae) nella forma di un’esposizione ad uso scolastico.

Le opere aritmetiche di Gerberto di Aurillac († 1003) segnano uno scarto rispetto alla tradizione computistica precedente, legata prevalentemente ai risvolti pratici della disciplina. Tale scarto può essere spiegato con i nuovi elementi della scienza araba appresi in occasione del viaggio in Catalogna del giovane Gerberto, ma più probabilmente lo si deve alla sua sapiente rielaborazione delle fonti tradizionali: come nel caso dell’abate di Fleury, infatti, la giustificazione speculativa di questo energico impulso al progresso delle discipline scientifiche va collocata all’interno di una cornice ontologica e teologica di matrice pitagorico-platonica.

L'Ars di Raimondo Lullo (1232-1316) è un sistema generale d’interpretazione della realtà visibile e invisibile, che si serve di tecniche semimeccaniche, di notazione simbolica e di diagrammi combinatori. L’Arte è il fondamento dell’apologetica e fornisce un metodo unico per tutti i campi del sapere, teologia compresa. L’Ars lulliana può essere integrata nell’orizzonte teorico dell’informatica poiché può essere tradotta nel linguaggio computazionale. Diversi componenti del sistema lulliano possono essere integrati nel mondo dei concetti informatici: l’idea (poi esplorata da Leibniz) di calcolare i risultati del ragionamento logico, l’idea di un alfabeto del pensiero (interpretata poi matematicamente da George Boole), l’idea di un metodo generale euristico e deduttivo, la teoria dei grafi. L’informatica poggia sull’idea di un calcolo logico e la sua ulteriore automazione: entrambe fanno parte, anche se in modo rudimentale, del progetto di combinatoria che costituisce un elemento di base dell’Arte lulliana.

Il sogno di Leibniz[modifica]

L’idea di Lullo fu sviluppata da Gottfried Leibniz (Dissertatio de arte combinatoria, nata dall’Ars magna). Egli si appropria dell’idea lulliana di un alfabeto del pensiero umano che funzioni automaticamente, mediante la combinazione di lettere, e la mette in relazione con la sua idea di una mathesis universalis, cioè di una logica concepita come matematica generalizzata. "Secondo ciò — scrive Leibniz — quando sorga una controversia, non ci sarà più necessità di discussione tra due filosofi di quella che c’è tra due calcolatori. Sarà sufficiente prendere una penna, sedersi al tavolo e dirsi l’un l’altro: calcoliamo (calculemus)!". L’ Arte lulliana è interpretata, dunque, come un tipo di pensiero automatico, una sorta di meccanismo concettuale che, una volta stabilito, funziona da sé. Questo automatismo concettuale fu a lungo accarezzato da Leibniz, il primo a progettare, dopo Pascal, la realizzazione di una macchina per calcolare affidabile.

Gottfried Wilhelm von Leibniz

Leibniz creò la notazione per il calcolo differenziale e integrale per eseguire facilmente e quasi senza sforzi intellettuali calcoli complicatissimi. Leibniz sognava di realizzare qualcosa di simile per l’intera conoscenza umana: una compilazione enciclopedica, un linguaggio matematico artificiale universale in cui fosse possibile esprimere ogni aspetto delle nostre conoscenze, e regole di calcolo che mettessero in luce tutte le interrelazioni logiche esistenti fra le proposizioni di un simile linguaggio[1]. Affascinato dalla divisione aristotelica dei concetti in categorie, Leibniz concepì l’idea di un alfabeto speciale – i cui elementi stessero per concetti – in grado di stabilire, per mezzo di calcoli simbolici, quali dei suoi enunciati erano veri e quali relazioni logiche intercorrevano tra loro. Leibniz comprese che il primo passo verso un alfabeto dei concetti consisteva nell’enumerare tutte le possibili combinazioni dei concetti medesimi (Dissertatio de arte combinatoria, 1666).

Nel 1673 Leibniz presentò a Londra un modello di macchina calcolatrice capace di eseguire le quattro operazioni aritmetiche fondamentali. Leibniz intuì che riuscire a meccanizzare il calcolo aveva un significato ben più ampio. Leibniz paragonò il ragionamento logico a un meccanismo, con l’intento di ridurre ogni ragionamento a una sorta di calcolo e costruire una macchina capace di calcolare in questo senso generale. Nel 1675 Leibniz fece importanti passi in avanti - concettuali e computazionali – nell’uso dei passaggi al limite (ossia i tentativi di ottenere nei calcoli un valore esatto, non accontentandosi di valori approssimati particolari), fino a giungere all’invenzione del calcolo infinitesimale. Leibniz comprese la necessità di scegliere simboli adatti a rappresentare tutti i concetti fondamentali (l’alfabeto del pensiero umano) e di trovare regole (strumenti calcolo) che ne governassero la manipolazione.

Nella terminologia di Leibniz, un sistema simbolico con queste proprietà era una 'caratteristica'. Ogni simbolo del tipo di quelli usati in algebra, chimica o astronomia (non i simboli alfabetici, privi di significato) rappresenta un'idea definita, una ‘caratteristica reale’. Ma Leibniz avvertiva la necessità di una caratteristica universale, cioè di un sistema di simboli che non solo fosse reale ma abbracciasse anche tutto il pensiero umano. Leibniz rimase colpito dalla semplicità della notazione binaria, che permetteva di scrivere qualsiasi numero usando solo 0 e 1.

Leibniz divise il suo programma in tre parti: la creazione di un’enciclopedia che abbracciasse tutta la conoscenza umana, la scelta delle nozioni fondamentali e dei simboli ad esse adeguati, la riduzione delle regole deduttive a manipolazioni di questi simboli, ovvero al calculus ratiocinator, l’odierna logica simbolica.

Il sogno di Leibniz consisteva nel ridurre la complessità dell’universo ad un unico calcolo simbolico. Sarebbe stato così possibile trasformare il ragionamento in calcolo, ma non solo: la characteristica sarebbe stata preziosa anche come ars inveniendi poiché attraverso la combinazione dei caratteri primitivi sarebbe, infatti, stato possibile ottenere sistematicamente e in modo ordinato tutte le nozioni possibili. Inventore di macchine calcolatrici, il filosofo tedesco anticipa dunque con straordinaria consapevolezza le ricerche di logica simbolica, algebra, combinatoria, probabilistica, binaria, oltre alle nuove forme di calcolo infinitesimale, che avrebbero poi condotto, tra le altre cose, alla creazione del computer e ai temi della digital philosophy. La characteristica universalis anticipa il dibattito sull'Intelligenza Artificiale poiché si pone già l'obiettivo di trasformare il ragionamento in calcolo.

Riferimenti bibliografici[modifica]

  • M. Davis, The Universal Computer. The Road from Leibniz to Turing, 2000; tr. it. Il calcolatore universale, Milano 2003, nuova ed. 2012.
  • U. Pagallo, Introduzione alla filosofia digitale. Da Leibniz a Chaitin, Torino 2005.

Note[modifica]


Le radici logiche dell'informatica

Indice del libro

George Boole e l’interpretazione algebrica della logica[modifica]

Il matematico e logico britannico George Boole (1815-1864) è considerato il fondatore della logica matematica. Le sue due opere principali sono L’analisi matematica della logica (The Mathematical Analysis of Logic, 1847) e Le leggi del pensiero (An Investigation of the Laws of Thought, 1854).

George Boole

Boole applicò il metodo algebrico alla logica formale, considerata alla stregua della scienza delle leggi dei simboli attraverso cui si esprimono i pensieri. Convinto fin da giovane che fosse possibile esprimere le relazioni logiche in forma algebrica, Boole analizzò le leggi delle operazioni mentali alla base del ragionamento per esprimerle nel linguaggio simbolico del calcolo. Convinto, come Leibniz, di poter mettere a punto un formalismo matematico capace di produrre automaticamente la risposta corretta a ogni tipo di problema, Boole pensò di applicare i metodi algebrici ai cosiddetti operatori logici, come gli operatori differenziali, che agiscono sul calcolo infinitesimale.

Boole intuì che l’algebra della logica funziona come l’algebra ordinaria, pur disponendo di due soli valori, 0 e 1, due simboli reinterpretati come classi. La regola fondamentale della logica algebrica di Boole recita che «niente può tanto appartenere quanto non appartenere a una classe x». Si tratta di una riproposizione del principio aristotelico di non contraddizione, per cui «è impossibile che la stessa qualità appartenga e non appartenga alla stessa cosa». Questo era in sintesi il ragionamento di Boole: Le affermazioni sono di due tipi: vere o false. Identifichiamo le vere con il numero 1. Identifichiamo le false con il numero 0. Come rappresentare matematicamente i cosiddetti connettivi (negazione, congiunzione ecc.)? La negazione, che rende falsa una frase vera e viceversa, può tradursi matematicamente in “1 –”, perché 1 – 1 fa 0, mentre 1 – 0 fa 1. Boole capì che “1 – “ era la struttura matematica, algebrica, della negazione.

Si comportò in modo simile con la congiunzione. La congiunzione di due affermazioni è vera se tutte e due le frasi sono vere. Basta che una delle due affermazioni sia falsa, perché sia falsa anche la congiunzione. Qual è l’operazione che prende due frasi vere e restituisce come valore 1, ma che quando prende due numeri, almeno uno dei quali è uno 0, restituisce come risultato uno zero? È la moltiplicazione: 1x1=1, ma 1x0, 0x1 e 0x0=0. Se la sottrazione corrisponde alla negazione, la moltiplicazione corrisponde alla congiunzione. Andando avanti così si possono ricostruire tutti i connettivi. Alle operazioni linguistiche sulle proposizioni corrispondono dunque operazioni matematiche sui numeri, dotate della medesima struttura.

Questa scoperta fondamentale avrebbe poi prodotto la logica matematica, sulle cui fondamenta è nata l’informatica. Se il sistema escogitato da Boole sembrava riuscire a catturare il ragionamento informale su cui si basano le interazioni umane quotidiane, nulla vietava di pensare che fosse capace di catturare anche ragionamenti più complessi. L’opera di Boole rappresenta il primo passo teorico fondamentale per arrivare a costruire una macchina in grado di “pensare”. Pur non realizzando il sogno di Leibniz, Boole fornì il calculus ratiocinator, vagheggiato dal filosofo tedesco.

In effetti, nonostante l'idea leibniziana fosse concettualmente più ricca, può essere attribuito a Boole il merito di aver compiuto un primo passo verso l'utilizzo della matematica come effettivo strumento per realizzare i "calcoli logici". Al contrario di Leibniz che, nella sua concezione analitica dell'intero sapere, vedeva il calcolo come lo stadio estremo di un processo di astrazione, per Boole il calcolo è artificiale, astratto nel senso che prescinde dai contenuti particolari, viene costituito a priori. Leibniz non fornì mai il calculus ratiocinator, pur dandone l'impostazione concettuale di base che fu necessaria a Boole per fondare la sua algebra, anche sulla scorta di diversi mutamenti storici che portarono alla nascita delle forme di algebra astratte basate sulla premessa di regole formali e simboli variamente interpretabili.

Idealmente per Boole prima si costruisce in maniera formale la base del calcolo operazionale, e poi se ne trovano le interpretazioni nel campo della logica, un'impostazione algebrica che successivamente assumerà la denominazione di "algebra di Boole". La novità di Boole è proprio nella cosiddetta "algebra della logica"", ossia l'applicazione del calcolo operazionale al campo della logica, che diventa logica formale appropriandosi dei rigorosi strumenti dell'analisi matematica per andare al di là del senso comune dell'argomentare, spesso fallace e vago.

Ciò nonostante, la logica continua ad avere uno statuto proprio e non viene ridotta a branca della matematica, pur essendo ad un livello di astrazione superiore rispetto alla logica precedente e storicamente intesa. In questo senso è stato imputato a Boole il difetto di aver eccessivamente “matematizzato" il ragionamento logico, per cui il peso del rigore matematico ha messo fra parentesi la plausibilità logico-intuitiva dei passaggi intermedi fra premesse e conclusioni, allontanandolo di fatto dall'imitazione dell'andamento delle argomentazioni intuitive del pensiero umano.

Per algebra di Boole si intende ancora oggi l’interpretazione algebrica della logica, un sistema di regole di calcolo. Gli operatori booleani, parte del sistema logico sviluppato da George Boole, permettono di restringere il campo delle proprie ricerche sul web. In particolare essi sono fondamentali per il recupero delle informazioni in cataloghi e banche dati perché permettono di combinare più termini tra loro in una stessa interrogazione. I più comuni sono: AND (operatore di intersezione), OR (operatore di unione), NOT (operatore di sottrazione).

Gottlob Frege e la fondazione logica della matematica[modifica]

Gottlob Frege (1848-1925) è stato un matematico, logico e filosofo tedesco, padre della logica matematica moderna e della filosofia analitica. A lui si deve il primo sistema logico pienamente sviluppato, capace di abbracciare tutti i ragionamenti deduttivi della matematica ordinaria. Se Boole aveva aperto la strada per esprimere in linguaggio matematico la logica dei filosofi, cioè la struttura del pensiero, Frege tentò di costruire un linguaggio puramente simbolico, restituendo la struttura del linguaggio naturale non attraverso lo 0 e l’1, bensì mediante un altro linguaggio, completamente formalizzato, di cui fosse possibile descrivere i principi fondamentali, gli assiomi e le regole necessari per il ragionamento (come aveva fatto Euclide per la geometria).

Gottlob Frege

Nel 1879 pubblicò l’Ideografia (Begriffsschrift: “modo di scrivere i concetti”), sottotitolato Linguaggio in formule del pensiero puro modellato su quello dell’aritmetica, forse l’opera più importante della storia della logica. Se Boole aveva adottato l’algebra ordinaria, usando i simboli algebrici per rappresentare le relazioni logiche, Frege introdusse simboli speciali per tali relazioni, onde evitare confusioni. Frege non stava solo elaborando un trattamento matematico della logica, ma anche creando un nuovo linguaggio, "guidato" dall'idea leibniziana di una lingua universale la cui potenza espressiva derivasse da una scelta oculata dei simboli.

Frege intendeva dimostrare piuttosto che tutta la matematica poteva essere basata sulla logica, e per farlo creò la Begriffsschrift, un linguaggio artificiale che aveva regole grammaticali (o meglio sintattiche) rigorose, per cui diventava possibile presentare le inferenze logiche come operazioni puramente meccaniche condotte per mezzo di "regole d'inferenza". Fu così che nacque il primo esempio di linguaggio formale artificiale dotato di una sintassi precisa: la Begriffsschrift può considerarsi l’antenata di tutti i linguaggi di programmazione odierni e indirettamente ha condotto Alan Turing all’idea di un calcolatore generale. Tuttavia la logica di Frege non realizzò il sogno di Leibniz: pur conoscendone le leggi, infatti, non era possibile determinare infallibilmente se una certa conclusione segue o meno da certe premesse.

Bertrand Russell (1872-1970), il celebre logico, matematico e filosofo gallese, che pure condivideva l’idea di Frege di dimostrare che l’aritmetica e anzi tutta la matematica poteva essere considerata un ramo della logica (logicismo), dimostrò in una lettera a Frege che la sua costruzione, la sua aritmetica ricostruita attraverso l’uso di insiemi di insiemi non era immune da contraddizioni e incoerenze. Frege era convinto che la sua Begriffsschrift fosse la realizzazione del linguaggio logico universale invocato da Leibniz, ma Leibniz, il quale aveva immaginato un linguaggio non solo utilizzabile per trarre deduzioni, ma in grado anche di inglobare in maniera automatica tutte le verità della scienza e della filosofia, ne sarebbe stato probabilmente deluso.

Alle prese con il calcolo infinitesimale, Leibniz aveva proposto la distinzione tra numeri irrazionali algebrici e trascendenti. Il grande matematico tedesco Georg Cantor (1845-1918), padre della teoria degli insiemi e del numero transfinito, formalizzò tale distinzione nella teoria degli insiemi con i diversi gradi di infinito, per cui l'insieme dei numeri razionali (numeri ottenibili come rapporto tra due numeri interi) è infinitamente più piccolo dell'insieme dei numeri reali (numeri ai quali è possibile attribuire uno sviluppo decimale finito o infinito). L'idea dominante fino a Cantor era stata l'unicità dell'infinito. Cantor dimostrò invece che esistono infiniti più grandi e infiniti più piccoli.

David Hilbert e la crisi della matematica[modifica]

David Hilbert (1862-1943), nato a Königsberg, la stessa città che diede i natali a Kant, fu uno dei più eminenti ed influenti matematici a cavallo dei due secoli. Ai colleghi matematici presenti al Congresso internazionale di Parigi del 1900, Hilbert, che avvertiva il perpetuo richiamo “Ecco il problema, cerca la soluzione, puoi trovarla con la pura ragione”, propose la sfida del Novecento: 23 problemi che apparivano intrattabili con i metodi esistenti.

David Hilbert

Dopo che il paradosso comunicato da Bertrand Russell a Gottlob Frege nel 1902 era divenuto di pubblico dominio, molti cominciarono a vedere la difficoltà di fondare la matematica come una crisi dei fondamenti. Ma lo stesso Russell lavorò a un sistema di logica simbolica capace di realizzare il programma di Frege di riduzione dell’aritmetica alla logica pura senza incorrere nei paradossi, con il sostegno del sistema dei simboli introdotto da Giuseppe Peano, più comprensibile rispetto a quello elaborato da Frege.

Il tentativo di Russell di resuscitare il programma di Frege prese la forma dei Principia Mathematica (1910-1913), scritti insieme ad Alfred Whitehead: gli autori dimostrarono una volta per tutte che la formalizzazione completa della matematica entro un sistema di logica simbolica era perfettamente realizzabile. Secondo Henri Poincaré, che contendeva a Hilbert il titolo di più grande matematico vivente, prendere sul serio gli sforzi di Cantor, Hilbert e Russell significava ammettere la possibilità di ridurre la matematica a mero calcolo (il sogno di Leibniz!): un'assurdità.

Hilbert alla ricerca della completezza - Nel 1928 Hilbert pubblicò un piccolo libro che poneva due problemi relativi alla logica di base della Ideografia di Frege, oggi chiamata “logica del primo ordine”. Il primo problema consisteva nel dimostrare che la logica del primo ordine era completa, cioè che ogni formula che, vista dall’esterno, apparisse valida poteva essere derivata dentro il sistema usando solo le regole proposte dal manuale. Il secondo problema, noto come l’Entscheidungsproblem (problema della decisione) di Hilbert, era quello di trovare un metodo che, data una formula della logica del primo ordine, determinasse, in un numero finito di passi ben definiti ed effettivi, se essa era o non era valida.

Questi due problemi fecero rivivere nel ventesimo secolo le speranze di avverare il sogno di Leibniz.

Kurt Gödel e i teoremi di incompletezza[modifica]

Kurt Gödel (1906-1978) è stato un matematico, logico e filosofo austriaco naturalizzato statunitense, noto soprattutto per i suoi lavori sull’incompletezza delle teorie matematiche. Gödel, che conservò sempre un vivo interesse per i classici tedeschi della filosofia (soprattutto per Leibniz), è ritenuto uno dei più grandi logici di tutti i tempi insieme ad Aristotele e Frege; le sue ricerche ebbero un significativo impatto, oltre che sul pensiero matematico e informatico, anche sul pensiero filosofico del ventesimo secolo.

Kurt Gödel

Il secondo problema del celebre elenco hilbertiano del 1900 era come dimostrare che l'aritmetica dei numeri reali non era contraddittoria. Hilbert aveva escogitato il suo programma “metamatematico” di assiomatizzazione di tutta la matematica all'interno di un sistema logico formale. Il programma di Hilbert era una completa e consistente assiomatizzazione di tutta la matematica, laddove consistente significa che dal sistema non si può derivare alcuna contraddizione.

Il programma di Hilbert ricevette un colpo mortale dal secondo dei teoremi di incompletezza di Gödel, il quale stabilisce che ogni sistema di assiomi sufficientemente espressivo non può mai dimostrare la propria consistenza. Anziché mettere la matematica al riparo dalle critiche degli avversari di Hilbert, come aveva sperato, Gödel di fatto seppellì il programma di Hilbert. Gödel giunse alla conclusione che l'estensione della verità matematica andava al di là di ciò che poteva essere dimostrato in qualsiasi sistema formale.

Nell'opera Su alcune proposizioni formalmente indecidibili dei Principia Mathematica e di sistemi affini (1931), Gödel dimostrò che nemmeno sistemi formali molto potenti come quello messo a punto da Whitehead e Russell, potevano sperare di abbracciare l’intero dominio della verità matematica. Grazie al metodo della diagonale, uno stratagemma matematico appreso da Georg Cantor, Gödel dimostrò che si poteva fare in modo che la proposizione di cui si asseriva l’indimostrabilità e quella in cui si faceva tale asserzione fossero una e una sola. Tale proposizione è vera ma non dimostrabile nel sistema stesso: è una proposizione indecidibile (all'interno del sistema).

La storia che va da Leibniz a Gödel fu dunque un periodo in cui si alternarono sogni, tentativi e disillusioni. Leibniz si era proposto di creare un linguaggio artificiale in cui buona parte del pensiero umano fosse ridotta a calcolo. Nella sua Ideografia, Frege aveva mostrato come fosse concretamente possibile catturare i normali ragionamenti logici dei matematici. Whitehead-Russell avevano rielaborato la matematica corrente in un linguaggio logico artificiale. Hilbert aveva creduto di poter fondare la matematica su un sistema logico formale completo e coerente. Gödel dimostrò che nessun sistema logico formale, poteva provare la propria coerenza interna e che esistono problemi matematici irrisolubili. Nel 1941, Gödel pubblicò una monografia sulla coerenza dell'ipotesi del continuo, dove per continuo si intende l'insieme dei numeri reali. Questi rappresentano l'infinito più piccolo,la cui dimensione è maggiore dei numeri interi ove nel mezzo non ci sono infiniti intermedi. Lo scienziato dimostrò quindi che,in un sistema definito non si può smentire l'ipotesi. In seguito lo studioso incentrò la propria speculazione sugli studi relativi alla cosmologia, con particolare riguardo alle equazioni di Einstein dell'universo rotante,e quelli riguardanti il filosofo Gottfried Wilhelm Leibniz sull'aritmetica binaria. Questa sua ultima elaborazione fu però ridicolizzata e tralasciata dai critici, che ritenevano la sua mente superiore a tali stupidi ragionamenti. Lo studio di Leibniz sulla codifica binaria come chiave interpretativa di un linguaggio universale, basato su regole meccaniche,costituiva il precursore della macchina universale di Turing, così come le osservazioni di Gödel. Il filosofo senza ovviamente saperlo, aveva inventato il registro elettronico a scorrimento veloce.Il meccanismo binario, infatti, prevedeva la traduzione simboli sferici in numeri binari. Tali simboli erano governati da porte con soli due punti: 0 e 1, le prime rimanevano chiuse, mentre le seconde, aperte, e proprio in queste si lasciavano cadere dadi o palline,il meccanismo si muoveva poi da una parte all'altra, con un trascinamento simile a quello della moltiplicazione. Quello che Leibniz, Gödel e Turing tentarono di far comprendere all'umanità era l'indimostrabilità delle verità matematiche all'interno di tale scienza stessa e del mondo reale nel suo insieme. Il nostro mondo,infatti,secondo i tre scienziati non era comprensibile e spiegabile attraverso le sue stesse leggi, ma il suo significato lo trascendeva.

Riferimenti bibliografici[modifica]

  • M. Davis, The Universal Computer. The Road from Leibniz to Turing, 2000; tr. it. Il calcolatore universale, Milano 2003, nuova ed. 2012.
  • U. Pagallo, Introduzione alla filosofia digitale. Da Leibniz a Chaitin, Torino 2005.
  • George Dyson, La cattedrale di Turing, Codice Edizioni Torino 2012.


La nascita dell'informatica

Indice del libro

I pionieri dell'informatica[modifica]

Passando dalle idee logiche che stanno alla base degli attuali calcolatori, alla loro costruzione effettiva, vengono in primo piano i problemi di ingegneria e le persone che sono riusciti ad affrontarli vittoriosamente. Vi sono versioni molto diverse della storia delle macchine calcolatrici. Tra i protagonisti vi sono Charles Babbage, Ada Lovelace, Claude Shannon (1916-2001, il fondatore della teoria matematica dell’informazione) e John von Neumann.

Ada Lovelace[modifica]

Ada Lovelace

Ada Lovelace (1815-1852) fu la prima programmatrice di computer della storia. Figlia del celebre poeta George Gordon Byron e della matematica Anne Isabelle Milbanke, sin da piccola fu istruita dai piu importanti docenti del tempo, mostrando grande interesse per le scienze e la matematica.

Come di consuetudine per le giovani aristocratiche, a 18 anni Lovelace debuttò in società ed iniziò a frequentare i più facoltosi salotti grazie ai quali conobbe personalità come Charles Darwin, Charles Dickens, Michael Faraday e Charles Babbage che proprio in quegli anni stava lavorando alla macchina differenziale, un marchingegno in grado di fare somme e sottrazioni automaticamente. Ada, estremamente affascinata, iniziò a studiare i metodi di calcolo realizzabili con essa, e così nacque uno splendido rapporto di amicizia e di lavoro che durerà per anni. La macchina divenne sempre più grande ma, pur essendo concettualmente valida, non fu mai costruita a causa dei costi eccessivi e delle scarse competenze tecnologiche del tempo.

Dopo la macchina differenziale nacque la macchina analitica, una macchina ancora più complicata, capace di fare ulteriori operazioni quali moltiplicazioni, divisioni, comparazioni a radici quadrate. Babbage cercò di far conoscere la macchina all'estero, precisamente in Italia, dove incontrò il giovane matematico Luigi Federico Menabrea. Quest’ultimo scrisse nel 1842 un breve articolo in francese sulla macchina che fu pubblicato sulla rivista svizzera "Bibliothèque Universelle de Genève". Ada, sollecitata da un amico di Babbage, Charles Wheatstone, iniziò a tradurre l’articolo in inglese e vi aggiunge ben sette note, frutto di un lavoro durato interi mesi, e che firmò con le sole iniziali (A. A. L.). Le note descrivevano le caratteristiche strutturali e funzionali della macchina e, soprattutto, mostravano la possibilità da parte della MA di poter essere programmata. Questo, infatti, è ciò che la rende il più antenato dei nostri computer: a differenza della macchina differenziale, che poteva manipolare solo numeri, la macchina analitica era in grado di manipolare simboli sulla base di semplici regole. La nota più importante è senza dubbio l’ultima, la nota G, nella quale Lady Lovelace descrisse, a tal fine, un algoritmo per calcolare i numeri di Bernoulli, algoritmo che oggi viene riconosciuto come il primo programma informatico della storia.

Nonostante la macchina analitica, proprio come la macchina differenziale, non fu mai costruita, il contributo pionieristico di Ada Lovelace e Charles Babbage è stato di fondamentale importanza: dopo quasi un secolo, Alan Turing inventò i primi computer elettronici grazie alle note di Ada Lovelace. A partire dal 2009, negli Stati Uniti si celebra ogni anno l’Ada Lovelace Day, in onore di tutti i conseguimenti ottenuti dalle donne nelle scienze, nella tecnologia, nell’informatica e nella matematica.

Charles Babbage[modifica]

Charles Babbage

Charles Babbage nacque a Londra il 26 dicembre 1791. Il connubio tra filosofia e matematica diede vita ad uno dei più influenti scienziati informatici del suo tempo nella regione inglese, che per primo concepì l’idea di un calcolatore programmabile.

Babbage fu studente al Trinity Colledge e successivamente al Penterhouse di Cambridge, dove discusse la laurea nel 1814, e dove nel 1828 rivestirà la cattedra lucasiana di matematica, che in passato aveva accolto il genio di Isaac Newton (1669). La storia dell'informatica lo ricorda per la progettazione della macchina differenziale, della quale venne realizzato un prototipo imperfetto, e per la macchina analitica, che, sebbene fosse rimasta soltanto un progetto, rappresentò storicamente il primo vero calcolatore meccanico. Babbage morì il 18 ottobre 1871 a Londra, all’età di 80 anni, e non gli fu possibile vedere il frutto del suo lavoro intellettuale. Le sue idee, però, troveranno una definitiva implementazione nel XX secolo, con l'invenzione degli elaboratori elettronici.

La macchina differenziale[modifica]

Babbage constatò che i calcolatori umani erano soliti incorrere in molteplici errori, talvolta dovuti alla stanchezza, talvolta alla noia. Tali considerazioni portarono lo studioso a riflettere sul concepimento di un calcolatore sotto forma di macchina, così da aggirarne gli errori. Quindi, sulla base del lavoro svolto da Pascal e Leibniz, nel 1823, in una lettera a Sir Humphrey Davy discusse i principi di un motore di calcolo.

Il primo tentativo di implementazione delle proprie idee, Babbage lo trovò nel concepimento della macchina differenziale. Il modello fu presentato alla Royal Astronomical Society nel 1823, in un saggio intitolato “Note on the application of machinery to the computation of astronomical and mathematical tables”, e si basava sul cosiddetto metodo delle differenze, in base al quale Babbage contava di creare tabelle di polinomi. La macchina sarebbe stata avviata meccanicamente da una maniglia, grazie alla quale Babbage avrebbe potuto mettere in movimento gli ingranaggi. Ottenuto un finanziamento di 1500 sterline dal governo britannico per l’idea brillante, lo studioso incorse, tuttavia, in una serie di errori tecnici nella realizzazione della macchina. Gli ingranaggi disponibili a quel tempo, infatti, risultarono poco adatti, e in particolare l’attrito generato dalle meccaniche creava una fastidiosa e costante vibrazione, che ne rese impossibile il funzionamento. Inoltre, le incomprensioni con gli operai assunti per la realizzazione del progetto, e i repentini cambi di idea riguardo alla sua realizzazione, portarono Babbage a spendere invano circa 17.000 sterline, 6.000 delle quali di tasca propria. In seguito, il taglio dei finanziamenti da parte del governo inglese lo indusse a scrivere le celebri “Reflections on the Decline of Science in England, and some of its Causes”. La macchina differenziale rimase, purtroppo, soltanto un’idea brillante.

La macchina analitica[modifica]

Tra il 1833 e il 1842, Babbage ci riprovò. Questa volta, tentò di costruire una macchina che fosse, però, in grado di eseguire qualsiasi tipologia di calcolo, non soltanto quelli basati su equazioni polinomiali: la macchina analitica, riconosciuta come il primo prototipo di calcolatore generico complesso. Il progetto di Babbage si basava sul telaio di Joseph Marie Jacquard, il quale utilizzava alcune schede perforate per determinare come dovesse essere la trama del tessuto. Babbage unì le schede traforate ad un processore aritmetico atto a calcolare i numeri, ad un’unità centrale che controllasse lo svolgimento del lavoro, un meccanismo di uscita e una memoria, dove potessero essere conservati i dati in attesa della loro elaborazione. La riserva conteneva 1000 numeri, ognuno di cinquanta cifre, ma Babbage costruì la macchina in modo da donarle una riserva pressoché infinita, grazie alla rilettura delle stesse carte forate resa possibile per il futuro. La componente “Mill” (mulino), e cioè il sistema che permetteva l’elaborazione dei dati, che costituiva l’idea di base delle moderne CPU, sarebbe stata in grado di svolgere le quattro operazioni aritmetiche. La macchina, inoltre, lavorava su tre differenti tipi di schede: un tipo per le operazioni matematiche, un altro per le costanti matematiche, ed infine un terzo per il caricamento e il salvataggio dei dati. Tuttavia, anche l’implementazione di questa seconda idea, a causa delle quasi medesime complicazioni che Babbage aveva affrontato nella messa a punto della macchina differenziale, risultò fallimentare, e il progetto che era stato messo a punto nel 1837 terminò prima ancora di vedersi tramutato in macchina.

Claude Shannon[modifica]

Claude Shannon

Claude Shannon (1916-2001) è il padre della Teoria dell'informazione, una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.

La grandezza che misura la quantità di dati prende il nome di entropia ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l'informazione. Ad esempio, se un alfabeto ha un'entropia pari a 4 bit, allora, preso un numero sufficiente di parole costruite con tale alfabeto, in media sono necessari 4 bit per rappresentare ogni lettera. L'applicazione dei concetti fondamentali della teoria dell'informazione include la compressione senza perdite dei file. L'impatto della teoria dell'informazione, che si pone a metà strada tra la matematica applicata, la statistica, la fisica applicata, le telecomunicazioni e l'informatica, è stato fondamentale nelle missioni spaziali, nell'invenzione del compact disc, dei telefonini, di Internet, nello studio della linguistica e in numerosissimi altri campi.

Shannon nel 1932 iniziò gli studi presso l'Università del Michigan, dove, nel 1936, conseguì due lauree: in matematica e in ingegneria elettronica. Shannon si iscrisse quindi al Massachusetts Institute of Technology, dove frequentò, tra l'altro, il laboratorio nel quale, sotto la direzione di Vannevar Bush, si lavorava alla realizzazione dell'analizzatore differenziale, un calcolatore analogico. Nel 1938 conseguì il titolo di Master of Science in ingegneria elettronica presentando la tesi Un'analisi simbolica dei relè e dei circuiti. In questo studio Shannon dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori - cioè dispositivi che possono essere in uno di due stati - segue esattamente le regole dell'algebra di Boole, se si fanno corrispondere i due valori di verità - VERO e FALSO - della logica simbolica allo stato APERTO o CHIUSO di un interruttore. Pertanto un circuito digitale può essere descritto da un'espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra. Shannon definì così un potente metodo, ancora oggi usato, per l'analisi e la progettazione dei sistemi digitali di elaborazione dell'informazione.

Nel 1948 pubblicò il saggio Una teoria matematica della comunicazione, un importante trattato scientifico che poneva la base teorica per lo studio dei sistemi di codificazione e trasmissione dell'informazione. In questo lavoro si concentrò sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente. Fu in questa ricerca che Shannon coniò la parola bit, per designare l'unità elementare d'informazione. La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare le informazioni in modo da poterle trasferire e collegare tra loro. Nel 1949 pubblicò un altro notevole articolo, La teoria della comunicazione nei sistemi crittografici, con il quale praticamente fondò la teoria matematica della crittografia. Shannon è inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).

Alan Turing[modifica]

Alan Turing (1927 circa)

Alan Mathison Turing nacque a Londra nel 1912 e morì suicida nel 1954, perseguitato dal governo di una nazione che, senza clamore, aveva contribuito a salvare. Fu un genio che con la crittografia aiuta a vincere la Seconda Guerra Mondiale e uno dei padri dei moderni computer e dell’intelligenza artificiale, ma anche un omosessuale che, bistrattato dalla storia, venne spinto al suicidio dopo un trattamento disumano, ordinato dalla giustizia inglese. Nel 2009, a distanza di 55 anni dalla sua morte, il primo ministro Gordon Brown formulò una dichiarazione di scuse ufficiali da parte del governo del Regno Unito: «Per conto del governo britannico, e di tutti coloro che vivono liberi grazie al lavoro di Alan, sono orgoglioso di dire: ci dispiace, avresti meritato di meglio». Il 24 dicembre 2013 la regina Elisabetta II ha poi elargito la grazia postuma per Alan Turing.

Il problema della decisione[modifica]

Leibniz sognava una ragione umana ridotta a puro calcolo e a grandi macchine meccaniche che consentissero l’esecuzione dei calcoli. Frege fu il primo a produrre un sistema di regole capace di rendere conto in modo plausibile di tutti i ragionamenti deduttivi umani. Hilbert cercava un algoritmo di un'ampiezza senza precedenti, in grado di risolvere il problema della decisione (Entscheidungsproblem), ossia il problema della completezza del sistema di Frege. Questo algoritmo (ribattezzato poi l'algoritmo di Dio) avrebbe dovuto ridurre tutti i ragionamenti deduttivi umani a calcolo bruto, realizzando in buona misura il sogno di Leibniz. Dopo Gödel era difficile pensare che tale algoritmo potesse esistere. Alan Turing cominciò a chiedersi come si poteva dimostrare che un algoritmo del genere non esisteva.

Un algoritmo, ossia una procedura di calcolo destinato alla soluzione di un problema, è definito da un elenco di regole che una persona può seguire in modo meccanico e preciso. Turing dimostrò che una tale persona poteva limitarsi a poche azioni di base, molto semplici, senza che il risultato finale del calcolo cambiasse. Comprese poi che l’essere umano poteva essere sostituito da una macchina capace di eseguire quelle stesse azioni di base. Dimostrò infine che nessuna macchina in grado di eseguire solo tali azioni poteva stabilire se una data conclusione era derivabile da premesse date usando le regole di Frege. Concluse che non esisteva un algoritmo per il problema della decisione (Entscheidungsproblem).

La riflessione sul calcolo[modifica]

Come corollario, Turing trovò un modello matematico di macchina calcolatrice onnifunzionale. Turing immaginò che la persona incaricata del calcolo lavorasse con un nastro di carta diviso in quadretti, e si rese conto che eseguire un calcolo complicato utilizzando un nastro unidimensionale non comportava nessun problema fondamentale. Turing scoprì alcuni aspetti cruciali di qualsiasi calcolo. Ogni persona che esegue un calcolo (aritmetico, algebrico, infinitesimale ecc.) è soggetta a due vincoli: 1) in ogni stadio del calcolo l’attenzione è rivolta solo a pochi simboli; 2) in ogni stadio l’azione intrapresa dipende solo da quei simboli su cui si focalizza la sua attenzione e dal suo stato mentale del momento. In conclusione ogni calcolo può essere inteso come un processo con le seguenti caratteristiche:

  • viene eseguito scrivendo dei simboli nelle caselle di un nastro di carta.
  • a ogni passo la persona che esegue il calcolo fa attenzione al simbolo scritto in una sola di queste caselle.
  • l’azione successiva dipenderà da questo simbolo e dallo stato mentale della persona.
  • tale azione consisterà nello scrivere un simbolo nella casella osservata ed eventualmente nello spostare l’attenzione sulla casella immediatamente a destra o a sinistra.

È facile vedere che la persona può essere sostituita da una macchina nella quale il nastro – che possiamo pensare come un nastro magnetico, ove i simboli scritti sono rappresentati da informazioni in codice – si muove avanti e indietro, mentre agli stati mentali dell’operatore corrispondono differenti configurazioni delle componenti interne della macchina. Quest’ultima va progettata in modo da scandire, istante per istante, uno solo dei simboli del nastro. A seconda della sua configurazione interna e del simbolo scandito, scriverà sul nastro un certo simbolo (che rimpiazzerà quello scandito), dopodiché o continuerà a scandire la stessa casella o si sposterà di un passo verso destra o verso sinistra. Ai fini del calcolo non importa come sia costruita la macchina e di che cosa sia fatta: conta solo che abbia la capacità di assumere un certo numero di configurazioni (dette anche stati) distinte e che in ognuna di esse si comporti in modo adeguato.

La macchina di Turing[modifica]

Il punto non è la costruzione effettiva di una di queste macchine di Turing, che dopotutto sono solo astrazioni matematiche: ciò che importa è che questa analisi della nozione di calcolo abbia consentito di stabilire che tutto ciò che è calcolabile mediante un processo algoritmico può essere calcolato da una macchina di Turing. Se quindi si può dimostrare che un certo compito non può essere eseguito da una macchina di Turing, è certo che non esiste un processo algoritmico in grado di eseguirlo. Fu così che Turing dimostrò che non esisteva un algoritmo per il problema della decisione. La macchina di Turing è dunque un automa astratto, teorico, universale, il cui disegno logico fornisce una traduzione formale del concetto intuitivo di calcolabilità. La macchina di Turing è tuttora utilizzata, nelle sue numerose varianti, come modello astratto del calcolo automatico sviluppato da un elaboratore.

Inoltre Turing mostrò come creare una singola macchina di Turing capace di fare, senza aiuti esterni, tutto ciò che poteva essere fatto da una qualsiasi macchina di Turing: era un modello matematico di calcolatore generale. Dal punto di vista logico, ogni macchina di Turing può essere descritta da un elenco di quintuple, ossia da espressioni logiche espresse da cinque simboli: Quando la macchina si trova nello stato R e legge sul nastro il simbolo a, sostituisce a con b, si sposta di un casella a destra e passa nello stato S.

La teoria della computabilità[modifica]

La teoria della computabilità, una branca della logica nata negli anni '30 del secolo scorso grazie al contributo di Alan Turing è fondamentale per comprendere l'intelligenza delle macchine. Tale teoria si occupa di capire se esistono o no algoritmi capaci di risolvere problemi. Una funzione infatti è computabile se esiste un algoritmo che la calcola. Si tratta quindi di procedimenti compiuti dalle cosiddette "Macchine di Turing." In altre parole si può dire che la teoria della computabilità alla cui nascita Turing diede un contributo cruciale, fu formulata nel contesto della fondazione della matematica attraverso strumenti logici.

L’insolubilità dell’Entscheidungsproblem[modifica]

Essendo pure astrazioni matematiche, le macchine di Turing hanno il vantaggio, rispetto alle macchine fisiche, di poter usare una quantità di nastro illimitata. È possibile che il calcolo di una macchina di Turing non abbia mai fine anche se essa percorre solo una quantità prefissata di nastro.

Una rappresentazione grafica della macchina di Turing

Il comportamento della macchina è strettamente legato ai dati di ingresso. Alcune macchine di Turing, con certi dati in ingresso, si arrestano; altre no. L’applicazione a questi secondi casi (le macchine che non si arrestano) della diagonale di Cantor condusse Turing alla scoperta di problemi che le sue macchine non potevano risolvere, e, come passo successivo, alla dimostrazione dell’insolubilità dell’Entscheidungsproblem. Turing tradusse gli elenchi di quintuple in codici numerici e scoprì che con alcuni numeri la macchina finirà per fermarsi, mentre con altri può andare avanti per sempre: l’insieme dei numeri del primo tipo è il suo insieme di fermata.

Hilbert aveva capito che la soluzione dell’Entscheidungsproblem, il problema fondamentale della logica matematica, avrebbe fornito un algoritmo capace di rispondere a tutte le domande matematiche. Ma un algoritmo così non esiste. Pur nella sua grande potenza logica, la macchina di Turing ha infatti un limite intrinseco: data una configurazione iniziale di una macchina di Turing non è decidibile a priori la sua possibilità di giungere a un termine, cioè a una configurazione finale (indecidibilità della fermata di una macchina di Turing). L’Entscheidungsproblem è dunque algoritmicamente insolubile. Nei risultati di Turing c’era però qualcosa di problematico: egli aveva dimostrato che non si poteva usare una macchina di Turing per risolvere il problema della decisione, ma per passare da questo risultato alla conclusione che non esisteva nessun algoritmo, di nessun genere, capace di risolvere tale problema, aveva dovuto utilizzare la propria analisi di quello che accade quando un essere umano esegue un compito. Per consolidare la tesi che ogni compito di questo tipo può essere svolto da una macchina di Turing, egli escogitò la macchina universale.

La macchina universale[modifica]

L’analisi di Turing mirava a dimostrare che qualunque calcolo poteva essere svolto da una macchina di Turing: questa macchina sarebbe stata così una macchina di Turing capace di svolgere, da sola, i compiti di qualunque macchina di Turing. Era dai tempi di Leibniz che si pensava alle macchine calcolatrici, ma prima di Turing si era sempre supposto che la macchina stessa, il programma e i dati fossero entità del tutto distinte. La macchina universale di Turing dimostrava che tale distinzione era illusoria. La macchina di Turing, infatti, è un congegno che ha componenti meccaniche (hardware), ma sul nastro della macchina universale il codice numerico funziona come un programma (software) che dà le istruzioni per l’esecuzione del calcolo alla macchina, mentre la macchina universale tratta le cifre del codice di una macchina come semplici dati sui quali lavorare. Questa fluidità dei tre concetti è fondamentale per l’informatica odierna. L’analisi di Turing offriva una visione nuova dell’antica arte del calcolo, rivelando che la nozione stessa di calcolo andava ben oltre i calcoli aritmetici e algebrici.

Mentre Turing lavorava a dimostrare che non esiste una soluzione algoritmica del problema della decisione, a Princeton (USA) Alonzo Church giungeva a conclusioni analoghe alle sue dimostrando che esistono problemi algoritmicamente insolubili[2]. Lo stesso Kurt Gödel era abbastanza scettico nei confronti delle idee di Church, e fu solo l’analisi di Turing, trasferitosi nel frattempo a Princeton, a convincerlo che erano corrette. L’analisi della nozione di calcolo e la scoperta della macchina calcolatrice universale sono invece idee completamente nuove.

Il legame tra calcolo e ragionamento è autentico e profondo: il tentativo di ridurre il ragionamento logico a una serie di regole formali risale ad Aristotele, ed era alla base del sogno leibniziano di un linguaggio computazionale universale, nonché del successo di Turing nel dimostrare che la sua macchina universale poteva svolgere qualsiasi calcolo. La logica assicura all’informatica sia un impianto fondazionale unificante sia uno strumento per costruire modelli, svolgendo un ruolo fondamentale nell’intelligenza artificiale, nei sistemi di database ecc.

L'intelligenza delle macchine: il test di Turing[modifica]

Nel 1950 Turing pubblicò un breve saggio ormai classico, Computing Machinery and Intelligence[3], in cui prevedeva (sbagliando) che per la fine del secolo vi sarebbero stati programmi di calcolatore capaci di sostenere una conversazione con tale disinvoltura che nessuno sarebbe stato in grado di dire se quello con cui stava parlando era una macchina o un essere umano. Turing cercava un modo per stabilire se il comportamento di un calcolatore fosse intelligente, e a tale scopo propose un test oggettivo e facile da somministrare.

In questo saggio, Turing descrive quello che è passato alla storia come il test di Turing, ossia un criterio per determinare se una macchina sia in grado di pensare. Il test consisteva in questo: se si riesce a programmare un calcolatore in modo che sappia conversare, su qualsiasi argomento gli venga proposto, tanto bene che nemmeno un interlocutore mediamente intelligente saprebbe dire se sta parlando con una persona o una macchina, allora si doveva ammettere che quel calcolatore mostrava una certa intelligenza. Tuttavia siamo ancora lontani dal saper produrre un programma di questo tipo, e molti sono convinti peraltro che un simile comportamento non sarebbe di per sé intelligente. Turing e von Neumann furono mossi a paragonare il calcolatore al cervello umano per un’ottima ragione: sapendo che gli esseri umani sono capaci di pensare secondo schemi molto diversi, ipotizzarono che la nostra capacità di fare tante cose diverse sia dovuta alla presenza, nel nostro cervello, di un calcolatore universale.

In questo articolo del 1950, Turing lanciò la domanda se una macchina possa pensare: il cosiddetto test di Turing, prende spunto dal “gioco dell’imitazione” , cui partecipano tre persone: un uomo A, una donna B e un esaminatore C, che è isolato dagli altri due. C può porre ad A e B domande arbitrarie e dalle risposte deve stabilire chi è la donna. A e B si sforzano entrambi di essere identificati nella donna, quindi B cerca di aiutare C e A cerca di ingannarlo, fornendo le risposte che a suo parere darebbe la donna. C può avere a disposizione soltanto le risposte e non altri indizi (che renderebbero facile l’identificazione) : quindi può comunicare con A e B solo mediante tastiera. Questa versione del gioco consente di affrontare il problema se le macchine possano pensare evitando di definire i termini “macchina” e “pensare”, il cui significato è difficile da precisare. L’utilità di questo esperimento concettuale sta non tanto nella risposta che esso consente di fornire al problema (non è scontato che la fornisca), quanto nella possibilità di analizzare concetti come mente, pensiero, intelligenza. Il gioco dell’imitazione presuppone che le risposte di una donna siano distinguibili da quelle di un uomo; ma anche che l’uomo sia in grado di simularle. Non bisogna dimenticare tuttavia che il gioco è a tre: l’identificazione di A e B è demandata a un giudice. Se il giudice è in gamba può prendere la decisione corretta nonostante gli sforzi di A per sviarlo. Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. In tal caso, se C non si accorgesse di nulla, la macchina dovrebbe essere considerata intelligente, in quanto, in questa situazione, è stata in grado di comportarsi come un uomo. Nell'articolo si legge: secondo la forma più estrema di questa opinione, il solo modo in cui si potrebbe essere sicuri che una macchina pensa è quello di essere la macchina stessa e sentire se si stesse pensando. [...] Allo stesso modo, la sola via per sapere che un uomo pensa è quello di essere quell'uomo in particolare. [...] Probabilmente A crederà "A pensa, mentre B no", mentre per B è l'esatto opposto "B pensa, ma A no". Invece di discutere in continuazione su questo punto, è normale attenersi alla educata condizione che ognuno pensi.

Quella di Turing, in un certo senso, è una provocazione filosofica, che ci costringe a fronteggiare e analizzare le nostre convinzioni in materia di pensiero. Se una macchina può sostenere una conversazione come farebbe un essere umano, possiamo dire che pensa.

Per Turing, se una macchina riesce nel gioco imitativo, dobbiamo concludere che in un qualche senso , quella macchina pensa.

Oltre metà dell'articolo originale di Turing è dedicato a rispondere alle principali obiezioni a questa posizione:

  • l'obiezione teologica (l'uomo è dotato di anima, le macchine no, quindi non possono pensare),
  • l'obiezione "testa nella sabbia" (speriamo che le macchine non arrivino mai a pensare, sarebbe terribile),
  • l'argomento della coscienza (solo se la macchina è consapevole di ciò che sta facendo, e non semplicemente manipolando simboli, possiamo dire che pensa),
  • l'argomento delle inabilità (la macchina sa conversare benissimo, ma non sa fare X, dove X è una caratteristica scelta in un insieme più o meno arbitrario di cose che sanno fare gli esseri umani),
  • l'argomento di Lady Lovelace (le macchine fanno solo quello che noi gli ordiniamo di fare).

L'idea di una macchina che impara può apparire paradossale ad alcuni lettori. Come possono cambiare le regole di funzionamento della macchina? Esse dovrebbero descrivere completamente come reagirà la macchina qualsiasi possa essere la sua storia, a qualsiasi cambiamento possa essere soggetta. Le regole sono quindi assolutamente invarianti rispetto al tempo. Questo è verissimo. La spiegazione del paradosso è che le regole che vengono cambiate nel processo di apprendimento sono di un tipo meno pretenzioso e intendono avere solo una validità temporanea. Possiamo sperare che le macchine saranno alla fine in grado di competere con gli uomini in tutti i campi puramente intellettuali. Ma quali sono i migliori per cominciare? Anche questa è una decisione difficile. Molta gente pensa che un’attività molto astratta, come giocare a scacchi sarebbe la migliore. Si può anche sostenere che è meglio fornire alla macchina i migliori organi di senso che si possano comprare e poi insegnarle a capire e parlare una lingua umana. Questo processo potrebbe seguire il metodo d’insegnamento normale per un bambino. Ancora una volta ignoro quale sia la risposta esatta, ma penso che bisognerebbe tentare ambedue le strade. Possiamo vedere nel futuro solo per un piccolo tratto, ma possiamo pure vedere che in questo piccolo tratto c’è molto da fare.

I primi calcolatori universali[modifica]

Il calcolatore universale era un apparato concettuale meraviglioso, capace di eseguire da solo qualsiasi compito di natura algoritmica: ma era possibile costruirlo?

Konrad Zuse

Konrad Zuse: lo Z1 e la sua evoluzione[modifica]

L'ingegnere tedesco Konrad Zuse (1910-1995) è stato l'inventore del primo computer moderno, il calcolatore Z1, la cui progettazione e costruzione è iniziata nel 1936, e venne completata nel 1938, anticipando di alcuni anni il Colossus, nonché i primi enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli Stati Uniti nella seconda metà degli anni '40[4]. E' inoltre stato l'inventore del primo linguaggio di programmazione di alto livello, il Plankalkül. Zuse ricevette numerosi finanziamenti per la costruzione delle macchine da enti civili e militari sia negli anni del regime nazionalsocialista sia dopo la guerra.

Lo Z1 era programmabile, dotato di memoria (RAM di serie da 176 byte), di un'autonoma unità di calcolo in virgola mobile basata sul sistema binario, con istruzioni immesse tramite nastro di celluloide perforato. Era retto da una tecnologia elettromeccanica e possedeva un hertz di frequenza. Esso era solamente in grado di compiere operazioni semplici, quali addizioni e sottrazioni, fra valori in virgola mobile di 22 bit, e comprendeva una logica di controllo che gli permetteva anche di effettuare operazioni più complesse, ad esempio moltiplicazioni e divisioni. Nel 1939 Zuse riuscì a migliorare lo Z1 attraverso il meccanismo di calcolo a relè (un dispositivo elettromeccanico), dando vita così allo Z2. Nel 1941, grazie all'appoggio economico dell'Ufficio Centrale per la Ricerca Aeronautica, nacque lo Z3, la prima macchina da calcolo completamente funzionante, avente le caratteristiche generali del computer odierno. Sfortunatamente nel 1944 venne distrutto da un bombardamento, ma Zuse lo ricostruì subito dopo, denominandolo Z4.

Alan Turing e il Colossus[modifica]

Turing era interessato alla possibilità di costruire fisicamente una macchina di questo tipo e mise insieme diverse parti della sua macchina costruendo personalmente i circuiti elettromeccanici di cui aveva bisogno. Tornato a Cambridge nel 1938, fu subito chiamato a lavorare alla decrittazione delle comunicazioni militari tedesche. Il sistema di comunicazione tedesco usava una versione modificata di una macchina per criptare già presente sul mercato, chiamata Enigma. Turing progettò una macchina efficientissima nell’usare alcune informazioni sfuggite ai tedeschi per dedurne le configurazioni giornaliere di Enigma. Nel frattempo non smise di riflettere sull’applicabilità del suo concetto di macchina universale: la sua ipotesi era che il segreto dell’enorme potenza del cervello umano fosse legato proprio a questa nozione di universalità, che in qualche modo il nostro cervello fosse realmente una macchina universale.

Negli anni Trenta le radio contenevano un certo numero di tubi elettronici (le cosiddette valvole termoioniche) che si bruciavano spesso e dovevano essere sostituite. Turing venne a sapere che le valvole termoioniche potevano eseguire le stesse operazioni logiche che fino ad allora si facevano coi circuiti elettrici, e in più erano molto rapide. Grazie al lavoro del suo maestro Max Newman, Turing potè assistere alla realizzazione del primo calcolatore elettronico del mondo, il Colossus, una meraviglia dell’ingegneria che conteneva 1500 valvole, che eseguiva calcoli di natura logica e non aritmetica e si dimostrò preziosa per elaborare i messaggi tedeschi intercettati.

John von Neumann

John von Neumann e l'EDVAC[modifica]

Il grande logico e matematico ungherese, naturalizzato statunitense, John von Neumann (1903-1957) colse al volo l’occasione di partecipare al progetto della Moore School of Electrical Engineering di Philadelphia: la costruzione di un calcolatore elettronico potentissimo, l’ENIAC, una macchina enorme (occupava da sola una grande stanza) dotata addirittura di 18.000 tubi elettronici e costruita sul modello delle macchine calcolatrici meglio riuscite dell’epoca, gli analizzatori differenziali. Von Neumann passò subito a occuparsi dell’organizzazione logica di una nuova macchina, l’EDVAC (Electronic Discrete Variable Calculator).

Nel 1945 von Neumann presentò una bozza di proposta, intitolata First draft of a report on the EDVAC[5], che fece conoscere l'architettura hardware dell'EDVAC in tutto il mondo, suggerendo che il nuovo calcolatore fosse fisicamente realizzato sul modello della macchina universale di Turing. Questo rapporto delineava la progettazione di un calcolatore digitale elettronico ad alta velocità e a programma memorizzato, incluse le necessarie specifiche per la formulazione e l’interpretazione delle istruzioni codificate. Lo scopo primario era contribuire a chiarire e coordinare il pensiero del gruppo che ha lavorato sull’ EDVAC, testimoniò Von Neumann nel 1947, quando scorsero i primi contenziosi sulla paternità del brevetto. Lo scopo secondario è quello di pubblicare i risultati preliminari, il più in fretta possibile, “ per favorire lo sviluppo dell’ arte di costruire calcolatori ad alta velocità”. L’EDVAC avrebbe posseduto la capacità (memoria) di immagazzinare, come il nastro della macchina astratta, sia dati sia istruzioni in codice, avrebbe avuto anche una componente aritmetica in grado di effettuare ciascuna delle operazioni aritmetiche di base in un solo passo. L'EDVAC è uno dei primi computer elettronici digitali della storia, uno dei primi computer a programma memorizzato della storia e uno dei primi computer della storia basato sull'architettura di von Neumann. Una memoria interna veloce, abbinata a una memoria secondaria più grande e collegata a sua volta a una dotazione illimitata di schede perforate o nastro magnetico, garantiva quella memoria illimitata prescritta da Turing. Dopo un po’ di tempo Von Neumann decise di andarsene dalla Moore per costruire il suo calcolatore, concepito come uno strumento scientifico, da qualche altra parte. “ Se voleva davvero un calcolatore, l’unica cosa da fare era costruirselo” dice Arthur Burks.

Il progetto di un calcolatore elettronico[modifica]

A John Von Neumann si deve il merito di aver descritto nel suo progetto l'architettura del primo calcolatore elettronico, valido ancora da un punto di vista logico nei moderni sistemi informatici. Il desiderio di Von Neumann era quello di creare un calcolatore elettronico, capace di contribuire allo sviluppo dei metodi matematici numerici di soluzione di problemi applicativi come quelli dell'idrodinamica o della programmazione lineare, e di svelare il mistero della mente umana, oggetto di psichiatria e neurofisiologia. Il calcolatore elettronico serviva per risolvere soprattutto un problema <<immateriale>>, ovvero il processamento dei segnali descritto attraverso relazioni di trasferimento fra input e output, formulate in termini matematici. La matematica stava acquisendo un ruolo centrale nella conoscenza, che non era più mediato dalla fisica. Lo scienziato Norbert Wiener e l'ingegnere Julian H.Bigelow, che diedero vita all'ingegneria matematica, ebbero uno scambio di idee con il fisiologo messicano Arturo Rosenblueth circa la possibile analogia fra i comportamenti dell'uomo e quelli delle macchine. In effetti il fine della costruzione di un calcolatore elettronico era proprio quello di creare una macchina in grado di reagire agli stimoli dell'ambiente, proprio come un essere umano. Anche il neuropsichiatra McCulloch aveva parlato, nel suo articolo A logical calculus of the ideas immanent in nervous activity, dei neuroni, e li aveva descritti come delle <<scatole>> articolate entro <<reti>>, all'interno delle quali si trasmettevano impulsi o segnali vincolati a leggi di tipo logico-matematico. Von Neumann, influenzato da Wiener, entrò a far parte del gruppo di ricerca interdisciplinare che si stava formando, intraprendendo la strada verso il suo grande progetto: il calcolatore elettronico, paragonato da egli stesso al sistema nervoso umano, in quanto sistema di trattamento dell'informazione. Nel progetto di Von Neumann il calcolatore elettronico avrebbe avuto cinque unità di base: un'unità aritmetica centrale, l'unità di memoria, l'unità centrale di controllo e le unità di input e di output. Il suo progetto, che rappresentava una spinta verso un ulteriore grado di astrazione dell'ingegneria elettronica, era il risultato di un'esigenza bellica ma anche industriale. L'influenza di Alan Turing su Von Neumann era stata fondamentale per la trattazione di un progetto riguardante una macchina molto simile al modello di macchina astratta dello stesso Turing, il quale aveva in mente un tale modello per risolvere il problema di computabilità teorica nei termini della logica costruttivista, analogo al problema che poneva la computabilità di una soluzione numerica in un numero ragionevole di passi entro un calcolatore elettronico. Von Neumann cercò di far capire ai suoi colleghi l'importanza e la necessità imminenti di un calcolatore elettronico e il progetto fu appoggiato dall'IAS nel 1945. In seguito Von Neumann iniziò a dar vita al suo lavoro, con la collaborazione di Goldstine, con il quale affrontò le differenze importanti che intercorrono fra la formulazione matematica di un problema e la sua codificazione sotto la forma di istruzioni che il calcolatore è chiamato a eseguire. Nel 1946 avveniva l'inaugurazione dell'ENIAC, avente una metodologia di programmazione completamente differente da quella utilizzata dai calcolatori precedenti. Il calcolatore venne utilizzato dai servizi militari, dalle grandi università e solo più tardi dalle industrie. Inoltre fu utilizzato in campo meteorologico, nell'ambito dell'ECP, con lo scopo di trasformare la meteorologia approssimativa in una scienza esatta.

L'architettura di von Neumann[modifica]

Mentre l’ENIAC eseguiva le sue operazioni aritmetiche su numeri espressi per mezzo delle dieci cifre decimali, l’EDVAC avrebbe fruito della semplificazione resa possibile dalla notazione binaria, inoltre avrebbe contenuto una componente deputata al controllo logico che doveva trasferire le istruzioni da eseguire dalla memoria alla componente aritmetica. Questo tipo di organizzazione del calcolatore ha preso il nome di architettura di von Neumann, un modello sulla cui base sono costruiti ancora oggi i calcolatori.

Nel Draft il nome di Turing non viene mai citato, ma la sua influenza è chiara: più di una volta von Neumann afferma che l’EDVAC dovrà essere di carattere generale, e lascia intendere che il cervello umano deve parte delle sue notevolissime capacità al fatto di saper funzionare come un calcolatore universale. Von Neumann si rendeva conto che i princìpi base della progettazione dei calcolatori elettronici si fondavano sulla logica. I calcolatori creati dopo la seconda guerra mondiale erano profondamente diversi dai precedenti calcolatori automatici poiché erano pensati come apparati universali capaci di eseguire qualsiasi processo simbolico.

Il carattere provvisorio del First Draft era testimoniato dai riferimenti a sezioni inesistenti. Secondo il documento l’EDVAC era una macchina che aveva come obiettivo l’esecuzione di calcoli secondo procedure espresse attraverso istruzioni univoche e non ambigue. L’innovazione principale rispetto all’ENIAC consisteva nella memorizzazione del programma che veniva poi eseguito senza un ulteriore intervento umano. Gli “Organi” della macchina dovevano essere: Centro Aritmetico (CA), Centro Logico o Centro Centrale (CC), Memoria (M), Unità di Input (I), Unità di Output (O). Inoltre era previsto un organo che trasferiva i dati esterni in R, che doveva essere la parte della memoria che ospitava i dati esterni e preparava i dati output. Von Neumann intendeva distinguere chiaramente istruzioni e dati, tanto che la prima cifra di ogni “parola” doveva indicare se si trattava di un dato, indicato con “0”, o di un’istruzione indicata con “1”. Nel caso delle istruzioni, una volta riconosciute come tali non era possibile modificarne il contenuto vero e proprio, ma solo la parte dedicata all’indirizzo delle variabili. Normalmente le istruzioni venivano eseguite in successione , ma era possibile usando un particolare indirizzo Z, fare si che l’unità centrale cercasse l’istruzione da eseguire nel registro di memoria Z e la eseguisse. In ciò consisteva il “salto incondizionato”. Inoltre era previsto anche un macchinoso meccanismo per il “salto condizionato” ottenuto attraverso il controllo sul segno di uno dei numeri contenuti nei registri ausiliari dell’unità aritmetica. Sulla base del valore di questa condizione veniva scelto il numero dell’istruzione successiva. Da ciò si possono intravedere le prime sostanziali differenze con l’ENIAC, infatti in quest’ultimo le operazioni aritmetiche venivano eseguite negli accumulatori usando una serie di componenti hardware della macchina che lavoravano separatamente. Mentre nell’EDVAC tutte le operazioni erano centralizzate nell’unità aritmetica che le svolgeva con l’aiuto dell’unità di controllo. Il tentativo di astrazione di von Neumann aveva i suoi limiti. Per esempio non c’era traccia dei dettagli tecnici delle linee di ritardo a mercurio, nonostante esse venissero indicate come il dispositivo tecnologico prescelto per la memoria. Alla fine l’EDVAC non fu realizzato come programmato nel First Draft , infatti era diversa nella struttura logica, nelle scelte tecnologiche, nelle dimensioni delle varie parti e nell’architettura. Comunque il modello di calcolatore descritto da von Neumann è stato considerato il capostipite dei calcolatori moderni.

Tuttavia una macchina reale poteva solo avvicinarsi a quella universale e ideale di Turing: era importante che essa avesse una memoria molto grande, corrispondente al nastro potenzialmente infinito di Turing, nella quale potessero coesistere istruzioni e dati. D’altro canto, i programmi da eseguire venivano memorizzati, per la prima volta, dentro la macchina. Ma l’aspetto veramente rivoluzionario di questi calcolatori era il loro carattere generale e universale, mentre il programma memorizzato era semplicemente un mezzo.

Analogia cervello-calcolatore: la teoria degli automi di John von Neumann[modifica]

Verso gli anni quaranta e cinquanta del Novecento diventò sempre più evidente che i continui e costanti sviluppi nell’ambito dell’informatica o “scienza dei calcolatori” avrebbero presto portato a concepire il computer non più come una macchina capace di eseguire calcoli numerici sempre più velocemente rispetto ai modelli precedenti ma come ad un dispositivo che, messo in sinergia con altri sistemi tecnologici (come radar, telefono e servomeccanismi), fosse in grado di automizzare la maggior parte delle attività umane.

A questo scopo era necessario che l’informatica (computer science, scienza che riguarda le macchine) si evolvesse piuttosto in una information science, una scienza capace di comprendere profondamente i dispositivi tecnici, la loro interazione coordinata, le reti e le strutture di controllo che avrebbero assicurato il funzionamento automatico. Pertanto ne consegue che questo nuovo campo di studi avesse uno stretto legame tanto con la logica quanto con alcuni settori delle scienze della vita, quali la neurofisiologia e la biologia molecolare, dal momento che si sarebbe dovuto concentrare sulle questioni logiche della configurazione del calcolatore e dei suoi collegamenti e analogie con la struttura cerebrale umana.

John von Neumann fu sicuramente un pioniere in questo terreno inesplorato dell’informatica come testimonia il suo scritto pubblicato nel 1951 fra gli atti della conferenza tenuta nel settembre del 1948 a Pasadena nell’ambito del Simposio Hixon sui meccanismi cerebrali del comportamento, intitolata The general and logical theory of automata. Infatti il matematico statunitense, trattando di quanto la complessità o complicazione sia limitata negli automi artificiali, afferma che:

« Si sono già date due ragioni che pongono un limite in questo senso alla complicazione. Esse sono le grandi dimensioni e il limitato grado di affidabilità dei componenti di cui disponiamo. Entrambe sono dovute al fatto che adoperiamo materiali del tutto soddisfacenti in applicazioni più semplici, ma inferiori a quelli naturali in questa applicazione altamente complessa. Esiste tuttavia un terzo importante fattore limitante, al quale fa ora rivolta la nostra attenzione: fattore, peraltro, di carattere intellettuale e non fisico. Siamo ben lontani dal possedere una teoria degli automi degna di tale nome, cioè una teoria logico-matematica vera e propria. »
(Neumann 1951, in Somenzi 1965, pp. 222-23)

Il progetto di von Neumann era chiaro: costruire, sulla base del confronto fra cervello e calcolatore, una teoria logica generale che, tenendo conto, come risulta dal brano sopra citato, dell’inferiorità dei materiali artificiali rispetto a quelli naturali, comprendesse non solo entrambe le entità ma che fosse in grado di descrivere l’organizzazione e la dinamica dei processi percettivi e cognitivi di ciascuna di esse.

I presupposti fondamentali che portarono von Neumann al concepimento della teoria degli automi furono intensi contatti, confronti, scambi di idee e collaborazioni nell’ambiente accademico con scienziati interessati ad ambiti di studio diversi dal suo. Prima fra tutti, la corrispondenza epistolare negli anni 1939-41 con il fisico ungherese Rudolf Ortvay (1885-1945), il quale espose al collega diverse idee e intuizioni: la concezione del cervello come uno switching system, formato da una rete i cui nodi sono le cellule attraverso le quali si trasmettono gli impulsi, e diverse differenze e analogie fra il cervello e i sistemi di calcolo elettronico.

Ciononostante gli interessi di von Neumann non si limitarono all’ambito biomedico; infatti fra il 1944 e il 1953 organizzò con i suoi colleghi matematici Norbert Wiener (1894-1964) e Howard Hathaway Aiken (1900–1973) una serie di convegni dedicati al tema del trattamento dell’informazione, invitando, sotto il segno dell’interdisciplinarietà, non solo specialisti di ingegneria delle comunicazioni, di calcolatori e di neurofisiologia ma anche rappresentanti delle scienze umane come antropologi, sociologi e psicologi.

Tuttavia la figura che più spiccò nel corso di questi incontri fu quella di Wiener al quale si deve riconoscere il merito di aver battezzato il progetto con il nome di cibernetica (dal greco κυβερνήτης, “timoniere”) e di aver costituito il manifesto del gruppo con la pubblicazione, nel 1948, del suo libro Cybernetics: or control and communication in the animal and the machine nel quale, approcciandosi verso i problemi della struttura, dell’organizzazione e dell’informazione, esponeva i fondamenti matematici e filosofici dello studio dei comportamenti attivi e intenzionali, nei quali esiste un processo di “pilotaggio” o controllo, e illustrava quanto in questo fenomeno investisse un ruolo cruciale l’idea di retroazione o feedback.

Lo studio di von Neumann approdò a nuovi sviluppi nel dicembre del 1949 quando, durante una serie di cinque conferenze sulla teoria e sull’organizzazione degli automi “complicati” tenute presso l’Università dell’Illinois, elaborò ed approfondì alcune questioni sull’argomento già esposte in fieri durante la conferenza di Pasadena del 1948. Infatti, partendo da una descrizione comparativa e da un’analisi della struttura e della complessità dei principali esempi di automi, il calcolatore e il sistema nervoso umano, il matematico statunitense adottò come modello “assiomatico” su cui poggiare la propria teoria le reti neuronali formali di McCulloch e Pitts ed organizzò lo studio in due diversi filoni: complessità e autoriproduzione e l’affidabilità.

Il tema della complessità e autoriproduzione degli automi è esposto in due libri rimasti incompleti, concepiti poco dopo le conferenze nell’Illinois, pubblicati nel 1966 con i titoli Theory of self-reproducing automata e The theory of automata: construction, reproduction, homogeneity. L’argomento viene trattato da von Neumann utilizzando il concetto della macchina di Turing come strumento per ottenere la descrizione di un sistema astratto di automi capaci di costruire altre macchine identiche, ossia di riprodursi, e di realizzare perfino un automa più complesso di quello iniziale; inoltre, tenendo presente come modello la teoria biologica dell’evoluzione, implementò altri aspetti come l’aumento di efficienza per adattamento all’ambiente e mutazione.

Il problema dell’affidabilità degli automi venne affrontato da von Neumann in una serie di conferenze tenute al CalTech nel gennaio del 1952 i cui atti vennero pubblicati nel 1956 con il titolo Probabilistic logics and the synthesis of reliable organisms from unreliable components. La trattazione parte da una constatazione intuita già negli scritti del 1948: tanto negli automi naturali quanto in quelli artificiali si verificano errori e disfunzioni delle varie parti. Tuttavia mentre i sistemi naturali non necessitano di interventi esterni dal momento che sono capaci di diagnosticare l’errore e contenerne gli effetti, le macchine, invece, sono costruite in modo da amplificare ogni errore permettendone la localizzazione e la risoluzione da parte dell’uomo. Pertanto von Neumann auspica ad una compilazione di codici per la trasmissione di informazioni dotati di alta affidabilità anche quando la trasmissione dei segnali è poco affidabile ed è soggetta a rumori, come nel caso di errori ed anomalie. Tuttavia, il lavoro più noto e più studiato oggigiorno nel campo della teoria degli autonomi rimane The computer and the brain, pubblicato postumo e incompleto nel 1958, un testo che rappresenta non solo una summa dei precedenti lavori ma anche il testamento intellettuale di John von Neumann al mondo della scienza e della cultura.

Alan Turing e l'ACE[modifica]

Dopo aver scritto un articolo seminale nel 1936, intitolato On Computable Numbers, with an Application to the Entscheidungsproblem[6], Turing scrisse un altro lavoro nel 1945, il rapporto sull’Automatic Computing Engine (ACE) presso il National Physics Laboratory (NPL) che presenta una descrizione completa di un calcolatore. L’ACE di Turing era una macchina molto diversa dall’EDVAC di von Neumann: mentre quest’ultimo metteva al primo posto il calcolo numerico, Turing pensava ad una macchina da adibire anche a molte altre mansioni, quindi la immaginava più minimalista e più vicina alle macchine astratte.

Per Turing le operazioni aritmetiche andavano affidate alla programmazione, al software più che all'hardware. Turing era convinto che l’era dei calcolatori avrebbe potuto influenzare la logica e la filosofia della matematica dal momento che, il linguaggio per comunicare con la macchina doveva essere preciso. Egli riteneva che la logica simbolica avrebbe potuto ricoprire questo ruolo: infatti, nel ruolo di simulare l’intelligenza umana attraverso i calcolatori, la logica avrebbe trovato nuova linfa, occupandosi non solo dal punto di vista teorico della questione, ma anche e soprattutto pratico mediante la stesura di un codice simbolico che fosse quanto più vicino possibile al linguaggio matematico e che stesse alla base dell'ACE.

Nel 1947 Turing parlò dei calcolatori elettronici digitali, e in particolare dell’ACE, davanti alla London Mathematical Society. Turing si chiedeva in che misura fosse possibile, in linea di principio, per una macchina calcolatrice simulare attività umane e questo lo portò a considerare la possibilità di una macchina programmata per imparare e alla quale fosse permesso di commettere errori: “se ci si aspetta che la macchina sia infallibile, allora essa non può essere anche intelligente”. Questo perché, secondo Turing, una caratteristica fondamentale dell'intelligenza umana, era proprio la capacità di commettere errori, e tramite essi, apprendere come risolvere i problemi in maniera sempre differente. Affinché si potesse realmente considerare un calcolatore intelligente, si doveva dunque investire sulla sua capacità di adattamento, e dunque, bisognava fornirgli la facoltà di commettere errori.

Durante la Seconda guerra mondiale anche in Gran Bretagna si diffuse l’esigenza di calcoli su lunga scala. Di questo progetto, si occupò l’NPL che sviluppò una divisione apposita (Mathematics Division) per centralizzare tutte le risorse da impiegare per lo sviluppo di nuovi strumenti di calcolo. John Womersley ne fu il primo responsabile e si occupò, in primo luogo, dell’arruolamento del team di collaboratori che lo avrebbe assistito nel progetto di costruzione di un calcolatore elettronico; pensò immediatamente a Turing.

La proposta di Turing era strutturata in due parti: una “Descriptive Account” e un “Technical Proposal”. In questo documento venivano descritti sia gli aspetti ingegneristici, sia gli aspetti riguardanti la programmazione. L’idea di fondo era quella di ridurre al minimo la complessità parte tecnologica e lasciare che i problemi fossero risolti dalla programmazione. Per Turing la memoria era l’elemento fondamentale, e le dimensioni previste andavano da 50 a 500 linee di ritardo a mercurio. Ogni linea doveva avere la capacità di 1024 cifre che dovevano circolare a 1024 millisecondi. Per garantire l’efficienza della macchina la memoria non doveva essere soltanto grande, ma anche facilmente accessibile; proprio per questo il modello a nastro della “Macchina Universale” non poteva essere adottato senza modifiche. Turing quindi inventò un metodo di programmazione che ottimizzava l’accesso ai dati contenuti nelle linee di ritardo. Se prima le istruzioni venivano codificate in fila dentro una stessa linea di ritardo , quindi bisognava aspettare un millisecondo per eseguire l’istruzione successiva. Se invece si memorizzavano le istruzione tenendo conto dei ritmi di accesso alla diverse parti del dispositivo, era possibile attribuire alle istruzioni un indirizzo relativo, in modo da farle emergere dalla linea di ritardo esattamente al momento in cui dovevano essere eseguite. Questo metodo di programmazione chiamato “Optimun Coding” consisteva nel dichiarare per ogni istruzione l’indirizzo della successiva e migliorava le prestazioni del calcolatore, a patto di conoscere esattamente la struttura e il funzionamento della memoria, e di eseguire elaborati calcoli per anticipare correttamente la successione dei cicli delle linee di ritardo. L’esperienza della “Macchina Universale” spingeva Turing a considerare prioritaria la definizione del sistema di programmazione della macchina che avrebbe guidato e controllato le sue operazioni. Il metodo di programmazione si basava sula trasformazione delle operazioni complesse in una lunga successione di passi semplici. Le uniche azioni eseguibili direttamente dall’hardware erano:

  • Il trasferimento da una zona della memoria ad un’altra.
  • Le operazioni aritmetiche su due registri di memoria temporanea.
  • Alcune operazioni logiche sempre su due registri di memoria temporanea.
  • Un'operazione di trasferimento della memoria alle schede perforate (Dispositivo usato per l’output e per l’input) e viceversa.
  • Il salto incondizionato verso una istruzione successiva specificata evitando di eseguire le istruzioni in stretta sequenza con le precedenti.

Fin dall’inizio, il team di sviluppo dell’ACE incontrò serie difficoltà organizzative: nonostante le grandi capacità tecniche dei singoli componenti del gruppo, mancava una figura di coordinamento che lo gestisse in maniera adeguata. Probabilmente, però, la difficoltà maggiore da dover fronteggiare, fu proprio la scarsa competenza in ambito elettronico che caratterizzava la maggior parte dei membri dell'equipe (Turing escluso). Dunque si optò, almeno inizialmente, per richiedere il supporto di istituzioni esterne che potessero collaborare alla realizzazione del calcolatore; vennero dunque contattati il Post Office Research Station (PORS) e il Telecommunications Research Establishment (TRE). I primi incontri organizzativi avvennero proprio con il PORS e, in quella sede, si stabilì anche la cifra da stanziare perché il progetto potesse partire (circa cinquemila sterline). Tuttavia, al PORS il progetto ACE non era considerato prioritario e venne concessa solo un decimo della cifra che doveva essere stanziata e per questo la collaborazione si interrusse poco dopo. Anche con il TRE le trattative, purtroppo, non andarono meglio e ben presto, anche con questa organizzazione, le trattative si interruppero.

Il National Physics Laboratory, dal quale Turing si allontanò, una volta incluso nel team Harry Huskey, noto esperto di informatica, riuscì a costruire una versione ridotta dell’ACE, il cosiddetto ACE pilota, che funzionò egregiamente per anni. Mentre von Neumann chiamava il lavoro di programmazione “codifica” e lo considerava una mansione da impiegato che non richiedeva grande intelligenza, Turing considerava programmare un calcolatore un lavoro molto affascinante, anche perché qualunque processo che sia davvero meccanico può essere passato alla macchina. È probabile che von Neumann abbia ripreso l’idea di un calcolatore universale utilizzabile nella pratica dall’opera di Turing. In definitiva, tutti gli odierni calcolatori sono “macchine di von Neumann”, ossia varianti dell’architettura di base che von Neumann, proseguendo il lavoro di Alan Turing, elaborò negli anni Quaranta. Nel suo rapporto sull’ACE, Turing aveva proposto una macchina relativamente semplice nella quale moltissime cose erano affidate al software, ma in compenso il programmatore aveva un forte controllo delle operazioni di base: era una macchina che aveva tutte le potenzialità per funzionare, ma Turing non ebbe il piacere di vederla realizzata.

La cattedrale di Turing: George Dyson e le origini dell'universo digitale[modifica]

In questo moderno capolavoro, il divulgatore scientifico George Dyson, figlio del fisico Freeman Dyson che opera a Princeton nel dopoguerra, si impegna nel ricoprire il ruolo di storico in quanto descrive la straordinaria esperienza di numerosi personaggi, seguendoli passo dopo passo in quel percorso culminato nella realizzazione di scoperte eccezionali (e senza precedenti) ed evidenziando quanto il lavoro dell'équipe di Princeton sia intenzionato a cambiare il mondo, soprattutto quello digitale. Alla nascita del calcolatore digitale non sono tributati approfondimenti paragonabili a quelli riconosciuti ad altre grandi scoperte. Pertanto, Dyson cerca di riportare i fatti accaduti adottando un approccio cronologico-analitico, al fine di colmare il vuoto di conoscenza su questa vicenda. Come si evince dal titolo del libro, la realizzazione del calcolatore non è da attribuirsi esclusivamente al matematico inglese Alan Turing ma esso è, in realtà, il prodotto di un vero lavoro collettivo. Il titolo del libro, non a caso, rivela che la nascita del computer sia il frutto di una grande collaborazione, realizzato da personaggi tanto geniali quanto, purtroppo, ignoti: proprio come accade nella costruzione delle cattedrali, grazie a cui l’architetto riscuote maggior successo rispetto agli artigiani che invece restano anonimi, lo stesso accade nel periodo successivo alla seconda guerra mondiale. Ciascun di loro ricopre un ruolo importante nella realizzazione del medesimo scopo: la ricerca si trasforma ben presto in un progetto terribile e largamente dettato da esigenze pratiche. Il luogo in cui si delinea questo percorso, il quale si estende da prima a poco dopo il secondo conflitto mondiale, è l'Università di Princeton in cui tutti gli ospiti-studiosi si impegnano nel fornire all'esercito americano ed alla forze alleate gli strumenti adatti a combattere ed a vincere la guerra, dapprima, contro il nazismo tedesco e successivamente contro l'Unione Sovietica, nel secondo dopoguerra, con cui gli Stati Uniti iniziano una corsa agli armamenti dando vita al periodo storico conosciuto come ‘Guerra Fredda'. Infatti verso la fine del 1945, John von Neumann organizza un ristretto gruppo di ingegneri per cominciare a progettare, a costruire ed a programmare un calcolatore elettronico digitale, il quale non è che un’implementazione fisica di un concetto teorico già elaborato nel 1936 da Alan Turing. Grazie alla collaborazione ottenuta da Norbert Wiener, Flexner, Eckert e Mauchly (per quanto riguarda la costruzione), il matematico ungherese partecipa e coordina la realizzazione dell’ENIAC (Electronic Numerical Integrator And Computer), originariamente chiamato MANIAC, presso il Ballistic Research Laboratory. Questo primitivo prototipo del moderno computer è utile nei calcoli balistici, meteorologici o sulle reazioni nucleari, ma si rivela una macchina limitata. Pertanto, si rivela utile e necessaria l'intuizione di Alan Turing che consiste nel permettere al computer (l'hardware) di eseguire istruzioni codificate in un programma (software) inseribile e modificabile dall'esterno, intuizione che fonda le basi della stragrande maggioranza dei computer odierni. Ed ecco che nasce l'EDVAC (Electronic Discrete Variables Automatic Computer), la prima macchina digitale programmabile tramite un software basata su quella che è poi definita l'architettura di von Neumann. Altri importanti personaggi che hanno contribuito a dar vita all'universo digitale sono Gödel, le cui teorie fondano l'architettura logica del calcolatore, Zvorykin che lancia anche la quarta fase dell’evoluzione mediante l'introduzione delle valvole termoioniche, Veblen che usa un modello matematico per elaborare una tavola di tiro completa e Nicholas Metropolis che introduce il Metodo di Monte Carlo, un algoritmo capace di rivolvere complicati problemi computazionali. George Dyson crea, in questo modo, un mito fondativo moderno perché percorre passo dopo passo la partecipazione di ciascuno di questi studiosi alla straordinaria avventura di Princeton.

Riferimenti bibliografici[modifica]

  • M. Davis, The Universal Computer. The Road from Leibniz to Turing, 2000; tr. it. Il calcolatore universale, Milano 2003, pp. 174-242 (nuova ed. 2012, pp. 182-251).
  • T. Numerico, Alan Turing e l'intelligenza delle macchine, Milano 2005.
  • L'eredità di Alan Turing. 50 anni di Intelligenza artificiale, Milano 2005.
  • D. Leavitt, The man who knew too much: Alan Turing and the invention of the computer, 2006; tr. it. L'uomo che sapeva troppo: Alan Turing e l'invenzione del computer, Torino 2008.
  • M. G. Losano, Il centenario di Konrad Zuse (1910-1995): il computer nasce in Europa, in Atti della Accademia delle scienze di Torino. Classe di scienze morali, storiche e filologiche, 145 (2011), pp. 61-82.
  • Alan Mathison Turing: l'indecidibilità della vita, a cura di C. Petrocelli, Milano 2014.

Note[modifica]

[7]


L'intelligenza artificiale

Indice del libro

La cibernetica[modifica]

La cibernetica e le sue origini sono riconducibili alla figura di Norbert Wiener, considerato come padre e fondatore di questa disciplina. Nasce come una scienza interessata allo “studio del controllo e della comunicazione negli animali e nelle macchine”. Wiener mira di fatti a focalizzare l’attenzione sulla capacità degli esseri umani di produrre ed elaborare informazioni. All’interno del suo saggio “Introduzione alla cibernetica”, pubblicato nel 1950, cerca di far distinzione, in maniera quanto più chiara possibile, tra le diverse circostanze nelle quali, dopo l’avvento della macchina, l’individuo si ritrova calato; gli undici capitoli che compongono l’opera sono un percorso graduale attraverso cui ci si va ad interrogare sul rapporto uomo-macchina e su come questi possano divenire, causa i progressi della tecnica e della scienza, soggetti interagenti all’interno di un sistema comunicativo. L’indagine che viene condotta dalla cibernetica non sfocia in un’analisi sull’uomo che si avvale degli stessi principi utilizzabili per le macchine, Wiener sottolinea come sia fondamentale ricalcare tale connotazione ai fini di non privare l’uomo della propria natura. Il matematico statunitense plasma la cibernetica nel campo dello studio circa il sistema comunicativo societario; partendo da questa base si arriva a prendere in considerazione le modalità di comunicazione di una macchina che si fondano sui concetti di immissione ed emissione, dopo aver recepito i dati esterni questi vengono elaborati ai fini di produrre un effetto sul mondo esterno stesso. Tali dinamiche non sono nient’altro che una riproduzione, quanto più fedele possibile, dei processi umani compiuti durante la comunicazione. È una scienza che va a connotarsi nel panorama scientifico, ma che nel contempo andrà ad appartenere anche a quello artistico data la vastità di nozioni di cui dispone, lo stesso Wiener la definirà come una tecnica “che non si può confinare in una stanza”.

L'Intelligenza Artificiale[modifica]

L'Intelligenza Artificiale consiste nella costruzione di macchine "pensanti", ossia capaci di aiutare o assistere l'uomo nel risolvere compiti teorici o pratici. La sua nascita ufficiale risale al 1956. Già Alan Turing, uno dei padri dei moderni computer, affrontò i principali problemi che hanno dato luogo a diverse interpretazioni del programma di ricerca dell'IA. Con l'avvento della sua macchina, Turing discusse le obiezioni di una "macchina intelligente" dovute all'incompatibilità della nozione di "automatismo" con quella di "intelligenza".

Tra i diversi campi di studio dell'IA, si è sviluppata la robotica, il cui scopo principale è quello di sostituire l'uomo in alcune attività produttive. I robot della prima generazione hanno capacità di memoria, mentre quelli della seconda vengono progettati per interagire con l'ambiente esterno. Nel 1956 Allen Newell e Herbert Simon e Shaw hanno creato il Logic Theorist, un programma capace di imitare il problem solving di un essere umano.

Il Logic Theorist ha avuto un ruolo protagonista nel seminario estivo organizzato da Minsky, Rochester, Shannon e McCarty. L'obiettivo di tale incontro era quello di esaminare che ogni aspetto dell'apprendimento può essere specificato, affinché sia possibile costruire una macchina che la simuli. Il seminario si tenne nel Dartmouth College. Qui i fondatori dell'IT discussero con McCarthy sul fatto che la programmazione dell'LT non fosse scritta in linguaggio macchina, bensì di un livello superiore. Esso fu considerato come il miglior progetto in stato di realizzazione avanzato tra quelli discussi a Dartmouth.

Le origini del pensiero meccanico[modifica]

Il campo di ricerca e gli studi che ruotano attorno alla tematica dell'IA hanno una storia molto recente. Possiamo indicare il 1956 come anno in cui nasce tale disciplina anche se troviamo ampie e chiare anticipazioni, se pur a livello concettuale, nelle tesi di Alan Turing. Quest'ultimo, analizzando il comportamento adottato dall'uomo nell'effettuare un calcolo, giunge alla conclusione che tutto ciò può essere riprodotto meccanicamente da una macchina, si pensi al suo celebre saggio, "una macchina può pensare?", all'interno del quale tramite un test si propone la possibilità di verificare se una macchina possa essere pensata come intelligente o no.

La disciplina dell'IA,dunque, ruota attorno ai tentativi dell'uomo di realizzare dispositivi in grado di aiutarlo, se non di sostituirlo, non solo in discipline di carattere pratico ma anche teorico, quali l'elaborazione di calcoli complessi, il controllo e la pianificazione, la consulenza specializzata in alcune prestazioni professionali. L’IA è caratterizzata dall'interesse per gli aspetti di: percezione dell’ambiente, per es. attraverso l’elaborazione di segnali provenienti da sensori di vario tipo per estrarre gli elementi utili alle decisioni o alla comprensione; interazione con l’ambiente, per es. attraverso interfacce uomo-macchina basate su meccanismi di comprensione del linguaggio naturale, dei manoscritti, di segnali vocali o di immagini; apprendimento, con conseguente modifica del comportamento nel tempo; rappresentazione della conoscenza, sia per una efficace interazione con l’ambiente, sia per facilitare l’analisi, sia per un’efficace soluzione dei problemi di decisione; risoluzione di problemi, anche di tipo non strutturato e tale da richiedere l’elaborazione di informazioni in forma simbolica; realizzazione di processi decisionali ovvero traduzione di decisioni aggregate in decisioni operative e, in particolari ambiti, attuazione delle decisioni. Tuttavia affiancano l'IA una serie paradossi che vedono l'inconciliabilità del concetto di "macchina" con quello di "intelligenza", per penetrare in fondo a tale paradossalità e tentarne la risoluzione è bene analizzare la varie tappe che portarono alla realizzazione di una macchina che possiamo considerare intelligente: il calcolatore.

Le radici concettuali riguardanti la possibilità di ridurre il ragionamento ad un calcolo e di costruire una macchina, che fosse in grado di realizzare questo calcolo, risalgono a Leibniz. Concretamente questo progetto fu messo su carta da Babbage che tuttavia, non ebbe mai la possibilità di realizzarlo. "Mark I" fu il primo esempio di calcolatore che aveva tutte le caratteristiche indicate da Babbage. Era una macchina a programma, le istruzioni per eseguire un calcolo, una volta codificate in forma binaria su un nastro di carta perforato, potevano essere effettuate sequenzialmente in modo automatico, cioè senza l'intervento umano.

Il suo inventore fu il fisico Howard Aiken il quale tuttavia solo ad uno scherzo del destino deve la sua fama. Sembra infatti che prima di Aiken, l'ingegnere Konrad Zuse avesse realizzato un calcolatore automatico, che usava una rappresentazione completamente binaria noto come "Z3" il quale andò distrutto a causa dei bombardamenti degli alleati sulla Germania. In questo contesto il conflitto mondiale assume una notevole importanza, proprio l'incalzare della guerra e la necessità di cogliere di sorpresa il nemico con innovazioni tecnologiche sempre migliori ed efficienti stimolò i più a fare ricerche ed introdurre innovazioni. Si pensi Robert Wiener il quale contribuisce alla sostituzione del calcolatore analogico con quello digitale più veloce e preciso nei calcoli. Wiener, in particolare, può essere considerato il padre della cibernetica ovvero, usando le parole dello stesso, "lo studio del controllo e della comunicazione negli animali e nelle piante". Ancora al contesto della seconda Guerra Mondiale ricolleghiamo la venuta di "Colossus" ,il più grande calcolatore automatico mai realizzato, completamente elettronico con valvole al posto dei relè meccanici, che contribuì nella decrittazione dei codici militari Tedeschi. Alla realizzazione di Colossus contribuì Alan Turing affiancato dal matematico Max Newman. Alan Turing negli anni a seguire partecipò alla realizzazione di altri calcolatori ad esempio dell'ACE e del MADM ma la vera svolta si ebbe negli Stati Uniti con ENIAC, il più grande calcolatore mai costruito alla cui realizzazione partecipò il matematico John von Neuman. Egli ideò un calcolatore di nuova concezione, che sarebbe rimasta sostanzialmente immutata fino ad oggi, concepito non soltanto come un recipiente di dati ma come un sistema capace di elaborare e manipolare quei dati. All'ENIAC seguirono l'EDSAC e l'EDVAC, questi calcolatori avevano due caratteristiche fondamentali: erano capaci di manipolare non solo simboli numerici ma anche simboli generali, e l'istruzione di "salto condizionato", con il quale si dà al calcolatore una capacità discriminativa. La macchina in questo caso non si limita a seguire le istruzioni ma valuta esse stessa quale ordine di esecuzione adottare.

Queste due capacità presenti nei calcolatori fecero si che si iniziasse a parlare di "pensiero meccanico". Un valido esempio di queste proprietà è rappresentato dai nuovi programmi per l'EDSAC in particolare è da tenere presente in questo contesto quello ideato da Anthony Oettinger. Quest'ultimo aveva ideato programmi in grado di apprendere basando la propria capacità di agire sull'esperienza e sulla capacità memorizzare tali esperienze (quindi un tipo di apprendimento mnemonico), di conseguenza, nel momento in cui tale programma si ritrova ad agire lo farà in maniera automatica, avendo memorizzato il comportamento da adattare. Queste procedure permettevano alla macchina di scegliere tra varie alternative a seconda dei risultati ottenuti in precedenza, di conseguenza esse "organizzavano sensatamente" l'informazione.

Durante questo periodo, dunque, si facevano spazio una molteplicità di programmi che imitavano prestazioni umane o erano in competizione con esse. Ricordiamo in questo contesto oltre Oettinger, il matematico, informatico statunitense Shannon, ma, il programma che ebbe maggiore impatto fu quello proposto da Rochester, il quale si era proposto di simulare su IBM 701 (il primo calcolatore commerciale prodotto dalla IBM), la teoria sviluppata dallo psicologo Donald Hebb, per il quale l'apprendimento consisteva nel rafforzamento delle connessioni tra neuroni, ripetutamente attivati. Tutto ciò portò allo snodarsi di una duplice direzione che l'IA avrebbe potuto prendere: da un lato il coinvolgimento del calcolatore elettronico nelle ricerche neurologiche, dove esso può essere utilizzato per controllare teorie per il funzionamento del cervello, dall'altro l'utilizzo del calcolatore per "funzioni superiori" che tuttavia non includano la simulazione della struttura biologica cerebrale.

All'origine dell'IA vi è lo studio del comportamento decisionale nei giochi. Shannon aveva iniziato a fare questo tipo di ricerche concentrandosi sul gioco degli scacchi. Un calcolatore elettronico che possedesse questo tipo di programma doveva essere programmato in modo tale che potesse in qualche modo anticipare le mosse avversarie e di conseguenza conoscere tutte le possibili mosse e le risposte relative a quest'ultime. Shannon tentò di realizzare tutto ciò tramite l'applicazione della teoria del minimax. Il minimax, nella teoria delle decisioni, è un metodo per minimizzare la massima (minimax) perdita possibile; in alternativa, per massimizzare il minimo guadagno (maximin). Fu scoperto nella teoria dei giochi in caso di gioco a somma zero con due giocatori, sia nel caso di mosse alternative (turni) che di mosse simultanee, venendo successivamente esteso a giochi più complessi e al supporto decisionale in presenza di incertezza.Una versione semplice dell'algoritmo si può vedere in giochi come il tic-tac-toe (tris) dove è possibile vincere, perdere o pareggiare. Se il giocatore A può vincere con una sola mossa, la mossa migliore è quella vincente. Se il giocatore B sa che una data mossa porterà A a poter vincere con la sua prossima mossa, mentre un'altra lo porterà a pareggiare, la migliore mossa del giocatore B è quella che lo porterà alla patta. Verso la fine del gioco è facile capire quali sono le mosse migliori; l'algoritmo minimax trova la mossa migliore in un dato momento cercandola a partire dalla fine del gioco e risalendo verso la situazione corrente. Ad ogni passo l'algoritmo assume che il giocatore A cerchi di massimizzare le sue probabilità di vincere, mentre B cerchi di minimizzare le probabilità di vittoria di A, per esempio massimizzando le proprie chances di vittoria.

Nel caso di Shannon questa teoria trova una difficoltà insormontabile nell'esplosione combinatoria delle mosse possibili. Tali considerazioni furono riprese e migliorate da un altro studioso Samuel, il quale utilizzò la dama per sperimentare la capacità di apprendere delle macchine. Il programma di Samuel risolveva il problema di Shannon applicando un tipo di "apprendimento mnemonico" , già visto in Oettinger, tramite cui la macchina memorizzava mosse e situazioni già compiute che davano la possibilità di svolgere un'analisi più approfondite delle possibili mosse. Un'altra impostazione veniva invece adottata da Simon, egli aveva abbandonato l'idea della studio di una strategia ottimale ed impeccabile che considera la sola astratta razionalità, per introdurre l'aspetto psicologico nello studio della scelta . L'agente è infatti condizionato da una serie di fattori che non gli permettono di mettere in atto strategie ottimali ma solo strategie parziali, di conseguenza la sua programmazione nel gioco degli scacchi non era basata sui perfezionamenti della funzione di valutazione di Shannon ma sulle strategie soddisfacenti che egli aveva considerato il cuore dei processi umani di soluzione di problemi. Ad affiancare Simon fu il fisico Allen Newell con cui abbandonò il progetto del programma per gli scacchi per concludere quello di un dimostratore automatico di teoremi della logica enunciativa.

Il seminario di Dartmouth[modifica]

La conferenza di Dartmouth si riferisce al Dartmouth Summer Research Project on Artificial Intelligence, svoltosi nel 1956, e considerato come l'evento ufficiale che segna la nascita del campo di ricerca. L'evento viene proposto nel 1955 da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in un documento informale di 17 pagine noto come 'proposta di Dartmouth'. Il documento introduce per la prima volta il termine di intelligenza artificiale, e motiva la necessità della conferenza con la seguente asserzione:[8]

« Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli. »
(Proposta di Dartmouth, p. 1.)

Il documento discute poi quelli che gli organizzatori considerano i temi principali del campo di ricerca, tra cui le reti neurali, la teoria della computabilità, la creatività e l'elaborazione del linguaggio naturale.

Oltre ai quattro autori della proposta di Dartmouth, la conferenza ebbe altri sei partecipanti: Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert Simon. Durante la conferenza, Newell e Simon presentarono il Logic Theorist, il primo programma esplicitamente progetto per imitare le capacità di problem solving degli esseri umani.

Pro e contro il logicismo, la Visione Artificiale[modifica]

Nel 1958 il ricercatore John McCarthy delineò un programma, l'Advice Taker, che avrebbe dovuto essere in grado di elaborare piani e ricavare conseguenze sulla base di un corpo di conoscenze adeguatamente esteso. In seguito Cordell Green, uno studente di McCarthy, implementò l'Advice Taker in un programma, il QA3, in grado di rispondere a diverse domande su domini specifici. Green introdusse una nuova procedura di deduzione automatica, ideata da J.Alan Robinson, il principio di risoluzione: un calcolo logico senza assiomi, avente come obiettivo non la simulazione di processi umani, ma risultati logici di tipo euristico.

Durante gli anni '70 gran parte della ricerca dell'IA si interessò alla formulazione teorica del ragionamento automatico legato ai problemi logici del buon senso, al fine di creare programmi che permettono ai computer di ragionare in modo parzialmente o addirittura completamente automatico.

Gran parte della ricerca sulla deduzione automatica si concentrò sui cosiddetti raffinamenti della risoluzione. Ma a seguito degli insoddisfacenti risultati ottenuti, l’attenzione si spostò sulle procedure euristiche, ispirate ai metodi umani di risoluzione dei problemi. L’impossibilità di utilizzare le prestazioni di QA3 in presenza di problemi complessi mise in evidenza il cosiddetto frame problem, formulato da McCarthy e Patrick Hayes, derivante dai cambiamenti che in un mondo reale possono verificarsi durante l’esecuzione di un piano e che la nostra mente risolve tramite lo sfumato ragionamento del buon senso, caratteristica precipua della logica grigia umana. I due ricercatori posero una netta differenziazione tra i problemi derivanti dal controllo delle inferenze, definiti euristici e i problemi relativi alla rappresentazione della conoscenza, tramite un linguaggio formale, definiti come epistemologici. Per McCarthy la corretta impostazione dei problemi epistemologici può essere preliminare alla soluzione di altri; occorre quindi chiarire prima gli aspetti della logica necessari per catturare il carattere non monotono del ragionamento del buon senso.

Marvin Minsky lanciò un pesante attacco alle tesi logiciste, che a suo avviso non erano in grado di affrontare il carattere olistico della conoscenza umana. Un'idea dominante nel pensiero di Minsky è quella di rendere un computer in grado di gestire non solo dati numerici, ma anche simboli di tipo linguistico per la comprensione di forme di ragionamento basate su analogie e sul senso comune. Secondo Minsky la logica usata nei calcolatori non è adatta a descrivere i processi di pensiero adottati dagli uomini nelle comuni situazioni quotidiane. Egli ricorre pertanto al concetto di frame, un sistema di riferimento capace di fornire al programma una gamma di informazioni che trattano una classe di oggetti o di situazioni. Quando si trova di fronte a un problema da risolvere, il programma seleziona un frame e tenta di applicarlo alla soluzione del problema; se l'esito è negativo, prova con un altro frame, e così via.

Un dibattito tra due scuole di pensiero, dichiarativisti e proceduralisti, divise, sempre negli anni '70, il mondo dell’IA. La tesi dichiarativista, sostenuta in particolare dai logicisti, per la quale la conoscenza è in primo luogo sapere che, e consiste quindi nell'utilizzo di un insieme di fatti e regole per inferirne altri e la tesi proceduralista, per cui la conoscenza è prima di tutto sapere come, e consiste pertanto nel disporre di procedure per l’uso della conoscenza stessa.

Una risoluzione a questi dibattiti fu fornita dalla visione artificiale ideata da David Marr, per il quale sono le caratteristiche fisiche degli oggetti e non le conoscenze del sistema sugli oggetti, a guidare dal basso la loro identificazione nei primi due stadi della percezione visiva (visione primaria). La visione, affermò Marr: "è un processo che a partire da immagini del mondo esterno produce una descrizione utile allo spettatore e non ingombra di informazioni non pertinenti".

Vecchi e nuovi progetti[modifica]

Nel 1975, Newell e Simon, ritenendo che un sistema intelligente dovesse essere in grado di trasformare espressioni simboliche in altre, formularono l'ipotesi del sistema fisico di simboli. Partendo da questo presupposto, Newell indagò l'architettura generale dell'intelligenza studiando i sistemi di produzione e arrivando alla creazione di SOAR, architettura basata su un meccanismo di apprendimento detto chunking. Simon, invece, si concentrò sulla simulazione del comportamento umano tramite protocolli verbali, contribuendo alla fondazione del programma BACON. Un passo in avanti fu svolto da Douglas Lenat, interessato alle capacità di apprendimento di una macchina, che avviò, nel 1984, il programma CYC.

Intensificandosi le ricerche sull'IA, nacque, come vera e propria disciplina, la scienza cognitiva che vide coinvolti Zenon Pylyshyn e Philip Johnson-Laird, sostenitori della possibilità di giungere alla conoscenza per via computazionale attraverso strutture di simboli e interessati all'indagine sui limiti dei processi cognitivi. Pylyshyn, distingue i processi cognitivi in penetrabili e non-penetrabili dove i primi sono quelli percettivi, basati su credenze e conoscenze, e i secondi sono quelli superiori, adibiti alla soluzione dei problemi. Johnson-Laird, invece, elaborò la struttura dei modelli mentali. Fu proprio grazie alla nascita di questa disciplina che furono formulate numerose teorie sulle reti neurali favorendo il confronto e il dibattito tra filosofi e psicologi cognitivi. Si iniziò a discutere sulla identità mente-cervello - condivisa dai filosofi - secondo cui ci sarebbe corrispondenza tra uno stato mentale ed uno cerebrale; questa fu ampiamente criticata da Putman, tramite l'ipotesi del funzionalismo. Newell diede un apporto significativo: introdusse il livello della conoscenza ai due già individuati dall'IA, quello fisico (hardware) e quello dei simboli; ed individua la mente come un dispositivo sintattico che imita il funzionamento della realtà; in questo senso, ciò che causa un evento fisico non è il contenuto di una rappresentazione, ma è la struttura fisica di simboli stessa.

Alla fine degli anni '80 si sono ormai consolidate diverse posizioni, tra cui le più influenti vennero riassunte in cinque punti da David Kirsh:

  1. l'importanza delle regole e della rappresentazione della conoscenza;
  2. il disembodiment, mero studio della cognizione senza tener conto del rapporto mente-corpo;
  3. il carattere linguistico dell'attività cognitiva;
  4. lo studio dei processi cognitivi astratti dal contesto naturale;
  5. l'invariabilità dell'architettura durante l'intero processo di cognizione.

Con l'adesione o meno a queste teorie, i contributi più significativi videro la fondazione dell'IA distribuita, importante per il suo approccio cooperativo - dovuto alla nascita dei sistemi di blackboard- e per il suo approccio sociale. Significativo fu anche l'intervento di Rodney Brooks, il quale contrapponeva all'approccio robotico dall'alto un'architettura della sussunzione, permettendo così la costruzione di robot mobili e automatizzati, in grado di agire in tempo reale in caso di situazioni non previste. Questo fu possibile grazie all'approccio denominato scomposizione di comportamento, dove l'agente è diviso in moduli di controllo specifici e interconnessi tra loro così che si attivino o inibiscano a vicenda, adattando il modello del mondo ai propri scopi. Un altro approccio significativo, un approccio dal basso, fu dato da John Holland, fondatore degli algoritmi genetici, capaci di generare una "prole" di regole per la soluzione di un problema; questi furono inseriti nei sistemi classificatori permettendo di incrementare la conoscenza tramite un processo di aggiunta di nuove stringhe di informazioni finalizzate ad una determinata azione.

La nuova IA[modifica]

Accanto all'IA classica o simbolica, che alla fine del '900 si avvia a compiere cinquant'anni di storia, si è sviluppata un'IA "nuova", la cui filosofia è sintetizzata molto bene nel volume di Pfiefer e Scheier intitolato Understanding intelligence

Uno dei principali esiti di questa nuova IA è costituito dalla robotica, che ai tempi di Brooks si è trovata a dover affrontare problemi non facili: uno di questi riguarda il sistema di controllo in robot basati sull'architettura della sussunzione, che consiste nell'assegnare ad ogni comportamento un modulo di controllo. Tale architettura incontra difficoltà nell'integrare efficacemente i moduli man mano che questi vengono aggiunti per ottenere prestazioni più complesse del robot. Da tali difficoltà è partita la robotica evolutiva, che ha usato gli algoritmi genetici come procedura automatica per sviluppare in modo evolutivo il sistema di controllo di un robot nel corso della sua interazione con l'ambiente esterno. Obiettivo della nuova robotica evolutiva è l'autonomia estesa dal livello del comportamento a quello della progettazione e fabbricazione; lo scopo è, in sostanza, costruire riducendo al massimo l'intervento dell'uomo.

Già alcune ricerche indipendenti da Brooks avevano sperimentato sistemi di rappresentazione della conoscenza "ibridi". Successivamente, nel 1998, al simposio della American Association for the Artificial Intelligence, viene proposto un Manifesto della robotica cognitiva basato sull'idea di robot ibridi, con i quali si intendono architetture in grado di manifestare robustezza e azione in tempo reale e di usare sistemi di pianificazione e rappresentazione della conoscenza. In effetti, la nuova robotica ha dovuto fare i conti con lo slogan di Brooks "Intelligenza senza rappresentazione" e con la difficoltà sollevata da Kirsh, consistente nello sviluppare le capacità dei robot da un livello reattivo ad uno che prevede attività più complesse di interazione con l'ambiente.

Tuttavia, lo stesso Brooks è tornato su questa difficoltà, proponendo un nuovo slogan, ossia "Intelligenza senza ragione", ma precisando che la sua precedente critica alle rappresentazioni era diretta contro quelle com'erano concepite dall'IA e la robotica classiche e non contro le rappresentazioni come "modelli parziali del mondo". Tali conclusioni sono rilevanti su due fronti: in primo luogo per la nuova robotica con vocazione etologica; in secondo luogo per la robotica umanoide: essa prevede la realizzazione di robot umanoidi, concepiti per essere in grado di interagire ed eventualmente cooperare con gli essere umani. In virtù di tali compiti ambiziosi, nascono non poche controversie riguardo al rapporto tra esseri umani e robot. I robot umanoidi hanno posto il problema di come dotarli di una morfologia somigliante a quella degli esseri umani, come ad esempio dar loro capacità di mimica facciale e manifestazioni di emozioni. Un esempio di un robot umanoide è il robot Kismet, in grado di manifestare sia semplici espressioni facciali sia elementari convenzioni sociali.

Un progetto di ricerca della nuova IA, critico nei confronti dell'IA simbolica e del connessionismo, è stato la "modellistica neurale sintetica" di G. Edelman. Con diversi collaboratori egli aveva già costruito automi a reti neurali simulati. Gli automi neurali di Edelman incorporano i principi del "darwinismo neurale", teoria secondo la quale l'apprendimento è il risultato di un processo evoluzionistico di selezione di gruppi diversi di neuroni durante lo sviluppo dell'organismo e la sua interazione con l'ambiente. Le macchine sono da lui considerate un controllo di questa teoria. Inoltre, nel campo della nuova IA non mancano anche posizioni che tentano di esplorare un "terreno intermedio" tra sistemi connessionisti e quelli simbolici. Ad esempio, Thornton ha sostenuto un approccio "ibrido" nel quale si integrano reciprocamente le esigenze evolutive poste dalla vita artificiale e quelle rappresentazionali dell'IA classica.

Frequente è anche la discussione circa l'incompatibilità tra spiegazione classica e spiegazione dinamicista della cognizione. Sarebbe,in ogni caso, preferibile non fare dell'IA vecchia e nuova dei paradigmi contrapposti. In modo particolare, ad insistere sulla contrapposizione del loro paradigma "subsimbolico" con quello "simbolico" dell'IA sono stati soprattutto i connessionisti degli anni '80. Tale contrapposizione sembrava inizialmente derivare dal libro pubblicato da Minsky e Papert , che avevano ingiustamente cancellato le reti neurali dal mondo della ricerca. Ma, in realtà, James McClelland ha dichiarato di non credere che l'evento decisivo per l'arresto della ricerca sulle reti neurali sia stato il libro succitato, ma piuttosto egli riteneva che "non si era pronti" per tale ricerca.

Un caso diverso da quello delle reti neurali è quello della traduzione automatica, i cui finanziamenti furono interrotti nella metà degli anni '60; essa fu ripresa qualche anno dopo quando si individuò una strada più promettente per affrontarla, che permise di ricollegare la traduzione automatica ai nuovi studi sul linguaggio naturale.

L'eredità di Alan Turing, 50 anni dopo[modifica]

Alan Turing è comunemente considerato uno dei padri del'intelligenza artificiale e dello studio computazionale della mente. Particolare è il suo approccio verso tale tema, va sicuramente ricordato il suo gioco dell'imitazione: Sperimentare una macchina elettronica in grado di giocare a questo gioco e ingannare l'esaminatore. L'esaminatore avrà a disposizione un terminale video e una tastiera che farà da tramite con i due partecipanti: un essere umano e una macchina calcolatrice. L'esaminatore porrà delle domande ai due partecipanti che dovranno rispondere in modo da agevolare (nel caso dell'essere umano) e ingannare (nel caso della macchina di Turing) il più possibile l'esaminatore. Da qui la domanda non è più le macchine possono pensare? - ma - può una macchina battere un uomo nel gioco dell'imitazione? . Dato che il funzionamento della mente umano non è stato del tutto dimostrato essere diverso da quello realizzato dai calcolatori (ad eccezione delle teorie formulate da Lucas e Penrose che vanno a confutare la teoria dell'I.A.) resta aperta una seconda possibilità: la simulazione. Secondo questa possibilità i calcolatori non devono essere considerati come meccanismi in grado di duplicare la mente umana bensì come strumenti per analizzare e le proprietà della mente umana in modo da simularla. È chiaro che la complessità di alcuni processi mentali potrebbe essere tale da rendere impossibile l'idea di riprodurre ( o simulare) tale funzionamento all'interno di un supporto meccanico o di qualsiasi altro sistema diverso da quello nervoso. Hans Moravec sostiene che i computer saranno in grado di simulare il funzionamento della mente umano; c'è da dire che probabilmente un giorno le macchine saranno più intelligenti e produttive degli esseri umani fino ad affrontate problemi di convivenza uomo/macchina, il contributo di opere letterarie quali cinema , libri ecc. ci avverte sulle possibili conseguenze negative che l'intelligenza artificiale dei robot possa dare alla vita dell'uomo. Prendendo l'opera cinematografica Io, Robot di Alex Proyas, che si ispira alle tre leggi della robotica di Asimov si capisce quanto possa essere deleteria e distruttiva la presenza di robot ribelli all'interno di una società gestita autonomamente dalla tecnologia.

La posizione di Federico Faggin[modifica]

Il fisico italiano Federico Faggin, capo progetto dei primi microprocessori e fondatore della Synaptics, ditta sviluppatrice dei primi Touchpad e Touchscreen, si sta occupando dal 2011 allo studio della consapevolezza, tramite la Federico and Elvia Faggin Foundation, fondazione no-profit da lui creata. La questione della consapevolezza è fortemente legata al dibattito sull'intelligenza artificiale.

In un articolo del dicembre 2015, pubblicato da "Mondo digitale"[9], Faggin inizia, infatti, la sua riflessione chiedendosi se sarà davvero possibile - come ritengono molti suoi colleghi - costruire delle macchine pienamente in grado di riprodurre azioni e pensieri umani, fino a superare l'intelligenza degli esseri umani stessi. Faggin ammette che dei successi nel campo delle IA sono stati raggiunti (giocare a scacchi e sconfiggere un avversario di medio livello, svolgere in un tempo brevissimo calcoli molto complessi, ecc.) ma che essi si riducono paradossalmente al campo dei problemi di grande difficoltà, mentre l'IA resta impotente di fronte a quelli ritenuti "semplici" dagli esseri umani (il riconoscimento di un volto, ecc.).

Malgrado la potenza e la velocità di calcolo sempre maggiori dei moderni computer, essi restano incapaci di riprodurre il pensiero umano. Questo perché, secondo Faggin, il cervello umano ha sviluppato, nel corso dei secoli, un pattern recognition in grado di trovare delle scorciatoie in breve tempo quando ci si trova di fronte a problemi immediati, come un pericolo imminente (una pantera semicoperta dai cespugli). Questa capacità di risolvere operazioni "matematiche" di natura sconosciuta viene definita da Faggin "forza sottile", che non siamo in grado di programmare nei computer, dotati, invece di "forza bruta" (rapidità nello svolgere calcoli matematici espliciti). Il cervello umano opererebbe, quindi, una sorta di catalogazione dei problemi, dunque dei dati ricevuti, in grado di rendere più immediata la risoluzione di quelli più imminenti o più abituali. Ciò significa che il cervello umano è in grado di "pesare" i dati ricevuti, ovvero di capirne il significato. L'uomo ha, dunque, consapevolezza di sé, di ciò che pensa, di ciò che sa e di ciò che non sa. Ed è proprio questa consapevolezza a renderlo vivo e, quindi, assolutamente diverso da un computer, che non è vivo.

Per Faggin la consapevolezza non è un epifenomeno dei processi neurologici, come ritengono molti scienziati, ma un qualcosa di realmente esistente. La sua opinione è che siccome non si è mai riusciti a comprendere scientificamente la consapevolezza, la si è ritenuta non esistente. Essa non potrà mai essere compresa finché si continuerà ad applicare uno studio riduzionistico ad un sistema olistico quale è l'uomo e quale è la cellula stessa. Come dimostrato dalla meccanica quantistica, infatti, l'universo è un sistema olistico, in cui le parti non sono separate dal tutto, e il tutto non si limita alla semplice somma delle parti, ma l'Uno (inteso come totalità dell'esperienza, interna e esterna) è costantemente in comunicazione con se stesso e può, quindi, avere autoconoscenza di sé. Questa è la grande differenza dell'uomo con i computer, che, in quanto sistemi riduzionistici, raggiungono la consapevolezza del migliore dei transistor che lo compongono e in essi ogni parte non è connessa con il tutto: ogni parte svolge il suo ruolo senza essere consapevole del lavoro delle altre.

Le IA non potranno, dunque, equiparare l'intelletto umano finché saranno basate su sistemi riduzionistici, in quanto dotati di una consapevolezza inferiore non per grado, ma per qualità. Degli sviluppi interessanti potrebbero aversi con l'utilizzo di computer quantistici - e quindi non più basati sulla meccanica classica - ma la possibilità reale di raggiungere le capacità dell'uomo si avrà solo con la realizzazione di computer dotate di cellule animali, in particolare umane, ipotesi molto lontana dal presente. Per tale motivo, Faggin ritiene che lo sviluppo di computer sempre più potenti non dovrebbe creare preoccupazione sulla possibilità di una loro "ribellione" all'uomo, ma sulla possibilità reale di finire nelle mani di uomini malvagi che li userebbero per i loro fini, perché, in quanto inconsapevoli, i computer si limitano ad eseguire i comandi per i quali sono stati programmati.

Riferimenti bibliografici[modifica]

  • N. Wiener, The Human Use of Human Beings, 1950; tr. it. Introduzione alla cibernetica, Torino 1970, nuova ed. 2012.
  • A. Turing, Intelligenza meccanica, a c. di G. Lolli, Torino 1994.
  • V. Somenzi - R. Cordeschi, La filosofia degli automi, Torino 1994.
  • L'eredità di Alan Turing. 50 anni di Intelligenza artificiale, Milano 2005.
  • T. Numerico, Alan Turing e l'intelligenza delle macchine, Milano 2005.
  • B. Giolito, Intelligenza artificiale. Una guida filosofica, Roma 2007.
  • Intelligenza artificiale. Mannuale per le discipline della comunicazione, a c. di E. Burattini - R. Cordeschi, Roma 2008.

Note[modifica]


Storia dell'ipertesto

Indice del libro

Il concetto di ipertesto[modifica]

In apertura del suo libro dedicato alla storia culturale dell'informatica, Paola Castellucci ha notato che la tecnologia rischia di essere percepita come un fenomeno astorico e anonimo. La storia della formulazione del concetto di ipertesto e della sua realizzazione tecnica più riuscita, il Web, è anche la storia dell’incrocio fra le parole e le cose, fra la cultura umanistica e la cultura scientifica. Ma è anche la storia di un uomo, Ted Nelson, che ha contribuito in modo significativo a definire l’identità disciplinare dell’informatica, che dovrebbe essere colta come pensiero produttivo.

Il concetto di ipertesto è tra i più rappresentativi della nostra contemporaneità. Nel 1979 Jean-François Lyotard vedeva nelle banche dati l’espressione dell’enciclopedismo postmoderno. Iper è uno dei prefissi che (assieme a multi-, inter-, sovra-, trans-) hanno introdotto un motivo di complessità: ipertesto si definisce come visione plurale, poetica dei punti di vista e del frammento, ambisce non alla percezione sequenziale ma a salti. Ogni giorno milioni di persone si collegano alla Rete digitando un indirizzo preceduto dalla sigla http (Hyper Text Transfer Protocol) e raggiungono siti le cui pagine sono scritte in html (Hyper Text Markup Language). Google e Wikipedia sono ipertesto. Il Web è ipertesto, ma la parola esisteva già prima. Il Web, la cosa tecnologica apparentemente anonima, ha dato visibilità al concetto: occorre passare dall’uso del Web alla consapevolezza circa l’uso del Web come prodotto storico e culturale.

Ted Nelson conia il termine ipertesto nel 1965. Il neologismo conquista tardi lo status di lemma. Inizialmente i dizionari privilegiano l’uso del termine nel contesto della critica letteraria, più tardi si assiste ad un’inversione di rapporti gerarchici, per cui l’oggetto ha sostituito il concetto, l’applicazione l’astrazione, la cosa la parola, l’esempio di successo la premessa teorica. Nel 1965 viene coniata la parola ipertesto. Tra i predecessori del concetto di ipertesto Nelson cita Marshall McLuhan, Norbert Wiener, Claude Shannon, ma indica soprattutto due nomi: Vannevar Bush, ingegnere elettronico, professore al MIT, consigliere di Roosevelt, ideatore del progetto Memex e autore nel 1945 del celebre articolo As we may think (Come possiamo pensare) e Joseph Licklider, psicologo, professore al Mit, direttore del progetto informatico dell’agenzia governativa Arpa (Advanced Research Projects Agency, nata nel 1958), preposta allo sviluppo di tecnologie innovative, che nel 1969 portò alla realizzazione di Arpanet, prima ossatura di Internet.

Vannevar Bush e il progetto Memex[modifica]

Licklider dedica il suo libro Libraries of the Future a Vannevar Bush (1890-1974), che nell'estate del 1945 aveva pubblicato su “Atlantic Monthly” l’articolo As we may think che, nella parte conclusiva, espone il progetto di una macchina per la gestione della conoscenza, il Memex e nel quale egli invita a ripensare radicalmente la modalità di trattamento dei documenti, superando la rigidità delle categorie di classificazione e catalogazione. Lo stesso Nelson concepirà l’ipertesto come un sistema che fa esplodere le categorie. In realtà il Memex, sia come macchina che come innovazione, fu un prodotto da collocarsi nel contesto tecnologico degli Anni Trenta. Gli scritti di Bush sul Memex rappresentano la volontà di proporre una macchina reale, "sia come un corpo di saggi che esplorano le potenziali utilità e l'applicazione di nuove specie di macchine che gestiscono l'informazione e rappresentano la conoscenza"[10].

Vannevar Bush

Il progetto Memex rappresenta una possibile risposta al problema della rigidità delle categorie - per cui i documenti, una volta archiviati, si possono ritrovare solo in un punto di un determinato percorso logico e non in altri - attraverso il concetto di “percorsi associativi”, il nucleo fondante dell’ipertestualità. “La mente umana opera per associazioni […] La selezione per associazione, piuttosto che per indicizzazione, potrebbe forse essere meccanizzata” (Vannevar Bush). Il Memex è inteso come una “macchina della mente” - per localizzare e rappresentare la conoscenza - e imposta il recupero dell’informazione non basandosi su sistemi di classificazione, ma piuttosto mimando il processo associativo, saltando rapidamente da un’idea a un’altra, da un documento all’altro. Una volta accettata l’innovativa impostazione concettuale (una macchina che prende a modello la mente umana e non un catalogo o un indice), allora e solo allora si sarebbe poi tentato di creare i link in modo automatico. La descrizione del Memex "proviene dalla stessa metodologia che Bush usò per progettare altre sue opere, come il Selettore rapido: combinare tecnologie di basso livello entro un'unica macchina che funzioni ad alto livello [...] Bush predisse che gli utenti si sarebbero essi stessi adattati alle limitazioni delle abilità linguistiche della macchina, suggerendo persino che il linguaggio umano avrebbe dovuto cambiare per adattarsi meglio alla meccanizzazione"[11].

Per tentare di mimare la mente umana non erano ancora a disposizione gli strumenti adeguati, i computer, per cui Bush ripiegò su quello che al momento era disponibile: i microfilm: "negli anni Trenta molti credevano che il microfilm avrebbe potuto rendere l'informazione universalmente accessibile e in questo modo scatenare una rivoluzione intellettuale. Bush, come i suoi contemporanei, esplorava le possibilità inerenti i microfilm nei suoi scritti e nei suoi laboratori al MIT"[12].Nella scrivania di legno un juke-box di microfilm azionabile con leve e bottoni, mentre sul piano tre schermi permettono la visione contemporanea e a salti di più microfilm, il percorso associativo. Il Memex è quindi un ibrido: una macchina costruita avvalendosi di vecchie tecnologie ma pensando a scenari del futuro. Tre schermi, quante sono le dimensioni minime per tracciare uno spazio: l’informazione ipertestuale è una rappresentazione spaziale, multilineare. Il Memex implica pertanto l’esperienza dello spazio in cui si estende la memoria e la conoscenza: l’ipertesto è un intreccio tridimensionale di soggetti e oggetti. Il Memex (memory extension), si basa sulla connessione tra due elementi e prevede anche la possibilità di registrare i percorsi di lettura. Così il microfilm prometteva la miniaturizzazione, fedeltà completa di riproduzione, accesso più libero ai materiali rari e originali, e conseguentemente trasportabilità.

Il Memex svincola il testo dal supporto cartaceo, così come farà poi l’ipertesto. Con Bush il pensiero si squaderna, la lettura si articola nelle componenti atomiche delle unità informative: ogni lettura è una rilegatura. La qualità innovativa del Memex non risiede dunque nell’aspetto tecnologico ma nell’impostazione concettuale: esso è ipotizzato per una fruizione diretta da parte di chi ha necessità di recuperare informazioni, senza l’ausilio di intermediatori esperti. Bush, che aveva già intuito il problema del sovraccarico informativo (information overload), sa che per fronteggiare l’impatto della crescente massa di pubblicazioni scientifiche occorrono strumenti per gestire automaticamente l’archiviazione e la distribuzione delle informazioni. Nel 1945 il microfilm stava già perdendo il primato in quanto tecnologia innovativa a favore del computer: dal punto di vista tecnologico Memex è obsoleto già al momento della pubblicazione.In tutte le versioni del saggio sopra citato sul Memex, "Bush comincia la sua descrizione della macchina con una critica di come l'informazione era correttamente organizzata in biblioteche [...] La ricerca scientifica coinvolge l'intero processo con cui l'uomo trae profitto dal suo patrimonio di conoscenza acquisita"[13]. Si comprese, così, che il Memex prendeva il suo nome perché doveva supportare ed estendere i poteri della memoria e dell'associazione umana. Con esso il nostro autore pensava e progettava in termini di analogie tra cervello e macchina. Quest'ultima doveva essere usata per migliorare quelle parti dei processi biologici imperfetti.

Vannevar Bush inserisce il Memex all’interno del canone dei grandi nomi della scienza: cita le macchine progettate da Leibniz, da Babbage, rimaste irrealizzate proprio come il Memex. Eppure costoro avevano intuito il futuro, “come si poteva pensare” in modo assolutamente innovativo. Il Memex esiste solo nella rappresentazione narrativa, ma tale narrazione è necessaria per indicare nella gestione dell’informazione il futuro campo d’azione degli ingegneri elettronici e degli scienziati prestati all’impegno bellico sottolineando che tale unità dovrà continuare anche in tempo di pace per promuovendo lo sviluppo tecnologico. As we may think: il "may" introduce una situazione condizionale, è un futuro narrativo, non è il presente del ragionamento pragmatico di John Dewey, autore di “Come pensiamo”, né il futuro semplice che userà Ted Nelson, autore di “Come penseremo”. Bush, che pochi giorni dopo la pubblicazione dell’articolo assiste nel deserto del New Mexico all’esperimento conclusivo del progetto Manhattan (l’inizio dell’era atomica) sa che la guerra sta per finire e che occorre immaginare un futuro. Futuro all'interno del quale, nel suo articolo, immagina delle "logiche,se non inevitabili, conclusioni" dell'avanzamento tecnologico che caratterizzò i suoi anni. Ripercorrendo velocemente la storia della costruzione dei primi calcolatori di Leibniz (1673) e Babbage, i quali dovettero affrontare sia difficoltà tecniche che economiche, arriva ad immaginare un futuro in cui gli arnesi tecnologici siano a portata di mano e di facile utilizzo grazie anche alla loro capacità di ricreare informazioni attraverso delle associazioni che imiteranno il pensiero umano. Inoltre, tali piste resteranno così patrimonio dell’umanità dando vita ad enciclopedie di concezione radicalmente nuova, dotate di una trama di percorsi associative che le attraversano.

La storia della bomba finisce per intrecciarsi con la storia del Memex. L’articolo di Bush infervora il soldato Douglas Engelbart, futuro pioniere di Internet. La prospettiva rivolta al futuro post-bellico sarà il motivo del grande successo dell’articolo di Bush che, terminata la guerra (e lanciata la bomba), viene ripubblicato su “Life” allo scopo di difendere l’operato e la figura dello scienziato americano: l’idea principale del Memex, simbolo di americanità non è solo scientifica, ma anche politica. Nel 1967 Bush pubblica una nuova versione del progetto, Memex rivisitato, dove accenna, con poca convinzione, alle macchine digitali. Il Memex resta la descrizione di una macchina per costruire un discorso teorico, un consenso, rispetto agli usi della scienza e della tecnica.

Joseph Licklider[modifica]

Joseph Licklider (1915-1990) diventa responsabile del progetto informatico dell’agenzia Arpa in seguito alla pubblicazione dell’articolo Man-Computer Symbiosis nel 1960, nel quale innesta biologia e psicologia nel contesto tecnologico. Per Licklider non vi è frattura tra i due mondi: la relazione fra natura e tecnologia, fra uomo e computer diverrà naturale e non va posta in termini di protesi. È l’insegnamento della cibernetica di Norbert Wiener (1894-1964): le macchine per un uso umano dell’essere umano.

Joseph Carl Robnett Licklider

È questo il concetto chiave della cibernetica di Wiener: non solo gli esseri umani non devono subire la condizione degradante di essere ridotti a macchine, ma le macchine stesse devono essere concepite in modo totalmente nuovo, capaci cioè di autoregolarsi, di autogovernarsi. La cibernetica, fondata nel 1948 da Wiener, è la scienza che studia le macchine di nuova generazione, dotate di feedback, e dunque capaci di autoregolarsi (es. il salvavita o il meccanismo di chiusura delle porte degli ascensori).

L’interpretazione politica, democratica, innovativa del rapporto fra uomini e macchine degli studi di Wiener fu sposata da Licklider, in antitesi alla “informatica del dominio”, nata prevalentemente in contesto militare e legata alla costruzione della bomba (progetto Manhattan). Licklider allude inoltre alla nuova branca della conoscenza dell’intelligenza artificiale, e precisa che il computer allevierà l’uomo da faticosi processi routinari, liberando le forze da impiegare nei processi creativi.

L’uomo, alleviato dalla fatica, troverà nelle macchine di nuova generazione, le macchine simbiotiche, un aiuto ulteriore, per compiere non azioni materiali ma operazioni intellettuali. Si apre la possibilità di utilizzare la macchina per comunicare (la principale qualità umana) e non solo per calcolare. La simbiosi uomo-computer viene presentata come un’evoluzione a medio termine. In effetti, solo alla fine degli anni ‘80 la grande simbiosi realizzata grazie a Licklider, Arpanet, poi Internet, si trasformerà in senso ipertestuale, multimediale e di massa: il Web.

Licklider estende l’area di interesse delle sue ricerche dallo studio, con le macchine, del cervello umano allo studio delle macchine intese come cervelli umani e, successivamente, dei computer come cervelli fra loro in connessione. Licklider denomina Intergalactic Computer Network il progetto di una potente rete di computer remoti e difformi fra loro in connessione che colleghi tutti i computer del mondo, fino a formare quella che poi verrà definita intelligenza condivisa o collettiva. Intorno a Licklider, al quale John F. Kennedy affidò il compito istituzionale di trasformare l’identità del computer, si crea la prima comunità scientifica di giovani informatici, tra cui Ted Nelson, che non considerano il computer come uno strumento di potere ma di comunicazione diretta, senza intermediari.

La biblioteca elettronica[modifica]

Negli anni trascorsi all’Arpa (1962-1964), Licklider si dedica anche a definire le possibilità di sviluppo delle biblioteche alla luce delle opportunità offerte dalle nuove tecnologie informatiche. L’esito di tale ricerca è il libro pubblicato nel 1965 Libraries of the Future: il progetto per un nuovo modello di biblioteca elettronica viene denominato Symbiont. La prima parte del libro s’intitola Interazione uomo-conoscenza registrata, la seconda parte Esplorazioni circa l’uso dei computer in biblioteca e funzioni procognitive, ad annunciare forti convergenze tra i nuovi saperi dell’area umanistica e i nuovi saperi dell’area scientifica attorno a termini come conoscenza, informazione.

Licklider delinea l’imminente evoluzione dell’information retrieval, con la costituzione delle banche dati. Le parole biblioteca, archivio, libro, documento, con l’aggiunta dell’aggettivo “elettronico”, mutano l’originaria accezione e finiscono per indicare il “recupero di informazioni registrate su computer”, ossia “banche dati”. L’affermarsi della nuova disciplina della teoria dell’informazione fa sì che non si parli di libri ma di “informazione in forma registrata e organizzata”.

Ted Nelson[modifica]

Alla nascita della Rete contribuiscono sia strategie militari che ricerche universitarie. Nel 1958 gli USA fondano l'agenzia spaziale Nasa e l'agenzia Arpa, sotto l'egida del Pentagono ma preposta allo sviluppo di tecnologie innovative sia per scopi bellici che civili. Il Computer, inventato sul finire della Seconda guerra mondiale, viene presentato al mondo come nuovo simbolo della potenza statunitense. Proprio nei laboratori di Los Alamos dove è stata realizzata la bomba atomica, la ricerca scientifica e tecnologica si è convertita all'impiego civile e sviluppa uno dei maggiori centri di ricerca nel campo dei computer: la bomba e il computer rappresentano complessi e contigui sistemi di potere. Gli apocalittici vedono nel computer uno strumento distopico, figlio della Guerra fredda e portatore di mali futuri. La storia della Rete può essere interpretata in chiave di progresso/minaccia, libertà/controllo.

Ted Nelson

La scelta di Ted Nelson sarà esplicita: il computer come spazio di libertà. Nelson studia ad Harvard negli anni '60, mentre nasce la nuova epistemologia: McLuhan e gli strutturalisti (Foucault, Lévi-Strauss, Barthes) non sono i diretti ispiratori del concetto di ipertesto ma anch'essi sono alla ricerca di una nuova testualità. Lo strutturalismo considera l'opera presa in esame (testo, dipinto, film) come un insieme organico scomponibile in elementi e unità, il cui valore funzionale è determinato dall'insieme dei rapporti fra ogni singolo livello dell'opera e tutti gli altri.

Il corso di Computer Science seguito dall'umanista Nelson è un corso di computer, non di informatica, termine importato dalla Francia solo nel 1962. Se per vent'anni Computer Science era stata considerata un'applicazione all'interno della fisica, dell'ingegneria elettronica, della matematica, la disciplina dell'informazione inizia proprio negli anni '60 a lottare per assumere un'identità autonoma, basata sul concetto di informazione. Il corso seguito da Nelson prevedeva esercitazioni pensate per studenti di formazione umanistica. Il computer cominciava ad assumere una connotazione non esclusivamente legata al concetto di calcolo, ma piuttosto a quello di elaborazione delle informazioni. Innestando un corso tecnico, spurio, nel consueto percorso curricolare umanistico, Nelson non solo si avvicina a nuove competenze, ma apprende un diverso modo di pensare, ossia il metodo scientifico-tecnico. Nelson concepisce l'idea di ipertesto proprio seguendo il corso di computer science a Harvard.

Le esercitazioni di linguistica computazionale fanno comprendere a Nelson che il computer apre la strada a nuove metodologie, anche in riferimento a discipline tradizionali. Il nucleo embrionale dell'idea di ipertestualità sta nell'accento posto sulla necessità di utilizzare il computer per scrivere e non per fare calcoli. Nelson ha in mente un'idea dinamica della testualità, intesa come processo che segue fasi di continue rielaborazioni (varianti, opera aperta). Il progetto di Nelson ebbe il giudizio “incompleto”. Nelson volse in positivo il giudizio e cercò di dimostrare il suo teorema di incompletezza: l'ipertesto, ossia un nuovo modo di concepire la testualità in quanto spazio tendente a infinito.

A File Structure for the Complex, the Changing, and the Indeterminate[modifica]

La prima dimostrazione pubblica avvenne nel 1965 presentando, da non professore di informatica, una relazione dal titolo Una struttura di archivio per l'insieme, per il cambiamento e per l'indeterminato (A File Structure for the Complex, the Changing, and the Indeterminate) alla conferenza dell'Association for Computing Machinery: è l'esordio della parola ipertesto. L'Acm, tuttora la prima associazione nel settore informatico, accetta la relazione di un “intellettuale dilettante”: è la prova che la Computer Science non è più solo scienza delle macchine, ma anche scienza dell'informazione. Il progetto di Nelson riguarda un nuovo modo di strutturare i file in un sistema informatico. I file dovranno essere modificabili e dovrà essere mantenuta memoria di tutte le versioni che potranno così essere confrontate (“changing”).

L'informazione potrà essere ricercata anche saltando da un riferimento all'altro, seguendo cioè dei legami, link (“complex”). Il sistema dovrà mimare le caratteristiche del pensiero e non porre limiti alla possibilità di estendere, modificare e collegare le informazioni: sarà pertanto tendente all'infinito (“indeterminate”). L'ipertesto è pertanto concepito, quattro anni prima della prima connessione fra computer remoti, solo nella dimensione online, ossia in uno spazio potenzialmente infinito, non su carta.

Un nuovo progetto filosofico[modifica]

Uno degli otto capitoli della relazione è intitolato Philosophy e racchiude la filosofia del progetto, oltre alla prima ricorrenza della parola ipertesto. Il termine filosofia entra in un contesto tecnologico: non basta una nuova macchina, serve piuttosto un progetto filosofico. Nelson vuole spiegare “le implicazioni filosofiche del progetto nel mondo in rapida trasformazione”. Nelson si prefigge un obiettivo classico della speculazione filosofica: studiare “i profondi cambiamenti strutturali nella formulazione delle idee”.

La relazione di Nelson si presenta dunque come indagine sulle (nuove) leggi del pensiero, aspira ad essere un piccolo e moderno saggio sull'intelletto umano. Nelson non utilizza dunque il termine filosofia in senso metaforico ma letterale: si avvale cioè delle competenze disciplinari di formazione come chiave di comprensione per il nuovo mondo informatico, inserisce il computer nelle speculazioni filosofiche che hanno indagato il processo del pensiero, assorbe linee interpretative della filosofia del Novecento.

Nel progetto di Nelson non è richiesto alle macchine di svolgere compiti di computing, anzi viene proposto un nuovo concetto di machinery: “il computer per la gestione di file personali e come supporto alla creatività”. Nelson non si avvale della tradizione catalografica e bibliografica, bensì della tradizione filosofica, scientifica, utopica: punta infatti a realizzare un sistema, una macchina, in grado di riprodurre la complessità, la velocità e l'imprevedibilità del ragionamento umano, con la sua capacità di istituire analogie, operare secondo collegamenti.

Un nuovo paradigma testuale[modifica]

Nel 1965 Nelson definisce dunque con chiarezza cosa debba intendersi per ipertesto: un nuovo modo di intendere la gestione della conoscenza registrata, tramite un sistema informatico, in cui la ricerca di informazioni possa avvenire seguendo percorsi associativi retti da link. L’ipertesto non è un sistema rigido, bensì un universo di relazioni, modificabile e continuamente in espansione, come una lavagna infinita, uno strumento liquido per rappresentare la scrittura intesa come processo dinamico. L’ipertesto non è dunque solo un nuovo oggetto tecnologico, ma rappresenta anche una riflessione sull’atto stesso di scrivere. È una rivoluzione rispetto alle classiche banche dati, in cui l’ordine sequenziale dei file è l’unico principio ordinativo, evidenziato dal numero progressivo attribuito a ciascun record: non erano previsti legami laterali, reticolari, tra i record. Un paradigma radicalmente nuovo mette in discussione quello consolidato della testualità su carta. Nelson ipotizza il tramonto dell’era della testualità su carta e annuncia l'avvento di una nuova testualità su computer, ipertestuale e online: “la parola ipertesto sta a significare un corpus di materiali testuali o iconici interconnessi in modo così complesso da non renderne conveniente la rappresentazione su carta. Il sistema potrà estendersi indefinitamente, includendo un numero sempre maggiore di documenti scritti appartenenti al patrimonio mondiale”. Nelson accetta la struttura concettuale (i percorsi associativi), registra l’obsolescenza delle scelte progettuali (tecnologie analogiche, elettromeccaniche), lascia cadere il discorso politico portato avanti da Bush.

As we will think[modifica]

Nel 1972 Nelson presenta la relazione Come penseremo, in cui attacca il settore delle banche-dati e l’intera tradizione del recupero di informazione tramite classificazioni, indici, liste di autorità, cataloghi, tutte modalità generate dal sistema della stampa, laddove il computer deve essere funzionale a un nuovo tipo di gestione e recupero dei documenti, e perfino a un nuovo tipo di documento: l’information retrieval ha frainteso il pensiero di Bush, che respingeva l’indicizzazione a favore dell’interconnessione dei documenti. Secondo Nelson l’ipertesto “dovrebbe diventare la forma di pubblicazione del futuro” e non dovrebbe proprio prevedere la stampa. “Con la memorizzazione su computer non è necessario imporre nessuna sequenza al materiale (…) Possiamo chiamare ipertesti queste strutture complesse non sequenziali”. Il nuovo paradigma del documento ipertestuale gestito da computer in rete va ben oltre la biblioteca elettronica e le banche dati online, che restano una collezione di documenti tradizionali.

La paradossalità che Nelson identifica all’interno dell’idea del Memex di Bush, è principalmente che il Memex avrebbe dovuto avere una console: in particolare Bush parla di una scrivania dotata di diversi ausili (dalle leve ai diversi display ad una piastra per la duplicazione fotografica) dove le attività di collegamento-salto erano necessarie, ma non il punto focale dell’idea. Bush fondamentalmente col suo progetto non aveva modificato troppo il paradigma testuale della conoscenza, infatti sul display l’utente del Memex avrebbe visto scorrere il proprio “percorso principale” al quale è connesso un “percorso laterale” (ossia una forma di diramazione) e un “percorso a salti” (ossia un sottoinsieme del percorso principale). In tal modo la struttura generale non si discosta troppo da quella di una mappa concettuale e non si avvicina al paradigma della struttura di maggiore apertura dell’ipertesto. “Nei percorsi di Bush” scrive Ted Nelson “ l’utente non ha nessuna scelta da fare mentre scorre la sequenza di informazioni, tranne nei punti in cui due percorsi si incrociano. […] Invece il creatore di ipertesti può lasciare all’utente varie opzioni di salto o diramazione. Queste opzioni possono portare l’utente a leggere ulteriormente lo stesso materiale in qualsiasi modello. Gli unici vincoli posti all’autore sono l’utilità, la chiarezza e l’abilità.”

Dal punto di vista concettuale, Nelson recepisce l’indicizzazione analogica di Bush e sostituisce i “percorsi associativi” con “una rete di diffusione di documenti in forma digitale full-text, e nuovi tipi di documenti, o ipertesti”. Dal punto di vista tecnologico, Nelson recepisce dal gruppo di Licklider (dalle ricerche sulla rete e sui personal computer) il lessico relativo ai nuovi oggetti: hardware, periferiche, puntatore, tecnologie di rete. Il fulcro del discorso sull'ipertestualità ruota intorno all'idea di Rete. Nel 1968 Licklider aveva pubblicato un articolo, The Computer as a Communication Device, in cui racconta la sua partecipazione all'esperimento condotto da Douglas Engelbart, suo stretto collaboratore, di connessione di una rete di terminali a un computer remoto. L'esperimento dimostrava la possibilità di collegare computer remoti e difformi: la Rete è la rappresentazione di “come penseremo”.

Computer Lib/Dream Machine[modifica]

Nel 1974 Nelson pubblica in proprio un libro che consolida l'interpretazione libertaria e alternativa dell'informatica: Computer Lib/Dream Machine. Lib sta per liberation e per library. Il progetto è idealista: la liberazione dell'individuo attraverso un profondo ripensamento dei mezzi di comunicazione e del computer (computer liberation). Ma il progetto è anche pragmatico: prevede lo sviluppo di una biblioteca computerizzata (Licklider). La Dream Machine è il computer personale. Il libro invitava il lettore a condividere alcuni valori (autonomia, uguaglianza, libertà) ancor prima di apprendere delle nozioni tecniche. Il libro vuole promuovere un messaggio: tutti dovrebbero saper usare il computer, in modo nuovo, rivoluzionario, ipertestuale. “I temi fondamentali trattati NON sono TECNICI. Capire il computer vuol dire avere CONSAPEVOLEZZA di come agiscono i media. Non si tratta di una conoscenza tecnica”. Il sottotitolo recita: “Nuove libertà attraverso lo schermo del computer – Una mozione di minoranza”. Uno dei temi forti del libro è il progetto illuminista di contrasto alle nuove forme di analfabetismo: “Perché dovrebbero interessarci i computer? Perché viviamo nei media come i pesci nell'acqua”. Poiché i media – e nello specifico i computer – sono l'elemento vitale dell'uomo contemporaneo, conoscere le nuove tecnologie significa affrancarsi, lottare per la propria libertà e autonomia. Tecnologia è una parola politica, indica un rapporto di forza fra potere e sapere.

Literary Machines 90.1[modifica]

Nel 1981 Nelson pubblica Literary Machines 90.1, la storia dell'attesa che si realizzi il progetto ipertestuale, il progetto Xanadu. Tra la fine degli anni '70 e i primi anni '80 sono accadute diverse cose: la diffusione del PC, i primi sistemi di interfaccia grafica, il grande successo del supporto ottico (Cd-Rom), la commercializzazione dei primi software per la creazione di ipertesti (Hypercard, Toolbook), che per Nelson rappresentano l'ennesima resa alla tradizione cartacea (la fruizione in modalità locale è un falso idolo, l'ipertesto ha bisogno della Rete). Tuttavia Hypercard, anche se privo della dimensione indeterminata della Rete (il Web e l'Html ne decreteranno il ritiro dal commercio), è stato il principale tramite per il successo del concetto di ipertesto. Il Cd-Rom ha contribuito a far prendere familiarità all'utente rispetto a concetti basilari dell'ipertestualità: la fruizione sullo schermo, la multimedialità, l'interattività. Appare come la nuova panacea, come il microfilm negli anni '30. Anche gli umanisti familiarizzano con le macchine.

Literary Machines 90.1 è un'opera ipertestuale: contiene un Capitolo Zero, diversi Capitoli Uno, un Capitolo Due, diversi Capitoli Tre, Quattro e Cinque: quasi quaranta titoli per un reticolato ipertestuale di possibili, differenti approcci alla questione. Il libro descrive da un punto di vista informatico e da un punto di vista di teoria letteraria il sistema ipertestuale denominato progetto Xanadu. Xanadu era il nome della famosa dimora di Kubla Khan descritta da Marco Polo, ma anche di Citizen Kane, il protagonista di Quarto potere di Orson Welles. Nelson pensa al computer come a una tecnologia della liberazione e all'ipertesto come affrancamento del testo dalla prigionia del libro. Il suo sogno riguarda la creazione di uno sterminato documento formato da tutti i documenti esistenti al mondo, che lui definisce docuverso, nel quale tutto il mondo coincide con lo spazio per la scrittura. Secondo Nelson l'ipertesto non è ancora stato costruito: i prodotti disponibili non sono che pallide approssimazioni poiché l'unica dimensione possibile per l'ipertesto è la Rete.

Riferimenti bibliografici[modifica]

  • V. Bush, As We May Think, The Atlantic Monthly, July 1945.
  • T. H. Nelson, A File Structure for The Complex, The Changing and the Indeterminate. In: Proceedings of ACM 20th National Conference; 1965; Aug. 24-26; Cleveland, OH; Pagine 84-100. (pdf)
  • T. H. Nelson, As we will think, Proceedings of Online 72 Conference, Brunel University, Uxbridge, England, 1973. Ristampato in: From Memex to Hypertext : Vannevar Bush and the Mind’s Machine, eds. J. Nyce - P. Kahn, p. 245 ss. Academic Press, Boston (MA), 1991.
  • Da Memex a Hypertext, a cura di J. Nyce e P. Kahn, Academic Press, Boston (MA), 1991; tr. it. ed. Franco Muzzio, 1992.
  • P. Castellucci, Dall'ipertesto al web. Storia culturale dell'informatica, Roma-Bari 2009.

Note[modifica]


Internet e il web

Indice del libro

Le origini di Internet[modifica]

L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti, che misero a punto durante la guerra fredda un nuovo sistema di difesa e di controspionaggio. La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad accesso pubblico è On-line man computer communication dell'agosto 1962, pubblicazione scientifica degli statunitensi Joseph Licklider e Welden Clark. Nella pubblicazione i due ricercatori del MIT, danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network". Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere il 1991 quando il governo degli Stati Uniti d'America emana la High performance computing act, la legge con cui per la prima volta viene prevista la possibilità di ampliare, per opera dell'iniziativa privata e con finalità di sfruttamento commerciale, una rete Internet fino a quel momento rete di computer mondiale di proprietà statale e destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in atto anche dagli altri Paesi.

Il progenitore e precursore della rete Internet è considerato il progetto ARPANET, finanziato dalla Defence Advanced Research Projects Agency (DARPA, Agenzia per i Progetti di ricerca avanzata per la Difesa), un'agenzia dipendente dal Ministero della Difesa statunitense. In una nota del 25 aprile 1963, Licklider aveva espresso l'intenzione di collegare tutti i computer e i sistemi di time-sharing in una rete continentale. Avendo lasciato l'ARPA per un posto all'IBM l'anno seguente, furono i suoi successori che si dedicarono al progetto ARPANET.

Il contratto fu assegnato all'azienda da cui proveniva Licklider, la Bolt, Beranek and Newman (BBN) che utilizzò i minicomputer di Honeywell come supporto. La rete venne fisicamente costruita nel 1969 collegando quattro nodi: l'Università della California di Los Angeles, l'SRI di Stanford, l'Università della California di Santa Barbara, e l'Università dello Utah. L'ampiezza di banda era di 50 kbps. Negli incontri per definire le caratteristiche della rete, vennero introdotti i fondamentali Request for Comments, tuttora i documenti fondamentali per tutto ciò che riguarda i protocolli informatici della rete e i loro sviluppi. La super-rete dei giorni nostri è risultata dall'estensione di questa prima rete, creata sotto il nome di ARPANET.

I primi nodi si basavano su un'architettura client/server, e non supportavano quindi connessioni dirette (host-to-host). Le applicazioni eseguite erano fondamentalmente Telnet e i programmi di File Transfer Protocol (FTP). Il servizio di posta elettronica fu inventata da Ray Tomlinson della BBN nel 1971, derivando il programma da altri due: il SENDMSG per messaggi interni e CPYNET, un programma per il trasferimento dei file. L'anno seguente Arpanet venne presentata al pubblico, e Tomlinson adattò il suo programma per funzionarvi: divenne subito popolare, grazie anche al contributo di Larry Roberts che aveva sviluppato il primo programma per la gestione della posta elettronica, RD.

In pochi anni, ARPANET allargò i suoi nodi oltreoceano, contemporaneamente all'avvento del primo servizio di invio pacchetti a pagamento: Telenet della BBN. Tutto era pronto per il cruciale passaggio a Internet, compreso il primo virus telematico: il 27 ottobre 1980, facendo esperimenti sulla velocità di propagazione delle e-mail, Arpanet venne totalmente bloccata a causa di un errore negli header del messaggio. Definendo il Transmission Control Protocol (TCP) e l'(Internet Protocol), DCA e ARPA diedero il via ufficialmente a Internet come l'insieme di reti interconnesse tramite questi protocolli.

Tim Berners-Lee e la nascita del Web[modifica]

Tim Berners-Lee

Il 6 agosto 1991 l'informatico inglese Tim Berners-Lee, nato a Londra nel 1955, pubblicò il primo sito web: è l'atto di nascita del World Wide Web: una grande ragnatela mondiale di informazioni. L'idea del Web era nata due anni prima, nel 1989, presso il CERN (Conseil Européen pour la Recherche Nucléaire) di Ginevra, il più importante laboratorio di fisica europeo. Fu lo stesso Berners-Lee a coniare le sigle HTML (il linguaggio di markup con cui sono scritte e descritte le pagine web) e HTTP (il protocollo di rete appartenente al livello di applicazione del modello ISO/OSI su cui è basato il Web) e evidenziare una chiara linea ereditaria fra la parola ipertesto, di cui riconosce la paternità a Ted Nelson, e la cosa ipertesto, il Web, di cui si proclama con fierezza l’inventore[14].

Al CERN l’informatica non era certo il principale indirizzo di ricerca. A partire dalle prime versioni di Enquire e Tangle, il Web assumerà vita propria. Il programma era una sorta di super-rubrica telefonica informatica grazie alla quale era possibile mettere in relazione tramite link nomi di colleghi, progetti e documenti: un modo per cercare di orientarsi meglio nel mondo del Cern, una “struttura a ragnatela” reticolare, dinamica e cosmopolita.

« Possiamo considerare il mondo come un’unica connessione. Di solito consideriamo un vocabolario come una raccolta di significati, ma in realtà questo tipo di libro definisce il mondo soltanto in termini di parole. Mi piaceva l’idea che un frammento d’informazione fosse definibile soltanto attraverso ciò a cui è collegato, e come. La struttura è tutto. Il cervello non sa nulla fino a quando i neuroni non sono collegati tra di loro. Tutto quello che sappiamo, tutto ciò che siamo, deriva da come i neuroni sono collegati »
(Tim Berners-Lee)

L’ambizione era quella di “creare un computer intuitivo, una macchina che fosse in grado di attuare collegamenti come il cervello biologico”. Berners-Lee scelse come primo indirizzo Web www.info.cern.ch e il 25 maggio 1993 tenne la prima conferenza sul Web. Ma il riconoscimento del valore dell’invenzione avverrà altrove, al Mit. World Wide Web è un nome rivelatore di un nuovo modo di fare ricerca e di concepire le nuove tecnologie. Web vuole denotare “un complesso di nodi e maglie in cui ogni nodo può essere collegato a un altro, e riflette la natura distribuita delle persone e dei computer che il sistema può mettere in collegamento, offrendo la promessa di un sistema potenzialmente globale”. Il Web enfatizza una linea di sviluppo tracciata a partire dagli anni '60 (Rete distribuita, commutazione di pacchetto, Arpanet) e '70 (Tcp/Ip), ossia un movimento verso l'integrazione di reti, macchine, programmi, memorie, processori, gruppi di lavoro, progetti di ricerca, fra loro difformi. Il Web esalta lo spirito di Internet: integrare, mettere in comunicazione l'esistente, piuttosto che costruire nuove infrastrutture e nuovi programmi.

Berners-Lee decise di non imporre un nuovo standard di comunicazione, bensì di adottare quello che nel tempo si era dimostrato il più valido: lo standard de facto Tcp/Ip. Anche l'instradamento dei messaggi non può essere preordinato, ma segue le strade disponibili al momento, esaltando le tecnologie sviluppate negli anni '60: commutazione di pacchetto e rete distribuita[15]. Per risolvere le criticità di Internet, Berners-Lee intuì che il sistema di Internet, ibridato con il concetto di ipertesto, avrebbe potuto dar luogo a un modo nuovo di intendere le tecnologie di rete. Piuttosto che digitare un indirizzo alfanumerico e collegarsi in modalità remota a una risorsa di rete (emulatore di terminale Telnet), sarebbe stato più agevole saltare ipertestualmente tra gli indirizzi. Il Web nasce dunque come integrazione fra Internet e la modalità ipertestuale di gestione documentaria già sperimentata dal programma HyperCard.

Le risorse di rete già disponibili con Internet potevano essere raggiunte anche da utenti non esperti e navigando tra esse grazie ai link. Con la produzione dei primi browser per tutte le maggiori piattaforme informatiche, protratta fino al 1993, si avrà una impennata del World Wide Web. L'interfaccia grafica facilita il momento della connessione e della interrogazione: agli utenti viene permesso di visualizzare una grafica a colori, animazioni e hanno la possibilità di puntare e cliccare i collegamenti alle pagine web. Cambia il concetto stesso di risorsa di rete: non più banca dati ma sito. Il sistema ipertestuale si rivela semplice, intuitivo, perché cerca di replicare la modalità del pensiero. Berners-Lee lasciò il Cern e l'Europa e venne accolto negli Stati Uniti, dove ha fondato il World Wide Web Consortium, il consorzio per la tutela e il miglioramento del Web.

Il contesto culturale[modifica]

Il Web si è sviluppato e consolidato nel momento in cui è stato riposizionato nel luogo di nascita sia dell'ipertesto che di Internet. La 'tecnologia per tutti' ha trovato negli Stati Uniti un territorio non solo tecnologicamente ma anche socialmente e intellettualmente più pronto. In Europa il Web (e in generale l'informatica) non era ancora percepito come un campo della “cultura”, un campo della vera ricerca scientifica, ma come un subordinato settore applicativo. Il Web trae molti insegnamenti dall'ipertesto, che si offriva come espressione delle due culture, come punto di convergenza fra l'ambito disciplinare umanistico o quello scientifico-tecnico. Mescolare tradizione umanistica e scientifica, applicare una specifica tradizione disciplinare al fine di una ricezione democratica e generalista delle tecnologie, sconfinare in altri territori disciplinari, viene spesso percepito come indebolimento di autorevolezza: è il sospetto contro cui hanno lottato sia Ted Nelson che Tim Berners-Lee. L'ipertesto è un caso esemplare di tecnologia come prodotto culturale: è la storia di una faticosa ricerca di legittimazione.

Nel 1999 Ted Nelson si dichiarò deluso dal Web e dalle sue lacune nel recupero delle informazioni: “Il progetto Xanadu viene spesso frainteso e identificato con il World Wide Web. In realtà, è stato sempre molto più ambizioso: proponeva infatti link che non si interrompono se le versioni dei documenti cambiano; possibilità di comparare in dettaglio documenti e di annotarli, possibilità di seguire le citazioni a ritroso, fino alla fonte originaria; e infine un valido sistema di copyright sia dal punto di vista legale che commerciale”. Nel 1997 Nelson ha rivolto un invito ai padroni della Rete ipotizzando un nuovo Web, basato sulla destandardizzazione e sull'allentamento di gerarchie e categorie. Il Web 2.0, sviluppatosi a partire dal 2004, ha risposto almeno in parte a queste sollecitazioni. Il nuovo principio base è l'interattività, la relazione del lettore con documenti intesi come espressione di punti di vista: folksonomy, cooperative tagging, Wiki, social networking (“il Web sei tu”). Grazie all'ipertesto le consuete azioni di scrittura, lettura e recupero informazioni vengono ripetute in modo differente, al fine di mostrare le varianti.

Il Web 2.0[modifica]

La prima epoca del Web è quella che inizia nei primi anni '90 e termina nel 2004 quando ci fu, con la diffusione delle tecnologie informatiche e digitali, lo scoppio della bolla speculativa della prima generazione della new economy, o anche net economy (da "network" ed "economy"). Il termine Web 2.0, coniato da Dale Dougherty nel 2004, designa un nuovo modo di fruizione di internet: la rete non è vista più come un luogo dove reperire passivamente informazioni, ma come una piattaforma che facilita la condivisione delle informazioni e la collaborazione a distanza. A differenza del Web 1.0, che aveva pagine statiche il cui contenuto e la cui grafica erano formattati in HTML, i siti della nuova epoca della rete saranno realizzati in pagine dinamiche, generate in XML, che si adattano ad ogni tipo di dispositivo.

La rete odierna viene più volte paragonata ad un ritorno alla tradizione orale, per via della plasticità dell'informazione che può essere modificata all'infinito dagli utenti.

Essendo diventato il web un'autentica comunità di users sembra doveroso citare Kevin Kelly quando dice:

« Le cose che non si possono riprodurre diventeranno la vera moneta corrente, la vera fonte di ricchezza. Che cosa non si può riprodurre? La fiducia. L'autenticità. L'immediatezza. La presenza. L'esperienza. Le relazioni. »
(Pro-choice: The Promise of Technology)

I regolari frequentatori di un sito, incrementando il loro gruppo, cominciano a godere degli effetti della rete, ossia dei benefici comunitari: ci sarà chi pubblica articoli e chi li legge, chi rimuove lo spam per salvaguardare la veridicità delle pubblicazioni, il che porta sempre a risultati vantaggiosi.

Un'altra rivoluzione del Web 2.0 è la diffusione del tagging, ossia dell'etichettatura, per segnalare qualcosa che potesse sembrare interessante per qualche motivo. L'utente, a questo punto, non è più soltanto un lettore, né più un creatore di contenuti, ma è anche un arbitro che influenza la scelta del contenuto da rendere visibile ai suoi pari.

Il prodotto di maggior popolarità del Web 2.0 sono sicuramente i social network. Fin dalla fine degli anni '90 le connessioni tra le persone erano il nuovo centro d'interesse e, anche dal punto di vista economico, si avviavano a diventare un potenziale gruppo di investimento di capitali. Tra i primi social network a sorgere si ricordano: SixDegrees (1997) e i successivi Friendster (2003) e MySpace (2003), fino ad arrivare ai giorni nostri con Facebook, Twitter, ecc.

Il Semantic Web[modifica]

Perché passare dal WEB, strumento già di per sé potente ad una nuova entità, ovvero sia, il Semantic Web? Innanzitutto non si tratta di un vero e proprio passaggio bensì, di un’estensione necessaria a causa di una serie di limitazioni che caratterizzano il Web e che, solo un’analisi più accurata, consente di individuare. Ad esempio, diversi utenti utilizzano il Web per la ricerca di documenti seguendo due possibili strade: utilizzando link ipertestuali o attraverso i motori di ricerca. Il limite del primo processo riguarda il tempo, poiché, un utente che non sa bene da dove partire per ricercare ciò di cui ha bisogno, rischia di perdersi. Il limite del secondo procedimento riguarda l’elevato numero di risultati non utili che possono presentarsi all’utente, nel momento in cui inserisce nella barra bianca del motore di ricerca la sua parola chiave.

Il Web, ancora, nella ricerca delle informazioni non è in grado di integrare le parti d’informazioni contenute su siti differenti ed infine, la maggior parte dei siti web, non sono adibiti per fornire servizi ad altri servizi ma, sono solo, contenitori d’informazioni. Qui si colloca il Semantic Web che, parte dal presupposto di ridefinire e ristrutturare i dati sul Web in modo che il loro significato sia accessibile non solo, ad utenti umani ma, anche, a programmi che li utilizzano per manipolarli, integrarli e renderli fruibili da diverse applicazioni. Il termine Semantic assolve proprio questo compito: creare qualcosa che sia “significativo” per dei programmi di computer e, non solo per l’utente umano. I programmi scritti per il Semantic Web, devono avere un accesso al significato dei dati con cui lavorano per poter comprendere di cosa si stia parlando. Questo è possibile attraverso i metadati che sono letteralmente “dati che parlano di dati” e forniscono informazioni su quanto c’è da sapere su un certo insieme di elementi. L’espressione dei metadati è possibile attraverso degli strumenti tecnici, dei linguaggi di annotazione costruiti a partire da XML.

XML (Extensible Markup Language) è un metalinguaggio che consente, attraverso l’uso predefinito di regole standardizzate, di dare significato ai diversi dati contenuti in un documento. L’obiettivo è di poter controllare i significati dei diversi componenti di un testo. Una delle caratteristiche principali di XML è la sua versatilità, poiché, proprio grazie a questo metalinguaggio, è possibile utilizzare strumenti informatici in ambiti molto differenti, anche lì dove vi sono tecniche e teorie di rappresentazione della conoscenza radicate. La sua omogeneità e duttilità porta a credere che si tratti di uno strumento neutro attraverso il quale rappresentare la conoscenza. In realtà, il suo carattere neutrale può essere preso in considerazione solo se ci si focalizza esclusivamente sul singolo dato e dunque sulla sua identità sostanziale senza però considerare le relazioni esistenti tra i diversi dati. Se si osserva il fenomeno da questa prospettiva, si può notare come il dato, solo apparentemente conservi il suo significato attraverso tale metalinguaggio poiché in realtà, sono le relazioni esistenti tra i singoli dati a fornire significato al singolo. La neutralità è, per questo, un attributo improprio da associare a questo strumento poiché è necessario definire una struttura con la quale rappresentare i diversi elementi. Difatti, è fondamentale considerare le regole attraverso le quali questi dati vengono messi in relazione tra loro altrimenti si rischia di cadere in errore alterando anche il significato del dato stesso. In definitiva, l’idea è che la rappresentazione della conoscenza attraverso strumenti informatici non possa essere considerata neutra.

L’elemento di forza di XML è la possibilità di definire, attraverso il sistema dei marcatori incorporati nel documento, i linguaggi con cui il documento stesso potrà essere successivamente letto e rappresentato e l’aspetto strutturale è descritto attraverso un DTD ( Document Type Definition).

Attraverso i suddetti marcatori è possibile definire l’aspetto strutturale del documento e questi sono organizzati in una sorta di gerarchia caratterizzata da categorie più generali (i marcatori così detti generici) e più specifiche (marcatori speciali). Una struttura che viene costruita sulla base di questo principio, si avvicina all'idea di Porfirio che nell'opera Isagoge tenta in qualche modo di definire una rappresentazione della conoscenza. Questi, partendo dalla dottrina aristotelica e dunque dalle categorie, sviluppa una sorta di albero gerarchico per cui vi è un elemento di partenza, una categoria, che viene spiegata facendo ricorso ad elementi via via sempre più specifici fino a giungere all'ultimo che non è caratterizzato da nessuna sotto specificazione. I marcatori utilizzati rappresentano questi nodi e la regola sottostante è che non vi sia alcuna sovrapposizione tra questi e dunque, ognuno dei marcatori deve essere considerato al di là degli altri.

Anche il mondo digitale si pone problemi ontologici, si chiede quali predicati possano definire un soggetto e la sua essenza. Se la metafisica ricerca le cause ultime della realtà e quindi l’essenza, la ricerca ontologica in ambito informatico pretende di non avere implicazioni semantiche al di fuori dei termini usati per i marcatori. Porfirio struttura la conoscenza di modo che i diversi componenti dell’albero assumano un significato che prescinda dall'esperienza, estrapolandoli dalla realtà per adattarli in modo indifferente ai diversi ambiti ma questo tentativo risulta fallace. La struttura porfiriana pretende di raggiungere una definizione frutto di una somma di differenze che coincidono esattamente con l’oggetto che si intende descrivere e questo, non coincide con l’obiettivo di XML. Quest’ultimo invece, associa ai marcatori dei nomi che sono puramente convenzionali. Il problema è che l’aspetto semantico e quello strutturale non possono prescindere l'uno dall'altro poiché, le componenti semantiche sono inevitabili per comprendere le subordinazioni che specificano i marcatori.

L’idea è, dunque, che la conoscenza debba essere rappresentata attraverso una gerarchia di concetti e un insieme di attributi attraverso i quali specificarli. Il problema è che il modello ad albero non riesce a raggiungere questo scopo poiché, non vengono specificate delle regole attraverso le quali interpretare le relazioni tra questi concetti. E così anche il metalinguaggio XML pecca in questo. Le relazioni tra concetti ammesse dalla struttura albero non prevedono se non relazioni gerarchiche mentre si ritiene necessario uno strumento che consideri anche altri tipi di relazioni. Dunque, il limite più grande di questi strumenti è l’incapacità di fornire delle regole di interpretazione.

La necessità è quella di superare questo modello per utilizzarne uno che, non solo sia in grado di rappresentare la conoscenza ma, che fornisca anche un insieme di regole che ne definiscono la coerenza. Un tentativo seppur lontano dalla logica predicativa, di raggiungere questo scopo è stato operato da Roberto Grossatesta attraverso la cosiddetta resolutio-compositio. Anche questo autore, al pari di Porfirio, è partito da Aristotele nello sviluppo del suo metodo. Attraverso il primo procedimento, Grossatesta mostra come estrapolare gli attributi di un fenomeno per somiglianza e differenza (definizione nominale), mentre attraverso il secondo procedimento, quello della compositio, ordina le proposizioni in modo gerarchico ma considerandole in un rapporto causale. Le logiche predicative successive a Grossatesta renderanno centrale, anche nella rappresentazione della conoscenza, la logica deduttiva affrontata in parte dal suddetto autore. Di questi formalismi logico-deduttivi si avvale anche il “Semantic Web” nel quale si supera il limite del modello porfiriano, proponendo regole di applicabilità alle diverse relazioni. La struttura non è più quella di un albero ma piuttosto quella di una rete con delle relazioni.

Il Deep Web[modifica]

Il Deep Web o Web sommerso indica tutta quella parte del World Wide Web non raggiungibile dai normali motori di ricerca, includendo anche intranet aziendali, vari database , siti protetti da password e ambiti di dominio non pubblico. Tale espressione viene spesso associata alle "darknet", reti raggiungibili solo attraverso software particolari che garantiscono protezione tramite l'anonimato. Le Darknet più conosciute sono Tor, I2P e Freenet. Erroneamente i termini Deep Web , Dark Web e darknet sono usati come sinonimi: il Deep Web indica tutto il web non raggiungibile dai normali motori di ricerca, ambito assai più vasto rispetto alle darknet, che, sebbene difficili da misurare, costituiscono un ambiente piccolo e spesso sopravvalutato. Silk Road,sito presente sulla piattaforma Tor, spesso preso come esempio di vertice dell'illegalità: "si configura come una realtà di condivisione di idee, più che un vero e proprio business.[...] Non si vendono solo droghe, naturalmente, ma anche servizi e strumenti di hacking, prodotti di elettronica, riviste e libri introvabili, oggetti di ogni tipo"[16]. Nel Deep Web ci si muove avendo e cercando direttamente gli indirizzi dei siti nei forum, in directory di link oppure col passaparola. Inoltre i siti web cambiano spesso indirizzo: "è come vivere in una città la cui toponomastica venga rivoluzionata in continuazione. Ogni utente deve diventare un po' un cartografo"[17]. Una delle leggende del Deep Web è che si possono assoldare anonimi killer "Ebbene chiunque nell'ambiente vi dirà che si tratta quasi sempre di una truffa"[18]. Un altro metodo utilizzato è l'exit scam, la scomparsa improvvisa di siti web che comporta la perdita di bitcoin. Un esempio di tale attività illecita è stata adottata dal sito Revolution nel 2015, che fungeva da deposito di garanzia, che nell'apice della sua ascesa, improvvisamente sparì nel nulla portando con sé 12 milioni di dollari in bitcoin. In definitiva l'attività più diffusa nel Deep Web è la truffa.

Il Deep Web è anche caratterizzato dall'hackitivismo attraverso l'attacco di siti web molto rilevanti, spesso "dossati" (cioè colpiti con attacchi di tipo DDoS) per esprimere il proprio dissenso contro specifici comitati, istituzioni, terrorismo, ecc...vere e proprie manifestazioni di protesta digitali.

Note[modifica]


La filosofia digitale

Indice del libro

La filosofia digitale è un indirizzo filosofico contemporaneo sviluppato negli ultimi decenni e promosso da Edward Fredkin, Gregory Chaitin, Stephen Wolfram e altri studiosi che si muovono in un'area di ricerca tra fisica, matematica, informatica e metafisica, e che pongono il bit alla base della realtà e spiegano l'evoluzione della realtà come un processo computazionale[19].

Edward Fredkin[modifica]

Il fisico statunitense Edward Fredkin, nato nel 1934, è un pioniere della filosofia digitale (o fisica digitale). I suoi principali contributi sono nella computazione reversibile e negli automi cellulari. La sua invenzione più importante fu la porta di Fredkin.

Fredkin lascia il California Institute of Technology dopo un anno e si unisce all'USAF e diventa pilota di jet. La sua carriera in ambito informatico parte nel 1956 quando l'Air Force gli affida un lavoro al MIT Lincoln Laboratory. Nei primi anni '60 lavora alla BBN Technologies dove scrive l'assemblatore PDP-1. Nel 1968 ritorna all'accademia, iniziando come professore al MIT. Dal 1971 al 1974 fu direttore del progetto MAC. Al California Institute of Technology trascorre un anno lavorando con Richard Feynman, e diventa professore di fisica alla Boston University per 6 anni. Fredkin fondò la Information International Inc. In campo informatico fu inventore della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell'Intelligenza artificiale. Di recente ha sviluppato Slat, un modello di computazione basato sulle leggi di conservazione fondamentali della fisica.

Fredkin è un fautore del pancomputazionalismo, una teoria filosofica secondo la quale tutti i processi fisici della natura sono forme di calcolo o elaborazione delle informazioni ad un livello più elementare della realtà fisica. Ne deriva che la natura della realtà non è né materiale, né spirituale bensì è fondata su un'immaterialitá peculiare, che può definirsi informazionale. Il divenire della realtà è dunque concepito come un processo computazionale. Dal punto di vista teoretico, il pancomputazionalismo prende spunto da alcune tra le più importanti concezioni filosofiche del passato: l'atomismo, il determinismo, il meccanicismo, il monismo, il naturalismo, il realismo filosofico, il riduzionismo e l'empirismo scientifico.

"Esistono tre grandi domande filosofiche: cos'è la vita? Cosa sono la coscienza, il pensiero, la memoria e simili? Come funziona l'universo? Il punto di vista informazionale le concerne tutt'e tre."[20]

I contributi più significativi offerti da Fredkin alla filosofia digitale consistono in queste idee fondamentali: ogni cosa nella realtà fisica deve avere una rappresentazione informativa digitale; tutti i cambiamenti nella natura fisica sono la conseguenza dei processi informativi digitali; la natura è finita e digitale. Perfino la tradizionale visione dell'anima giudaico-cristiana trova la sua controparte statico/dinamica nella visione dell'anima profilata dalla filosofia digitale.

Gregory Chaitin[modifica]

Gregory John Chaitin nasce a Chicago nel 1947. Figlio di emigranti argentini è considerato uno dei fondatori della filosofia digitale. A partire dagli anni sessanta ha contribuito alla teoria algoritmica dell'informazione che si occupa della complessità dei programmi ed è conosciuto per di più per le sue ricerche sulla complessità algoritmica e per i teoremi limitativi. All'età di quarantotto anni incassa la laurea honoris causa dall'università pubblica statunitense con sede a Oronto, in Maine e nel 2002 riceve il titolo di professore onorario dall'Università di Buenos Aires in Argentina. Al presente Gregory Chaitin è un professore ospite presso il dipartimento di Computer Science dell'Università di Auckland in Nuova Zelanda e presidente onorario della commissione scientifica del Valparaíso Complex System Institute (Cile). Chaitin ha pubblicato molteplici libri e diversi articoli, alcuni di questi reperibili integralmente anche in rete. È stimato come programmatore, come matematico, come fisico e come filosofo digitale.

Dopo le tesi di Kurt Gödel, i matematici sono diventati consapevoli del fatto che la loro materia peccava di diverse limitazioni. Gregory Chaitin ha scovato nel simbolo della costante numerica Omega il concetto chiave per confermare l'incompletezza della sua disciplina. Chaitin cercando di calcolare le probabilità che ha un programma informatico generato casualmente di fermarsi (il problema della fermata di Alan Turing) si è reso conto che quel numero è definito ma non può essere calcolato. Omega, evocativamente chiamato anche numero di Chaitin rappresenta la somma delle probabilità che ha quel programma di arrestarsi.

Il computer, afferma Chaitin, è un nuovo meraviglioso concetto filosofico e matematico; un'idea rivoluzionaria, un congegno pratico, capace di modificare la società. A parer di Chaitin l'universo è scritto in un linguaggio informatico e i suoi caratteri sono i bit. Il filosofo mostra una visione moderna dell'idea Pitagorica la quale identifica nel numero il principio di tutte le cose. Tutto è algoritmo. La metafisica permette a Chaitin di giungere con la sua filosofia digitale all'esattezza e all'essenzialità degli oggetti. La sostanza di un oggetto è il suo contenuto di informazione algoritmica. Leibniz architetta il codice binario e Chaitin lo fa elevare a linguaggio dell'universo.

Stephen Wolfram[modifica]

Stephen Wolfram

Nato a Londra il 29 agosto 1959, è un matematico e fisico e, inoltre, viene definito come uno dei maggiori esponenti della filosofia digitale. Si è occupato in particolare di automi cellulari e di sistemi complessi. È inoltre il fondatore di Wolfram Research Inc.

Viene considerato fin da piccolo un enfant prodige nell'ambito delle discipline scientifiche, infatti, all'età di 13 anni,inizia a maturare un forte interesse per i fenomeni relativi alla complessità della natura e, all'età di soli 17 anni, viene ammesso al St.John's College dell'università di Oxford. A 20 anni consegue il dottorato di ricerca in fisica delle particelle e a 21 è insignito del Genius Award della Fondazione McArthur in riconoscimento dei risultati presentati nei suoi lavori sulla fisica e sulla computazione.

Nel 1986 realizza la prima versione di un linguaggio di programmazione e di un ambiente per il calcolo simbolico e numerico di grande efficacia:il programma Mathematica. L'ultima versione, la settima, è stata rilasciata alla fine del 2008.

Dal 1993 al 2002, Wolfram lavora al libro A New Kind of Science, un libro di 1.200 pagine, risultato della "parte migliore di vent'anni di vita, come dichiarerà lui stesso. All'interno dell'opera egli discute l'idea secondo la quale da input semplici seguono output semplici; da input complessi seguono output complessi, una legge che sembrava essere alla base della computer science. Al principio dei suoi studi si innesta una riflessione sugli automi cellulari che riescono a generare forme complesse a partire da regole semplici. L'analisi di diversi sistemi, mediante alcune simulazioni al computer, ha portato Wolfram alla conclusione che un limitato numero di regole ripetute all'infinito possa portare alla produzione di risultati complessi, confutando la teoria secondo cui regole semplici originino forme semplici e viceversa. Inoltre, è possibile dichiarare che attraverso gli automi cellulari sia possibile rendere comprensibile diversi fenomeni complessi, come ad esempio la forma di un fiocco di neve, di un guscio di una conchiglia, delle venature di una foglia, del manto maculato di un leopardo o striato di una zebra, mettendo in discussione le basi che caratterizzano alcune discipline scientifiche.

Seth Lloyd[modifica]

Seth Lloyd (2 agosto 1960) è un fisico ed informatico statunitense.

Seth Lloyd

Si diploma nel 1978, alla Phillips Academy. Nel 1982 si laurea in fisica alla Harvard University. Dopo alcuni titoli conseguiti con diverse università, viene, nel 1994, assunto dalla facoltà di ingegneria al MIT. Ricopre ad oggi due incarichi: insegna ingegneria dei sistemi al MIT, e fisica dei computer quantistici e complessità informatica al Santa Fe Institute. Il suo contributo a livello scientifico riguarda lo studio della complessità e dei sistemi relativi in riferimento all'indagine su di essi condotta per mezzo degli strumenti informatici. Al MIT si occupa infatti prevalentemente di ricerca per lo sviluppo dei computer quantistici. La fama di Lloyd nel campo informatico è strettamente collegata ad una sua tesi (esposta in Programming the Universe), secondo la quale l'universo è un enorme computer quantistico, creando, come ogni computer, un programma informatico di cui noi facciamo parte. Ne deriva che l'universo è il più grande elaboratore di informazioni. Un articolo molto noto di Lloyd (Computational Capacity of the Universe) fornisce i numeri per capire come L'Universo, fin dalla sua nascita, abbia elaborato costantemente informazioni. In questo articolo vengono esposti i calcoli effettuati dal fisico, indispensabili per la comprensione della sua teoria. L'Universo, stando ai calcoli di Lloyd, ha computato dalla sua nascita 10 alla 120 operazioni logiche elementari, per un totale di 10 alla 90 bit… che sarebbe la quantità di informazione contenuta in tutta la materia dell'universo. Nella già citata opera ("Programming the Universe") scrive: "Prima del Big Bang? Nulla. Non esisteva né il tempo, né lo spazio. Nessuna energia, nessun bit. L'informazione dell'Universo neonato era pari a zero bit […] Un miliardesimo di secondo dopo il Big Bang, l'Universo conteneva già 10 alla 50, cioè tanti bit quanti sono gli atomi della Terra. Il Big Bang è stato anche un Bit Bang." Due, potremmo dire, sono le peculiarità della teoria di Lloyd: la prima è che l'Universo informatico e quello fisico coincidono: entrambi sono due modi complementari per descrivere la stessa cosa (la realtà). La seconda è che l'Universo non è solo un computer, ma un "computer quantistico". Da ciò ne consegue che i bit dell'Universo sono in realtà qubit. Su questo punto trovò il sostegno di molti fisici, tra cui David Deutsch.

Eric Steinhart[modifica]

Eric Steinhart è professore di filosofia alla William Paterson University. Lavora principalmente sulla metafisica utilizzando metodi e strumenti analitici e logici contemporanei. Di formazione informatica e matematica, Steinhart ha lavorato come progettista di software per diversi anni, brevettando alcuni dei suoi algoritmi.

Nel suo saggio Digital Metaphysic, parte della raccolta The Digital Phoenix: How Computers Are Changing Philosophy, contrappone e mette in relazione la metafisica digitale con la metafisica materialista. Steinhart incolpa la scienza di oggi di ridurre tutta la realtà ai suoi costituenti materiali in quanto l'unica cosa reale è la materia. Il filosofo non abbraccia questa tesi, ma propone che i fondamenti della realtà siano computazionali: "la realtà ultima è una macchina di calcolo massicciamente parallela abbastanza universale da consentire la realizzazione di qualsiasi mondo fisicamente possibile". Questo sistema di idee viene identificato come metafisica digitale. Questa tesi è stata avanzata per la prima volta da Gottfried Wilhelm von Leibniz il quale descrive all'interno della sua Monadologia il mondo come un sistema di automi.

La metafisica digitale pone come fondamento ultimo della realtà uno spazio-tempo computazionale, costituito da calcolatori universali che interagiscono fra loro. Tali interazioni danno vita ai fenomeni fisici, fornendo spiegazioni proceduralmente efficaci di come si comporta la natura. Tale tesi presuppone una natura finita in quanto una realtà finitaria è molto più facile da comprendere, mentre l'infinito comporta paradossi. La natura, essendo coerente in sé stessa, non ammette alcun paradosso e di conseguenza non può contenere infiniti: natura, spazio e tempo hanno un'estensione finita. Steinhart mette in evidenza l'esistenza di varie teorie fisiche, ciascuna delle quali determina un mondo fisicamente possibile. Ciò non vuol dire che esistano vari mondi attuali, ma che sono possibili altri sistemi di leggi fisiche. Per il filosofo la realtà metafisica è struttura di tutti i mondi fisicamente possibili, mentre la realtà fisica è la struttura di una sola specie di questi mondi.

La metafisica digitale si sposa sia con l'argomento teologico di Dio, sia con la cosmologia atea. La visione di Dio si basa sul modello del Neoplatonismo plotiniano, mentre nella versione atea Dio viene sostituito da uno spazio-tempo computazionale eterno in cui la realtà materiale si è verificata.

Kevin Kelly[modifica]

Kevin Kelly nasce in Pennsylvania nel 1952. Compie i suoi studi presso la Westfield High School, Westfield NJ, dopodiché si iscrive all'Università del Rhode Island che abbandona dopo un anno. Intraprende la carriera di fotografo indipendente viaggiando ed esplorando diverse parti remote dell'Asia tra il 1972 e il 1979[21].

Kevin Kelly

Kevin Kelly ha saputo unire in una miscela filosofica ambiti apparentemente distanti tra loro: etici, tecnologici, antropologici e religiosi. Scrittore, fotografo e ambientalista, è stato cofondatore della nota rivista Wired[22].

Divenne noto soprattutto grazie al suo primo libro Out of Control: The New Biology of Machines, Social Systems, and the Economic World[23] pubblicato nel 1994. Questo libro fu uno dei testi che gli attori della celebre saga Matrix dovettero leggere obbligatoriamente per entrare nella logica del film.

Il suo articolo pubblicato su Wired God Is the Machine. In the beginning there was 0. And there was 1. A Mind-bending meditation on the transcendent power of digital computation[24], permette di collocarlo nell'ambito della filosofia digitale. Partendo da un esempio tratto dalle conclusioni scientifiche usate nel determinare la materia identificandola al di sotto del livello di quark e muoni, in cui racchiudere il mondo incorporeo, Kelly afferma che la filosofia digitale è entrambe le cose, ovvero indica il mondo fisico come digitale ovvero 1 e 0 ("La filosofia digitale dice questo: il mondo fisico è digitale, 1 e 0").

Kelly arriva ad "idealizzare" l'intera struttura genetica e la vita stessa come un processo informazionale e la materia costituita come un groviglio di bit, paragonando la sequenza di un intero DNA umano compresso in un CD da 3 gigabyte a quella di tre atomi, due di idrogeno e uno di ossigeno, mescolati nel "magico bicchiere della filosofia digitale"[25]. Infine unendo gli insegnamenti "esoterici" della fisica quantistica con la "nuova scienza del digitalismo" arriva a teorizzare una sorta di "dottrina mistica della computazione universale", prendendo spunto da argomenti di carattere teologico attraverso uno dei passi più noti della Bibbia:

"Dopo aver strappato via tutte le esteriorità e gli abbellimenti materiali, quello che rimane è lo stato di pura esistenza: qui/non qui, sono/non sono. Nel Vecchio Testamento, quando Mosè chiede al Creatore: "Chi sei tu?", questi, in vero, dice: "Sono". È un bit. Un bit onnipotente. Sì. Uno. Esisto. L'affermazione più semplice possibile"[26]

Mediante questo articolo arriva ad una "seconda Rivelazione" espressa in un nuovo linguaggio identificato come una nuova Creazione e una nuova evoluzione, includendo anche una sua eterna Triade di principi:

  1. la computazione può descrivere ogni cosa;
  2. ogni cosa può computare;
  3. nonostante la computazione possa "incarnarsi" in ogni cosa, la sua natura rimane unica e identica a sé stessa.

Con queste conclusioni, secondo Kelly, non ci sono più forme di computazione: a prescindere dalla materia del dispositivo che la sorregge o la veicola, la computazione è sempre equivalente a sé stessa, immutabile e universale. L'articolo termina con una domanda rivolta a tutti noi: "If the universe in all ways acts as if it was a computer, then what meaning could there be in saying that it is not a computer?" ("Se l'universo agisce in tutti i modi come se fosse un computer, allora che senso potrebbe esserci nel dire che non è un computer?").

Rendere l'essere umano capace di confrontarsi con questa domanda in modo più adeguato è forse proprio What Technology Wants, come recita il titolo dell'ultimo libro di Kelly[27].

Jürgen Schmidhuber[modifica]

Jürgen Schmidhuber, nato a Monaco di Baviera nel 1963, è il direttore dell'Istituto di Intelligenza Artificiale (Idsia) di Lugano e del Laboratorio di robotica cognitiva dell'Università di Monaco. Il nome dell'informatico tedesco è legato soprattutto alla filosofia digitale e all'Intelligenza Artificiale (AI).

Tra i suoi contributi, una posizione di rilievo è sicuramente occupata dalla "teoria algoritmica della bellezza" (Schmidhuber's Beauty Postulate). Ogni soggetto, di fronte a una serie di paesaggi, volti, opere d'arte, indica come "il più bello" il più semplice da decodificare e memorizzare. Questo principio di origine matematica è strettamente legato alla "teoria algoritmica dell'informazione" di Chaitin.

Molto nota è anche la legge secondo cui la distanza temporale tra una scoperta tecnologica rivoluzionaria e un'altra decresce esponenzialmente. Schmidhuber, pur conservando dunque il criterio dell'esponenzialità, rovescia la "legge di Moore", per cui invece il ritmo del progresso tecnologico cresce in maniera esponenziale.

Il contributo più importante per la filosofia digitale è però la cosiddetta "ipotesi di Schmidhuber", esposta nel saggio del 1997 A Computer Scientist's View of Life, the Universe, and Everything. Il nucleo della trattazione è il seguente: "Molto tempo fa, il Grande Programmatore scrisse un programma che lanciò tutti gli Universi possibili nel suo Grande Computer. Qui "possibili" significa "computabili"[28].

Anche il nostro Universo gira su questo Grande Computer e il suo stato può essere descritto mediante un numero finito di bit. Nonostante questa regolarità, Schmidhuber riconosce anche l'esistenza di deviazioni. Queste deviazioni spingono molti a ritenere che il mondo sia parzialmente casuale e quindi incomputabile. Tuttavia, secondo Schmidhuber, la nostra incapacità di decodificare lo stato del nostro Universo non influenza le possibilità del Grande Programmatore, che può invece esaminarlo in qualsiasi momento.

Negli ultimi anni, Schmidhuber si è dedicato all'evoluzione del sistema di riconoscimento vocale di Google, sfruttando le reti neuronali ricorrenti da lui sviluppate.

Note[modifica]

  1. Martin Davis - logico, pioniere dell'informatica e divulgatore di storia della scienza - ha ricostruito la storia concettuale del calcolatore universale, a partire dal cosiddetto 'sogno di Leibniz', ossia il desiderio di escogitare un calcolo simbolico, un'algebra del pensiero, grazie alla quale risolvere ogni tipo di problema.
  2. (EN) Alonzo Church, An Unsolvable Problem of Elementary Number Theory, in American Journal of Mathematics, vol. 58, nº 2, The Johns Hopkins University Press, aprile 1936, pp. 345–363. URL consultato il 6 maggio 2016.
  3. (EN) Alan M. Turing, Computing Machinery and Intelligence (PDF), in Mind, vol. 59, october 1950, pp. 433-460. URL consultato il 6 maggio 2016.
  4. Konrad Zuse Internet Archive
  5. First draft of a report on the EDVAC by John von Neumann – Contract No. W-670-ORD-4926 between the United States Army Ordnance Department and the University of Pennsylvania – Moore School of Electrical Engineering, University of Pennsylvania – June 30, 1945. Il documento è disponibile anche nel seguente libro: Nancy Stern, From ENIAC to UNIVAC – An appraisal of the Eckert-Mauchly computers, Digital Press, 1981.
  6. (EN) Alan M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem (PDF), in Proceedings of the London Mathematical Society, ser. 2, vol. 42, 12 novembre 1936, pp. 230-265. URL consultato il 6 maggio 2016.
  7. Alan M. Turing, Computing Machinery and Intelligence in Mind, vol. 59, october 1950, pp. 167-193.
  8. Proposta di Dartmouth, tradotta in Italiano da Gianluca Paronitti (PDF), su dif.unige.it (archiviato dall'url originale il 12 gennaio 2015).
  9. http://mondodigitale.aicanet.net/2015-6/articoli/01_sara_possibile_fare_un_computer_consapevole.pdf
  10. J. Nice - P. Kahn, Una macchina per la mente: il Memex di Vannevar Bush in Da Memex a Hypertext, Franco Muzzio, Roma 1992, 3.
  11. Ivi, 7-8.
  12. Ivi, 12.
  13. Ivi, 17.
  14. “Ted Nelson, visionario di professione, parlò nel 1965 delle macchine letterarie, cioè dei computer che avrebbero permesso di scrivere e pubblicare in un formato nuovo, non lineare, che battezzò ipertesto (…) Ted delineò un progetto futuribile, Xanadu, in cui tutta l’informazione del mondo poteva essere pubblicata sotto forma di ipertesto”.
  15. “Internet era già in funzione dagli anni '70, ma trasferire informazioni restava troppo complesso per quanti non fossero esperti di informatica”.
  16. Carola Frediani, Deep Web: la rete oltre Google, 2016, p. 17.
  17. Ibid., p. 83.
  18. Ibid. p. 28.
  19. http://www.digitalphilosophy.org/
  20. E. Fredkin in R. Wright, Three scientists and Their Gods, cit., p. 9.
  21. Kevin Kelly, la sua biografia è disponibile sul sito: http://kk.org/biography
  22. http://tg1live.blog.rai.it/2009/02/23/wired-la-bibbia-della-rivoluzione-digitale-sbarca-in-italia/.
  23. Il libro è disponibile sul sito dell'autore: http://kk.org/mt-files/books-mt/ooc-mf.pdf
  24. L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.
  25. Longo Giuseppe O.; Vaccaro Andrea - "Bit Bang. La nascita della filosofia digitale" Apogeo Education, Milano 2013
  26. L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.
  27. Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Torino, 2011.
  28. J. Schmidhuber, A Computer Scientist's View of Life, the Universe, and Everything, in C. Freksa (ed.), Lecturs Notes in Computer Science, Springer, 1337,1997, p.201


La filosofia dell'informazione

Indice del libro

Il mondo durante l'ultimo secolo ha vissuto una vera e propria rivoluzione, che ha richiesto una nuova analisi filosofica ben rappresentata da Norbert Wiener e Luciano Floridi, due intellettuali che, nonostante l'intervallo cronologico e il differente approccio teorico, hanno lasciato entrambi una traccia vengono citati nella stessa discussione non necessariamente come tesi ed antitesi del dibattito.

L'informazione da Norbert Wiener a Luciano Floridi[modifica]

Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "teoria dell'informazione". Da affermato materialista affermò che "l'informazione è entropia" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "informazione di Shannon". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.

Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo costruttivismo, dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria etica dell'informazione. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.

La rivoluzione dell'informazione secondo Luciano Floridi[modifica]

L'informazione[modifica]

Secondo Luciano Floridi il rapido sviluppo della tecnologia ha trasformato il mondo stimolando nuove idee, modellando concetti e causando problemi inediti. Tra questi, quello principale, è quello dell'informazione.

Analizzando l'opera curata da Terrel Baynum e James Moore The Digital Phoenix (La Fenice Digitale), Floridi analizza i problemi riguardanti la Filosofia dell'Informazione, una nuova disciplina filosofica che riguarda l'indagine critica della natura concettuale e dei principi basilari dell'informazione, e l'elaborazione di una metodologia teoretica, informazionale e computazionale applicabile ai problemi filosofici.

Luciano Floridi

I problemi dell'informazione secondo Floridi sono 5 e riguardano l'analisi del concetto di informazione e le sue dinamiche, la sua semantica, l'intelligenza, la sua natura e i suoi valori. Attraverso la sua analisi il filosofo conclude che vi è una differenza netta tra intelligenza naturale (IN) e intelligenza artificiale (IA) e che solo la (IN) processa e identifica informazioni, anche se va detto che ci sono dei casi in cui la (IN) processa e identifica anche solo dati come fa la (IA).

L'informazione è vasta e varia e quindi vi sono infiniti modelli, essa inoltre è una cosa naturale che può esserci anche se manca l'informatore che informa o l'informato che viene informato dall'informatore. Per Floridi la filosofia dell'informazione è in continuo mutamento.

Fino al 1996 siamo tutti vissuti in una società in cui Internet non era la tecnologia caratterizzante e il modello "uno molti" o dal centro alla periferia, come veniva definito da Marshall McLuhan, dominava. La storia è piena di successioni temporali che vanno dal sociale al politico, dal naturale al circolare, dalla relazione con la religione alla relazione con la scienza. La storia è il succedersi di cronografie che per il sol fatto di dipendere da successioni temporali, accumulano e trasmettono informazioni per il futuro. Senza tali sistemi di trasmissione non vi sarebbe storia, cosicché storia è sinonimo di età dell'informazione. Dato che la preistoria è considerata "l'età dell'evoluzione umana che precede la comparsa di qualsiasi documento scritto", si potrebbe sostenere che l'umanità abbia vissuto in diversi tipi di società dell'informazione, dall'invenzione dell'aratro all'invenzione della scrittura. Quest'ultima in particolare, secondo alcuni studiosi ha segnato una vera e propria rivoluzione dell'informazione, ma una delle spiegazioni più accreditate del termine riguarda un contesto recente, dove il benessere e il progresso umano hanno cominciato a dipendere dalla gestione efficace ed efficiente del ciclo di vita dell'informazione.

Il ciclo di vita dell'informazione include delle fasi: occorrenza, trasmissione, processo, gestione e uso. Immaginiamo che questo ciclo sia come un vero e proprio indicatore del tempo, come può esserlo un orologio, e indichiamone un arco temporale: dall'età del bronzo alla fine del secondo millennio d.C. L'arco temporale rappresenta la quantità di tempo che l'evoluzione dei cicli di vita dell'informazione ha richiesto per generare la società dell'informazione. Questo ha permesso un'evoluzione delle tecnologie dell'informazione e della comunicazione (ICT) da sistemi di registrazione a sistemi di comunicazione, in particolare dopo Gutenberg e l'invenzione della stampa, e quindi sistemi per produrre informazioni, in particolare dopo Turing e la diffusione dei computer. Grazie a tale evoluzione, la società dipende fortemente da beni intangibili basati sull'informazione, da settori orientati ad essa (istruzione) a servizi intensificati grazie ad essa (commercio).

Nel 2003 una ricerca ha stimato che l'umanità abbia accumulato, nel corso della sua storia fino alla commercializzazione del computer, circa 12 exabyte (1018 byte). Il termine Exaflood è un neologismo coniato per qualificare questo tsunami di dati che da un lato ha portato alla "democratizzazione" dell'informazione, grazie all'immagazzinamento su supporti magnetici, dall'altro ha portato alla creazione di un ciclo che si autoalimenta, dato che i computer sono le principali fonti di produzione di questi dati.

Le ICT stanno modificando un mondo con un'ampiezza tale da aver creato concrete e significative opportunità di enormi benefici, ma portano con sé anche rischi significativi, generando questioni riguardanti la natura della realtà e della sua conoscenza, la responsabilità nei confronti delle generazioni future, l'organizzazione della società stessa. La società dell'informazione è come un albero che ha sviluppato i suoi rami in modo molto più ampio, rapido e caotico, di quanto non abbia fatto con le sue radici concettuali, etiche e culturali. La nostra capacità di comprendere le tecnologie dell'informazione e della comunicazione è scarsa come nell'analogia dell'albero dalle radici deboli, vi è il rischio che una crescita della superficie pregiudichi la fondazione fragile alla base. Da ciò nasce l'esigenza, da parte di qualunque avanzata società dell'informazione, di dotarsi di una valida filosofia dell'informazione, al fine di estendere e rafforzare la nostra comprensione. Per la stessa comprensione del mondo e delle interazioni con esso, nonché della comprensione di noi stessi e della nostra identità, le ICT e l'informatica hanno dato luogo a una quarta rivoluzione. Le prime tre vengono definite le "rivoluzioni scientifiche":

  • Copernico e la cosmologia eliocentrica: la Terra e indirettamente l'umanità non è più immobile al centro dell'universo;
  • Darwin e la teoria sulla origine delle specie: l'umanità non è separata e diversa dal regno animale, ma ogni forma di vita si è evoluta nel tempo per mezzo di progenitori comuni. In tal modo l'uomo non è più al centro del regno biologico;
  • Freud e la teoria della psicoanalisi: la mente umana non è più considerata isolata e interamente trasparente a sé stessa, ma è anche inconscia e soggetta al meccanismo di difesa della repressione.

La scienza ha fondamentalmente due modi di modificare la nostra comprensione: uno estroverso, riguardante il mondo, l'altro introverso, riguardante noi stessi. Le rivoluzioni scientifiche hanno avuto un forte impatto su entrambi i punti di vista: nel modificare la comprensione del mondo esterno, hanno mutato anche la concezione di chi siamo.

Se Copernico, Darwin e Freud sono gli esponenti delle prime tre, sicuramente uno scienziato rappresentativo della quarta rivoluzione è Alan Turing. L'umanità oggi non è un insieme di entità isolate quanto piuttosto si preferisce parlare di inforg, organismi informazionali interconnessi con agenti biologici e artefatti ingegnerizzati, in un ambiente globale chiamato per convenzione: infosfera. Quest'ultima, essendo l'insieme dei processi, servizi ed entità informazionali, non va confusa con la visione tipica della fantascienza di un'umanità di cyborg. Uno scenario simile è si realizzabile, ma tutt'ora troppo lontano sia su un profilo tecnico sia su un profilo etico.

Ciò che la quarta rivoluzione ha portato alla luce è la natura informazionale degli agenti umani, cioè la rappresentazione, sotto molti aspetti simile a quella di alter ego espressa da R. L. Stevenson nella sua opera, nella quale l'individuo necessita di un richiamo alla distinzione tra applicazioni che migliorano e applicazioni che aumentano.

Le prime, come pacemaker, occhiali o arti artificiali, sono applicazioni interfacciate interamente con la componente ergonomica. Le seconde, come l'habitat o la stessa realtà, sono applicazioni interfacciate con la componente comunicativa tra diversi mondi possibili. Ad esempio il mondo esterno, che condiziona l'agente che ne è parte, e il mondo caldo e scuro, pieno di acqua e sapone della lavastoviglie. Le ICT non sono applicazioni né che migliorano né che aumentano, ma apportano trasformazioni radicali, cioè "costruiscono". In un sistema simile, si preferisce utilizzare il neologismo "riontologizzare", per far riferimento al fatto che tale forma non si limita soltanto a costruire, ma soprattutto ad apportare una trasformazione radicale della sua natura intrinseca. In altre parole le ICT non stanno ricostruendo il mondo ma lo stanno riontologizzando.

La quarta rivoluzione è proprio questo, una dislocazione ed una ridefinizione dell'essenza della nostra natura e del ruolo che rivestiamo dell'universo. Se prima la nostra prospettiva sulla natura ultima della realtà, vale a dire la nostra metafisica, era materialistica, cioè basata su processi e oggetti fisici, ora diviene informazionale. Un simile passaggio sta a significare che gli oggetti e i processi perdono la propria connotazione fisica e sono tipizzati, cioè l'esemplare di un oggetto(copia di un file musicale) conta quanto il suo tipo (il tuo file musicale, di cui la mia copia è un esemplare). Porre minore enfasi sulla natura fisica di un oggetto implica che il diritto di uso sia giudicabile almeno tanto importante quanto quello di proprietà.

"L'essere è l'essere interagibile", definendo con questa espressione il passaggio, da un essere immutabile o un essere potenzialmente oggetto di percezione, a un essere potenzialmente soggetto a interazione, anche se indiretta. In tal senso, in tempi recenti, molti paesi hanno seguito la pratica degli Stati Uniti di riconoscere, come bene (digitale), il software. Data la premessa, non dovrebbe essere troppo difficile accettare che anche beni virtuali possano rappresentare investimenti importanti. In Cina, ad esempio sono sempre più famosi i cosiddetti negozi di beni virtuali, dove in stanze claustrofobiche, i lavoratori sono costretti a racimolare e creare beni su World of Warcraft o altri MMORPG, per poi essere venduti ad altri giocatori.

Quando un giocatore si iscrive ad un MMORPG, cioè ad un gioco di ruolo multigiocatore di massa, al momento della registrazione si accettano anche gli EULA, cioè i contratti di licenza di un software commerciale. Questi non permettono la vendita di tali beni virtuali, come se la proprietà di un documento digitale creato per mezzo di un software non ci appartenga. Questo "mercato nero" dei beni virtuali è in crescente aumento, per questo motivo società come la SONY, tramite la licenza SOE (Sony Online Entertainment), hanno deciso di creare un servizio ufficiale di aste che fornisca ai giocatori metodi legali e sicuri di acquisto e vendita di tali beni. Una volta che la proprietà dei beni virtuali sia stata legalizzata, il passo successivo sarà l'emergere di controversie giudiziarie relative a tale proprietà. Un esempio è quanto accaduto in Pennsylvania, dove un avvocato ha patrocinato una causa contro l'editore di Second Life, un simulatore di vita virtuale, per avergli confiscato un valore i 10 mila dollari di terra virtuale.

Una delle questioni più sottili per la salvaguardia dei beni virtuali è proprio la stipulazione di assicurazioni che garantiscano la protezione dei beni. World of Wacraft ne è un chiaro esempio, essendo il più grande MMORPG con oltre 12 milioni di giocatori sottoscritti ad un abbonamento mensile. I suoi utenti, che hanno speso milioni e milioni di ore per costruire, arricchire e perfezionare le loro proprietà digitali, saranno ben disposti a spendere qualche dollaro per assicurarle. Le ICT stanno creando un mondo nella quale le nuove generazioni trascorreranno la maggior parte del loro tempo; invece di individui concepiti come entità uniche e insostituibili, abbiamo cominciato ad essere prodotti di massa, dal momento che le nostre vetrine di acquisto diventano le nostre "finestre" di acquisto e dato che anche il modo in cui viviamo la realtà si è spostato dalle strade al web, anche la nostra identità personale comincia ad essere erosa. Per questo ci troviamo di fronte ai meccanismi di personalizzazione che i social ci offrono. Usiamo ed esibiamo talmente tante informazioni che ci riguardano che anche l'anonimato diviene impossibile e processi, come questi appena descritti, sono parte di un più profondo slittamento metafisico causato dalla rivoluzione dell'informazione.

L'ubiquità computazionale, di cui si sente parlare oggi, è proprio il sottile distacco che c'è tra il qui analogico e il là digitale. Un distacco così sottile che potremmo considerare nullo, tant'è che diviene impercettibile distinguere i due ambiti. La crescente informatizzazione dell'intero ambiente sociale suggerisce che sarà difficile comprendere come fosse la vita prima dell'era informazionale e, in un futuro prossimo, la differenza tra online e offline scomparirà. L'infosfera sarà in tal modo sincronizzata, delocalizzata e correlata, cessando di essere considerata un modo di fare riferimento allo spazio del informazione per divenire sinonimo di realtà.

Il linguaggio dell'informazione[modifica]

La definizione di informazione, nella sua declinazione generale (DGI), si esplica nella relazione tra dati e contenuto significante, passibile cioè di interpretazione. Un'informazione sussiste se include un certo numero di dati ben formati (ossia espressi secondo una sintassi in accordo con la configurazione scelta) e dotati di significato (conformi alla semantica del sistema di riferimento).

La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.

Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di Donald Mac-CrimmonMacKay "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.

I dati possono essere classificati come analogici (se trasmessi e codificati in una modalità continua) o digitali (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.

Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di informazione ambientale che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.

Il discriminante tra questo tipo di informazione e quella di carattere fattuale sta nel riscontrare in quest'ultima uno stato di cose, una dichiarazione dell'effettiva situazione, e nel suo designarsi come informazione o vera o falsa.[1]

L'informazione matematica[modifica]

Le informazioni sono quantificabili: possono essere codificate, immagazzinate, sommate. Queste e altre proprietà vengono considerate sotto un punto di vista matematico dalla TMC (teoria matematica della conoscenza) ideata da Claude Shannon.

Principalmente, essa si occupa di codificare le informazioni, in modo da evitare il deficit dei dati conosciuto anche con il termine di "incertezza": esso si presenta quando un dispositivo può produrre più simboli che il destinatario non può conoscere prima della loro trasmissione.

Nella codificazione giocano un ruolo importante ridondanza e rumore: la prima riguarda la trasmissione matematica (in bit) di un certo dato, la seconda il carico delle informazioni inviate non volutamente.

L'informazione considerata da Shannon prende anche il nome di "entropia", dal suggerimento di John von Neumann. Essa indica:

  • la quantità di informazione prodotta da un simbolo,
  • il conseguente deficit generato da essa,
  • il valore informativo di essa.

Le informazioni però, oltre ad avere un valore matematico, presentano anche un valore semantico che non viene trattato dalla TMC: questo ambito riguarda il campo dell'informazione semantica.[2]

L'informazione semantica[modifica]

Prendendo in considerazione il significato semantico, è giusto presentare la differenza fra contenuto semantico fattuale e informazione semantica fattuale. Il primo può essere costituito di dati non riducibili al vero mentre il secondo è composto rigorosamente da verità: è importante perciò che l'informazione semantica fattuale sia vera laddove il contenuto può essere falso.

Il contenuto informativo prende in considerazione il significato, nonché le relazioni che un'informazione può istituire. Nonostante ciò - come precedentemente detto - non sia ambito della TMC, esso e l'informazione semantica hanno in comune un aspetto: il PRI (principio di relazione inversa). Esso si occupa delle relazioni inverse che possono riguardare le probabilità. Infatti l'informazione semantica traduce come tale la relazione tra informazione e probabilità, la quale induce allo scandalo delle premesse e al paradosso di Bar-Hillel-Carnap.

Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto ad un fatto, meno informazioni giuste si hanno su di esso.

Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0 indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno all'ambito semantico: infatti un'informazione è definita semantica quando fa riferimento al vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.[3]

L'informazione fisica[modifica]

Il processo informativo porta con sè un forte dispendio energetico ed è soggetto alle leggi fisiche della termodinamica. Il processo informativo quindi è causa di entropia. La domanda sulla quale occorre interrogarci è : Sarebbe possibile evitare questo dispendio energetico, anche solo teoricamente? Maxwell, studioso, mediante il "demone di Maxwell" ci fornisce una sua risposta. Ci invita a fare un piccolo esperimento mentale, "la teoria del calore": immaginiamo un omino (poi nominato demone di Maxwell) il quale si trova tra due caselle. Questo omino è capace, socchiudendo la porticina che divide le due caselle, di spostare le molecole più lente da una parte e quelle più veloci dall'altra. Questo processo tuttavia, attraverso l'elaborazione dei dati, il calcolo del momento in cui aprire la porticina, la localizzazione delle molecole, causa entropia, dispendio energetico. L'informatico Bennet, inoltre, esorcizza il demone: la cancellazione della memoria, la quale richiede comunque energia, è il prezzo irreversibile da pagare da parte del demone di Maxwell. Questa conclusione però non è legge, infatti uno scettico potrebbe ancora immaginare un demone nel quale la memoria non venisse cancellata, in continua espansione. Si arriverebbe quindi ad un pareggio. Se si trattasse di Computer Quantistici? Si potrebbe vedere vinta l'entropia? La risposta è no, ma elaboriamola. I computer quantistici, almeno teoricamente, potrebbero avere la possibilità di sovrapporre stati differenti, chiamati QUBIT. In questo caso si avrebbe un dispendio di tempo molto minore e si potrebbe presentare un nuovo sistema informativo, capace di rendere semplici calcoli molto complessi. Purtroppo i problemi di costruzione potrebbero rivelarsi insormontabili. Secondo alcuni studiosi si arriverebbe alla realizzazione della realtà come ente costituito da Bit. Questa teoria può sposarsi con la Metafisica dell'informazione, per la quale l'universo viene visto come un grande computer capace di produrre Bit. Questo da un lato non può ritenersi veritiero perché il solo universo non basterebbe e dall'altro perché si ricadrebbe nel "demone di Laplace" e il suo determinismo, superato a partire dal diciannovesimo secolo con teorie informative, che durano tutt'oggi (basti pensare a Wiener e la sua metafisica) meno deterministiche e basate sul principio di incertezza.

L'informazione biologica[modifica]

L'informazione biologica può assumere svariati significati a seconda che si riferisca al soggetto e al suo codice genetico, al rapporto di elaborazione dati del soggetto rispetto all'esterno o alla produzione di informazione che, mediante la comunicazione, passa dal soggetto in questione ad altri. Qui ci occuperemo semplicemente dell'informazione biologica in relazione all'organismo e dell'informazione neurale (l'organismo in quanto cervello). Innanzitutto occorre distinguere l'informazione biologica fisica, che fornisce informazioni come realtà, istruttiva, che fornisce informazioni per la realtà e semantica, che fonisce informazioni sulla realtà. E' possibile poi ritrovare due diversi aggettivi per l'informazione biologica o genetica: attributivo e predicativo. Esempio calzante quello di Luciano Floridi: un'informazione attributiva è quella medica, di per sé non curativa; un'informazione predicativa è quella digitale, in quanto è tale poiché digitale. Che tipologia di informazione è quella biologica o genetica? I geni, protagonisti del codice genetico sono istruzioni e le istruzioni sono informazioni predicative che insieme a elementi indispensabili dell'ambiente circostante controllano e guidano lo sviluppo degli organismi. Dunque in questo senso, predicativo e procedurale, possiamo riassumere la tipologia dell'informazione biologica o genetica. Quando si tratta invece del rapporto fra cervello e mondo esterno occorre partire dal concetto di sistema nervoso: una rete che gestisce informazioni e che produce da azioni reazioni a vantaggio dell'organismo che ne è soggetto. I protagonisti di questa rete sono i neuroni e le cellule gliali. I neuroni sono molti ma è possibile schematizzarli in "neuroni sensori","neuroni motori" e "interneuroni", collocati tra i primi due tipi di neuroni. La "sinapsi" è l'incontro fra due neuroni dove è scambiato il segnale elettrochimico. Questa architettura di rete prevede un sistema nervoso centrale e un sistema nervoso periferico, interfaccia tra il corpo e il mondo esterno. Il centro di questa architettura è certamente il cervello, nel quale sono presenti 100 miliardi di neuroni. Dilemma informatico, ancora oggi, è il processo che arriva all'informazione semantica di alto livello: Luciano Floridi fa l'esempio della luce rossa lampeggiante e la nostra comprensione della batteria che si sta scaricando. Questo processo non può essere ancora interamente spiegato e rappresenta la meraviglia dei percorsi scientifici, sui quali è necessario ancora lavorare.

L'informazione economica[modifica]

L'etica dell'informazione[modifica]

Nell'articolo "Information Realism"[4] Floridi argomenta in modo rigoroso che, a un determinato livello di astrazione, tutti gli oggetti nell'universo sono strutture di dati:

Il risultato è il realismo informazionale, l'idea per cui il mondo è la totalità degli oggetti informazionali che interagiscono in modo dinamico gli uni con gli altri [5]

L'universo, inoltre, per Floridi è fondamentalmente buono, di una bontà che è indipendente dal giudizio morale umano. Questo è il principale assunto della "macroetica" che Floridi sta tentando di costruire e che egli stesso ha definito Etica dell'Informazione (Information Ethics). Simile, secondo il suo stesso creatore, ad altre etiche, come quella della virtù o al deontologismo, l' Etica dell'Informazione si distingue, però, perché non intende sostituirle, quanto piuttosto essere loro complementare, arricchendole di ulteriori considerazioni. Si delinea come una teoria ontocentrica orientata all'oggetto[6], in cui l'oggetto (il paziente) non è soltanto l' essere umano, ma l' essere - vale a dire l'esistenza e il fiorire di tutti gli enti e del loro ambiente globale - e in cui la sofferenza, portata ad un livello di astrazione ancora più alto, diventa l' entropia, cioè ogni genere di distruzione o corruzione degli oggetti informazionali, ogni forma di impoverimento dell'essere. Ci sono quattro leggi morali di base:

1) Non si deve generare entropia nell'infosfera (legge negativa)

2) Si deve prevenire l'entropia nell'infosfera

3) Si deve rimuovere l'entropia dall'infosfera

4) Il benessere informativo deve essere promosso, estendendo (quantità informativa), migliorando (qualità informativa) e arricchendo (varietà informativa) l'infosfera [7]

L'approvazione o la disapprovazione delle decisioni e delle azioni dell'agente dovrebbero essere fondate sul modo in cui questi influenza il benessere dell'infosfera, in cui ogni ente informazionale è riconosciuto come centro di talune pretese etiche basilari e, dunque, il dovere di qualsiasi agente morale dovrebbe essere valutato nei termini del contributo apportato allo sviluppo dell'infosfera. Il male, nell'Etica dell'Informazione, viene visto con uno sguardo non-sostanzialista e deflazionista riguardo alla sua esistenza. Le azioni intese come messaggi e stati degli oggetti non hanno uno status ontologico inferiore a quello degli oggetti in quanto tali. Il male esiste non in termini assoluti, per se, ma in termini di azioni che danneggiano e di oggetti danneggiati. [8] Alla classica distinzione, poi, tra male naturale e male morale, la teoria di Floridi aggiunge e da conto anche del concetto di male artificiale, cioè quel tipo di male prodotto da un agente artificiale autonomo o eteronomo [9], un tipo di male che, nonostante le critiche, non è riducibile al male naturale.

Ma come si qualifica un agente? Floridi e il suo collega Jeff Sanders hanno sviluppato una caratterizzazione che include tre criteri che un ente deve soddisfare per essere un agente:

1) Interattività: l'agente e il suo ambiente possono agire l'uno nei confronti dell'altro.

2) Autonomia: l'agente è in grado di modificare il proprio stato indipendentemente dalle sue interazioni con l'ambiente. Un agente, pertanto, deve avere almeno due stati ed essere in qualche misura "sganciato" dal suo ambiente.

3) Adattabilità: le interazioni dell'agente con l'ambiente possono modificare le regole di transizione in forza delle quali l'agente muta stato; vale a dire che la capacità dell'agente di modificare i propri stati può evolvere grazie alle passate interazioni (nel caso di uomini o animali, parliamo della capacità di 'apprendere dalle esperienze'). [10]

Note[modifica]

  1. "Luciano Floridi, La rivoluzione dell'informazione, Codice edizioni, Torino, 2010, pp. 23-44
  2. L. Floridi, La rivoluzione dell'informazione cit., pp. 45-58.
  3. L. Floridi, La rivoluzione dell'informazione cit., pp. 59-73.
  4. Cfr. L. FLORIDI, "Information Realism", in Computer and Philosophy 2003: Selected Papers from the Computer and Philosophy Conference CAP2003, Australian Computer Society, Conferences in Research and Practice Information Technology, a cura di J. Weckert e Y. Al-Saggaf, pp. 7-12, 2004.
  5. L. FLORIDI, "Information Realism", cit.
  6. Cfr. L. FLORIDI, Infosfera, Etica e filosofia nell'età dell'informazione, Giappichelli Editore, Torino 2009, p. 35
  7. Ibid., p. 41
  8. Ibid., cap. 2
  9. Ibid., p. 67
  10. Ibid., cap. 4


L'etica informatica

Indice del libro

La tecnologia informatica ha provocato una rivoluzione non solo tecnologica ma anche sociale ed etica, per cui è stato necessario fondare un'Etica Informatica, in cui si delineano i tradizionali problemi etici riformulati a causa dell'impatto dell'Information Technology).

I teorici dell'Etica informatica[modifica]

  • Norbert Wiener: fondatore della cibernetica oltre che autore di saggi sull'aspetto etico dell'information technology.
  • Donn Parker (SRI International, California): dopo aver esaminato gli usi "illeciti" e "immorali" da parte degli informatici di professione, rielaborò nel 1968 l'articolo Rules of Ethics in Information Processing dirigendo il primo codice di condotta professionale per l'Association for Computing Machinery.
  • Joseph Weizenbaum: informatico del Massachusetts Institute of Technology, è il creatore di ELIZA, un software che simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum approfondì poi gli aspetti filosofici legati alla creazione dell'Intelligenza artificiale scrivendo Computer Power and Human Reason, nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale possano sostituire l'uomo.
  • Walter Maner: solo alla metà degli anni '70 alla Old Dominion University viene coniato il termine "etica informatica" per indicare "quel campo dell'etica professionale applicata che riguarda i problemi etici aggravati, trasformati o creati dall'IT" (si fa riferimento tuttavia a tradizioni etiche come quella utilitarista o razionalista. Alla fine degli anni '70 creò un certo interesse per la nuova disciplina inaugurata organizzando numerosi corsi, seminari e conferenze oltre a pubblicare con la collaborazione di Terrell Ward Bynum lo Starter Kit In Computer Ethic, contenente dispense e consigli pedagogici per gli addetti ai lavori. Conteneva inoltre alcune ragioni fondamentali per integrare un corso di etica informatica, un elenco di obiettivi oltre a vaste discussioni su temi come: Privacy, reati informatici fino a trattare temi più complessi come codici professionali o dipendenza informatica.
  • James Moor: negli anni '80, dopo la progressiva diffusione delle problematiche relative al campo etico, si ebbe un'esplosione dell'attività dell'etica informatica. Esempi sono What is Computer Etics?, un articolo di James Moor pubblicato nel 1985 sulla rivista "Metaphilosophy", nel quale l'autore definisce l'etica informatica come disciplina che ha a che fare con il "vuoto politico" (come utilizzare al meglio le nuove tecnologie) e la "confusione concettuale". Per Moor uno dei compiti centrali dell'etica informatica è quello di formulare politiche che possano dirigere la nostra azione, in quanto la tecnologia informatica è logicamente malleabile. In questa ottica la rivoluzione informatica si distingue in due momenti: l'introduzione della tecnologia (sviluppo e raffinazione) e la penetrazione della tecnologia (integrazione nelle principali attività umane, arrivando a modificare concetti come il denaro, l'istruzione, il lavoro...).
  • Deborah Johnson: con la pubblicazione di Computer Ethics, il primo manuale della disciplina, definisce l'etica informatica con un approccio simile a Maner (filosofia applicata), tuttavia non crede che i computer abbiano creato nuovi problemi, ma solo una rielaborazione di questioni già note.
  • Terrell Bynum: nonostante la definizione di Moor sia la più ampia, Bynum propone un approccio che include etica applicata e sociologia informatica coinvolgendone le teorie e concetti: "L'etica informatica identifica e analizza l'impatto della tecnologia informatica sui valori umani e sociali come la salute, la proprietà, il lavoro, le opportunità, la libertà, la democrazia, la conoscenza, ecc.". Progettò inoltre con Maner la prima conferenza internazionale sull'etica informatica, tenutasi nel 1991, che vide convenire partecipanti da 7 paesi e 32 stati degli USA.
  • Simon Rogerson: negli anni '90 ci fu una diffusione di interesse per l'etica informatica soprattutto in Europa e Australia, soprattutto grazie a pionieri come Rogerson, fondatore del Centre for Computing and Social Responsibility (CCSR) inaugurando insieme a Terrell Bynum una serie di conferenze internazionali (ETHICOMP). Lo stesso Rogerson ha promosso l'esigenza di una "Seconda Generazione" degli studi sull'etica informatica, fondata sulla costruzione/elaborazione dei fondamenti concettuali e sullo sviluppo dei contesti teorici nei quali possono emergere azioni pratiche, minimizzando gli effetti imprevisti dell'IT.
  • Donald Gotterbarn: autore dell'ultima stesura del codice di etica e condotta professionale all'ACM per stabilire gli standard di licenza per i progettisti software, ha definito l'etica informatica come una branca dell'etica professionale per la sua applicazione in codici di condotta per gli addetti ai lavori.

I temi dell'etica informatica[modifica]

Le principali questioni Sociali ed Etiche che riguardano i luoghi di lavoro sono :

  • Sicurezza Logica : Suddivisa in 5 aspetti:
  1. Privacy e riservatezza dei dati,
  2. Integrità (Garanzia che i dati ne programmi siano modificati senza adeguata autorizzazzione)
  3. Prestazione inalterata
  4. Coerenza
  5. Controllo dell' accesso alle risorse
  • Proprietà del Software:Un'altra questione sociale relativa a opinioni comuni sulla totale libertà dell'Informazione o sulla commercializzazione di esse ( per sostenere i programmatori e incentivare la produzione di software di qualità) sottoforma di:
  1. Copyright
  2. Segreti di fabbrica
  3. Brevetti
  • Responsabilità professionale:I professionisti responsabili,venendosi a trovare continuamente in una serie di rapporti professionali devono essere a conoscenza dei possibili conflitti di interesse ed evitarli.Negli Stati Uniti organizzazioni professionali come "ACM" e "IEEE" hanno stabilito dei codici etici ,delle direttive sui curricola e requisiti di accreditamento oltre a includere nel codice imperativi morali come :"evitare di danneggiare gli altri" o "essere degni di fiducia".

Computer Ethics[modifica]

La diffusione così capillare del computer nella vita e nelle attività umane non poteva non chiamare in causa l'etica.

Il primo scienziato a riflettere sugli aspetti etici e sociali legati ai computer è stato Norbert Wiener, padre della cibernetica. La prima volta che fu usato il termine computer Ethics fu nel 1978, quando Walter Maner la definì come il campo di indagine che affronta i problemi etici creati, trasformati o aggravati dall'information techonology. Si arriva cosi al 1985, considerato l'anno di fondazione della Computer Ethics intesa come disciplia.

Cosa sia e cosa comprenda la Computer Ethics (l'etica dell'informazione), non è scontato. La mappatura dei temi che possono essere compresi sotto questa etichetta sono svariati e spaziano dalla Governance di Internet al tele-lavoro, dal digital divide ai temi della privacy e della criminalità informatica.

Il "principio unificante" della legge che governa l'uso e la diffusione delle tecnologie dell'informazione e che permette anche di inquadrare le complesse tematiche dell'etica delle tecnologie dell'informazione, è il seguente: "L'importanza dell'informazione in un'organizzazione, nell'economia e nella stessa società, è direttamente proporzionale al livello di complessità dei processi da conoscere e gestire e, inversamente proporzionale al livello di fiducia tra agenti coinvolti in tali processi".

Potremmo chiamare il primo tipo di complessità "complessità tecnica" e il secondo "complessità politica". Potremmo dire che le tecnologie dell'informazione nel momento stesso in cui forniscono soluzioni sempre più performanti nel "dominare" la complessità tecnica e quella politica, suscitano sfide e problemi etico-sociali sempre più complessi.

Per avere un quadro esaustivo degli aspetti dell'informazione trattati dalla Computer Etics, si può fare riferimento alla mappatura proposta da Norberto Patrignani, che li colloca su diversi livelli, da quelli più fisici fino alla noosfera, la sfera delle idee.[1] I livelli verticali rappresentano le diverse aree della realtà potenzialmente influenzate dai computer (dal pianeta al mondo delle idee come detto prima); i domini orizzontali, invece, rappresentati da ellissi con dimensioni approssimativamente proporzionali alla loro importanza, costituiscono una panoramica delle principali aree di criticità o di attenzione della Computer Ethics.

Le questioni identificate con la computer Ethics possono essere affrontate a livello individuale, professionale e sociale. Un ruolo speciale spetta ai computer professional, nella definizione dei loro codici etici di condotta e nel fornire, al pubblico in generale ed ai decisori pubblici, tutte le informazioni sulle potenzialità, sui rischi e limiti delle tecnologie dell'informazione. In italia, ad esempio, diverse università hanno introdotto corsi di Computer Ethics, il che contribuirà alla formazione di figure esperte e capaci valutare con attenzionele implicazioni sociali ed etiche della tecnologia dell'informazione.

I comandamenti dell'etica del computer[modifica]

L'etica del computer è un ramo della filosofia che tratta di come i professionisti informatici debbano operare scelte che attengono alla condotta sociale e professionale. I fondamenti concettuali dell'etica del computer sono oggetto di studio della morale dell'informazione, una branca dell'etica filosofica istituita da Luciano Floridi. Sin dagli anni '90 l'argomento ha iniziato ad essere integrato in programmi di sviluppo professionale e in ambienti accademici. Questo non è stato altro che conseguenza del fatto che attraverso l'avvento di qualunque tecnologia, viene modificata implicitamente la società. Inoltre siamo tutti consci della grande potenza di attività che ci permette la rete; essa è portatrice di valori come la comunicabilità, la trasparenza e l'interattività, e ci permette di fare (almeno virtualmente) tutto quello che vogliamo: possiamo fare qualunque cosa ma non tutto quello che facciamo è eticamente corretto. Dobbiamo porci dei limiti e delle regole anche se abbiamo la possibilità di andare oltre.

I dieci comandamenti dell'etica del computer furono creati nel 1992 dal Computer Ethics Institute. I comandamenti furono introdotti nel documento In Pursuit of a "Ten Commandments" for Computer Ethics di Ramon C. Barquin come un mezzo per creare una serie di norme per guidare e istruire la gente ad un uso etico del computer.[2]

  1. Non utilizzare un computer per danneggiare altre persone.
  2. Non interferire con il lavoro al computer degli altri.
  3. Non curiosare nei file degli altri.
  4. Non utilizzare un computer per rubare.
  5. Non utilizzare un computer per ingannare.
  6. Non utilizzare o copiare software che non hai pagato.
  7. Non utilizzare le risorse dei computer di altri senza autorizzazione.
  8. Non appropriarti della produzione intellettuale degli altri.
  9. Pensa alle conseguenze sociali del programma che scrivi.
  10. Usa il computer in modo da mostrare considerazione e rispetto.

Computer Ethics e software libero[modifica]

Richard Stallman con la sua battaglia, traccia una definitiva cesura tra il software libero ed il software proprietario, è opportuno quindi analizzare in questa sede le peculiari differenze tra le due visioni del mondo dell’informatica per avere un quadro generale più chiaro. Il software proprietario rappresenta una modalità di diffusione e gestione del software chiusa, infatti per procedere ad una eventuale ispezione, modifica o adattamento richiede l'intervento di chi ha la proprietà del codice sorgente. Il software proprietario può essere soggetto a ritiro e non essere più fruibile in futuro, ciò realizza una vera e propria dipendenza dal fornitore che di solito provvede a brevettare il sistema di dati che lancia sul mercato. Il software libero al contrario può essere soggetto ad ispezione, modificato, riusato e diffuso. Può essere modificato e migliorato da chiunque sappia farlo, anche esterno alla comunità degli utenti. Il software libero è dunque una risorsa comune i dati sono accessibili in un formato standard, infatti rende di pubblico dominio il codice sorgente consentendo la modifica ed il riuso. Dunque è sicuramente rilevabile una differenza etica tra le due visioni del mondo informatico, considerato che il software libero colma le lacune conseguenti al Digital Divide promuovendo possibili scenari di sviluppo sociale, attraverso l’adattabilità ai contesti locali e culturali, inoltre il trasferimento delle conoscenze tecnologiche tramite la descrizione del codice sorgente, stimola la cooperazione con la comunità internazionale di utenti e programmatori. Pertanto il software libero incrementa la crescita economica, poiché la modifica autonoma del codice sorgente può favorire la nascita di una industria ICT che conosce le esigenze locali, con un abbattimento considerevole dei costi di hardware e software.

Etica e responsabilità nell'era del postumano[modifica]

Il crescente e progressivo sviluppo delle tecnologie consente all'uomo di oggi di modificare se stesso volontariamente sia per scopi terapeutici che migliorativi. In questa nuova prospettiva si colloca il postumanesimo, la cui etica apre a scenari totalmente inediti. Il postumanesimo ha come obiettivo il trascendimento dei limiti biologici umani, attingendo a piene mani dalla rivoluzione GNR (Genetica, Nanotecnologia, Robotica) in corso per migliorare le capacità fisiche e cognitive individuali auspicando una prossima era postumana.

A ciò si aggiunge un cambio di paradigma da un punto di vista più strettamente teorico. I sostenitori del postumano, infatti, mettono in discussione alcuni punti fermi della tradizione religiosa come la sacralità della natura, (che si identifica con la sacralità della vita) e sostengono l'abbattimento della dicotomia naturale - artificiale, categorie ormai obsolete poiché il naturale sfocia nell'artificiale senza soluzione di continuità, come suo effetto consequenziale. Lo stesso concetto di identità è profondamente cambiato: l'Homo sapiens lascia spazio all'Homo technologicus, un uomo che costruisce degli strumenti che retroagiscono su egli stesso cambiandolo in profondità. L'uomo è un essere in continuo divenire (a differenza di quanto sostiene il fissismo) che oggi più che nei secoli scorsi, modifica se stesso e il proprio corpo in maniera totalmente volontaria e consapevole. Gli interventi non si limitano alla sfera individuale ma riguardano tutta la specie umana se comportano una manipolazione del genoma. L'uomo, in questo modo, prende in mano le redini della propria evoluzione che d'ora in avanti non sarà più soltanto biologica ma biotecnologica.

La prospettiva post-umana individuale è interessata anche al campo della ciborganica e della robotica. Il cyborg è una creatura formata dall'inserimento di protesi artificiali in un organismo animale : occhi , orecchie e pelle artificiale sono solo alcuni dei tanti esempi possibili. Le protesi non hanno unicamente una funzione terapeutica (in caso di menomazioni etc.) ma anche quella di estendere e potenziare capacità tipicamente umane come il movimento, la sensibilità, la cognizione. Alcuni dispositivi in particolare, quelli che collegano il cervello al computer, sono ancora in via di sviluppo. Questi ultimi puntano alla cura di alcune malattie neuro-degenerative, dunque apportando un notevole beneficio terapeutico, ma pongono questioni etiche inedite come quella sull'identità e sul confine tra uomo e macchina. Se in un cyborg si parte da una base fondamentalmente organica e successivamente si sostituiscono alcuni componenti con i corrispondenti artificiali, nei robot la base è completamente artificiale. A differenza dei cyborg, nei quali le componenti artificiali sono dei correttivi o dei potenziamenti della natura, nei robot si punta all'imitazione di funzioni tipicamente umane come quelle percettive, emotive, intellettuali, relative all'apprendimento etc.

Gli esponenti del postumano riflettono anche sulle conseguenze sociali della futura società. Le modificazioni genetiche e somatiche dovrebbero riguardare in primo luogo una piccola parte di individui, quelli più ricchi, capaci di far fronte a spese particolarmente esose. Successivamente, con il decrescere del prezzo degli interventi, tutti avranno la possibilità di migliorarsi e potenziarsi. A causa di ciò, è alto il rischio di una nuova eugenetica per combattere le malattie ereditarie che potrebbe diventare una pratica piuttosto comune.

Etica, diritto e decentramento nel web[modifica]

La logica che domina la rete è definita logica del decentramento. Essa influenza la produzione di informazioni, consentendo agli utenti/agenti, tramite un modello a partecipazione orizzontale[3], di contribuire alla realizzazione di un'opera comune. Tale logica è, almeno in parte, determinata dalla particolare topologia della rete. L'informazione si presenta come presupposto fondamentale nella capacità di rappresentarsi il mondo, nell'assumere certe decisioni e tenere determinati comportamenti. Si rendono allora necessarie delle forme di controllo che, temperando la logica del decentramento, garantiscano l'attendibilità dell'informazione e tutelino gli utenti, che su tali informazioni indirizzeranno le proprie azioni. In tale prospettiva si muovono l'etica del computer, che tenta di proporre soluzioni ai problemi determinati dallo sviluppo della tecnica, elaborando ed adottando dei codici etici di comportamento, ed il diritto, che tenta di tradurre tali proposte in norme.

Il giurista Lawrence Lessig, partendo da una riflessione circa il copyright, giunge a definire il rapporto tra tecnica dell'informazione e diritto nei termini di un conflitto tra forme di potere, tra un'istanza che tende a distribuire potere (caratterizzata da una struttura orizzontale priva di autorità regolatrici) ed una che tende a concentrarlo (caratterizzata da una struttura verticale in cui ogni livello è regolato da quello superiore). Da questo punto di vista, considerando gli effetti che la distribuzione di potere produce in termini di creatività e progresso, Lessig rileva la necessità di un contemperamento delle due istanze, definito dal grado di libertà da concedere ai soggetti perché non risulti ridotta la loro capacità contributiva e creativa ed allo stesso tempo perché la logica del decentramento non produca esiti anarchici, uno spazio privo di ogni controllo o tutela. Una ulteriore forma di controllo sulla rilevanza ed attendibilità delle informazioni in rete è inscritta nella stessa logica della rete. Pur in mancanza di un' autorità o di un centro di controllo, gli utenti, attraverso la propria attività di raccolta e condivisione, possono determinare il grado di attendibilità delle informazioni.

Questo tipo di controllo è collegabile alla nozione, sviluppata da Luciano Floridi, di ontic trust[4]. Floridi suggerisce che la società dell'informazione digitale ha bisogno di porre, a proprio fondamento, un patto che costituisca la base necessaria di un impegno reciproco, tra agenti ed utenti, in vista della necessità di risolvere le problematiche definite dall'infittirsi delle relazioni nell'infosfera[5]. Questo patto, definito ontico perché tutela l'esistenza di un'entità informazionale, presenta caratteri tali da poter essere avvicinato alla figura giuridica del trust, per cui un soggetto detiene e gestisce i beni di una persona a vantaggio di altri soggetti. Elemento essenziale di tale patto è la fiducia, l'affidamento reciproco nella capacità di cura, da cui nasce una mutua responsabilità.

Trasparenza e sorveglianza nell'era tecnologica[modifica]

Giovanni Ziccardi, nel suo testo Internet controllo e libertà analizza l'impatto delle nuove tecnologie nella società moderna, districandosi anche tra tematiche come la sorveglianza e la trasparenza. Si parla dei presunti metodi di controllo, adoperati da alcuni organi privati o governativi,che tramite queste nuove tecnologie avrebbero commesso degli illeciti a livello legale,andando a sorvegliare, su scala mondiale,le comunicazioni che avvenivano sulla rete. In questo caso, viene notato un utilizzo distorto di questa nuova tecnologia che, tramite strumenti come i droni o le microspie andrebbe a minare la sicurezza della sfera privata del cittadino, il quale tende a svalutarla tramite la diffusione di dati personali (sulle varie piattaforme dei social network) o dei suoi spostamenti (tramite le modalità GPS presenti sui vari smartphone). L'autore registra infatti la quasi impossibilità di eliminare un dato dalla rete, vista la ormai enorme capacità d'archiviazione.

L'ipotesi che si viene a creare è quindi quella di una società,sempre sotto sorveglianza,ma questo funzione fin quando viene mantenuto il segreto su tali operazioni,nel contesto attuale,soprattutto in vista della nascita di molti siti votati ad attività di leaking (come ad esempio Wikileaks),quindi,risulta sempre più difficile il mantenimento del segreto,dato che basterebbe una semplice chiavetta USB per la diffusione di qualsiasi informazione online. Questo lascia le porte aperte ad un quadro sociale che richiede la massima trasparenza sulle informazioni che potrebbero essere di danno verso la vita degli individui, non importa quanto grandi esse possano essere e le conseguenze che potrebbero scatenare tali rivelazioni. In ultima analisi, Ziccardi propone una rivalutazione di queste nuove tecnologie, le quali dovrebbero diventare accessibili a tutti e garantire la tutela della privacy, con un aiuto anche da parte delle varie istituzioni.

Note[modifica]

  1. Ovviamente, come tutti i modelli, esso rappresenta una semplificazione della complessità del mondo reale.
  2. In pursuit of 'Ten Commandments' for Computer Ethics Archiviato il 6 giugno 2011 in Internet Archive.
  3. Si rimanda al concetto di sussidiarietà digitale, M. Durante, "Il futuro del web: etica, diritto, decentramento", pp. 234-235
  4. M. Greco - G. Paronitti - M. Taddeo - L. Floridi, "Etica Informatica"
  5. L. Floridi definisce l'infosfera "ecosistema semantico, proprio della società dell'informazione, costituito dalla totalità dei documenti, degli agenti e delle loro operazioni".


Teorie filosofiche del digitale

Indice del libro

Nicholas Negroponte: essere digitali[modifica]

Nicholas Negroponte

"Essere digitali" è un libro del professor Negroponte riguardante il confronto generazionale e l'abisso che separa generazioni apparentemente conseguenziali ma totalmente differenti tra di loro a causa dell'avvento del digitale che, nel corso di venti anni circa, ha totalmente modificato gli stili di vita dell'umanità allontanando i punti di vista tra genitori e figli. Il libro è nato, perciò, con lo scopo di rendere noto ciò che è considerato ignoto alle generazioni nate e cresciute senza la presenza di Internet; generazioni che finiranno per imparare da quelle successive. Per esplicare in maniera semplice questo cambiamento, in una delle interviste sostenute, Negroponte parla di bit ed atomi per descrivere la rivoluzione digitale della nostra epoca. Un bit in ambito digitale ha la stessa valenza di un atomo con la differenza che, se un atomo "sottratto" crea un vuoto, per ogni bit "sottratto" ve ne è sempre uno che rimane.

L'avvento del computer si sviluppa verso la fine del 1994, quando i primi mezzi della tecnologia sono finiti nelle case private. La vera svolta, però, è delineata dall'uso e dalla diffusione di Internet nel quotidiano che ha creato un punto di riferimento così grande da poter far crollare ogni altra forma di comunicazione. La velocità con la quale ha sovvertito sia gli scopi per i quali fu creato (Negroponte ci ricorda quelli militari) che il mondo lavorativo e quello sociale, ci mostra la grandezza e l'incontrollabilità della rete. Molti credono che l'avvento di internet e della tecnologia sia un deficit per l'umanità, il professor Negroponte ci fa notare, invece, che oltre ad essere un mondo che può arricchire notevolmente le persone, è anche una prova virtuale del mondo reale che permette anche una corretta educazione attraverso esperienze che, proprio perché virtuali, non nuocciono all'infante. Inoltre, gli approcci e le comunicazioni virtuali portano ad avere nel mondo reale, più fiducia nelle persone e più abilità a socializzare. Insomma, la visione della rete da parte di Negroponte, è del tutto positiva, basti pensare alle parole finali rilasciate nell'intervista: "Vedo la rete come uno strumento di potenziamento e armonizzazione [...] credo che Internet sia cresciuto meglio di qualsiasi altro organismo che io conosca nella storia."

Dall'atomo al bit[modifica]

Alla domanda su cosa significhi "essere digitali" il professor Negroponte risponde che è semplicemente un modo di vivere chiaro a tutti i bambini del mondo ma ignaro agli adulti. Questi ultimi, infatti, dovrebbero imparare dai bambini e comprendere il passaggio dall'atomo al bit, ossia dal mondo materiale al mondo senza confini e globale. Questa differenza generazionale divide il mondo tra i giovani, al corrente del mondo informatico, e gli anziani convinti che, se per tutta la vita hanno potuto fare a meno di questo tipo di conoscenza, non è necessario imparare ora. Questo errore di pensiero porterà le due generazioni ad allontanarsi ma se gli anziani iniziassero ad imparare dai giovani, il divario di conoscenze, potrà essere colmato in circa 4 anni. Il professor Negroponte, quando fondò il MediaLab, fu spinto dall'interesse al modo in cui le persone comunicano con le macchine e al modo in cui il contenuto dell'informazione può influenzare la tecnologia ed il canale informativo. Per quanto riguarda l'ipotesi di burocratizzazione di internet, il suo pensiero è che sia totalmente impossibile; sia per le sue radici, sia per il suo modo di diffusione, sia per l'assenza di un controllo centrale, internet non potrà mai essere fermato o affidato a delle aziende. Se in televisione si vuole interrompere un programma basta rimuovere il presidente e smettere con la trasmissione; per Internet non è così perché è sia trasmittente che ricevente, non ha controlli e supera tutte le frontiere.

Tra i progetti di MediaLab c'è anche quello di dare spazio alle reti televisive che ci forniranno la giusta informazione in quel momento, degli agenti (ossia programmi informatici che vivono nella rete) sceglieranno per noi tra le moltitudini di programmi ciò che stiamo cercando;saranno una sorta di guide. Inoltre, Internet è un grande mezzo di comunicazione e anche di socializzazione, dà la capacità, tramite anche l'anonimato , di spingersi oltre ciò che nella vita reale, per timore, non chiediamo. È anche un ottimo mezzo per trasformare le piccole imprese in aziende multinazionali con un mercato mondiale, anche se contano due o tre addetti. L'unico lato oscuro di Internet, sul quale il professor Negroponte sostiene di dover ancora lavorare molto, nell'ambito della sicurezza e della privacy, bisogna aumentate la protezione della sfera privata. Per quanto riguarda la sua lentezza, essa è dovuta al fatto che è capace di crescere del 10% ogni mese, in alcuni paesi del 10% in una settimana. Il tasso di crescita è fenomenale ed implica una lentezza. Alla domanda se vivere in modo digitale sia un'idea troppo "americana", Negroponte risponde che, ha viaggiato per tutto il mondo, ha messo in funzione computer in zone più remote e ha notato la destrezza con la quale i più giovani ne fanno uso. Il computer, Internet e vivere digitale è qualcosa appartenente alle nuove generazioni ed è talmente fondamentale da poterlo e volerlo esigere come l'aria.

Jaron Lanier: la realtà virtuale e le distorsioni del web[modifica]

Jaron Lanier

Nato a New York il 3 maggio 1960, è un informatico, compositore e saggista statunitense, noto per aver reso popolare l'espressione virtual reality. Scrive per Edge e Discover, e insegna alla UC Berkeley. In una celebre intervista espone la sua concezione di realtà virtuale intesa come strumento di condivisione di nuovi mondi, spiegando che il computer vive nella misura in cui è l'uomo ad attribuirgli delle qualità. Interessante è anche il rapporto tra mondo virtuale e disabili, ma questo resta un argomento abbastanza difficile da trattare in quanto esistono diversi approcci a seconda dei vari tipi di handicap. All'età di soli 20 anni crea la prima società di realtà virtuali, dal nome VPL Research, successivamente acquistata dalla SUN Computer, vendendo in tutto il mondo i primi guanti (data gloves) e apparecchi da mettere in testa (eyephones). Abbandonò poi il progetto a causa di alcuni investitori francesi.

Tu non sei un gadget[modifica]

Uno dei suoi saggi più importanti, Tu non sei un gadget, si propone come un'autocritica sui cambiamenti indotti dalle nuove tecnologie. Lanier analizza tutti gli aspetti di un universo digitale contraddittorio mettendoci in guardia dai mercati finanziari e da siti che troppo spesso privilegiano "l'intelligenza collettiva", mettendo in crisi l'idea di sapere. Per questi motivi definisce Wikipedia come un "maoismo digitale". Le tecnologie sono estensioni del nostro io e il minimo dettaglio di un gadget può alterare la nostra identità. Perciò non dovremmo cercare di rendere il più efficiente possibile la mentalità di branco quanto cercare di introdurre il fenomeno dell'intelligenza individuale, seppure resta difficile esprimere attraverso una formula qualunque cosa sia una persona. Per Lanier essere una persona rimane una ricerca, un mistero, un atto di fede.

Egli afferma che la tecnologia sta trasformando l'uomo in esseri standardizzati, privi di individualità e di coscienza e profetizza che se le persone continueranno a essere schiave della tecnologia e a non considerare il proprio valore , esaltando invece le cloud di persone online, si finirà per creare "un esercito di zombie".[1]". Opera una critica al web 2.0 e alle nuove tecnologie ,che stanno causando un impoverimento della cultura, e ai social networks. Siti come Facebook attuano una specie di formattazione dell'identità riducendo l'amicizia ad una accumulazione di contatti personali. Essi sono anche colpevoli di ridurre i singoli a " gadget", manipolabili dal soffocante totalitarismo cibernetico. Il suo obiettivo, è appunto "evitare di ridurre le persone a meri dispositivi... ".[2]". Lanier propone come soluzione l'arricchimento della profondità della comunicazione.Si tratta di un'idea di progresso basata sulla comunicazione post–simbiotica, ovvero la possibilità di trasformare la propria forma mentre si parla, creando un'esperienza diretta.

La dignità ai tempi di internet

Jaron Lanier pubblica il 7 marzo 2013 l'opera Who owns the future? tradotta in italiano da Alessandro Delfanti con il titolo " La dignità ai tempi di internet".É un saggio che ha come obiettivo quello di esporre una risoluzione al gravoso problema dell' iperdisoccupazione che l'avvento e il progresso continuo e costante delle macchine digitali ha apportato. I server Sirena sono ditte in cui si accumulano informazioni personali e non, che la classe media dispensa in cambio di servizi gratuiti. Questi server non pagano chi contribuisce con i propri dati, accrescono le loro ricchezze celando questo passaggio agli uomini. La proposta di Lanier è un 'alternativa ripresa da un 'idea di Ted Nelson,proponendo un sistema di collegamento a due vie che punta alla fonte di qualsiasi informazione, sviluppando un' economia di micropagamenti che retribuisce la creatività e l'originalità del materiale che pubblicano sul web.

Jean Baudrillard: la scomparsa della realtà[modifica]

Jean Baudrillard

Il pensatore francese Jean Baudrillard è una delle principali figure intellettuali dell'epoca contemporanea; il suo lavoro combina la filosofia, la teoria sociale e una metafisica culturale che riflette sugli avvenimenti chiave dell'era presente,critico tagliente della società, della cultura e del pensiero contemporaneo. Ha tracciato in maniera originale la vita dei segni e l'impatto della tecnologia sulla vita sociale e ha criticato sistematicamente le correnti principali del pensiero moderno, sviluppando nello stesso tempo le proprie prospettive filosofiche.

La realtà per Baudrillard è già scomparsa in un certo modo, sgretolata sotto la spinta delle tecnologie moderne, inizialmente da una parte c'era il mondo reale, e dall'altra l'irrealtà, l'immaginario, il sogno, nella dimensione virtuale tutto questo viene assorbito in egual misura, e le care vecchie contraddizioni fra realtà e immaginazione, vero e falso, e via dicendo, vengono in certo modo sublimate dentro uno spazio di iper-realtà che ingloba tutto compreso il rapporto fra soggetto e oggetto. Entrambi, in via di principio, sono elementi interattivi, ma il soggetto in questo caso non ha più una sua posizione,una condizione vera,la sua posizione è pericolosamente minacciata se non eliminata dal mondo del virtuale.

Lo stesso Baudrillard cerca di chiarire tale situazione riprendendo il mito della caverna di Platone utilizzato come chiave di interpretazione del conflitto fra reale e virtuale. Nel mondo reale noi non siamo che il riflesso di un'altra sorgente, che esiste altrove, una fonte luminosa dinanzi alla quale però si interpone un corpo, che genera delle ombre. Nel mondo virtuale, invece,non ci sono né apparenze né essere, non esistono ombre giacché l'essere è trasparente, in un certo senso può essere inteso come il dominio della trasparenza totale,non abbiamo più ombra ,l abbiamo persa,abbiamo perso in realtà l essere stesso,la sua opacità,il suo spessore e profondità.

Nel suo libro Il delitto perfetto troviamo la ricostruzione di un delitto, ovvero la morte della realtà e lo sterminio delle illusioni ad opera dei media e delle nuove tecnologie. Il testo tratta in effetti dell'uccisione della realtà e più ancora delle illusioni,intese come una parte diversa del nostro rapporto con l'esistente che è stata completamente compromessa da questa operazione del virtuale che può essere definita appunto come una sorta di "delitto" ma che in fondo non è che una metafora un poco esagerata,in quanto il tutto è molto più vicino alla eliminazione. Questo universo reale infatti, imperfetto e contraddittorio, pieno di negatività, di morte, viene depurato, lo si rende pulito; lo si riproduce ,in maniera identica ma dentro a una formula perfetta.

L'atteggiamento di critica riprendendo il pensiero critico tradizionale non può inoltre che essere considerato anti-mediatico, muovendo obiezioni ai media. I media fanno un lavoro considerato essenziale nella strategia del delitto perfetto,l'obiettivo dei media è stato quello di eliminare effettivamente il principio morale e filosofico della verità, per installare al suo posto una realtà completamente ingiudicabile, una situazione di incertezza. Si sono dedicati a smontare questo principio di verità, autorità e certezza che rappresenta del resto, il fondamento di tutta una civiltà. Allo stesso modo tutta la tecnica in generale, non solo i media, ma gli strumenti tecnici, le macchine, eccetera, sono in un certo senso anch'essi dei mezzi per togliere realtà al mondo, e per instaurare una sorta di incertezza e finalmente di amoralità delle cose. Ogni tentativo di opporsi a questo processo basato nel ricreare, ritrovare un senso etico è destinato a fallire. In quanto la morale presuppone nell'uomo ,un principio di libertà e responsabilità,elementi che sono stati largamente marginalizzati durante questo processo.

Baudrillard afferma che bisogna credere nella realtà affinché il rapporto con essa possa cambiare, si è creato infatti con le nuove tecnologie un rapporto da credente/incredulo che ci ha resi via via più scettici e che condurrà la gente al non credere più a nulla. Il vero problema sarà capire dove o a cosa questo rapidissimo sviluppo tecnologico porterà, viene presa in considerazione la possibilità di incidenti collettivi come la probabile catastrofe che si aspettava in occasione dell'anno 2000 con il Bug dei computer,evento paradossale dove la nostra catastrofe viene prevista come una catastrofe virtuale messa in atto da noi stessi.

Bug aspettato con timore, ma al contempo come una fascinazione. La scadenza simbolica del millennio serve precisamente a cristallizzare questa ricerca dell'immaginario, si ha quindi una specie di speranza nell'anno 2000 l'idea che si riazzereranno tutti i computer, che si lavi via il ventesimo secolo così pieno di violenza e guerre, e che si ricomincerà da capo con una forma di innocenza collettiva. Questa speranza esiste, ma al contempo si affianca a una speranza inversa, ossia non proprio che tutto sprofondi ma che si verifichi un vero disastro, un incidente di ignara natura, il quale dia vita a un evento davvero determinante e decisivo.

Il filosofo francese inoltre ci spiega come la tecnologia si spinge ancora oltre,cercando di sopprimere l'idea stessa di morte attraverso la clonazione. La morte individuale verrà sostituita da un'impresa tecnica che porterà ad un forma di immortalità,verrà espulsa ed eliminata dall'ambito della vita,per mantenere di quest'ultima nient'altro che i lati positivi, cancellando tutti quelli negativi. Di conseguenza la stessa industrializzazione avvenuta in passato in termini piuttosto di forza produttiva e in relazione al lavoro,ora sfrutterà qualcosa di molto più profondo ossia dell'idea di non morire, di perpetuarsi, insomma dell'idea dell'eternità arrivando ad acquisire una valenza del tutto economica.

Pierre Lévy: l'intelligenza collettiva[modifica]

L'intelligenza collettiva è un tipo di intelligenza distribuita ovunque c'è umanità. Quindi se due persone sono lontane, tramite le nuove tecnologie , possono entrare in comunicazione l'una con l'altra e scambiarsi il loro sapere. Ciò, però comporta nuovi problemi etici ma l'intelligenza collettiva ha un'etica che consiste nel riconoscere alle persone le proprie qualità e di metterle a disposizione di tutta la comunità per poterne beneficiare. Per fare ciò, inoltre, bisogna che ogni individuo possa esprimersi liberamente ed è questa la prospettiva dell'intelligenza collettiva, quella di opporsi ad ogni tipologia di oppressione e di lottare per l'emancipazione. L'intelligenza collettiva è quindi, interattività, ad esempio con il cyber spazio, i forum di discussione elettronici, con Internet c'è la possibilità che tutti possano comunicare con tutti ma all'interno di ciò nessuno è obbligato a condividere le idee degli altri e ognuno può prendere la propria posizione. Questo, comporta dei pericoli, come la perdita del vero motivo per cui è stato creato , quello di creare un movimento sociale in grado di arricchire la civiltà e l'essere umano. Infatti, i governi stanno usando questo spazio per tentare di costruire un apparato collettivo, una sorta di "grande televisione", oppure i commercianti che vedono questo spazio come un luogo dove vendere i proprio prodotti o recuperare attività commerciali.

In rete, comunque, si trova una massa enorme di informazioni, una totalità di informazioni a cui noi no possiamo accedere nella totalità e quindi, dobbiamo necessariamente fare appello ad altri, alle conoscenza altrui. Ad esempio, se mettiamo sul World Wide Web un documento, ma anche il nostro punto di vista. Il world wide web non è solo una massa di informazioni ma anche un insieme di punti di vista.

L'intelligenza collettiva ha all'interno una forma di organizzazione chiamata "intelligenza connettiva" , ovvero una connessione da persona a persona all'interno di una rete specifica.

Tomás Maldonado: la critica del paradigma digitale[modifica]

Reale e virtuale (1992)[modifica]

Critica della ragione informatica (1997)[modifica]

Tomás Maldonado

"Sono profondamente convinto che le tecnologie, se si vuole tutelare la loro carica innovativa, devono restare sempre aperte al dibattito delle idee"". In questi termini Maldonado conclude la prefazione di Critica della ragione informatica, un saggio pensato per approfondire, in primo luogo, il rapporto tra le tecnologie telematiche e le dinamiche imprevedibili della società. E seppure il titolo lascia pensare tutt'altro, il filosofo e designer argentino non vuole affatto contestare le nuove tecnologie informatiche, né gli effetti del loro impatto sulla società, bensì prendere le distanze dal conformismo e dal trionfalismo dilagante nei confronti di tali tecnologie.

Il termine "critica", infatti, afferma Maldonado in un'intervista del '97, deve essere inteso in senso kantiano e cioè non come giudizio ma come analisi, per arrivare a determinate conclusioni attraverso l'esplorazione di pro e contro. Pertanto con "ragione informatica" si fa riferimento a tutte le argomentazioni che vengono utilizzate per fornire una giustificazione storica delle nuove tecnologie informatiche e in particolare di Internet. Ovviamente, trattandosi di realtà emergenti su scala mondiale, le opinioni a riguardo non possono che essere varie e controverse. L'infinita potenzialità delle nuove tecnologie telematiche, infatti, non può che suscitare dubbi e perplessità. Ma la loro efficienza nella vita quotidiana ha contribuito ad un radicale mutamento della società e, di conseguenza, i sospetti tanto acclamati dagli studiosi, hanno lasciato spazio ad una prepotente enfatizzazione. Proprio in essa Maldonado ha scorto il male più deleterio, poiché ci ha fatto dimenticare di questioni aperte su cui è necessario riflettere; infatti "niente può essere più pericoloso, in questo momento, che mandare in congedo l'intelligenza critica".

Le questioni da prendere in considerazione sono molte, tuttavia è certo che i pro, nel mondo virtuale delle informazioni, sono nettamente maggiori dei rischi in cui ci si può imbattere. La rete infatti è nata per ampliare la conoscenza umana riprendendo la tradizione socratica della ricerca, pertanto la sua esponenziale crescita e diffusione, derivata anche da una circolazione economica maggiore, ha procurato effetti imprevedibili, quali: eccesso di informazione, disinformazione, impoverimento del patrimonio linguistico, trasformazioni di identità.

L'aspetto accidentale più inquietante è senz'altro la nascita di una scrittura fortemente stereotipata proveniente non dalla nascita di internet ma dall'invenzione di software per la comunicazione virtuale, come e-mail e chat. Quest'ultimo in particolare, ha aperto la strada ad un cyber-gergo basato su espressioni tecniche che omettono gli aggettivi. Inoltre questo nuovo linguaggio non è dannoso esclusivamente al patrimonio linguistico ma soprattutto influenza negativamente il nostro modo di pensare e di essere. Con le "chiacchiere" attraverso Internet, infatti, è possibile divenire l'oggetto di desiderio della persona dall'altro lato dello schermo, presentandosi con una personalità virtuale identica a quella reale dell'interlocutore. Attraverso la rete quindi, un individuo può attribuirsi le sembianze che desidera adattandosi alle occasioni assumendo così diversi tipi di individualismi.

Tali rapporti, stabiliti attraverso la rete, creano, inoltre, delle comunità virtuali, le quali nascono, infatti, per un processo simpatetico ovvero di similitudine e interesse che la gente ha nei confronti di particolari argomenti. Ma questa assimilazione di interessi rappresenta anche un limite. Se infatti, da una parte, queste comunità esprimono un potenziale solidaristico, per esempio, in funzione dei malati, dall'altra rappresentano un problema circa la democratizzazione. Infatti, un processo democratico reale non può avvenire nel caso in cui gli individui di una comunità si confrontano con identità finte, né tanto meno se i membri di questa comunità possiedono gli stessi interessi. Una democrazia ricca non si basa su comunità di gente che si assomiglia o che ha gli stessi interessi, piuttosto su una varietà di individui che comunichino idee, preferenze e valori differenti. D'altronde una democrazia frantumata in una serie di comunità di simili non può rappresentare l'ideale di vita democratica.

Il cyberspazio, comunque, è considerato dai suoi promotori e interpreti un contributo fondamentale per agevolare una democrazia diretta e accrescere così tra i cittadini una consapevolezza politica. L'informazione, infatti, predispone gli individui ad una presa di coscienza del funzionamento politico e burocratico con cui sono a contatto. Inoltre, la creazione delle cosiddette reti civiche, attraverso le quali i cittadini vengono in possesso di tali informazioni, ha permesso di rinforzare l'operatività democratica offrendo, inizialmente l'avanzamento di proposte, e poi altri elementi importanti all'esercizio della cittadinanza. Un altro vantaggio della rete, oltre all'informazione, è senz'altro la possibilità di lavorare a distanza evitando di recarsi necessariamente alla sede della propria occupazione. In questo modo, nell'immaginario collettivo, il lavoratore, tramite il computer, avrà più libertà e potrà gestire più facilmente il suo tempo. Ma questo processo costituisce solo in parte la realtà quotidiana. Infatti, quando si parla di telelavoro, non si deve immaginare un lavoratore casalingo "in pantofole", piuttosto un impiegato che esegue mansioni specifiche, come commessi viaggiatori che contraggono contratti in tutto il mondo, giornalisti, i quali possono effettivamente scrivere articoli entro gli spazi domestici, fotografi o chi si occupa di ricerche di marketing. Pertanto il telelavoro non si può estendere anche in quei settori ancora troppo tradizionali ove la presenza reale è indispensabile, o forse è ancora troppo presto adattare le risorse tecnologiche in nostro possesso a tutti gli ambiti lavorativi. Ma probabilmente la questione non è il progresso tecnologico quanto l'alienazione degli individui dal loro ruolo familiare, i quali, entrando nel mondo della produzione, dovrebbero pagare il prezzo altissimo della desocializzazione.

È evidente però che le nuove tecnologie e in particolare il fenomeno di internet, hanno favorito eccessivamente il mercato del lavoro e, insieme ad esso, una globalizzazione economica che ha consentito l'accesso a tutti i mercati possibili compreso quello della tecnologia che, di conseguenza, ha fornito la base tecnica e strumentale per un ulteriore ed esponenziale incremento della globalizzazione. Mentre però la globalizzazione economica e quella tecnologica sono oggetto di discussioni sia a favore che contro la loro utilità, per quanto riguarda quella culturale vi è un diniego generale poiché più che essere considerata un'enfatizzazione del sapere significa egemonizzare una sola e determinata cultura che come sappiamo è quella americana. Pertanto è necessario sollevare una seria riflessione ed essere vigili su tale processo per evitare l'annichilimento di usi, costumi e consuetudini caratteristici dei popoli. Inoltre non bisogna confondere la capacità di internet di divulgare l'informazione con la sua abilità di generare omologazione. Ma questo problema, se da una parte è deleterio per il modo di pensare, dall'altra costituisce il sistema più veloce e completo per comunicare ed aggiornarsi, aspetti importanti nel XX secolo e ancor più nel XXI. Pertanto, esercitare nella rete forme di controllo, costituisce il metodo più comprensibile per ovviare questioni rischiose di carattere economico e socioculturale.

Maldonado però solleva giustamente dubbi sulla questione della censura perché ritiene necessario valutare il prezzo che si paga per essa e per la libertà di espressione. Tra l'altro, anche se non fossimo soggetti a nessuna forma di controllo, non saremmo altrettanto autonomi in quanto attori sociali che partecipano inconsciamente a tale processo. Infatti, noi entriamo in rete con determinate istanze e quindi con un nostro bagaglio di autocontrollo e autocensura. Pertanto seppure ci fosse concessa la piena libertà nel cyberspazio, noi con la nostra cultura porteremmo in esso una forma di controllo astratta. La globalizzazione, comunque, seppure ha travolto miliardi di persone, non è riuscita, nel suo profilo tecnologico, a condizionare più di un terzo dell'umanità. Se da un lato si pensava che Internet avrebbe armonizzato i rapporti tra gli individui e attuato un processo di uguaglianza, dall'altro non si prevedeva un'ulteriore emancipazione dei soggetti economicamente limitati. Infatti, si è venuta a creare, oltre al già presente divario tra l'emisfero nord e sud del pianeta, un'altra cernita di soggetti denominati info-poveri e info-ricchi. È probabile però, afferma Maldonado alla fine del secolo scorso, che in un futuro prossimo ciascun individuo potrà avere accesso a Internet anche se, questa prospettiva deve tener conto di indeterminati fattori di democratizzazione tecnologica e verificare condizioni ancora oggi incalcolabili, quali lo sviluppo economico, sociale e culturale che non lasciano presagire la direzione che potranno avere gli eventi socioculturali: "con le crisi sociali, etniche, di religione che caratterizzano i nostri tempi e fanno di quest'epoca, un'epoca di convulsioni è difficile immaginare in tempi brevi una regolamentazione globale dello strumento Internet".

Memoria e conoscenza (2005)[modifica]

Memoria e conoscenza – Sulle sorti del sapere nella prospettiva digitale è un saggio scritto da Tomás Maldonado nel 2005. In questo saggio, il designer e filosofo argentino ripercorre un excursus storico-genetico della cultura e del sapere umano, concentrando il tema sul rapporto fra identità personale e memoria, sulla prassi e la poiesi fra tradizione ed innovazione, sul riconoscimento del proprio bagaglio mnesico negli spazi vissuti, sulle ricadute educative nelle nuove generazioni, alle prese con un forte richiamo alla creatività computazionale, sulla complementarietà fra tecnica e società. L'attenzione inizialmente ricade sulla memoria localizzata, che per l'autore è impossibile da definire attraverso un procedimento olistico. La memoria umana non è soltanto cervello, ma pluralità di memorie parziali, a partire anche dal nostro modo di comunicare. Il parlare, lo scrivere, il leggere hanno dato la possibilità all'uomo di progredire e di crescere insieme a ciò che ha creato. Da qui, la nuova tecnica di lettura-scrittura elettronica, il romanzo ipertestuale, che possiede caratteristiche molto diverse dal tradizionale modo di narrare.

Maldonado differenzia la memoria ad occhio nudo, intesa come osservazione introspettiva, come tradizione d'indagine sulla memoria (dalla mnemotecnica lulliana fino ai moderni calcolatori elettronici), dalla memoria in laboratorio, che concerne lo studio scientifico della memoria (dagli esperimenti mentali al rapporto mente/corpo). La memoria autobiografica è strettamente legata all'ambiente domestico, denso di richiami ad oggetti materiali e non. L'autore tocca diversi autori, dal Medioevo al XVI e XVIII secolo, per descrivere l'uomo che richiama il proprio vissuto nella familiarità degli ambienti, dove il susseguirsi dello spazio e del tempo scandiscono un'abitudine simbiotica con la casa, o prendendo una piega cosmopolita senza fili conduttori, senza radici. La memoria e la sua perdita di riferimenti, dalla comunicazione ai luoghi dell'abitare, ricade inevitabilmente sulle nuove generazioni, che crescono con metodi educativi nuovi ma non sempre positivi. Lo sviluppo psico-motorio, dai videogiochi d'azione competitiva al semplice iper-utilizzo dei PC e dei telefoni cellulari, viene a rallentarsi, bloccando la possibilità di confronto diretto con il mondo esterno. L'oggetto tecnico ha assunto un carattere qualitativo, autonomo nell'ultimo secolo. Maldonado si concentra sulla complementarità fra oggetto tecnico ed istanza sociale, dando alla tecnica un particolare statuto ontologico, non concependola però come fattore preponderante sulla società. Da qui, nell'appendice si aprono due ulteriori capitoli, dove vengono richiamati gli occhiali da vista come oggetto tecnico/istanza sociale, e la scrittura stereotipica/antistereotipica: il cyber-gergo e l'ambito metaforico-privato di definizione terminologica, che si esplica in infinite soluzioni differenti, portando il nostro modo di scrivere, di leggere, di parlare, di pensare e di ricordare ad un cambiamento radicale nel tempo.

Howard Rheingold: le comunità virtuali[modifica]

Howard Rheingold

Howard Rheingold, nato a Phoenix il 7 luglio 1947, è un critico letterario, sociologo e saggista statunitense. Si è specializzato sulle implicazioni culturali, sociali e politiche dei nuovi media. Nel 1987 ha pubblicato "Le Comunità Virtuali". Rheingold sostiene che una comunità virtuale è un gruppo in cui i componenti pur non incontrandosi di persona, scambiano parole e idee attraverso la mediazione delle reti. Esse iniziarono a diffondersi nella metà degli anni '80 grazie allo sviluppo delle BBS cioè computer abilitati a ricevere chiamate simultanee. Una delle comunità virtuali fu The Well. Le comunità virtuali oltre ad essere luoghi di discussione, sono anche strumenti utili per la ricerca delle informazioni. Pertanto, si partecipa ad una comunità online non solo per la costruzione di relazioni interpersonali, ma anche per un bisogno formativo. Essa è elettiva, ovvero frutto di una scelta personale, motivo per il quale si contraddistingue dalle comunità locali.

Nel 2013, egli ha pubblicato il suo ultimo saggio Perché la rete ci rende intelligenti. Il testo si propone di essere una sorta di guida, un manuale di educazione alla cybercultura. All'interno del libro, l'autore mette in luce tutte le problematiche concernenti la nostra attività sul Web, ma sottolinea anche come riuscire a migliorarla tramite cinque competenze fondamentali, i "cinque alfabeti": attenzione, rilevazione delle bufale (crap detection), partecipazione, collaborazione e intelligenza a misura di rete (network smart). Infine, nell'ultimo capitolo, vengono tratta tematiche quali la privacy, le dispute riguardo all'utilizzo del copyright e alla cultura del remix, accompagnate da alcuni consigli per i genitori alle prese col Web.

Perché la rete ci rende intelligenti?[modifica]

L'attenzione è una facoltà essenziale per un uso consapevole delle nuove tecnologie digitali le quali, secondo Rheingold, hanno cambiato il modo in cui utilizziamo le nostre risorse attentive. Cambiamento che si manifesta in attività come il multitasking che rende più difficile eseguire in modo efficace ogni singolo compito perché non è, come alcuni sostengono, un lavorare parallelamente a cose diverse ma è un passaggio rapido da un'attività all'altra che implica un costo in termini di dispendio di energie mentali. Secondo Rheingold attraverso un costante esercizio possiamo migliorare il nostro autocontrollo dell'attenzione. Rheingold riporta l'opinione di Steve Jobs secondo il quale dobbiamo imparare a dire no, perché è impossibile approfittare di tutte le opportunità offerte dal Web. Secondo l'autore dobbiamo imparare a controllare il respiro, il quale unisce mente, cervello e corpo e migliora la consapevolezza.

Tra le componenti del pensiero Rheingold assegna un ruolo primario alla funzione esecutiva che coordina attenzione e memoria e rende possibile quella che gli psicologi definiscono metacognizione, cioè l'atto di riflettere sul proprio pensiero che svolge un ruolo centrale per assumere il controllo della nostra vita online. Guadagnare l'autocontrollo dell'attenzione richiede in primo luogo intenzionalità: quando ci poniamo un obiettivo dobbiamo avere la reale intenzione di raggiungerlo. L'intenzione ci consente di concentrarci sul nostro obiettivo trascurando gli elementi meno importanti. Dobbiamo sempre tenere presente il nostro obiettivo prioritario, chiedendoci a intervalli regolari se l'attività online a cui ci stiamo dedicando è utile ai nostri scopi. La distrazione dei genitori dovuta all'uso eccessivo dei social media ha un impatto negativo sull'educazione dei figli, per questo motivo bisogna mettere da parte lo smartphone e non trascurare i propri figli.

Rheingold riporta l'opinione di Nicholas Carr, autore dell'articolo Google ci rende stupidi? secondo il quale le reti digitali danneggerebbero il nostro cervello e la nostra cultura, compromettendo la nostra capacità di pensare in modo approfondito e generando modifiche neuroplastiche indesiderate. Rheingold non è d'accordo sul processo indicato da Carr, perché una cultura può migliorare anche in presenza di un'abbondante informazione e di molti modi di comunicare. Secondo R. la posizione di Carr(determinismo tecnologico) può essere altrettanto pericolosa che un atteggiamento acritico verso le insidie nascoste nell'uso delle tecnologie digitali. Gli esseri umani hanno margine d'azione. Il Web non si sarebbe mai sviluppato senza questo margine. Secondo Rheingold l'influsso dello schema mentale promosso da Internet dipende da noi, proprio come è accaduto per lo schema mentale alfabetico e quello della stampa di Gutenberg. Secondo Rheingold possiamo imparare a trasformare i nuovi modi di pensare in qualcosa di positivo, come abbiamo fatto con la cultura alfabetica- criticata da Socrate e Platone- grazie a regole e istruzione. La ricerca di informazioni online dovrebbe delinearsi come un processo di costruzione della conoscenza, favorito da strumenti come i link. Bisogna educare le persone ad uso cosciente dei media fin da piccoli. Rheingold infine consiglia tecniche meditative come la mindfullnes e di adottare un nuovo tipo di comportamenti che mettano in relazione i nostri obiettivi con la nostra attenzione.

Nel secondo capitolo Rheingold ci fornisce alcuni preziosi consigli per la rilevazione delle bufale online(crap detection). Anzitutto consiglia di abbracciare a priori un atteggiamento scettico: bisogna rifiutare di iniziare a credere in qualcosa, continuare nelle nostre ricerche anche dopo che abbiamo trovato una risposta e indagare su quella risposta anziché accontentarci di una verifica superficiale. Dobbiamo consultare anche le pagine successive dei risultati di una ricerca e fare ulteriori ricerche sulla base delle parole che troviamo negli snippet. Nel mondo delle informazioni online spetta a chi usufruisce delle informazioni controllarle e verificarle. Quando facciamo una ricerca possiamo utilizzare parole che potrebbero esserci nella pagina che ci interessa: nel porre la domanda dobbiamo immaginare le possibili risposte. Possiamo aggiungere termini come tutorial o introduzione se vogliamo trovare delle istruzioni pratiche per fare qualcosa, oppure termini come saggio critico o giudizio negativo se cerchiamo delle opinioni contrarie.

Per valutare l'affidabilità e la credibilità di un sito online dobbiamo scoprire chi ne è l'autore e vedere quello che gli altri dicono a proposito di quello autore( Rheingold ci consiglia di utilizzare il sito Whois che ci consente di scoprire il titolare di molti siti web), indagare sulle fonti e vedere le opinioni relative a tali fonti. Se l'autore del sito ci consente di comunicare con lui, aumenta il livello di credibilità del sito ;se il sito ha un dominio .gov o .edu la credibilità aumenta. Dobbiamo controllare i link collegati al sito e chi li ha messi. La qualità e l'usabilità del design, la freschezza degli aggiornamenti, la presenza di errori tecnici come link non attivi , sono tutti elementi da prendere in considerazione per valutare le informazioni online. Una tecnica efficace per individuare le bufale è la cosiddetta triangolazione, cioè la ricerca di tre fonti diverse che confermino la medesima notizia.

A volte la capacità di individuare le bufale è una questione di vita o di morte quando si tratta di informazioni di carattere medico. La rete è piena di persone ben intenzionate ma pericolosamente malinformate e di veri e propri ciarlatani che speculano sui problemi delle persone. Ragion per cui Rheingold consiglia di prestare la massima attenzione e di affidarsi soltanto a siti autorizzati e sicuri come Science Direct o alla Fondazione Health on The Net ,che consente di controllare informazioni mediche su qualsiasi sito. Dobbiamo stare attenti alle bolla-filtro creata dalle nostre ricerche. Oltre al problema delle informazioni false Rheingold evidenzia quello delle troppe informazioni che arrivano troppo rapidamente, che può essere contrastato attraverso la tecnica dell' infotention. Un termine che descrive una sintesi di competenze mentali sull'attenzione e di filtri tecnologici per l'informazione e che possiamo attuare attraverso l'uso di filtri, radar e soprattutto disponendo le nostre dashboards in modo tale da riflettere le nostre priorità.

Nel terzo capitolo l'autore analizza le forme di partecipazione online e sottolinea come siano diventate autentiche forme di potere. Usare al meglio blogs, tweets, wikis, saper produrre e organizzare online ha assunto un significato di carattere politico, culturale ed economico. Il know-how digitale offre un potere senza precedenti. I pc e gli smartphone possono trasformarsi in strumenti di varia natura che consentono le attività sociali più disparate, anche l'organizzazione politica. Tutti i vantaggi che derivano dall'attività online sono propri di chi sa partecipare e non di chi si limita ad usufruire dei prodotti culturali degli altri. In passato la comunicazione delle informazioni era riservata a pochi, oggi invece i consumatori hanno un ruolo attivo e non sono più semplici lettori ma prosumer, cioè produttori e creatori di contenuti culturali. La partecipazione può essere agevolata dall'amicizia o da un interesse comune e può cominciare con attività banali come metter un tag.un like, o inserire un sito web tra i preferiti, o modificare una pagina di wikipedia, fino a passare ad attività più impegnative come la cura dei contenuti, la creazione di un blog o di una community. Aprire un blog è un modo per trovare la nostra voce e il nostro pubblico, metterci in collegamento con comunità che la pensano come noi, migliorare il nostro profilo digitale, influenzare gli altri e contribuire al bene comune.

Da sempre facciamo delle scelte per decidere a cosa prestare attenzione, nel mondo online tali scelte influenzano anche quello cui altri prestano attenzione. Questo è ciò che si intende con cura in riferimento ad alcune pratiche online. Il termine descrive il modo in cui tutti coloro che utilizzano il web attivamente possono assumere la funzione di selezionatori di informazioni gli uni per gli altri, creando con le loro scelte delle raccolte di link riutilizzabili. Ogni volta che una persona recensisce un link, contribuisce al lavoro di cura editoriale del web. Rheingold fornisce dei consigli per la cura dei contenuti, come collegare, riordinare, distribuire, aggiornare, verificare le bufale, esprimere un opinione, aggiornare, monitorare il proprio pubblico. rispondere ai commenti ecc. Dobbiamo cercare di capire ci potrebbe sfruttare il nostro playbor, cioè chi può usufruire del nostro lavoro e chi potrebbe approfittarne. secondo Rheinghold bisogna essere coscienti delle conseguenze che può avere tutto quello che facciamo online. Dobbiamo riflettere bene prima di scrivere un post, perché le nostre azioni compiute nel mondo digitale si possono rintracciare e possono essere utilizzate da tutti, anche da persone che non conosciamo. Rheingold  sottolinea i pregi e le possibilità , le affordance che ci offre Twitter. Tra le qualità di twitter ci sono l 'apertura, l' immediatezza, la varietà di argomenti, la reciprocità , è un modo per conoscere gente nuova, una finestra su ciò che sta accadendo in numerosi mondi diversi , uno strumento per costruire comunità ,una piattaforma per la collaborazione di massa ecc.

Nel quarto capitolo Rheingold analizza l'alfabeto della collaborazione online. Il Web è l'esempio principale di una forma di collaborazione fino a poco tempo fa inimmaginabile. La collaborazione di massa ha trasformato il modo in cui si trova l'informazione, si costruisce la conoscenza (Wikipedia), si studia la scienza e vengono ideati e sperimentati prodotti commerciali (crowdsourcing). Indubbiamente l'agire umano è stato influenzato dalle forme di collaborazione di massa. Quando mettiamo un tag , inviamo commenti, modifichiamo una pagina Wikipedia ecc, stiamo partecipando all' intelligenza collettiva del web. Una delle principali caratteristiche degli esseri umani è la tendenza ad utilizzare la comunicazione per organizzare azioni sociali. In questo senso i social media possono senz'altro agevolare l'azione collettiva. Anche se le principali teorie scientifiche evidenziano l'importanza della competizione e del conflitto , scoperte recenti dimostrano che la cooperazione ha un ruolo ancora più significativo.

Quattro punti fondamentali vanno ricordati per riuscire ad utilizzare al meglio la collaborazione che il Web consente: l'attenzione è il presupposto della cooperazione sociale, il che implica il fatto di prestare attenzione gli uni agli altri ; gli umani sono straordinari cooperatori perché hanno imparato ad elaborare metodi per dirimere i conflitti sociali; le istituzioni sociali innovative si evolvono insieme di continuo grazie ai media; ricambiare la cooperazione, punire chi non collabora e manifestare la propria volontà di collaborare sono pratiche utili. La storia dell'uomo è caratterizzata da una crescente tendenza alla collaborazione e alla cooperazione che ha portato a migliorare  le condizioni di vita del genere umano e che oggi si esemplifica nei social media e in generale nelle comunità virtuali. Tutti sono in grado di  badare ai propri interessi personali ma per condividere degli obiettivi è necessario comunicare e negoziare.

Rheingold fornisce alcuni consigli per migliorare il nostro utilizzo delle forme di collaborazione e cooperazione online. Quando facciamo crowdsourcing( = un termine che si riferisce alla procedura di dividere problemi o compiti da svolgere in piccole parti, mettendoli poi pubblicamente a disposizione e richiedendo una partecipazione volontaria ), oppure cerchiamo volontari per un'attività collaborativa dobbiamo essere umili, proporre modi diversi per contribuire, incoraggiare l'autocandidatura, ricambiare coloro che collaborano e offrire loro gli strumenti per comunicare tra di loro. Se invece vogliamo creare una comunità virtuale Rheingold ci consiglia di stabilire le regole dall'inizio, di cercare di favorire la voglia di stare insieme e di comportarci come si comporterebbe un bravo padrone di casa che organizza una festa, cercando di far sentire a casa propria gli ospiti e incentivando la socializzazione. Le reti e i media digitali hanno anche una funzione economica, come il mercato e l'azienda , e consentono la produzione sociale.

I volontari oggi hanno un ruolo attivo perché possono creare strumenti culturali che possono essere utilizzati da tutti: software, enciclopedie, scienza creata dai cittadini stessi, risorse educative aperte ecc. Le persone partecipano alla produzione sociale ,che non ha a che fare con logiche di mercato, per imparare, socializzare o migliorare la propria reputazione. I social media vengono utilizzati anche per consumare generando un'esplosione delle pratiche tradizionali di condivisione,di baratti, prestiti, transazioni, affitti, scambi, regali, in modi e dimensioni che non erano mai stati possibili prima. L'intelligenza collettiva fa riferimento a una situazione in cui ognuno mette a disposizione degli altri le proprie conoscenze: Wikipedia è un esempio di intelligenza collettiva. Per favorire l'intelligenza collettiva dobbiamo incoraggiare conversazioni casuali, diversificare il nostro gruppo ,praticare la collaborazione e facilitare la collaborazione per aumentare di conoscenze. L'intelligenza collettiva di un gruppo non dipende dal quoziente intellettivo dei suoi membri, ma dalla varietà dei membri stessi e dalla loro capacità di alternarsi nella conversazione. La conversazione casuale è importante perché contribuisce a creare fiducia e favorisce forme di collaborazione orientate al raggiungimento di uno scopo.

Le reti influenzano il modo in cui si comportano gli individui e le comunità. Le reti sociali umane fondate sul linguaggio verbale risalgono alle origini della specie umana. Le tecnologie per la comunicazione aumentano la portata delle reti sociali tradizionali e consentono nuove forme di socializzazione. Le reti online su cui si basano i social hanno alcuni caratteri generali delle strutture di rete e alcune caratteri specifici delle reti umane. Le reti a piccolo mondo permettono all'informazione di viaggiare velocemente anche tra gruppi numerosi di persone. È sufficiente un piccolo numero di connessioni casuali e distanti. Le reti a piccolo mondo sono diffuse in tutto il mondo e sono caratterizzate dalla presenza di pochi hubs che hanno un numero più elevato di connessioni. Nella coda lunga ,invece, le connessioni sono più scarse. Le reti che consentono la comunicazione tra molti persone e la creazione di gruppi crescono di valore più velocemente rispetto alle reti broadcast. Grazie ai social media le persone possono cercare sostegno, informazioni, sia in reti estemporanee, dai legami deboli, che in gruppi tradizionali, dai legami più forti.

In un mondo interconnesso è importante avere sia legami deboli sia legami forti. I social media consentono di gestire reti ampie di legami deboli, ma è possibile mantenere soltanto un numero limitato di relazioni forti, a prescindere dai media. Con i social media abbiamo la possibilità di tenere in vita relazioni con persone da cui, per motivi di lavoro o altro, ci siamo allontanati. La posizione che si ha in una rete sociale è fondamentale. La centralità, cioè quante persone e reti devono passare da noi per connettersi con altri, è molto rilevante. I rapporti di fiducia tra le persone e le norme che favoriscono la collaborazione online favoriscono lo sviluppo del capitale sociale. I legami che creano un capitale sociale possono essere di vari tipi. Rheingold distingue il capitale sociale vincolante e il capitale sociale ponte. Il capitale sociale vincolante fa riferimento a legami fra persone che hanno interessi in comune e investono molto nella relazione, come per esempio le amicizie molto strette, la famiglia ,i vicini, i colleghi di lavoro ecc. Il capitale sociale vincolante aumenta la solidarietà,la fiducia e la reciprocità verso persone conosciute. Il capitale sociale ponte aiuta i piccoli gruppi ad uscire dalle loro visioni limitate, facendo affluire informazioni dall'esterno, e favorendone la diffusione in una moltitudine di reti. Bisogna fare attenzione alle impostazioni della privacy di Facebook :dobbiamo verificare ciò che condividiamo e con chi. Facebook e gli altri social networks condividono quattro caratteristiche fondamentali che provocano tre cambiamenti nelle relazioni sociali:

  1. Persistenza: ciò che diciamo resta
  2. Replicabilità : si può fare copia-incolla
  3. Scalabilità
  4. Ricercabilità: possiamo rintracciare facilmente le persone

Queste proprietà hanno come effetto il consentire un incontro fra contesti diversi, la presenza di un pubblico invisibile e la convergenza fra pubblico e privato.

David Weinberger: la stanza intelligente[modifica]

Arcipelago web (2002)[modifica]

David Weinberger

David Weinberger (New York, 1950) filosofo e saggista statunitense è l'autore del saggio Arcipelago Web (Small Pieces Loosely Joined: A Unified Theory of the Web). L'obiettivo è quello di mostrare gli effetti che il terremoto della Rete ha provocato sull'umanità stravolgendone i modi di pensare. Caratteristica principale del web è quella di unire gli esseri umani, da lui paragonati a degli "isolotti dell'arcipelago web", in infiniti modi sebbene molto fragili.

Il web, costituito di bit, è un mondo innaturale creato dagli uomini per loro stessi. Si presenta come un'esperienza di grande impatto: è uno spazio privo di vincoli geografici che ha incrementato l'integrazione sociale, insegnando che a rendere sociali gli uomini è la comunanza di interessi, non del medesimo spazio fisico. È una dimostrazione onesta di ciò che sono gli uomini quando interagiscono senza limiti imposti dal mondo reale. Ciò che attrae maggiormente i suoi utenti è la possibilità di potersi esprimere liberamente. Sul web si ha pieno controllo del tempo che dipende dagli interessi dell'utente, per questo risulta essere costituito di stringhe, sequenze di caratteri che assumono l'aspetto di messaggi relativi ad un determinato argomento.

Il web è un mondo parallelo molto disordinato ed imperfetto, non essendo gestito da un'unità centrale. Sono queste caratteristiche che lo rendono specchio del mondo reale e parte integrante dell'umanità. Arcipelago web è un interessante spunto che apre ad una visione totale su quanto il mondo tecnologico abbia assunto una connotazione metafisica e mutato la vita umana. David Weinberger si mostra come forte propugnatore della Rete, fiducioso in un consolidamento dei suoi sviluppi futuri.

La stanza intelligente (2011)[modifica]

Il lavoro di Weinberger è incentrato sul modo in cui Internet sta cambiando le relazioni umane, la comunicazione e la società. Autore di numerosi saggi, nel 2011 ha pubblicato La stanza intelligente: la conoscenza come proprietà della rete (Too Big to Know. Rethinking Knowledge Now That the Facts Aren't the Facts, Experts Are Everywhere, and the Smartest Person in the Room), un libro destinato a lasciare il segno ridefinendo il concetto classico di intelligenza e il suo ruolo all'interno di un mondo sempre online. «Quando la conoscenza entra a far parte di una rete, la persona più intelligente della stanza è la stanza stessa: la rete che unisce persone e idee presenti e le collega con quelle all'esterno». Con queste parole nel prologo del suo libro l'autore sintetizza la sua visione della conoscenza ai tempi del web.

Il sapere, fino a pochi anni fa trasmesso su un supporto rigido e dai confini ben definiti come la carta stampata, per la prima volta nell'epoca di Internet è alla nostra portata in modo pressoché illimitato. Nella stanza in cui siamo riuniti (Internet), dove le fonti non sono certe e nessuno è mai d'accordo su nulla, circola molta più conoscenza di sempre, gestita con capacità superiori a quelle delle nostre singole menti e istituzioni, eppure Internet non ci rende più stupidi; al contrario, questa conoscenza sempre a disposizione, ci consente di prendere decisioni migliori di quelle di un qualunque esperto. L'importante è sapere come muoversi al suo interno.

Nel Marzo del 2010 Weinberger, pubblica su "Il sole 24 ore" un articolo, "La Rete è un bene di tutti", in cui sostiene che la "libertà di Internet riguarda la libertà, non solo Internet" e " che noi continuiamo a discutere su come limitare l'uso della Rete, invece di valutare come renderla più libera e più aperta". Nel suo articolo l'autore sostiene che ognuno di noi ha la possibilità di attingere ad informazioni in maniera uguale, indipendentemente dal ceto politico o sociale. Tutto ciò è reso possibile dalla struttura stessa della Rete, che ha abbassato le barriere alla partecipazione civile, esprimendo così gli antichi valori della democrazia: l'uguaglianza e le pari opportunità.

Il problema è capire se noi contrasteremo questi sogni o se combatteremo per esaudirli. In ogni caso abbiamo un confronto davanti a noi. Per Weinberger i poteri attuali sono preoccupati dall'uso della Rete perché questa può rendere pubblico del materiale che influenzi la cultura nazionale e le nuove generazioni. Questo è vero, poiché Internet rende disponibile ogni cosa. Ma ogni governo si è già dotato di leggi che proibiscono contenuti del genere. Così le aziende che ospitano contenuti caricati dagli utenti non sono ritenute responsabili. Nessuna azienda sana permetterebbe agli utenti di dialogare se fosse responsabile per ciò che gli utenti dicono. È per questo che tutto il mondo guarda alla sentenza italiana contro Google che ha rappresentato una doccia fredda per Internet, una minaccia alla libertà del web e una rivincita per gli avversari.

In secondo luogo vi è un'ulteriore preoccupazione per alcuni governi, sorta soprattutto negli ultimi anni, i quali temono che la Rete sia utilizzata dai terroristi e quindi ostacolano l'anonimato delle conversazioni. Ma i terroristi usano anche i telefoni e le radio. Bastano dieci minuti su Google per trovare i modi per comunicare sul web in maniera anonima. Le leggi contro l'anonimato in Rete privano quindi i cittadini rispettosi della legge di una rilevante fetta della loro libertà, senza peraltro ostacolare terroristi o altri criminali. L'anonimato non è solo per i colpevoli. È anche per le persone libere.

Dunque c'è ancora molto lavoro da fare. Internet potrebbe essere il mezzo perfetto per la democrazia, ma non c'è automaticità. Un governo potrebbe, per esempio, costringere gli Internet Cafè a registrare i passaporti dei propri clienti. Un giudice potrebbe minacciare di arresto i responsabili di aziende che pubblicano contenuti controversi, o le nazioni potrebbero lavorare insieme per imporre rigidi controlli sul copyright, distruggendo così il giovane ecosistema dell'informazione dal basso.

Gli ostacoli non mancano. Tutti possono fare il loro sito web, ma un colosso media raggiungerà molte più persone. Abbiamo bisogno di soluzioni per questo problema eterno perché abbiamo bisogno della democrazia. E per realizzare i sogni della democrazia dobbiamo andare contro la stessa natura umana. Se abbiamo paura che idee rozze si propaghino tra i popoli, dobbiamo fare in modo di educarli, non di proibire la diffusione di tali idee. Se abbiamo paura che idee false siano facili da raggiungere, dobbiamo fare in modo che le idee false siano contraddette e le buone idee approfondite. "Davanti a noi ci sono quindi due sfide. Una è una battaglia contro internet, ma nei fatti è la vecchia battaglia contro il consolidamento della democrazia. L'altra è la sfida per garantire che un medium adatto in maniera unica alla democrazia nei fatti realizzi il suo sogno. Perché quel sogno è il sogno della democrazia stessa".

Il networking sta cambiando le nostre fondamenta più antiche e consolidate del sapere: la conoscenza sta prendendo la forma della rete, la natura fisica dei libri è sempre meno soddisfacente, è limitata, finita nell’esatto istante in cui il libro viene chiuso e l’autore ne mette l’ultimo punto. Internet, invece, tende all’infinito. Infinito però significa non avere bordi, e senza bordi la conoscenza non ha una base. Cosa circola dunque? Quali i veri vantaggi che la realtà networked può darci? Indubbiamente conoscenza. Ma di che tipo? Sappiamo che ci sono troppe cose da sapere, ma anche che spesso circolano idee stupide e i nostri filtri su cosa prendere e cosa lasciare non sempre riescono a funzionare. Il nostro antidoto è, pertanto, una filtrazione intelligente che guardi in avanti: costruire una nuova strategia di punti fermi della conoscenza, punti che noi moderni, solitamente, poniamo nei fatti e non nelle analogie. Nella rete però i fatti sono tali solo se resi pubblici al mondo, ma una volta che essi vengono pubblicati in realtà già hanno smentito la loro natura incrollabile, non essendo infatti verificati. Hanno pertanto cambiato il loro ruolo, la forma.

Mentre in età antica i fatti erano scarsi e usati per dimostrare teorie (età dei fatti classici) e negli anni '50 (età dei fatti raccolti in banche dati) erano una montagna di informazioni da sistemare in Mainframe, oggi sono networked, in circolo, fanno parte di una rete (età di internet). Se fatti classici e fatti raccolti in banche dati erano visti come informazioni fondamentalmente isolate, ora è attraverso i Linked Data che la loro fruizione, utilità e comprensibilità è garantita, poiché la loro forma è standardizzata. Da qui il passo decisivo: la condivisione. Grazie ad essa sappiamo ora da dove provengono i fatti e, talora, anche dove possono condurre chiedendo alla specifica risorsa un link per recuperare più informazioni sul contesto di quel fatto.

Vinton Cerf: la conservazione digitale[modifica]

Vinton Cerf

Vinton Cerf, nato nel 1943, è considerato uno dei padri di Internet. Egli mette in guardia contro il rischio dell'impossibilità di usare i dati digitali di oggi. Per impedire ciò, secondo Cerf, non sono sufficienti solo le tecnologie, ma vanno cambiate anche le regole del copyright. Sostiene Cerf che il problema inizi negli anni Settanta, quando si è cominciato a sostituire il supporto cartaceo con quello digitale. Alcuni dei primi protocolli di Internet furono stampati su carta, e ancora oggi possono essere letti. Ma lo scambio dei messaggi elettronici in cui furono discussi tali protocolli non è più accessibile, perché non esiste più il programma necessario per leggerli. Alcune informazioni rischiano di andare perdute, come quelle che non possono essere salvate su carta e non hanno senso fuori dall'ambiente che permette di leggerli.

Si possono, però, registrare misurazioni come una semplice sequenza di numeri. Ma è probabile che in futuro qualcuno potrebbe trovare quel file e usarli e interpretarli a proprio piacimento anche non sapendo il significato di quei numeri. Secondo Cerf non è conveniente rassegnarci e adattarci a questo potenziale avvento, ma è necessario emendare il copyright in nome della conservazione digitale. Bisognerebbe arrivare a un accordo che permetta a una qualche autorità di avere accesso a programmi, codici sorgente e sistemi operativi, con la missione di conservarne copie.

"Internet è ormai fondamentale ma non può diventare l'unica fonte di conoscenza". La rete internet è un'invenzione in un certo senso ‘neutra' ma ci sono persone che ne fanno un ottimo utilizzo e persone che ne abusano. Anche se non si tratta di una risorsa primaria per la sopravvivenza come l'acqua e il cibo, Internet è ormai fondamentale per garantire un accesso all'informazione, e questa è da sempre la chiave per il progresso di ogni società: quella di poter accedere alle informazioni nel modo più veloce possibile. Nonostante questo, è preferibile, dice Cerf, che oltre a questo strumento, che a volte offre informazioni non del tutto vere, usufruire anche dei libri delle biblioteche, nei quali l'informazione cercata è senza alcun dubbio molto più attendibile.

"Siamo noi i nodi della grande Rete". In un'intervista, Cerf sottolinea che Internet è in continuo cambiamento. Tale cambiamento è costituito dall'uso del wi-fi, della fibra ottica, degli smartphone. Tutto è in costante evolversi, ma l'architettura di base è la stessa da 40 anni e continua ad adattarsi bene alle novità. Anche grazie all'invenzione della posta elettronica, Internet è passato dal diventare una rete di computer a una rete di persone favorita dall'interazione degli uni con gli altri anche se in modo non istantaneo. Inoltre, per merito di Internet, è possibile realizzare i propri obiettivi.

Evgenij Morozov: il lato oscuro della rete[modifica]

Evgeny Morozov

Evgenij Morozov è un sociologo della Bielorussa. La sua notorietà è dovuta principalmente alla sua posizione critica nei confronti del comune entusiasmo e ottimismo che caratterizza il dibattito sulle virtù potenziali "democratiche e anti-totalitaristiche" di Internet. Morozov, oltre a esprimere la sua visione critica attraverso la proficua attività giornalistica, che si compone di un notevole bagaglio di articoli e conferenze stampa, ha pubblicato 3 libri in cui, attraverso uno stile brillante, satirico, divertente, ma non privo di sensatezza, espone le sue tesi in maniera radicale e irriverente, scavando nelle conseguenze sociali, politiche ed economiche e mettendo in luce il modo in cui le nuove tecnologie stanno cambiando il panorama del quotidiano.

Nel settembre 2017, in occasione del Festival della Comunicazione di Camogli, il sociologo bielorusso ha esposto le sue incertezze verso l'ottimismo della Silicon Valley. [3] . Morozov parla di un gap digitale fra ricchi e poveri, che impedirebbe ai secondi di godere di quello che viene da lui definito il vero lusso: il distacco dal web. Il web, infatti, è considerato da Morozov alla stregua di uno strumento per i pubblicitari i quali, anche tramite Social Network come Facebook o tramite Google, riescono ad avere accesso ad una molteplicità di dati che servono a tradurre le preferenze di chi naviga in termini di target. Il politologo si schiera a favore della tecnologia, ma contro questa ingenua dipendenza dall'Internet, attestando la necessità di disintossicarsi da un mondo che alimenterebbe il business di imprese private a discapito della privacy dei cittadini.

In una celebre intervista[4], Morozov identifica una minaccia nell'attuale sogno di perfezione della Silicon Valley e nel modo di affrontare problemi sociali quali educazione, sanità e crimine. Un esempio è dato dal modus operandi della cosiddetta polizia predittiva, non più una semplice utopia cinematografica (Minority Report), bensì una realtà da conoscere. Con l'utilizzo dei Big Data, infatti, al mondo odierno si ha libero accesso a una raccolta di dati molto estesa che contiene informazioni aggiuntive di tutto ciò che viaggia attraverso internet, garantendo la possibilità di monitorare e tracciare digitalmente le azioni compiute dei singoli individui. Ed è proprio ciò che è successo a El Chapo, il quale, nonostante le precauzioni prese per sfuggire alla sorveglianza elettronica, fu arrestato non appena uscito dal territorio di cui aveva il controllo politico-militare assoluto.

Il vantaggio ottenibile da un sistema del genere deve fare i conti con le conseguenze sociali che portano cambiamenti nelle relazioni tra cittadino e stato: si passa da una situazione in cui è possibile far affidamento sull'istituzione pubblica a un modello dove è proibito 'sbagliare'. Se la polizia predittiva rende impossibile l'accadere di azioni "sbagliate" cosa rimane alla soggettività di un individuo? Morozov risponde alla domanda approfondendo acutamente il legame tra democrazia e disobbedienza civile: l'atto volontario di infrangere la legge e subirne le conseguenze rende possibile un'affermazione politica, ma in un sistema dove vige l'assenza di scelta fra bene e male, è impossibile che ciò accada, poiché il sistema della polizia predittiva blocca in anticipo il compiersi di un reato. Se un tale sistema politico non ha modo di introdurre nuovi fatti e si identifica come il sistema perfetto, si corre il rischio di una cristallizzazione sociale che non permette di scoprire che ciò che viene considerato illegale oggi potrebbe non esserlo in futuro. Il prezzo da pagare diventa evidente quando Morozov trasporta il medesimo problema nel contesto storico statunitense di alcuni decenni fa, anni in cui era illegale per una persona di colore entrare in un ristorante. "Se avessero costruito dei sistemi predittivi attorno a quella legge", sostiene Morozov "oggi probabilmente sarebbe rimasta immutata, senza avere la possibilità di essere revisionata attraverso comportamenti devianti".

Il sociologo punta dunque il dito contro la Silicon Valley, evidenziando che le grandi aziende non solo non si curano affatto delle conseguenze politiche, etiche, culturali e sociali, ma non sono chiamati a rispondere per qualsiasi danno collaterale: nonostante la scoperta, ad esempio, che Google rubava le password dei Wi-Fi, la compagnia ha dovuto pagare una piccola multa senza altre ripercussioni. Se Google si presenta come la rete che garantisce la promessa di meritocrazia intellettuale, dove le voci e opinioni più interessanti ricevono maggiori attenzioni, diventa necessario sfatarne il mito e considerarne la manipolazione informativa attuata dalle grandi aziende che ingaggiano altre aziende di Pr per diffondere e rendere virali i propri prodotti. Il primo passo verso una possibile soluzione, suggerisce Morozov, è prendere coscienza del problema e cercare di spodestare le multinazionali dal controllo di Internet, attraverso tecnologie che "possano creare spazio nuovo fra i contendenti, qualcosa di estraneo sia agli Stati che alle corporation", sviluppando canali discorsivi che siano efficienti, ma non vulnerabili. L'obiettivo deve essere quello di sensibilizzare sulla vera faccia del mondo cibernetico, riappropriandoci di un'etica del discorso.

L'ingenuità della rete[modifica]

L'ingenuità della rete è il primo libro, divenuto best-seller, scritto da Morozov, nel quale, con un linguaggio misto tra sarcasmo e preoccupazione e tuttavia mai privo di una notevole capacità analitica, critica fortemente il fenomeno Internet, partendo da una 'demitificazione' del sogno americano della Silicon Valley, fino a demolire il cieco ottimismo di uno dei più grandi sostenitori del progresso tecnologico dell'ultimo secolo: Steve Jobs.

The Net Delusion: The Dark Side of Internet Freedom[modifica]

The Net Delusion: The Dark Side of Internet Freedom è il titolo di un saggio di Evgenij Morozov pubblicato nel 2011 e tradotto in italiano nello stesso anno con il titolo L'ingenuità della rete. Il lato oscuro della libertà di internet. Una delle tesi di fondo del testo è che Internet non abbia indebolito la forza della censura da parte dei governi di tipo autoritario. Al contrario, questi ultimi hanno imparato velocemente a sfruttare gli strumenti forniti dalla Rete per rintracciare e minare l'anonimato di attivisti e oppositori politici.

Internet non salverà il mondo[modifica]

To save everything, click here: technology, solutionism and the urge to fix problems that don't exist è il titolo di un saggio di Evgenij Morozov pubblicato nel 2014 e tradotto l'anno successivo in italiano con il titolo Internet non salverà il mondo. Perché non dobbiamo credere a chi pensa che la Rete possa risolvere ogni problema.

Silicon Valley[modifica]

Morozov ha continuato a provocare un ampio dibattito sugli effetti sociali e politici dello sviluppo della tecnologia, pubblicando nel 2016 un saggio intitolato Silicon Valley: i signori del silicio. Il suo obiettivo è farci aprire gli occhi sulla rivoluzione tecnologica promossa dalla Silicon Valley, il distretto industriale leader al mondo nelle tecnologie avanzate . Essa, presentandosi come colei che avrebbe posto fine al capitalismo, ci ha convinti che tutto oggi debba essere digitale e connesso e che opporsi all'innovazione tecnologica equivarrebbe a far fallire gli ideali dell'Illuminismo con Larry Page e Mark Zuckemberg nei panni di novelli Diderot e Voltaire in versione nerd. Ma se prestassimo attenzione ai risvolti geopolitici ed economici ci renderemmo subito conto che l'evasione fiscale di società tecnologiche impedisce alle alternative pubbliche di emergere ma soprattutto ci accorgeremmo che, usando app tutto il giorno, lasciamo che esse non solo ci sorveglino ma che registrino tutti i nostri dati diventando utili archivi imperdibili per ogni pianificatore urbano cosicché competenze che dovrebbero essere soggette al pubblico scrutinio e dati che dovrebbero appartenerci in qualità di cittadini vengono ceduti ad aziende private e la politica è costretta ad abdicare al suo ruolo in favore dell’ottimismo tecnologico diffuso. La Sylicon Valley è riuscita a controllare ogni aspetto della nostra vita, eludendo vicoli sociali, economici e politici: stiamo andando incontro ad un regime commerciale di completa deregulation in cui i nostri dati saranno uno dei pilastri. Morozov invita i cittadini a riconquistare la sovranità sulla tecnologia e sull'economia possibile solamente grazie ad una presa di coscienza del ruolo e dell’importanza della politica come gestione condivisa della cosa pubblica.

Nicholas Carr. La gabbia di vetro: le conseguenze dell'automazione sull'uomo[modifica]

Nicholas Carr

Internet ci rende stupidi? (2010)[modifica]

La gabbia di vetro (2014)[modifica]

Il punto di partenza delle riflessioni di Nicholas Carr è di natura metodologica: l'automazione è indagata dal punto di vista delle sue conseguenze sull'umanità.

Il progresso della macchina e dell'automazione ha ingenuamente considerato la "tecnologia come panacea dell'economia" e si è costruita sull'utopico sogno di liberare l'uomo dal lavoro mediante "la schiavitù della macchina". Tuttavia tra le attività più appaganti dell'uomo, sebbene egli lo neghi continuamente, c'è il lavoro. Nell'attività lavorativa è più facile trovare la soddisfazione perché ci troviamo ad affrontare sfide che ci spingono all'impegno e alla concentrazione. L'automazione si caratterizza, dunque, come il mal riposto desiderio di liberarci dall'impegno e dalla fatica. Le scelte che facciamo nel tenere delle attività per noi e nel delegarle ad una macchina non sono di natura meramente economica o pratica ma riguardano l'essere umano e la sua destinazione nella società , "sono scelte etiche". Dall'analisi delle conseguenze dell'automazione sui piloti di aerei e sul sistema di trasporto aereo in genere Carr trae importanti considerazioni: l'automazione non cambia il modo di lavorare quanto il lavoratore stesso.

Compiacimento dell'automazione (automation complacency) e condizionamento da automazione (automation bias) sono i due atteggiamenti indotti che vengono presi in esame e che costringono l'operatore di fronte ad un sistema automatico a trasformarsi da attore in osservatore. Con il compiacimento dell'automazione, il soggetto si riposa su un infondato senso di sicurezza; nel momento in cui il computer sbaglia, si è disorientati e incapaci di agire. Dal compiacimento dell'automazione deriva quasi necessariamente il condizionamento: quando un sistema restituisce dei risultati in output, fossero pure sbagliati o fuorvianti, ci si crede. "Più è elaborato il sistema informatico, più inizi a pensare che corregga i tuoi errori [...]. "La fiducia nel software è così forte che si scartano tutte le altre possibili fonti informative, compresi i propri sensi". Il sistema automatico sembra frapporsi tra noi e il mondo, impedendo quel flusso continuo tra problema e soluzione, e relegandoci nella pigrizia e nell'inconsapevolezza. Dal sistema di trasporto aereo Carr passa alla sanità, alla finanza, al lavoro nell'industria, ai sistemi di navigazione satellitare, ai sistemi di progettazione per architetti trovando continue conferme: l'automazione, cercando di superare l'intrinseca difficoltà connaturata al rapporto che intercorre tra uomo e mondo e cercando di eliminare ogni nostro attrito con la vita crea strumenti degeneri, che strumentalizzano l'uomo, riducendolo al ruolo marginale di "sorvegliante", osservatore inerme di processi a lui totalmente estranei.

Non è un caso che uno dei principi guida di tutti i software odierni sia l' "usabilità" ossia quella capacità di compiere una data operazione senza "sforzare" l'utilizzatore. L'automazione ci restituisce, dunque, un'esistenza "priva di frizioni", sopprime il nostro rapporto con il mondo esterno, togliendo lo stimolo all'azione del pensiero. L'automazione, nata come strumento per un fine, ci fa raggiungere i fini escludendoci dai mezzi per il loro ottenimento. È necessario conservare i benefici dell'automazione riportando i sistemi automatici al rango di strumenti. L'obiettivo di Carr è un ripensamento radicale dell'automazione in chiave umanista. L'approccio fondamentale per una "human-centered automation" era stato individuato già da Norbert Wiener: "la macchina deve essere ergonomica, deve cioè adattarsi a colui che la utilizza".

L'automazione che Carr critica è quella centrata sulla tecnologia, animata da una sfiducia nelle capacità umane, che, desiderando di raggiungere i massimi livelli di efficienza, velocità e profitto, ha totalmente trascurato l'aspetto ergonomico e la fondamentale interazione uomo-macchina causando i più grandi fallimenti progettuali. L'automazione antropocentrica diventa, negli aspetti più pratici, un'automazione "adattiva" nella quale il sistema è programmato per rivolgere costantemente l'attenzione a chi lo utilizza. Il sistema svolge principalmente funzioni di analisi lasciando la decisione all'operatore; tuttavia, il rapporto tra sistema e operatore è profondamente collaborativo ed inclusivo: macchine ed utilizzatori si scambiano costantemente compiti avendo come fine un miglior risultato prestazionale.

Un'automazione di questo tipo non è più alienante ed escludente ma, essendo meno invadente, libera lo spazio della decisione, della creatività e dell'immaginazione. Questo è il senso profondo di un'automazione umana per gli uomini, che stia sotto la categoria di strumento, medium fondamentale del rapporto tra uomo e mondo, il cui fine è sempre la connessione relazionale nella quale si realizza la conoscenza umana. Questo modello di automazione adattiva e umanista richiede tuttavia la fatica dell'apprendistato, l'incertezza e le difficoltà dell'interazione, quel sacrificio di rendimento e velocità che mal si accorda con il paradigma della nostra società inevitabilmente orientato verso un'automazione tecnocentrica, i cui principi di efficienza, velocità e semplificazione dirigono le azioni di produttori e consumatori sempre verso i prodotti che diano risultati più facilmente, con il minimo sforzo e nel minor tempo possibile. Di fronte a questa radicalità, un'automazione antropocentrica diventa difficile se non utopica, tuttavia "per garantirci un futuro benessere sociale, potremmo dover mettere limiti all'automazione".

Manuel Castells: la società in rete[modifica]

Manuel Castells analizza con chiarezza il mondo che ha creato Internet, concentrando sulle trasformazioni avvenute nella società, nell'economia e nella politica. Secondo l'autore l'avvento di Internet ci ha condotti in una nuova era, ricca di cambiamenti. Castells afferma che Internet è stato salutato come uno strumento di libertà, e al tempo stesso è stato interpretato come uno strumento di controllo. In realtà Internet è neutro, sta a noi usarlo in maniera positiva o negativa. Per questo motivo egli non fa previsioni per il futuro, decidendo di analizzare semplicemente il passato e il presente di Internet. Internet ha modificato sia il nostro modo di vivere, di gestire le aziende e i profitti, sia ha creato un nuovo modello di socializzazione, che aiuta a mantenere vivi anche i rapporti meno stretti. Il cuore del libro sono indubbiamente i capitolo cinque e sei che analizzano il cambiamento che internet ha avuto nella politica. Infatti anche la politica è cambiata, ed si è sviluppata la "noopolitik", termine usato per indicare le nuove questioni politiche relative alla nascita di una noosfera (l'insieme di tutti gli ambienti dei media e del cyberspazio), e può essere contrastata con la "realpolitick" ossia la politica tradizionale che promuove il potere dello stato. Nella conclusione invece afferma che, anche coloro che non vorrebbero avere nulla a che fare con le nuove reti, la nuova tecnologia, non possono scappare dalla rivoluzione di Internet, in quanto se loro non vorranno avvicinarsi ai nuovi cambiamenti, saranno i nuovi cambiamenti ad avvicinarsi a loro. In conclusione egli afferma che non si può fuggire da Internet e dalle sue novità, poiché è in atto un processo di globalizzazione.

Steven Levy: l'etica hacker[modifica]

Steven Levy

Hacker: Gli eroi della rivoluzione informatica è un libro scritto da Steven Levy nel 1984, riguardante la cultura hacker e l'impatto di questi sull'evoluzione dell'informatica. Lo scopo dell’autore è rappresentare la differenza essenziale tra ciò che sono realmente e ciò che, invece, appaiono agli occhi del mondo. Steven li conobbe e ne rimase tanto affascinato quanto da scrivere su di loro. Essi sono considerati programmatori “scorretti”, ma, in realtà, sono avventurieri, artisti, gente disposta a rischiare per amore dell'hacking.

A tal proposito Steven Levy tratterà la storia degli hacker, che comprende un periodo che va dagli anni Cinquanta agli anni Novanta.Con gli hacker si sviluppò quel diverso rapporto tra uomo e macchina che determinò la nascita dell' etica hacker, creando così una vera e propria filosofia. Essa prevedeva:

  • L’imperativo di metterci le mani su: l’accesso ai computer deve essere illimitato e libero perché è possibile imparare smontando le cose, osservando come funzionano e usando questa conoscenza per creare cose nuove.
  • L’informazione deve essere libera.
  • Dubitare dell’autorità. Promuovere il decentramento: per gli hacker il modo migliore per promuovere il libero scambio di informazioni è avere sistemi aperti.
  • Gli hacker dovranno essere giudicati per il loro operato e non sulla base di falsi criteri (ceto, razza, età)
  • I computer possono cambiare la vita. Come ben sappiamo per gli hacker il computer era come la lampada di Aladino: poteva far realizzare i propri desideri.

Nel saggio Steve Levy spiega che gli hacker sono stati definiti "criminali informatici". L'accezione negativa al termine non è solo inesatta, ma anche inadeguata nei confronti di persone che hanno contribuito all’avanzamento dei computer e quindi dell’informatica. Sono stati accusati da Weinzebaum, professore di informatica al Mit, di disumanizzazione dalla società. La sua critica parte dal suo programma “terapeuta” chiamato Eliza, finalizzato all’ascolto delle persone. Difatti, anche se loro sapevano che Eliza fosse sole un programma, raccontavano le proprie problematiche. Per Weinzebaum questa era la dimostrazione di quanto il potere dei computer spingeva gli uomini ad adottare un comportamento irrazionale, di dipendenza e di disumanizzazione. Steven Levy conclude il saggio definendo con attenzione e precisione cosa si intende con il termine " hacker". Molto tempo fa l'hacker era visto come una forza del male, in quanto alcuni si erano fatti conoscere come coloro che violavano la proprietà per eseguire l’imperativo di metterci le mani su. Per l’autore, però, la deduzione che queste goliardate siano l’essenza dell’hacking non solo era sbagliata, ma anche offensiva nei confronti dei pionieri dell'informatica, il cui lavoro aveva cambiato il mondo.

Pekka Himanen: l'etica hacker e lo spirito dell'età dell'informazione[modifica]

Pekka Himanen

L'etica hacker e lo spirito dell'informazione (The hacker ethic and the spirit of the information age) è un saggio del 2001 di Pekka Himanen. Punto di partenza necessario, per la comprensione del libro è la definizione importante che viene data, nella prefazione, del termine hacker, il cui significato è stato modificato nel corso del tempo dai mass media, indicando quelle figure che compiono atti criminali di tipo informatico. Il reale significato di Hacker è quella di persone che "programmano con entusiasmo" e si contraddistinguono da coloro che compiono atti illeciti in rete, definiti invece cracker.

Decisiva questa prima spiegazione in quanto tutto il libro si articolerà nell'analisi dei valori, e dei vari ruoli che possiede questa figura. Il testo viene scritto grazie alla collaborazione di Linus Torvald e Manuel Castells, i quali pongono due visioni a confronto, quella dell'informatico e quella del sociologo, regalando, così, un quadro d'insieme al lettore. Il testo analizza lo stile di vita degli hacker, e i valori morali a cui essi aderiscono, dimostrando una forte frattura con quello che è il modello di vita promosso dalle società contemporanee. Il rapporto con il lavoro, con il tempo, o il modo in cui concepiscono la rete, è basato su pochi, ma importanti concetti, come la condivisione totale delle informazioni, la capacità di sfruttare il tempo in modo creativo ed appassionato, l'emancipazione, e la realizzazione di se stessi. Pekka Himanen svolge una profonda e lucida analisi, non solo della figura dell'hacker, ma di tutto il contesto sociale, politico ed economico in cui questi emergono, evidenziando fatti di cronaca mondiale, all'interno dei quali gli Hacker risultano aver avuto un ruolo fondamentale. La rete, quindi, per gli Hacker, deve essere accessibile a tutti, ma, soprattutto, non deve essere sfruttata per i vantaggi dei "Pochi" (Industrie, Governi), ma per il benessere di tutta la collettività.

Il gruppo Ippolita: critica della rete e informatica del dominio[modifica]

Open non è free: comunità digitali tra etica hacker e mercato globale[modifica]

Il gruppo Ippolita in questa trattazione riflette sull'impatto del mondo digitale nella vita reale , affrontando tale cambiamento da vari punti di vista. Ciò che risulta , dalle numerose argomentazioni dell'autore , è che la storia dell'evoluzione dei sistemi operativi , la quale comprende numerose difficoltà in cui si incontrano ambiti delicati come l'etica e il diritto. Tematiche di primaria importanza come quella della licenza , ad esempio , la quale viene affrontata analizzando anche dal punto di vista storico , viene risolta contrapponendo i termini copyright e copyleft nelle loro differenze , in quanto entrambi i termini fanno riferimento ai diritti , sia dell'utente che del programmatore. Nel saggio viene esplicitato in diversi punti il profilo del fenomeno "hacker" , la definizione , l'etica , le comunità hacker e le diverse tipologie , il continuo riferimento alla loro capacità di interagire con il programma , di creare nuovi ponti e nuovi linguaggi. Creare nuovi linguaggi nell'ambito digitale significa creare nuovi codici , la traduzione è sempre fonte di errore , ciò pone l'obbiettivo degli hacker in potenza : c'è sempre modo di migliorare. Una delle discussioni più chiarificatrici è quella che ha per oggetto l'Open Source e il Free Software , trattazione che viene affrontata in tutti i capitoli. Questo metodo rende giustizia al reale intreccio presente all'interno del mondo digitale , intreccio dovuto alla collisione di interessi economici da parte di aziende multinazionali , quindi all'adattamento di tali sistemi al mercato globale. Viene fatto riferimento a Philip K. Dick , quindi ai concetti di "protezione delle idee" e "proprietà intellettuale" , tali tematiche inglobano l'argomentazione in merito ai diritti degli utenti , viene fatta chiarezza sul progresso del tema dei diritti.

Raffaele Simone: la mediasfera[modifica]

Il linguista italiano Raffaele Simone, nel suo libro Presi nella rete. La mente ai tempi del web (2012), sottolinea come la tecnologia ha trasformato il nostro modo di usare il corpo e la mente. A partire dal prologo, l'autore parla della Mediasfera, ossia un ambiente dove gli strumenti elettronici in rete (media) ricoprono un ruolo fondamentale, non come semplici cose, ma come presenze arroganti e invadenti. Questa fase storica, chiamata dall'autore "Terza fase", è caratterizzata da un'ubiquità dei media senza precedenti. Questi infatti sono ovunque, materiali o immateriali a seconda che si tratti di hardware oppure software. La mediasfera è arrivata ad urtare la noosfera, ossia ciò che risiede nella mente umana, dai pensieri alle opinioni su qualsiasi tema. All'interno dl libro, Raffaele Simone analizza in maniera minuziosa tutti i cambiamenti che la mediasfera ha causato nell'uomo. Oggi, ad esempio, possiamo leggere un libro su gadget elettronici e nello stesso momento pubblicare il passo che stiamo leggendo condividendolo con il mondo intero. La mediasfera, per Raffaele Simone, ha intaccato l'idea di narrazione della storia, ovvero quelle concezioni che si assorbono con la cultura, perché rende irreale e falsa la nostra esperienza che dunque si dissolve proprio come la nostra capacità di esporre fatti. Infine i media hanno anche il merito di dare voce a chi apparentemente non ne ha, ovvero tutti coloro che non appartengono ad un partito politico. Proprio con questo preciso scopo sono nate le democrazie digitali che sono uno dei più grandi prodotti della mediasfera. Grazie alla rete molte persone si riuniscono per organizzare manifestazioni per far sentire la propria voce, la propria idea in merito ad un certo tema. Le democrazie digitali non hanno tuttavia una struttura ben definita, deficit che le rende altamente volatili, il che vuol dire che possono smettere di esitere in qualsiasi momento.

Viktor Mayer-Schonberger: i Big Data[modifica]

Viktor Mayer-Schönberger

L'uomo nei suoi intenti conoscitivi e pratici è sempre stato costretto a lavorare con piccole quantità di informazioni. Ciò era dovuto alla tecnologia che costui aveva a disposizione per raccogliere e diffondere le informazioni. Basti pensare che i libri, da sempre considerati il principale mezzo di trasmissione della conoscenza, per secoli sono stati chiusi nelle biblioteche dei conventi e pochi potevano consultarli. Una rivoluzione in questo ambito avviene con l'invenzione della stampa, che permettendo una più vasta circolazione del sapere, incrementò le informazioni di cui un uomo poteva entrare in possesso. Questo fenomeno storico si ricollega alla rivoluzione scientifica nonché al compimento politico della modernità. Oggi, nel XXI sec., lo sviluppo dell'informatica ha portato verso una nuova dimensione di conoscenza possibile quella dei Big Data, suscettibile, come la stampa prima di essa, di influenzare profondamente il mondo in cui viviamo.

Un'analisi dettagliata e innovativa sul fenomeno viene da Viktor Mayer-Schonberger e Kenneth Cukier in un loro recente saggio: Big Data; una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà. Quanto segue sotto è una sintesi delle loro osservazioni. Per Big Data s'intende l'attuale capacità tecnica di raccogliere enormi quantitativi di dati, e di elaborarli mediante algoritmi e modelli statistici per poi ricavare trend e previsioni sulla realtà. La relazione identitaria che esprime questa quantità è N = tutti. L'obiettivo è quello di estrapolare circa un fenomeno che si va analizzando un numero di informazioni tendente alla totalità. Un tale sistema va verso il superamento del metodo tradizionale del campionamento, il quale, nonostante la sua migliore accuratezza, trascura i dettagli. Non vi è un'informazione nel metodo dei Big Data che meriterebbe di essere sorvolata, tutto è in qualche modo rilevante. Solo attraverso una sguardo veramente ampio di quello che si osserva, si possono individuare quelle correlazioni generali tra gli eventi, che prima sfuggivano all'uomo.

Ma di quali informazioni i Big Data sono composti? Qualsiasi genere di informazioni. Non v'è un ambito di realtà che attualmente non possa essere sottoposto ad un processo di datizzazione. Le nostre preferenze di acquisto su Amazon. I nostri post su Facebook e Twitter. Le parole-chiavi digitate sui motori di ricerca. Il nostro corpo , se collegato ad apparecchiature capaci di trasformare i nostri segni vitali in informazioni. Il mondo fisico attraverso le migliaia di tecnologie che lo monitorano, dall'atmosfera al mare fino ai movimenti delle placche tettoniche. Tutto oggi è può essere trasformato in dati, ovvero in informazioni denotate di significato per l'uomo e da cui questi può ricevere utilità pragmatica e conoscitiva. I dati hanno poi iniziato ad avere un loro valore economico autonomo. Le informazioni sono diventate l'oggetto delle transazioni e nuove categorie di professionisti, i Data Specialist, entrano in gioco, offrendo le loro competenze a chi vuole sfruttare pienamente il potenziale dei dati.

I Big Data si presentano come una grande opportunità per l'umanità. Nuovi traguardi conoscitivi verranno raggiunti, e, grazie al loro potere previsionale, l'uomo potrà adoperarsi per migliorare l'organizzazione del mondo sociale in cui vive. Tuttavia un uso poco saggio e perverso delle informazioni potrebbe risultare pericoloso. La privacy, il diritto alla riservatezza, è già oggi oggetto di pratiche lesive. Molti dei dati usati da imprese e governi riguardano i cittadini e spesso aspetti personali e confidenziali delle loro esistenze. Il consenso informato non sempre riesce a tutelare la riservatezza. Molti utilizzi dei dati sono infatti futuri ed è contraddittorio dare la propria approvazione verso usi di cui non si conosce il contenuto. Anche la libertà dell'uomo rischia di essere minata. Le previsioni statistiche tendono a divenire sempre più precise, e nulla impedisce che prima o poi vengano applicate in campo giudiziario. Si inizierebbero ad adottare misure preventive a sfavore di individui o gruppi, quando i dati li dipingano come probabili criminali. Ancora, si arriverebbe ad arrestare un individuo prima della commissione del fatto, solo perché secondo il risultato di un algoritmo costui avrebbe a breve compiuto un delitto, venendo così attaccati i diritti fondamentali della persona previsti dalle costituzioni moderne e la fiducia dell'uomo come essere dotato di libero arbitrio. Gli autori paventano quindi la necessità che lo sviluppo tecnologico dell'uomo subisca sempre l'influsso di una sua "direzione etica".

Manfred Spitzer: la demenza digitale[modifica]

Manfred Spitzer

Demenza digitale: come la nuova tecnologia ci rende stupidi (Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen) è un saggio scritto dal neuropsichiatra tedesco Manfred Spitzer nel 2012.L'autore, dirigente della Clinica psichiatrica e del Centro per le Neuroscienze e l'Apprendimento dell'Università di Ulm, spiega l'influenza negativa dell'intensivo uso dei media digitali sullo sviluppo cerebrale degli esseri umani, soprattutto tra l'infanzia e l'adolescenza in quanto il cervello è in piena fase di sviluppo. Nello specifico, il neuropsichiatra ritrova una significativa relazione tra la corteccia prefrontale-orbitofrontale e l'ampiezza del gruppo e pensiero sociale. Da questo ne consegue che l'utilizzo di media digitali, che si basano su rapporti "virtuali", diminuisce la dimensione delle zone del cervello utilizzate nell'ambito della realtà sociale."Il nostro cervello è prima di tutto e soprattutto un cervello sociale"[1].

In merito l'autore dice che: "La demenza digitale si caratterizza sostanzialmente per la crescente incapacità di utilizzare e di controllare appieno le prestazioni mentali"[2], producendo effetti collaterali quali: stress, obesità, insonnia, depressione, dipendenza e perdita di controllo. Tutto questo rende il soggetto incapace di avere padronanza di se stesso e dell'ambiente che lo circonda. Tra le persone dipendenti, le più frequenti attività in rete sono: acquisto su Internet, chatroom e utilizzo eccessivo di video. Spitzer elenca una serie di caratteristiche dei videogiochi che possiedono un potenziale livello di dipendenza: coinvolgono più partecipanti, sono i più violenti e donano ricompense virtuali. L'autore riporta innumerevoli dati scientifici che descrivono la triste realtà del mondo digitale, identificando la Corea del Sud come il Paese con il più elevato grado di dipendenza; criticando pedagogisti, politici e industriali del mondo informatico interessati soltanto al marketing piuttosto che al futuro dei giovani. Ulteriore problematica giovanile riscontrata dall'autore è l'abbassamento del rendimento scolastico, in quanto apprendere esclusivamente attraverso il computer non è propedeutico, per tali ragione il cervello essendo come un "muscolo" deve essere allenato tramite l'attività di memorizzazione, riflessione e capacità critica. Ragion per cui Manfred Spitzer invita a prendere coscienza delle criticità e a non indebolire il corpo e la mente dei "nativi digitali" attraverso l'utilizzo di tecnologie informatiche.

Geert Lovink: ossessioni digitali[modifica]

Geert Lovink

Geert Lovink (Amsterdam,1959) è un saggista olandese ed un teorico della rete. Nel suo libro "L'abisso dei social media" (2016) egli riflette sulla degenerazione del digitale, il quale assume il comando di un'epoca caratterizzata da disuguaglianze sociali e una stagnazione culturale nella società. I "nuovi media" sono ormai divenuti parte del problema. L'autore, infatti, pone l'accento sul fallimento della tecnologia, che influisce sulla vita dell'uomo, in particolare quando la routine prende il sopravvento. Questa degenerazione ha portato ad una nuova serie di <<internet studies>>, basati in particolare sulle problematiche del sovraccarico di informazioni, il multitasking e la perdita di concentrazione. Tale approccio viene definito "moralista" e si distingue, invece, dall'approccio degli studiosi europei, che si focalizzano sul contesto culturale ed economico del capitalismo digitale e i suoi effetti. Le politiche di internet dovrebbero, infatti, scacciare via le tentazioni della tecnologia attraverso specifiche routine per cambiare vita.

A questo proposito l'autore cita l'esempio di Howard Rheingold, propugnatore della posizione secondo cui l'autocontrollo e l'alfabetizzazione sui social media non sono innate, ma vanno insegnate. Egli propone, infatti, dei trucchi per allenare il cervello, fino a trasformarli in abitudini. Un'altra posizione interessante che affronta, appunto, il problema dell'ossessione digitale è quella di Morozov (Soligorsk, 1984), sociologo e giornalista bielorusso, esperto di nuovi media. Egli afferma nel suo libro Internet non salverà il mondo (2013) che la tecnologia non riuscirà a risolvere i problemi sociali. L'era del dot.com si è trasformata in una "fibra morale indebolita": Silicon Valley rappresenta la degenerazione del conservatorismo libertario; gli ideali progressisti sono stati abbandonati in favore di concezioni reazionarie. Nonostante ciò, questo quadro è destinato a rimanere tale a causa della scarsità nella produzione di studi critici, spesso denunciata dall'autore.

Ossessioni collettive: critica dei social media[modifica]

Geert Lovink in quest’opera affronta in chiave critica le culture di rete. Focalizza l'attenzione sul Web 2.0 considerando le nuove modalità di accesso alla rete: mobile apps e walled gardens(“giardini recintati” che filtrano tutto ciò che è ritenuto inadatto). La posizione di Lovink è quella di un mediatore che non si schiera a favore di nessuno, ma osserva e riflette in base alle critiche e alle teorie vantaggiose del web. L'autore propone di iniziare a trattare le macchine in modo autonomo, svincolate dall'uomo. Dedica la sua attenzione ai blog, che hanno cercato di eliminare l'apparenza del web integrando elementi di vita privata, ma sono tanto innovativi quanto distruttivi: cade il concetto di identità, danno vita ad una comunità in cui tutti seguono, guardano e si adattano a ciò che fa la maggioranza. Questo è il limite di questi media: essere un ambiente chiuso. Lovink mostra grande avversità nei confronti di Google, che mira al guadagno attraverso il consenso e l'utilizzo degli utenti. Problema che segue da tutto ciò è l'ignoranza degli oggetti tecnologici che vengono utilizzati, delle conseguenze della diffusione di troppi dati personali, ogni qual volta ci si registra a qualche sito, e l'ignoranza delle strutture politiche e istituzionali che si trovano dietro tutto ciò. Lovink vuole quindi contrastare questa mancata conoscenza attraverso una teoria che mira a formare dei soggetti attivi, non passivi della tecnologia.

Luca De Biase: homo pluralis[modifica]

Nel libro Homo pluralis, Luca De Biase ha esposto la sua visione circa l'utilizzo e la diffusione delle tecnologie nella realtà che ci circonda: essere umani nell'era tecnologica significa vivere in un ambiente arricchito da dati e utilizzare protesi digitali come lo smartphone. La tecnologia, entrando in simbiosi con la società e la cultura, ha migliorato la consapevolezza delle dimensioni nelle quali si vive, dei diversi punti di vista delle persone, connettendoli in modo da favorire la diffusione di informazioni circa i valori del bene comune, la progettazione condivisa e la deliberazione civica. In questo modo le scelte sono più libere ed è salvaguardata la dimensione plurale dell'uomo, la cui identità altrimenti rischierebbe di essere omologata.

Francesco Varanini: Macchine per pensare[modifica]

Macchine per pensare è un saggio e allo stesso tempo un romanzo storico. Permette di ripercorrere parallelamente l’avvento e lo sviluppo del computing e il pensiero filosofico occidentale rivolto alle macchine. Accanto alle vicende di matematici, logicisti e inventori come Frege, Zuse, Turing, von Neumann, l'autore accosta la storia del pensiero che ha portato poi l'uomo a costruire macchine per pensare. La storia si sviluppa nel dramma delle due guerre mondiali tra la macchina di Hollerith, che tutto controlla, sorveglia e punisce , passando per il sogno di un giovane Zuse che progetta nel proprio appartamento il primo calcolatore basato su codice binario , fino ad arrivare alla fine della guerra e all'annessa migrazione delle grandi menti verso la Silicon Valley.

Varanini dipinge un quadro in cui le scelte tecniche sono frutto del pensiero e dove la macchina non può prescindere dal contesto filosofico, culturale e storico che l'ha generata. Occidente, grande guerra, nazismo, paura delle masse, sterminio, bisogno di controllo in opposizione al sogno americano, agli anni della ripresa economica, alla fine delle grandi guerre. Non può che derivarne una biforcazione. Due macchine. Da un lato l'idea della macchina come sostituto dell'uomo, la macchina perfetta che guida e governa e libera l'uomo dalla paura. Infine : un computer-Dio. Dall'altro lato la macchina come stampella del claudicante cammino umano, il computer che accompagna l'uomo. Su questa seconda ipotesi si ha, all'inizio degli anni ’90, un rovesciamento paradossale. Proprio tramite quello stesso codice digitale offerto dal computing, erede del logicismo; proprio tramite i computer, macchine figlie del progetto logicista abbiamo accesso allo sconfinante, sinistro, spaesante e ricchissimo World Wide Web

Nel web è impossibile separare nettamente le credenze dalle verità. Ci muoviamo nella sterminata rete mossi nella ricerca di conoscenze da oscure congetture. Il Web può essere paragonato a un accozzaglia di detriti. Detriti che ci appaiono sempre anche come nuovi materiali di costruzione. Freud ci mostra il percorso per muoversi in questo caos. Accettare tutti i materiali. Accettare l'ambiguità. Formulare senza timore oscure congetture, interpretare, costruire conoscenza. Linguaggi di programmazione e database non sono in alcun modo novità. Sono solo l’estrema conseguenza del logicismo, da Leibniz a Turing. Il Web è novità. Freud ci chiama ad affacciarci senza paura sul web.

Piero Dominici: la società interconnessa[modifica]

Nel libro Dentro la società interconnessa Pietro Dominici espone il concetto di comunicazione (definita come un processo sociale di condivisione della conoscenza) e come la sua evoluzione abbia modificato la società e l'individuo che, a detta stessa dell'autore, non può però essere considerato in maniera oggettiva, ma va analizzato attraverso l'analisi e l'interpretazione dei pensatori precedenti.

Punto fondamentale dal quale il discorso prende moto è quello che Dominici definisce un "assunto forte", ovvero la presa di coscienza sulla complessità della comunicazione. Quest'ultima viene definita come "un'interazione sociale caratterizzata da un sistema di relazioni nel quale azione e retroazione (feedback) presentano un carattere probabilistico" alla quale partecipano attori sociali (individui), gruppi, comunità situazioni e contesti differenti. Poiché la complessità di un sistema è data dall'alto numero di variabili che ne rendono difficile l'osservazione, la comunicazione risulta essere particolarmente complessa da analizzare, rendendo l'individuazione di "regolarità" e fare il "previsioni" l'unico percorso percorribile ai fini di una sua analisi. È poi posto all'attenzione del lettore come le nuove tecnologie stiano portando ad un processo di trasformazione antropologica in grado di mutare la natura dell'agire umano ed i suoi modi di conoscere ed approcciarsi alla realtà. Alla luce di ciò appare necessaria una riformulazione dell'etica, soprattutto in vista della nuova concezione di soggettività personale basata su una una maggiore autonomia individuale.

In un secondo momento, attraverso lo studio e l'analisi del pensiero di pensatori contemporanei, l'autore espone due differenti modalità di aggregazione degli individui, ovvero:la società di massa e la società dell'informazione verso la quale ci stiamo muovendo. La società di massa, omologante e conformista, basata su schemi di valori derivanti dal rapporto con la famiglia, il territorio, la comunità e nella quale l'individuo si ritrova ad essere solo un ingranaggio della società e ridotto a semplice consumatore, sta mutando verso una forma di società basata su diversi mezzi di aggregazione e ricchezze, quelle digitali. In entrambe le forme di società un ruolo importante è svolto dai mass-media che, mentre nella società di massa di manipolare con facilità gli individui (proprio in virtù del forte spirito di omologazione che li contraddistingueva), nella società dell'informazione perdono molta della loro influenza in quanto i messaggi da loro trasmessi vengo sempre processati e rielaborati individualmente dal singolo prima di essere discussi nel gruppo di appartenenza.

Su tale questione si oppongono due schieramenti: gli integrati convinti che l'arricchirsi della comunicazione con tali mezzi tecnologici sia un qualcosa di assolutamente positivo in grado di permettere maggiore democrazia ed uguaglianza, e gli apocalittici che vedono nei nuovi mezzi di comunicazione le basi per una frammentazione della società in favore dell'individualismo. Ricollocare la persona, portatrice di valori, di diritti e di un modello culturale al centro della riflessione e del pensiero contemporaneo, questa la proposta di Dominici nata dalla riflessione riguardo alla dimensione etico-valoriale e alle modifiche da essa subite con l'avvento delle nuove tecnologie. In particolare si definisce come la tecnologia debba tornare ad essere un "mezzo" e non un "fine". L'autore afferma che l'impulso produttivo che ha portato ad assottigliare la distanza tra offline ed online debba, soprattutto nel campo della divulgazione del sapere e delle notizie, cedere il passo ad una nuova categoria di persone, attraverso un processo di formazione possano assumersi la responsabilità di essere comunicatori divulgatori delle nuove forme di sapere.

Pedro Domingos: l'algoritmo definitivo[modifica]

Pedro Domingos, professore dal 1999 presso l'Università di Washington, è autore di numerose pubblicazioni scientifiche su temi relativi all'intelligenza artificiale e al machine learning, l'apprendimento automatico, con cui risolvere il principale problema che affligge gli algoritmi: la complessità.

Nel 2015 rilascia il suo primo libro per il grande pubblico: L'Algoritmo Definitivo. Il titolo dell'opera si riferisce ad uno dei sogni che gli studiosi di machine learning sperano, un giorno, di realizzare: un algoritmo di apprendimento universale perfetto da cui far derivare tutta la conoscenza, sia essa passata, presente o futura. Un algoritmo del genere, una volta realizzato, porterà ad una vera e propria evoluzione dell'uomo, che farà enormi passi avanti in ogni settore.

Per cercare di spianare la tortuosa strada che conduce all'Algoritmo Definitivo, Domingos analizza il variegato mondo del machine learning, identificando cinque tribù, scuole di pensiero differenti per idee e metodi utilizzati. Esse sono:

  1. Simbolisti, ispirati alla filosofia, alla psicologia e alla logica e basati sulla deduzione inversa, l'induzione, con cui creano algoritmi come gli alberi di decisione, che garantiscono che che ad ogni istanza corrisponda una sola regola;
  2. Connessionisti, basati su su neuroscienze e fisica, che si ispirano alla struttura del cervello, costituito da reti neurali, realizzando algoritmi quali la retropropagazione, che consente di procedere per strati invece di dover aggiustare il peso di ogni singolo neurone;
  3. Evoluzionisti, che hanno come base la genetica e la biologia evolutiva, le cui teorie sono utilizzate per realizzare i cosiddetti algoritmi genetici, che imitano la riproduzione naturale mediante crossover delle sequenze di bit, come se fossero cromosomi;
  4. Bayesiani, che si fondano sulla statistica e sul teorema di Bayes, utilizzato nell'inferenza bayesiana per aggiornare il grado di confidenza in un'ipotesi all'arrivo di nuovi dati, che aumentano la sua probabilità se consistenti con essa, nonostante si tratti sempre di credenze soggettive;
  5. Analogisti, la meno compatta fra le cinque tribù, che assomiglia più ad un gruppo di ricercatori diversi uniti solo dalla fiducia nei giudizi di somiglianza come base per l'apprendimento.

Analizzate le diverse scuole di pensiero, Domingos sostiene che, per raggiungere l'Algoritmo Definitivo, sia necessario unire in qualche modo le cinque tribù e cogliere, con un computer, l'essenza della mente di un bambino. Bisogna, innanzitutto, cercare un algoritmo che raggruppi spontaneamente oggetti simili o immagini diverse dello stesso oggetto: è il problema del clustering, uno dei più studiati nel settore. L'altra metà dell'opera consiste nell'abbreviare la descrizione di ogni entità. Gli esperti di machine learning chiamano questo processo "riduzione di dimensionalità", fondamentale quando si ha a che fare con enormi volumi di dati. Infine, Domingos nota che i bambini non si limitano ad imparare passivamente, ma agiscono, guidati dalle emozioni. I diversi learner analizzati finora sono guidati dalla gratificazione istantanea, ma esiste un altro settore: quello guidato dall'apprendimento per rinforzo. Idea fondamentale in questo tipo di apprendimento è che non tutti gli stati hanno una ricompensa, ma tutti gli stati hanno un valore. Questo tipo di apprendimento ha numerosi problemi, ma, se applicato ai learner di cui l'autore ha parlato nel corso dell'opera, raggiunge nonostante tutto risultati degni di nota.

Passo fondamentale verso l'Algoritmo Definitivo è la combinazione di più learner. Si parla di "metalearning" quando si tratta di apprendimento su learner. Uno dei metalearner più ingegnosi è il boosting, che non combina learner diversi, ma applica ripetutamente ai dati lo stesso classificatore, usando ogni nuovo modello per correggere gli errori del precedente. Il metalearning dà ottimi risultati, ma non combina i modelli in maniera particolarmente approfondita, oltre al fatto di essere molto costoso. Domingos crede che possa esistere un unico learner che faccia tutto da solo: l'Algoritmo Definitivo, il "Sacro Graal dell'informatica".

Lawrence Lessig: proprietà intellettuale e cultura libera[modifica]

Remix. Il futuro del copyright (e delle nuove generazioni)[modifica]

Lawrence Lessig

Lawrence Lessig, è un giurista statunitense. È un noto sostenitore della riduzione delle restrizioni legali sul diritto d'autore, come testimonia il libro Remix. Il futuro del copyright (e delle nuove generazioni), in cui espone i principali limiti di tale normativa e gli effetti che produce nella società. La legge sul diritto d’autore è diventata una normativa estremista che rende difficile un’ampia gamma di attività creative a cui qualunque società libera permetterebbe di esistere dal punto di vista legale. Questa mina lo sviluppo della cosiddetta cultura RW (read/write, leggi e scrivi), la quale è espressione di un nuovo tipo di creatività, basata sul remix, che consiste nella libera rielaborazione di musica, testi, video, fotografie ecc. Inoltre il remix produce due aspetti positivi: uno legato alla socializzazione, e uno all’educazione. I remix hanno luogo all’interno di una comunità di remixer e nell’era digitale, tale community, può estendersi in tutto il mondo. Ma è anche una strategia volta a stimolare l’apprendimento basato sull’interesse: tale forma di apprendimento scaturisce dall’interesse della persona, quando i ragazzi svolgono attività che li appassionano, essi apprendono di più e più efficacemente.

Però la legge sul copyright contrasta la pratica di tale cultura, il problema quindi è che questa è un’arte illegale, e di conseguenza chiunque la persegue viene definito criminale. Lessig mostra perciò la necessità di cambiare approccio, non eliminando le leggi sul copyright in quanto grazie ad esso incentiviamo la produzione di nuove opere che altrimenti non verrebbero prodotte, ma elaborando un modello "ibrido" che bilanci le esigenze dei creatori con il desiderio dei fruitori di impossessarsi dei prodotti artistici e culturali. La legge sul copyright deve essere cambiata, ma non abolita, quindi l'autore propone cinque modifiche che potrebbero migliorare il rapporto tra tale legge e la creatività RW.

  1. Bisogna dotarsi di una legge sul copyright che lasci la creatività amatoriale libera, mentre le copie delle opere professionali dovrebbero continuare ad essere regolate nel modo tradizionale.
  2. Avere chiari diritti: i detentori del copyright dovrebbero registrare le opere in un determinato server che ne attesti la proprietà per comprendere cosa appartiene a chi.
  3. Bisogna impegnarsi per semplificare la legge.
  4. La legge sul copyright deve abbandonare la sua ossessione per la copia: non dovrebbe, infatti, regolamentare le copie o le riproduzioni ma i loro utilizzi.
  5. Bisogna decriminalizzare il file sharing, autorizzando almeno quello non commerciale attraverso, ad esempio, l’imposizione di tasse.

Un cambiamento è necessario in quanto eviterebbe alle giovani generazioni di crescere con l’etichetta del “pirata”: in gioco, infatti, non c’è solo la libertà creativa, ma anche il rapporto di queste generazioni con la legge.

Il futuro delle idee[modifica]

Lawrence Lessig ha inoltre scritto un importante libro "Il futuro delle idee" incentrato sulle conseguenze che l'inasprimento in atto del regime di proprietà intellettuale determinerà sulla nostra libertà e sugli assetti regolativi della Rete. Internet è nata come spazio libero, in cui la cultura e l'informazione ,le idee del nostro tempo, potessero liberamente fluire generando un'inedita libertà d'espressione. Questa libertà si sta restringendo,giorno dopo giorno, da un punto di vista tecnico e legale. Il rischio è di un ritorno ad un età medievale in cui pochi gestori dei diritti impongono le proprie regole a tutto il mondo. Per evitare ciò è necessario, come Lessig evidenzia più volte, mantenere un equilibrio tra libertà e controllo delle risorse. Lessig in questo libro sviluppa le proprie argomentazioni entrando nel merito della proprietà privata delle idee, riscoprendo il loro valore come bene comune.

Antonio Caronia: il cyborg[modifica]

Il Cyborg è un saggio sull’uomo artificiale scritto da Antonio Caronia (Genova, 1944) nel 1985. Il punto cardine della trattazione è il rapporto uomo-macchina, e lo sviluppo che tale rapporto ha avuto nel corso dei secoli, partendo dalla preistoria e dal binomio homo sapiens e homo technologicus. L’autore considera il saggio in grado di orientare le domande dei lettori in merito al fenomeno dell’ibridazione fra esseri umani e tecnologie, perseguendo l’analisi del rapporto tra biologia e cultura degli esseri umani sia in una realtà immaginaria che nel mondo reale. Il saggio è suddiviso il due parti: L’alba dell’ibrido moderno e Il cyborg postfordista.

Nel primo capitolo troviamo la definizione di cyborg e le sue origini. Il cyborg nasce dalla fantascienza americana, negli anni Venti, affiancato dalle figure del robot e dell’androide. La prima definizione di cyborg ci è fornita da Odle in The Clockwork Man, la definizione asserisce che il cyborg è l’uomo dell’8000 d.c con un meccanismo ad orologeria nella testa con il quale può passeggiare nel tempo e nello spazio sconosciuto. Il cyborg è come i mostri medievali abitante di un'altra dimensione, un altro spazio. A differenza dei mostri medioevali che erano ancorati all’idea per la quale i mostri fossero legati la proprio creatore e quindi avevano come punto fisso l’uomo, unità di misura che ha posto Dio per distinguere ciò che è considerato normale dall’anormale. I cyborg rappresentano il punto di rottura con il sistema medioevale e rivelano la piccolezza dell’uomo nei confronti dello spazio, la sua fragilità. Il cyborg diventa l’unica chiave per approcciarsi a realtà che altrimenti rimarrebbero sconosciute.

Caronia ci offre un ampio spettro di tutte le diverse morfologie di cyborg che hanno preso forma nel corso dei tempi. Il primo modello di cyborg fu il più semplice e al tempo stesso il più radicale si parlò di un cervello in una scatola di metallo. Ciò che è messo in rilievo è quello che viene considerato il centro e l’organo più nobile dell’essere umano, il cervello. Il resto sono solo organi non necessari per la costruzione di un cyborg perfetto. Tale idea di cyborg si fece spazio tra diversi letterari del tempo e non solo scrittori di fantascienza. Il cyborg che invade la scena supera tutti quelli che possono essere considerati limiti umani, come il bisogno di nutrirsi o dissetarsi. Nel terzo capitolo del saggio, troviamo esplicitate le caratteristiche principali del confronto uomo-macchina e da ciò la nascita del cyborg. Il primo a sostenere che l’antitesi uomo-macchina sia in complementarietà col binomio naturale-artificiale, fu Cartesio, il quale sviluppando la sua teoria e visione meccanicistica del mondo, ha fatto sì che in età moderna l’uomo e la macchina siano uno il riflesso dell’altro. Il corpo umano, infatti funziona come una macchina perfetta e l’universo non è altro che un’immensa macchina costantemente in movimento nello spazio. Più tardi Diderot fece coincidere artificiale e naturale, sostenendo che tutto ciò che è creato dall'uomo è naturale poiché egli stesso fa parte della natura. Così nel secolo dei lumi, meccanicismo e naturalismo combaciano. Il cyborg diventa un’esasperazione delle peggiori caratteristiche umane. Successivamente si sviluppa una nuova immagine di cyborg che è a metà tra il meccanismo artificiale e l’uomo che vuole provare sentimenti. Di qui un’immagine sofferente, la macchina che si è fatta strada in lui non gli potrà permettere alcun contatto con l’umanità. Una questione che si fa sempre più sottile tanto da non riuscir più a distinguere con facilità artificiale e naturale, tanto da far sovrapporre se non scomparire tali concetti. Facendo coincidere la “meccanizzazione dell’uomo con la sua incapacità di amare. Lo stesso Caronia scrive: "Il cyborg si presenta quindi come l’oggettivazione di una sessualità disturbata non necessariamente come una minaccia ma certamente come simbolo di un’aggressione all’Io individuale o sociale di cui, comunque, lo sviluppo della tecnica è una componente importante".

L'autore analizza poi le origini del concetto di sottomissione dell’uomo alla macchina. Molti infatti sostengono che queste macchine siano talmente intelligenti da far cadere gli uomini ai loro piedi o peggio ancora essere esiliati dalle macchine in altri contesti, visti e paragonati a mutanti costretti a vivere sottoterra dipendenti da una macchina. Gli scritti fantascientifici rappresentano attraverso questi scenari solo i contro dell’intelligenza artificiale, portando questo contesto all’esasperazione. Di qui il chiarimento dei pro e dei contro dell’intelligenza artificiale. Non siamo ancora in grado di produrre macchine che siano in grado di pensare come un essere umano dal punto di vista psicologico, al contrario possiamo avere macchine che abbiano la nostra, se non maggiore e più accurata, intelligenza in ambito matematico, tecnico o scientifico. L'autore rivolge poi la sua attenzione al ruolo della nascita della tecnologia e del lento decadimento della natura che è diventata via via frammentaria. I cyborg sono figli dell’uomo che è mortale, il naturale che diventa artificiale, il mortale che diventa immortale. Ora, l'uomo che per millenni ha cercato di arrivare a concepire qualcosa che lo rendesse immortale, l’ha ritrovato nella figura del cyborg ma a quale prezzo?

Dai cervelli inscatolati degli anni ‘30, la figura del cyborg nel corso degli anni si evolve passando prima ad una figura che veniva più legata ed evidenziata nella vita reale come Terminator dal corpo umano e gli interni meccanici. Negli anni ‘80 il cyborg invece si sviluppa in una realtà del tutto virtuale. L’arrivo di internet sconvolge i meccanismi precedenti abbattendo le barriere tra uomo e ambiente. Cambia il modo di pensare che non è più legato a produrre teorie ma a produrre oggetti che conferiscano maggior potere all’uomo e che riducano via via ogni limite che gli si possa porre dinanzi. Nel penultimo capitolo troviamo la definizione di “artificialità” fornita da Tagliasco, il quale la definiva come la particolarità che contraddistingue in nostro corpo, ciò che porta alla distinzione tra cloni e mutanti. La sintesi fra organico ed inorganico trova ampia realizzazione nella macchina che si realizza con l’industria capitalistica quando l’uomo deve adattarsi e sottomettersi a modalità e tempi di lavoro della macchina, in questo cotesto uomo e macchina sono uno contro l’altro in competizione. Durante l’epoca postfordista invece uomo e macchina quasi si fondano e lavorano insieme non solo in ambito lavorativo ma anche nel quotidiano. Di qui si parla di biopolitica e Caronia riprende nel suo saggio una moltitudine di intellettuali che hanno affrontato l’argomento come Foucault ("la realtà biologica si riflette in quella politica”); Donna Haraway con la teoria “corporea, letterale, figurativa, non metaforica").

Il Ventesimo secolo grazie alla tecnologia è diventato l’epoca del possibile. La quale ha reso possibile l’unica rivoluzione del Novecento. Willard van Orman Quine, cinquant’anni fa sferrò una forte critica al concetto di necessità. Nel corso della storia il termine “necessità” ha assunto significati diversi in contesti diversi tra innumerevoli filosofi, il primo che definì ciò che fosse necessario fu Aristotele, vista come "ciò senza cui non è possibile vivere” e “ciò che costringe, … una cosa contraria al movimento liberamente scelto e razionalmente meditato". in seguito viene riconosciuto da Voltaire il valore contingente della necessità, in quanto la necessità di uno può differire da quella di un altro, giungendo ad una versione pessimistica e negativa di necessità. In seguito da Kant la necessità è intesa come necessità logica , necessario coincide con analitico. Il cyborg non è una figura fissa bensì mutabile e in costante sviluppo. Il cyborg è l’apoteosi del raggiungimento dell’uscire da sé a cui tendevano sciamani e mistici di ogni tempo, “uscire da sé” in senso letterale, fisico, in completa estasi. In questo si identifica la prospettiva del postumano. Ciò apre contraddizioni tra individuo e collettività che sono principalmente due: processi culturali di umanizzazione e modalità di appropriazione e uso delle tecnologie.

Riferimenti bibliografici[modifica]

  • U. Pagallo, Introduzione alla filosofia digitale. Da Leibniz a Chaitin, Torino, Giappichelli, 2005.
  • G. O. Longo - A. Vaccaro, Bit Bang. La nascita della filosofia digitale, Milano, Apogeo; Santarcangelo di Romagna, Maggioli, 2013.
  • E. Steinhart, Metafisica digitale, in: La fenice digitale: come i computer stanno cambiando la filosofia, a cura di T. W. Bynum e J. H. Moor, Milano, Apogeo, 2000, pp. 125-139.
  • T. W. Bynum - J. H. Moor, The Digital Phoenix: how computers are changing philosophy, Oxford 1998; tr. it. La fenice digitale. Come i computer stanno cambiando la filosofia, Milano 2000.
  • L. De Biase, Homo pluralis, Torino, Codice, 2015.
  • Y. Benkler, La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libertà, tr. it. di A. Delfanti, Egea Università Bocconi Editore, Milano, 2007.
  • M. Durante, Il futuro del web: etica, diritto, decentramento, G. Giappichelli Editore, Torino, 2007.
  • Lessig L., "Cultura libera. Un equilibrio fra anarchia e controllo, contro l'estremismo della proprietà intellettuale", tr. it. di B. Parrella, Apogeo, Milano, 2005.
  • Greco G.M.- Paronitti G.- Taddeo M.- Floridi L., "Etica informatica", in Enciclopedia filosofica, Fondazione Centro Studi Filosofici di Gallarate, http://www.philosophyofinformation.net/pdf/14601.pdf

Note[modifica]

  1. Tu non sei un gadget, p. 60.
  2. Tu non sei un gadget, p. 201.
  3. l'articolo completo su: http://www.repubblica.it/tecnologia/2017/09/09/news/morozov_il_vero_lusso_vivere_disconnessi_dalla_rete_-175005909/
  4. l'articolo completo su: http://www.linkiesta.it/it/article/2014/05/20/perché-internet-non-salvera-il-mondo/21303/


Il sapere nell'era digitale

Indice del libro

Questa pagina è uno stub Questo modulo è solo un abbozzo. Contribuisci a migliorarlo secondo le convenzioni di Wikibooks

Wikipedia[modifica]

Wikipedia è un'enciclopedia online a contenuto libero, collaborativa, multilingue e gratuita, nata nel 2001, sostenuta e ospitata dalla Wikimedia Foundation, un'organizzazione non a scopo di lucro statunitense. Lanciata da Jimmy Wales e Larry Sanger il 15 gennaio 2001, inizialmente nell'edizione in lingua inglese, nei mesi successivi ha aggiunto edizioni in numerose altre lingue. Etimologicamente, Wikipedia significa "cultura veloce", dal termine hawaiano wiki (veloce), con l'aggiunta del suffisso -pedia (dal greco antico παιδεία, paideia, formazione). Con più di 45 milioni di voci in oltre 280 lingue, è l'enciclopedia più grande mai scritta, tra i dieci siti web più visitati al mondo e costituisce la maggiore e più consultata opera di riferimento generalista su Internet.

Wikipedia prese il via come progetto complementare di Nupedia, un progetto fondato nel 2000 per la creazione di un'enciclopedia libera online le cui voci erano scritte da esperti volontari attraverso un processo formale di revisione. Per il concetto di wiki, Wales e Sanger dichiararono di essersi ispirati ai siti WikiWikiWeb o Portland Pattern Repository di Ward Cunningham. Wikipedia, che esisteva già come servizio di Nupedia.com dal 10 gennaio 2001, fu formalmente lanciata il 15 gennaio successivo sul sito Wikipedia.com, in lingua inglese. Verso maggio giunsero i primi utenti registrati e, nel corso dell'anno, si svilupparono le edizioni in francese, tedesco, inglese, catalano, spagnolo, svedese, portoghese e, a fine anno, italiano. Nupedia e Wikipedia coesistettero finché i server della prima furono chiusi definitivamente nel 2003 e i suoi testi incorporati in Wikipedia (Nupedia aveva sofferto un tasso di crescita estremamente lento, a causa dei complicati processi di revisione, riuscendo a pubblicare solo 24 voci); Sanger uscì di scena e un gruppo di utenti attuò una biforcazione della Wikipedia in spagnolo per costituire l'Enciclopedia Libre.

Da Wikipedia e Nupedia, nacque nel 2003 la Wikimedia Foundation, l'organizzazione non profit che sostiene Wikipedia e i progetti fratelli (il primo dei quali fu In Memoriam: September 11 Wiki) che nel tempo si sono aggiunti, ognuno dei quali è specializzato in un determinato ambito del sapere. La Wikimedia Foundation ha infatti successivamente dato vita a progetti complementari tra i quali: Wiktionary, Wikibooks, Wikisource, Wikispecies, Wikiquote, Wikinotizie, Wikiversità e Wikivoyage. Wales cedette tutti i diritti alla fondazione da lui promossa, che tuttora gestisce i marchi e l'infrastruttura informatica, garantendo che la gestione dei contenuti rimanesse affidata alla comunità degli utenti. A partire dal 2004 è iniziata a costituirsi una rete di associazioni nazionali collegate alla Wikimedia Foundation (chiamati "capitoli ufficiali"), tra le quali Wikimedia Italia, fondata nel 2005. Nel settembre dello stesso anno l'edizione in italiano ha superato le 100 000 voci.

L'obiettivo di Wikipedia è creare un'enciclopedia libera, ovvero liberamente accessibile, a contenuto libero, aperto e "universale" in termini di ampiezza di argomenti trattati. Il progetto, ambizioso, ma realistico, si colloca dunque nell'ambito della condivisione della conoscenza e della cultura partecipativa sfruttando la cosiddetta intelligenza collettiva sulla base delle regole d'uso e di contribuzione espresse dall'enciclopedia stessa. In quanto enciclopedia a carattere universale (o "generalista"), Wikipedia tratta voci di ogni disciplina, organizzate in categorie tematiche; i temi generali sono generalmente illustrati da portali e coordinati tramite progetti. L'enciclopedia è completamente gratuita e priva di pubblicità, in linea con i suoi principi base: il suo sostentamento è dovuto unicamente alle libere donazioni degli utenti, grazie a una raccolta fondi avviata ogni anno dalla Wikimedia Foundation. Il logo ufficiale di Wikipedia è una sfera quasi completa costruita con pezzi di puzzle che riportano caratteri di vari alfabeti, a simboleggiare il mondo e una conoscenza globale in costruzione, a disposizione di tutti. A differenza delle enciclopedie che l'hanno preceduta, il contenuto di Wikipedia è distribuito con una licenza libera.

Le varie edizioni in lingua sono sviluppate indipendentemente l'una dall'altra, ovvero non sono vincolate ai contenuti presenti nelle altre, ma sono tenute unicamente al rispetto delle linee guida generali del progetto come il punto di vista neutrale. I testi delle voci e i contenuti multimediali tuttavia sono spesso condivisi tra le varie edizioni: i primi grazie alle traduzioni, i secondi attraverso il progetto condiviso chiamato Wikimedia Commons. Le voci di Wikipedia sono spesso citate dai mass media tradizionali e da istituti accademici.

La caratteristica primaria di Wikipedia è il fatto che dà la possibilità a chiunque di collaborare, utilizzando un sistema di modifica e pubblicazione aperto che si appoggia su una piattaforma Wiki (MediaWiki). In altri termini essa è curata da volontari ovvero le pagine possono essere modificate da chiunque e non c'è un comitato di redazione né alcun controllo preventivo sul contenuto inviato. In particolare essa si basa sul diritto di citazione come testimonianza di attendibilità dei contenuti presenti che citino dunque la fonte di origine, classificandosi dunque come fonte terziaria. La registrazione non è obbligatoria, ma consigliata. A causa della sua natura aperta, vandalismi e imprecisioni sono problemi riscontrabili in Wikipedia. Il miglioramento dell'enciclopedia è dovuto unicamente al continuo apporto di contributi sia in termini di nuovi contenuti che di revisioni degli stessi, della forma e della formattazione secondo le linee guida da parte di tutti gli utenti volontari.

Per garantire tale progresso, Wikipedia si fonda su cinque pilastri, sulle seguenti linee guida, volte ad identificare quali tipi di informazioni siano adatte a esservi inserite e su un codice di comportamento detto Wikiquette. Ad esse si fa spesso riferimento nelle dispute per decidere se un particolare contenuto debba essere aggiunto, rivisto, trasferito ad un progetto affine oppure rimosso. Uno dei principi alla base di Wikipedia è il "punto di vista neutrale", secondo il quale ad esempio le opinioni presentate da personaggi importanti o da opere letterarie vengono riassunte senza tentare di determinarne una verità oggettiva. Caratteristica delle voci di Wikipedia è inoltre l'avere frequenti collegamenti ipertestuali ad altre voci dell'enciclopedia attraverso i cosiddetti wikilink che permettono una facile navigazione nel Portale e un più facile approfondimento di altre voci con uno stile dunque che ricorda il Web 1.0 o Web statico mentre di fatto la piattaforma Mediawiki appartiene al Web 2.0 o Web dinamico.

Wikipedia è pubblicata con licenza Creative Commons Attribuzione-Condividi allo stesso modo (CC BY-SA). Originariamente pubblicata sotto la licenza libera GFDL, dal 15 giugno 2009 è migrata alla licenza Creative Commons BY-SA 3.0, più compatibile con gli scopi e gli usi di Wikipedia e in generale dei progetti Wikimedia (le licenze Creative Commons non esistevano nel 2001 alla nascita del progetto). La licenza sotto la quale le voci di Wikipedia sono rese disponibili è una delle molte licenze di copyright di tipo permissivo (ma dal copyleft di tipo "forte"), in quanto permette la redistribuzione, la creazione di opere derivate e l'uso commerciale del contenuto a condizione che si mantenga l'attribuzione agli autori e che il contenuto rimanga disponibile sotto la stessa licenza. Quando un utente contribuisce al progetto con materiale originale, i diritti d'autore rimangono in suo possesso ma egli acconsente a concedere la propria opera sotto la licenza libera. Il materiale di Wikipedia può quindi essere distribuito a, o incorporato da, fonti che a loro volta usino questa licenza. Del contenuto di Wikipedia sono stati creati numerosi mirror o progetti derivati a partire da copie dei database.

"Immaginate un mondo in cui chiunque possa essere libero accesso a tutto il patrimonio della conoscenza umana. Questo è il nostro scopo".[1]. Multilingue e collaborativa, on-line e gratuita, con quasi 15 milioni di voci e 22 milioni di utenti registrati, Wikipedia è oggi l'enciclopedia più grande del mondo, e tra i dieci siti più visitati. Fondata sul concetto di "user generated content" (i contenuti sono creati dagli stessi utenti del sito) e sulla tecnologia "wiki" ( termine di origine hawaiana che significa "veloce"), dà l'opportunità a chiunque di "contribuire a qualsiasi pagina in qualunque momento". Si tratta di un’enciclopedia redatta da autori volontari e sottoposta a libera licenza. Per "libera" si intende un concetto di libertà ramificato in 4 gradi: libertà di copiare un lavoro, libertà di modificarlo, libertà di ridistribuirlo, libertà di ridistribuirne versioni modificate. Difatti libera, aperta, neutrale, tempestiva e sociale sono gli aggettivi più appropriati per sintetizzare il fenomeno globale di Wikipedia. Nel testo La rivoluzione di Wikipedia, Andrew Lih, esperto di new media e profondo conoscitore delle dinamiche delle comunità collaborative on-line, racconta la nascita, l'evoluzione e gli effetti di quello che, lontano dall'essere solo un sito, è diventato a tutti gli effetti un fenomeno sociale in larga scala.

Open Access[modifica]

L'accesso aperto è una modalità di pubblicazione del materiale prodotto dalla ricerca scientifica, come ad esempio gli articoli scientifici pubblicati in riviste accademiche o atti di conferenze, ma anche capitoli di libri, monografie, o dati sperimentali; che ne consente accesso libero e senza restrizione. Data la contrapposizione del modello di pubblicazione ad accesso aperto rispetto a quello classico, nel quale tipicamente le case editrici accademiche detengono diritti esclusivi sul materiale e ne vendono abbonamenti e licenze, l'espressione indica anche il movimento che sostiene e promuove la strategia ad accesso aperto. In un'accezione ancor più ampia, il termine esprime la libera disponibilità online di contenuti digitali in generale e riguarda l'insieme della conoscenza e della creatività liberamente utilizzabile, in quanto non coperta da restrizioni legati alla proprietà intellettuale.

Si sono affermate due strategie principali per garantire pubblicazioni ad accesso aperto.

  • Viene definita via verde ("green road") la pratica dell'autoarchiviazione ("self-archiving"), da parte degli autori, di copie dei loro articoli in archivi istituzionali o disciplinari, o ancora nei loro siti personali.
  • Viene definita via d'oro ("gold road") la pubblicazione di riviste in cui gli articoli sono direttamente ed immediatamente accessibili ad accesso aperto. Tali pubblicazioni vengono chiamate riviste ad accesso aperto.

Una delle prime importanti dichiarazioni internazionali sull'Open Access (spesso chiamato per sigla OA) è il Budapest Open Access Initiative del 2001. Viene infatti riconosciuto come il primo raduno storico di fondazione dell'Open Access. Una seconda importante iniziativa internazionale, del 2003, è la dichiarazione di Berlino sull'accesso aperto alla letteratura scientifica. Essa si costruisce e si basa sulla definizione della conferenza di Budapest. Tale dichiarazione ha fondato il movimento Open Access. Le università italiane hanno aderito alla Dichiarazione di Berlino nel novembre 2004, in occasione del convegno "Gli atenei italiani per l'Open Access: verso l'accesso aperto alla letteratura di ricerca" a Messina: infatti per l'Italia si parla di Dichiarazione di Messina.

La biblioteca ipertestuale[modifica]

Un modello concettuale che esplichi esaustivamente le funzioni e la natura delle biblioteche (quelle digitali in maggior misura, ma anche quelle tradizionali costituite da documenti analogici e gestite manualmente) è quello di ipertestualità. In questo paradigma le principali funzioni della biblioteca - selezionare, conservare, organizzare, gestire e far fruire - sono descritte attraverso caratteristiche che mirano a realizzare una fitta struttura sindetica tra i documenti, ognuno in aperta connessione con l'intero docuverso, grazie anche alla ricerca di una complessa, e al tempo stesso, integrata interfaccia. La biblioteca è un contenitore di documenti indefinitamente scomponibili (granularità), costituiti da media diversi (multimedialità) e percorribile dall'utente secondo itinerari personalizzabili (multilinearità); inoltre, il dinamismo proprio degli ipertesti si riflette nella biblioteca attraverso il contributo degli utilizzatori, liberi di accrescere e arricchire nodi e link (integrabilità e interattività). La realizzazione di un tale modello richiede, naturalmente, la cooperazione tra più biblioteche - si parla ,infatti, di reti bibliotecarie - e la compatibilità tra le risorse informative digitali e i servizi, come il reference, il document delivery e il prestito interbibliotecario[2].

Note[modifica]

  1. Andrew Lih, La rivoluzione di Wikipedia, p. 3.
  2. R. Ridi, La biblioteca come ipertesto, Milano 2007.


Bibliografia

Indice del libro

Informatica umanistica: manuali[modifica]

  • T. Orlandi, Informatica umanistica, Roma 1990.
  • F. Ciotti - G. Roncaglia, Il mondo digitale. Introduzione ai nuovi media, Roma-Bari 2000 (200711).
  • Informatica per le scienze umanistiche, a cura di T. Numerico e A. Vespignani, Bologna 2003 (2007).
  • F. Tomasi, Metodologie informatiche e discipline umanistiche, Roma 2008.
  • S. Castano, A. Ferrara, S. Montanelli, Informazione, conoscenza e web per le scienze umanistiche, Milano 2009.
  • T. Numerico - D. Fiormonte - F. Tomasi, L'umanista digitale, Bologna 2010.
  • M. Lazzari - A. Bianchi - M. Cadei - C. Chesi - S. Maffei, Informatica umanistica, Milano 2010.
  • La macchina nel tempo. Studi di informatica umanistica in onore di Tito Orlandi, a c. di L. Perilli e D. Fiormonte, Firenze 2011 (rist. 2012).
  • Dall'Informatica umanistica alle culture digitali. Atti del convegno di studi (Roma, 27-28 ottobre 2011) in memoria di Giuseppe Gigliozzi, a c. di F. Ciotti - G. Crupi, 2012 (pdf).
  • F. Ciracì, Informatica per le scienze umane, McGraw-Hill, Milano 2012.
  • J. Schnapp et al., Umanistica digitale, Mondadori, Milano 2014.

Filosofia (e) informatica: saggi[modifica]

  • G. Lolli, Filosofia e informatica, in La Filosofia, dir. P. Rossi, 4 voll., II La filosofia e le scienze, Torino 1995, pp. 219-267.
  • L. Floridi, L'estensione dell'intelligenza. Guida all'informatica per filosofi, Roma 1996.
  • The Digital Phoenix: how computers are changing philosophy, ed. by T. W. Bynum - J. H. Moor, Oxford 1998; tr. it. La fenice digitale. Come i computer stanno cambiando la filosofia, Milano 2000.
  • L'uomo e la macchina trent'anni dopo. Filosofia e informatica ieri ed oggi. Atti del Convegno nazionale 1997 della Società Filosofica Italiana, Bari, 24-26 ottobre 1997, a c. di M. Di Giandomenico, Bari 2000.
  • M. Davis, The Universal Computer. The Road from Leibniz to Turing, 2000; tr. it. Il calcolatore universale, Milano 2003, nuova ed. 2012.
  • Cyberphilosophy: The Intersection of Computing and Philosophy, ed. by J. Moor - T. W. Bynum, Oxford 2002.
  • The Blackwell Guide to Philosophy of Computing and Information, ed. by L. Floridi, Oxford 2004.
  • U. Pagallo, Introduzione alla filosofia digitale. Da Leibniz a Chaitin, Torino 2005.
  • G. Dyson, La cattedrale di Turing: le origini dell'universo digitale, Torino 2012.
  • G. O. Longo - A. Vaccaro, Bit Bang. La nascita della filosofia digitale, Santarcangelo di Romagna 2013.

Le radici logiche, filosofiche e matematiche dell'informatica: fonti[modifica]

  • Pitagorici antichi, Testimonianze e frammenti, a c. di M. Timpanaro Cardini, Milano 2010.
  • G. W. Leibniz, Scritti filosofici, 3 voll., Torino 2000.
  • G. Boole, The Mathematical Analysis of Logic [testo online ad accesso libero]; tr. it. L'analisi matematica della logica, Torino 1993.
  • G. Boole, An Investigation of the Laws of Thought, [testo online ad accesso libero].
  • G. Frege, Begriffschrift, 1879; tr. it. Ideografia, in Logica e aritmetica, a c. di C. Mangione, Torino 1965.
  • G. Frege, Grundgesetze der Arithmetik, 1903; tr. it. I principi dell'aritmetica, Torino 1965.
  • G. Frege, Alla ricerca della nuova logica, Torino 1983.
  • G. Frege, Scritti postumi, Napoli 1987.
  • D. Hilbert, Ricerche sui fondamenti della matematica, Napoli 1985.
  • D. Hilbert, Fondamenti della geometria, Milano 2009.
  • B. Russell, I principi della matematica, Torino 2011.
  • K. Gödel, Scritti scelti, Torino 2011.

Le radici logiche, filosofiche e matematiche dell'informatica: saggi[modifica]

  • E. Casari, Logica, in La Filosofia, dir. P. Rossi, 4 voll., III Le discipline filosofiche, Torino 1995, pp. 187-322.
  • P. Zellini, Numero e logos, Milano 2010.
  • A. Borst, Computus. Tempo e numero nella storia d'Europa, Genova 1997.
  • C. Riedweg, Pitagora. Vita, dottrina e influenza, Milano 2007.
  • L. Borzacchini, Il computer di Platone. Alle origini del pensiero logico e matematico, Bari 2005.
  • L. Borzacchini, Il computer di Ockham. Genesi e struttura della rivoluzione scientifica, Bari 2010.
  • P. Rossi, Clavis Universalis. Arti mnemoniche e logica combinatoria da Lullo a Leibniz, Bologna 1983.
  • V. Mathieu, Introduzione a Leibniz, Roma - Bari 2008.
  • Georges Boole. Filosofia, logica, matematica, a c. di E. Agazzi - N. Vassallo, Milano 1998.
  • C. Penco, Frege, Roma 2010.
  • La filosofia di Gottlob Frege, a c. di N. Vassallo, Milano 2003.
  • Matematica, miracoli e paradossi. Storie di cardinali da Cantor a Gödel, a c. di S. Leonesi - C. Toffalori, Torino 2007.
  • G. Lolli, La guerra dei trent'anni (1900-1930). Da Hilbert a Gödel, Pisa 2011.
  • F. Berto, Tutti pazzi per Gödel, Roma - Bari 2008 (2010).
  • La complessità di Gödel, a c. di U. Pagallo - G. Lolli, Torino 2008.
  • D. Osenda, Ultima lezione a Gottinga, Torino 2009 (qui una versione ridotta).
  • P. Odifreddi, La matematica del Novecento. Dagli insiemi alla complessità, Torino 2000.
  • M. Panza - A. Sereni, Il problema di Platone. Un'introduzione storica alla filosofia della matematica, Roma 2010.

Informatica, cibernetica, intelligenza artificiale, ipertesto, web, etica informatica: fonti[modifica]

  • T. Berners-Lee, Weaving the web. The past, present and future of the World Wide Web by its inventor, London - New York 2000; tr. it. L'architettura del nuovo Web, Milano 2001.
  • L. Floridi, Infosfera. Etica e filosofia nell'età dell'informazione, Torino 2009.
  • Th. H. Nelson, Literary Machines 90.1, 1981; tr. it. Padova 1992.
  • V. Somenzi - R. Cordeschi, La filosofia degli automi, Torino 1994.
  • A. Turing, Intelligenza meccanica, a c. di G. Lolli, Torino 1994.
  • N. Wiener, The Human Use of Human Beings, 1950; tr. it. Introduzione alla cibernetica, Torino 1970, nuova ed. 2012.

Informatica, cibernetica, intelligenza artificiale, ipertesto, critica della rete, etica informatica: saggi[modifica]

  • P. Castellucci, Dall'ipertesto al Web. Storia culturale dell'informatica, Roma-Bari 2009.
  • Computational Collective Intelligence. Semantic Web, Social Networks and Multi-agent Systems, a c. di N.N. Than - K. Ryszard - C. Shyi-Ming, Berlin - Heidelberg - New York 2009.
  • F. Conway - J. Siegelman, L'eroe oscuro dell'età dell'informazione. Alla ricerca di Norbert Wiener, il padre della cibernetica, Torino 2012.
  • P. D'Alessandro - I. Domanin, Filosofia dell'ipertesto. Esperienza di pensiero, scrittura elettronica, sperimentazione didattica, Milano 2005.
  • T. Di Noia et al. - Semantic Web. Tra ontologie e Open Data, Milano 2013.
  • L'eredità di Alan Turing. 50 anni di Intelligenza artificiale, Milano 2005.
  • Alan Mathison Turing: l'indecidibilità della vita, a cura di C. Petrocelli, MIlano 2014.
  • B. Giolito, Intelligenza artificiale. Una guida filosofica, Roma 2007.
  • M. Heim, The Metaphysics of Virtual Reality, New York - Oxford 1993; tr. it. Metafisica della realtà virtuale, Napoli 2014.
  • D. R. Hofstadter, Gödel, Escher, Bach: an Eternal Golden Braid, 1979; tr. it. Gödel, Escher, Bach: un'eterna ghirlanda brillante, Milano 1984.
  • Intelligenza artificiale. Mannuale per le discipline della comunicazione, a c. di E. Burattini - R. Cordeschi, Roma 2008.
  • Ippolita, Open non è free. Comunità digitali tra etica hacker e mercato globale, Milano 2005.
  • Ippolita, Luci e ombre di Google. Futuro e passato dell'industria dei metadati, Milano 2007.
  • Ippolita, Nell'acquario di Fecebook. La resistibile ascesa dell'anarco-capitalismo, Milano 2012.
  • Ippolita, «La Rete è libera e democratica». (Falso!), Roma-Bari 2014.
  • G. Israel - A. M. Gasca, Il mondo come gioco matematico. La vita e le idee di John von Neumann, Torino 2008.
  • D. Leavitt, The man who knew too much: Alan Turing and the invention of the computer, 2006; tr. it. L'uomo che sapeva troppo: Alan Turing e l'invenzione del computer, Torino 2008.
  • P. Levy, La Machine Univers. Création, cognition et culture informatique, Paris 1987.
  • P. Lévy, Les technologies de l'intelligence, Paris 1990; tr. it. Le tecnologie dell'intelligenza. Il futuro del pensiero nell'era informatica, Verona 2000.
  • P. Lévy, Qu'est-ce que le virtuel?, Paris 1995; tr. it. Il virtuale, Milano 1997.
  • P. Levy, L'Intelligence collective. Pour une anthropologie du cyberspace, Paris 1994; tr. it. L'intelligenza collettiva. Per un'antropologia del cyberspazio, Milano 1996 (20022).
  • T. Maldonado, Critica della ragione informatica, Milano 1997.
  • T. Maldonado, Memoria e conoscenza, Milano 2005.
  • T. Maldonado, Reale e virtuale, Milano 2005.
  • L. Montagnini, Le armonie del disordine. Norbert Wiener matematico-filosofo del Novecento, Venezia 2005.
  • T. Numerico, Alan Turing e l'intelligenza delle macchine, Milano 2005.
  • G. Ziccardi, Etica e informatica. Comportamenti, tecnologie e diritto, Milano 2009.
  • D. Weinberger, La stanza intelligente: la conoscenza come proprietà della rete, Torino 2012.
  • Il futuro trent'anni fa: quando Internet è arrivata in Italia, a cura di L. Abba e A. Di Corinto, Lecce 2017.

Biblioteconomia, scienze dell'informazione, informatica testuale: saggi[modifica]

  • A. Capaccioni, Ricerche bibliografiche. Banche dati e biblioteche in Rete, Milano 2011.
  • P. Castellucci, Carte del nuovo mondo. Banche dati e Open Access, Bologna 2017.
  • M. Ferraris, Documentalità: perché è necessario lasciar tracce, Roma-Bari 2009.
  • L. Floridi, La rivoluzione dell'informazione, Torino 2012.
  • C. Gnoli - V. Marino - L. Rosati, Organizzare la conoscenza. Dalle biblioteche all'architettura dell'informazione per il Web, Milano 2006.
  • C. Gnoli - C. Scognamiglio, Ontologia e organizzazione della conoscenza. Introduzione ai fondamenti teorici dell'indicizzazione semantica, con un'introduzione di R. Poli, Lecce 2008.
  • M. Lana, Il testo nel computer: dal web all'analisi dei testi, Torino 2004.
  • T. Orlandi, Informatica testuale, Roma - Bari 2010.
  • R. Ridi - F. Metitieri, Biblioteche in rete. Istruzioni per l'uso, Roma - Bari 2005.
  • R. Ridi, Il mondo dei documenti. Cosa sono, come valutarli e organizzarli, Roma - Bari 2010.
  • R. Ridi, La biblioteca come ipertesto, Milano 2007.
  • R. Ridi, Etica bibliotecaria, Milano 2011.
  • G. Roncaglia, La quarta rivoluzione. Sei lezioni sul futuro del libro, Roma - Bari 2010.
  • A. Salarelli, Biblioteca e identità: per una filosofia della biblioteconomia, Milano 2008.
  • A. Salarelli, Introduzione alla scienza dell'informazione, Milano 2012.
  • E. Svenonius, Il fondamento intellettuale dell'organizzazione dell'informazione, Firenze 2008.
  • R. Ventura, Il senso della biblioteca, Milano 2011.