Filosofia dell'informatica/Teorie filosofiche del digitale: differenze tra le versioni

Wikibooks, manuali e libri di testo liberi.
Contenuto cancellato Contenuto aggiunto
FrescoBot (discussione | contributi)
m Bot: apostrofo dopo l'articolo indeterminativo e modifiche minori
Riga 11: Riga 11:
Fredkin è un fautore del pancomputazionalismo, una teoria filosofica secondo la quale tutti i processi fisici della natura sono forme di calcolo o elaborazione delle informazioni ad un livello più elementare della realtà fisica. Ne deriva che la natura della realtà non è né materiale, né spirituale bensì è fondata su un'immaterialitá peculiare, che può definirsi informazionale. Il divenire della realtà è dunque concepito come un processo computazionale. Dal punto di vista teoretico, il pancomputazionalismo prende spunto da alcune tra le più importanti concezioni filosofiche del passato: l'atomismo, il determinismo, il meccanicismo, il monismo, il naturalismo, il realismo filosofico, il riduzionismo e l'empirismo scientifico.
Fredkin è un fautore del pancomputazionalismo, una teoria filosofica secondo la quale tutti i processi fisici della natura sono forme di calcolo o elaborazione delle informazioni ad un livello più elementare della realtà fisica. Ne deriva che la natura della realtà non è né materiale, né spirituale bensì è fondata su un'immaterialitá peculiare, che può definirsi informazionale. Il divenire della realtà è dunque concepito come un processo computazionale. Dal punto di vista teoretico, il pancomputazionalismo prende spunto da alcune tra le più importanti concezioni filosofiche del passato: l'atomismo, il determinismo, il meccanicismo, il monismo, il naturalismo, il realismo filosofico, il riduzionismo e l'empirismo scientifico.


"Esistono tre grandi domande filosofiche: cos'è la vita? Cosa sono la coscienza, il pensiero, la memoria e simili? Come funziona l'universo? Il punto di vista informazionale le concerne tutt'e tre." <ref>E. Fredkin in R. Wright, Three scientists and Their Gods, cit., p. 9.</ref>
"Esistono tre grandi domande filosofiche: cos'è la vita? Cosa sono la coscienza, il pensiero, la memoria e simili? Come funziona l'universo? Il punto di vista informazionale le concerne tutt'e tre."<ref>E. Fredkin in R. Wright, Three scientists and Their Gods, cit., p. 9.</ref>


I contributi più significativi offerti da Fredkin alla filosofia digitale consistono in queste idee fondamentali: ogni cosa nella realtà fisica deve avere una rappresentazione informativa digitale; tutti i cambiamenti nella natura fisica sono la conseguenza dei processi informativi digitali; la natura è finita e digitale. Perfino la tradizionale visione dell'anima giudaico-cristiana trova la sua controparte statico/dinamica nella visione dell'anima profilata dalla filosofia digitale.
I contributi più significativi offerti da Fredkin alla filosofia digitale consistono in queste idee fondamentali: ogni cosa nella realtà fisica deve avere una rappresentazione informativa digitale; tutti i cambiamenti nella natura fisica sono la conseguenza dei processi informativi digitali; la natura è finita e digitale. Perfino la tradizionale visione dell'anima giudaico-cristiana trova la sua controparte statico/dinamica nella visione dell'anima profilata dalla filosofia digitale.
Riga 18: Riga 18:
Gregory John Chaitin nasce a Chicago nel 1947. Figlio di emigranti argentini è considerato uno dei fondatori della filosofia digitale. A partire dagli anni sessanta ha contribuito alla teoria algoritmica dell'informazione che si occupa della complessità dei programmi ed è conosciuto per di più per le sue ricerche sulla complessità algoritmica e per i teoremi limitativi. All'età di quarantotto anni incassa la laurea honoris causa dall'università pubblica statunitense con sede a Oronto, in Maine e nel 2002 riceve il titolo di professore onorario dall'Università di Buenos Aires in Argentina. Al presente Gregory Chaitin è un professore ospite presso il dipartimento di Computer Science dell'Università di Auckland in Nuova Zelanda e presidente onorario della commissione scientifica del Valparaíso Complex System Institute (Cile). Chaitin ha pubblicato molteplici libri e diversi articoli, alcuni di questi reperibili integralmente anche in rete. È stimato come programmatore, come matematico, come fisico e come filosofo digitale.
Gregory John Chaitin nasce a Chicago nel 1947. Figlio di emigranti argentini è considerato uno dei fondatori della filosofia digitale. A partire dagli anni sessanta ha contribuito alla teoria algoritmica dell'informazione che si occupa della complessità dei programmi ed è conosciuto per di più per le sue ricerche sulla complessità algoritmica e per i teoremi limitativi. All'età di quarantotto anni incassa la laurea honoris causa dall'università pubblica statunitense con sede a Oronto, in Maine e nel 2002 riceve il titolo di professore onorario dall'Università di Buenos Aires in Argentina. Al presente Gregory Chaitin è un professore ospite presso il dipartimento di Computer Science dell'Università di Auckland in Nuova Zelanda e presidente onorario della commissione scientifica del Valparaíso Complex System Institute (Cile). Chaitin ha pubblicato molteplici libri e diversi articoli, alcuni di questi reperibili integralmente anche in rete. È stimato come programmatore, come matematico, come fisico e come filosofo digitale.


Dopo le tesi di Kurt Gödel, i matematici sono diventati consapevoli del fatto che la loro materia peccava di diverse limitazioni. Gregory Chaitin ha scovato nel simbolo della costante numerica Omega il concetto chiave per confermare l'incompletezza della sua disciplina. Chaitin cercando di calcolare le probabilità che ha un programma informatico generato casualmente di fermarsi (il problema della fermata di Alan Turing) si è reso conto che quel numero è definito ma non può essere calcolato. Omega, evocativamente chiamato anche '''numero di Chaitin''' rappresenta la somma delle probabilità che ha quel programma di arrestarsi.
Dopo le tesi di Kurt Gödel, i matematici sono diventati consapevoli del fatto che la loro materia peccava di diverse limitazioni. Gregory Chaitin ha scovato nel simbolo della costante numerica Omega il concetto chiave per confermare l'incompletezza della sua disciplina. Chaitin cercando di calcolare le probabilità che ha un programma informatico generato casualmente di fermarsi (il problema della fermata di Alan Turing) si è reso conto che quel numero è definito ma non può essere calcolato. Omega, evocativamente chiamato anche '''numero di Chaitin''' rappresenta la somma delle probabilità che ha quel programma di arrestarsi.


Il computer, afferma Chaitin, è un nuovo meraviglioso concetto filosofico e matematico; un' idea rivoluzionaria, un congegno pratico, capace di modificare la società. A parer di Chaitin l'universo è scritto in un linguaggio informatico e i suoi caratteri sono i bit. Il filosofo mostra una visione moderna dell'idea Pitagorica la quale identifica nel numero il principio di tutte le cose. Tutto è algoritmo. La metafisica permette a Chaitin di giungere con la sua filosofia digitale all'esattezza e all'essenzialità degli oggetti. La sostanza di un oggetto è il suo contenuto di informazione algoritmica. Leibniz architetta il codice binario e Chaitin lo fa elevare a linguaggio dell'universo.
Il computer, afferma Chaitin, è un nuovo meraviglioso concetto filosofico e matematico; un'idea rivoluzionaria, un congegno pratico, capace di modificare la società. A parer di Chaitin l'universo è scritto in un linguaggio informatico e i suoi caratteri sono i bit. Il filosofo mostra una visione moderna dell'idea Pitagorica la quale identifica nel numero il principio di tutte le cose. Tutto è algoritmo. La metafisica permette a Chaitin di giungere con la sua filosofia digitale all'esattezza e all'essenzialità degli oggetti. La sostanza di un oggetto è il suo contenuto di informazione algoritmica. Leibniz architetta il codice binario e Chaitin lo fa elevare a linguaggio dell'universo.


===Stephen Wolfram===
===Stephen Wolfram===
Riga 99: Riga 99:


===L'informazione da Norbert Wiener a Luciano Floridi===
===L'informazione da Norbert Wiener a Luciano Floridi===
Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "'''teoria dell'informazione'''". Da affermato materialista affermò che "'''l'informazione è entropia'''" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "'''informazione di Shannon'''". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.
Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "'''teoria dell'informazione'''". Da affermato materialista affermò che "'''l'informazione è entropia'''" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "'''informazione di Shannon'''". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.


Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo '''costruttivismo''', dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria '''etica dell'informazione'''. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.
Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo '''costruttivismo''', dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria '''etica dell'informazione'''. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.
Riga 151: Riga 151:
La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.
La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.


Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di [[w:Donald Mac-CrimmonMacKay|Donald Mac-CrimmonMacKay]] "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.
Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di [[w:Donald Mac-CrimmonMacKay|Donald Mac-CrimmonMacKay]] "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.


I dati possono essere classificati come '''analogici''' (se trasmessi e codificati in una modalità continua) o '''digitali''' (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.
I dati possono essere classificati come '''analogici''' (se trasmessi e codificati in una modalità continua) o '''digitali''' (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.


Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di '''informazione ambientale''' che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.
Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di '''informazione ambientale''' che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.
Riga 216: Riga 216:
*[[w:Joseph Weizenbaum|Joseph Weizenbaum]]: informatico del [[W:Massachusetts Institute of Technology|Massachusetts Institute of Technology]], è il creatore di [[w:ELIZA|ELIZA]], un software che simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum approfondì poi gli aspetti filosofici legati alla creazione dell'Intelligenza artificiale scrivendo ''Computer Power and Human Reason'', nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale possano sostituire l'uomo.
*[[w:Joseph Weizenbaum|Joseph Weizenbaum]]: informatico del [[W:Massachusetts Institute of Technology|Massachusetts Institute of Technology]], è il creatore di [[w:ELIZA|ELIZA]], un software che simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum approfondì poi gli aspetti filosofici legati alla creazione dell'Intelligenza artificiale scrivendo ''Computer Power and Human Reason'', nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale possano sostituire l'uomo.
*Walter Maner: solo alla metà degli anni '70 alla Old Dominion University viene coniato il termine "etica informatica" per indicare "quel campo dell'etica professionale applicata che riguarda i problemi etici aggravati, trasformati o creati dall'IT" (si fa riferimento tuttavia a tradizioni etiche come quella utilitarista o razionalista. Alla fine degli anni '70 creò un certo interesse per la nuova disciplina inaugurata organizzando numerosi corsi, seminari e conferenze oltre a pubblicare con la collaborazione di Terrell Ward Bynum lo '''Starter Kit In Computer Ethic''', contenente dispense e consigli pedagogici per gli addetti ai lavori. Conteneva inoltre alcune ragioni fondamentali per integrare un corso di etica informatica, un elenco di obiettivi oltre a vaste discussioni su temi come: Privacy, reati informatici fino a trattare temi più complessi come codici professionali o dipendenza informatica.
*Walter Maner: solo alla metà degli anni '70 alla Old Dominion University viene coniato il termine "etica informatica" per indicare "quel campo dell'etica professionale applicata che riguarda i problemi etici aggravati, trasformati o creati dall'IT" (si fa riferimento tuttavia a tradizioni etiche come quella utilitarista o razionalista. Alla fine degli anni '70 creò un certo interesse per la nuova disciplina inaugurata organizzando numerosi corsi, seminari e conferenze oltre a pubblicare con la collaborazione di Terrell Ward Bynum lo '''Starter Kit In Computer Ethic''', contenente dispense e consigli pedagogici per gli addetti ai lavori. Conteneva inoltre alcune ragioni fondamentali per integrare un corso di etica informatica, un elenco di obiettivi oltre a vaste discussioni su temi come: Privacy, reati informatici fino a trattare temi più complessi come codici professionali o dipendenza informatica.
*[[w:James Moor|James Moor]]: negli anni '80, dopo la progressiva diffusione delle problematiche relative al campo etico, si ebbe un esplosione dell'attività dell'etica informatica. Esempi sono ''What is Computer Etics?'', un articolo di James Moor pubblicato nel 1985 sulla rivista "Metaphilosophy", nel quale l'autore definisce l'etica informatica come disciplina che ha a che fare con il "vuoto politico" (come utilizzare al meglio le nuove tecnologie) e la "confusione concettuale". Per Moor uno dei compiti centrali dell'etica informatica è quello di formulare politiche che possano dirigere la nostra azione, in quanto la tecnologia informatica è logicamente malleabile. In questa ottica la rivoluzione informatica si distingue in due momenti: l'introduzione della tecnologia (sviluppo e raffinazione) e la penetrazione della tecnologia (integrazione nelle principali attività umane, arrivando a modificare concetti come il denaro, l'istruzione, il lavoro...).
*[[w:James Moor|James Moor]]: negli anni '80, dopo la progressiva diffusione delle problematiche relative al campo etico, si ebbe un'esplosione dell'attività dell'etica informatica. Esempi sono ''What is Computer Etics?'', un articolo di James Moor pubblicato nel 1985 sulla rivista "Metaphilosophy", nel quale l'autore definisce l'etica informatica come disciplina che ha a che fare con il "vuoto politico" (come utilizzare al meglio le nuove tecnologie) e la "confusione concettuale". Per Moor uno dei compiti centrali dell'etica informatica è quello di formulare politiche che possano dirigere la nostra azione, in quanto la tecnologia informatica è logicamente malleabile. In questa ottica la rivoluzione informatica si distingue in due momenti: l'introduzione della tecnologia (sviluppo e raffinazione) e la penetrazione della tecnologia (integrazione nelle principali attività umane, arrivando a modificare concetti come il denaro, l'istruzione, il lavoro...).
*Deborah Johnson: con la pubblicazione di ''Computer Ethics'', il primo manuale della disciplina, definisce l'etica informatica con un approccio simile a Maner (filosofia applicata), tuttavia non crede che i computer abbiano creato nuovi problemi, ma solo una rielaborazione di questioni già note.
*Deborah Johnson: con la pubblicazione di ''Computer Ethics'', il primo manuale della disciplina, definisce l'etica informatica con un approccio simile a Maner (filosofia applicata), tuttavia non crede che i computer abbiano creato nuovi problemi, ma solo una rielaborazione di questioni già note.
*[[w:Terrell Bynum|Terrell Bynum]]: nonostante la definizione di Moor sia la più ampia, Bynum propone un approccio che include etica applicata e sociologia informatica coinvolgendone le teorie e concetti: "L'etica informatica identifica e analizza l'impatto della tecnologia informatica sui valori umani e sociali come la salute, la proprietà, il lavoro, le opportunità, la libertà, la democrazia, la conoscenza, ecc.". Progettò inoltre con Maner la prima conferenza internazionale sull'etica informatica, tenutasi nel 1991, che vide convenire partecipanti da 7 paesi e 32 stati degli USA.
*[[w:Terrell Bynum|Terrell Bynum]]: nonostante la definizione di Moor sia la più ampia, Bynum propone un approccio che include etica applicata e sociologia informatica coinvolgendone le teorie e concetti: "L'etica informatica identifica e analizza l'impatto della tecnologia informatica sui valori umani e sociali come la salute, la proprietà, il lavoro, le opportunità, la libertà, la democrazia, la conoscenza, ecc.". Progettò inoltre con Maner la prima conferenza internazionale sull'etica informatica, tenutasi nel 1991, che vide convenire partecipanti da 7 paesi e 32 stati degli USA.
*[[w:Simon Rogerson|Simon Rogerson]]: negli anni '90 ci fu una diffusione di interesse per l'etica informatica sopratutto in Europa e Australia, soprattutto grazie a pionieri come Rogerson, fondatore del Centre for Computing and Social Responsibility (CCSR) inaugurando insieme a Terrell Bynum una serie di conferenze internazionali (ETHICOMP). Lo stesso Rogerson ha promosso l'esigenza di una "Seconda Generazione" degli studi sull'etica informatica, fondata sulla costruzione/elaborazione dei fondamenti concettuali e sullo sviluppo dei contesti teorici nei quali possono emergere azioni pratiche, minimizzando gli effetti imprevisti dell'IT.
*[[w:Simon Rogerson|Simon Rogerson]]: negli anni '90 ci fu una diffusione di interesse per l'etica informatica sopratutto in Europa e Australia, soprattutto grazie a pionieri come Rogerson, fondatore del Centre for Computing and Social Responsibility (CCSR) inaugurando insieme a Terrell Bynum una serie di conferenze internazionali (ETHICOMP). Lo stesso Rogerson ha promosso l'esigenza di una "Seconda Generazione" degli studi sull'etica informatica, fondata sulla costruzione/elaborazione dei fondamenti concettuali e sullo sviluppo dei contesti teorici nei quali possono emergere azioni pratiche, minimizzando gli effetti imprevisti dell'IT.
*[[w:Donald Gotterbarn|Donald Gotterbarn]]: autore dell'ultima stesura del codice di etica e condotta professionale all'ACM per stabilire gli standard di licenza per i progettisti software, ha definito l'etica informatica come una branca dell'etica professionale per la sua applicazione in codici di condotta per gli addetti ai lavori.
*[[w:Donald Gotterbarn|Donald Gotterbarn]]: autore dell'ultima stesura del codice di etica e condotta professionale all'ACM per stabilire gli standard di licenza per i progettisti software, ha definito l'etica informatica come una branca dell'etica professionale per la sua applicazione in codici di condotta per gli addetti ai lavori.
Riga 231: Riga 231:
#Controllo dell' accesso alle risorse
#Controllo dell' accesso alle risorse


*''Proprietà del Software'':Un altra questione sociale relativa a opinioni comuni sulla totale libertà dell'Informazione o sulla commercializzazione di esse ( per sostenere i programmatori e incentivare la produzione di software di qualità) sottoforma di:
*''Proprietà del Software'':Un'altra questione sociale relativa a opinioni comuni sulla totale libertà dell'Informazione o sulla commercializzazione di esse ( per sostenere i programmatori e incentivare la produzione di software di qualità) sottoforma di:
#''Copyright''
#''Copyright''
#''Segreti di fabbrica''
#''Segreti di fabbrica''
Riga 240: Riga 240:
===Computer Ethics===
===Computer Ethics===
La diffusione così capillare del computer nella vita e nelle attività umane non poteva non chiamare in causa l'etica.
La diffusione così capillare del computer nella vita e nelle attività umane non poteva non chiamare in causa l'etica.

Il primo scienziato a riflettere sugli aspetti etici e sociali legati ai computer è stato Norbert Wiener, padre della cibernetica. La prima volta che fu usato il termine ''computer Ethics'' fu nel 1978, quando Walter Maner la definì come il campo di indagine che affronta i problemi etici creati, trasformati o aggravati dall’information techonology. Si arriva cosi al 1985, considerato l’anno di fondazione della Computer Ethics intesa come disciplia.
Il primo scienziato a riflettere sugli aspetti etici e sociali legati ai computer è stato Norbert Wiener, padre della cibernetica. La prima volta che fu usato il termine ''computer Ethics'' fu nel 1978, quando Walter Maner la definì come il campo di indagine che affronta i problemi etici creati, trasformati o aggravati dall’information techonology. Si arriva cosi al 1985, considerato l’anno di fondazione della Computer Ethics intesa come disciplia.


Riga 250: Riga 250:


Per avere un quadro esaustivo degli aspetti dell’informazione trattati dalla Computer Etics, si può fare riferimento alla mappatura proposta da Norberto Patrignani, che li colloca su diversi livelli, da quelli più fisici fino alla noosfera, la sfera delle idee.<ref>Ovviamente, come tutti i modelli, esso rappresenta una semplificazione della complessità del mondo reale.</ref> I livelli verticali rappresentano le diverse aree della realtà potenzialmente influenzate dai computer (dal pianeta al mondo delle idee come detto prima); i domini orizzontali, invece, rappresentati da ellissi con dimensioni approssimativamente proporzionali alla loro importanza, costituiscono una panoramica delle principali aree di criticità o di attenzione della Computer Ethics.
Per avere un quadro esaustivo degli aspetti dell’informazione trattati dalla Computer Etics, si può fare riferimento alla mappatura proposta da Norberto Patrignani, che li colloca su diversi livelli, da quelli più fisici fino alla noosfera, la sfera delle idee.<ref>Ovviamente, come tutti i modelli, esso rappresenta una semplificazione della complessità del mondo reale.</ref> I livelli verticali rappresentano le diverse aree della realtà potenzialmente influenzate dai computer (dal pianeta al mondo delle idee come detto prima); i domini orizzontali, invece, rappresentati da ellissi con dimensioni approssimativamente proporzionali alla loro importanza, costituiscono una panoramica delle principali aree di criticità o di attenzione della Computer Ethics.

Le questioni identificate con la computer Ethics possono essere affrontate a livello individuale, professionale e sociale. Un ruolo speciale spetta ai computer professional, nella definizione dei loro codici etici di condotta e nel fornire, al pubblico in generale ed ai decisori pubblici, tutte le informazioni sulle potenzialità, sui rischi e limiti delle tecnologie dell’informazione. In italia, ad esempio, diverse università hanno introdotto corsi di Computer Ethics, il che contribuirà alla formazione di figure esperte e capaci valutare con attenzionele implicazioni sociali ed etiche della tecnologia dell'informazione.
Le questioni identificate con la computer Ethics possono essere affrontate a livello individuale, professionale e sociale. Un ruolo speciale spetta ai computer professional, nella definizione dei loro codici etici di condotta e nel fornire, al pubblico in generale ed ai decisori pubblici, tutte le informazioni sulle potenzialità, sui rischi e limiti delle tecnologie dell’informazione. In italia, ad esempio, diverse università hanno introdotto corsi di Computer Ethics, il che contribuirà alla formazione di figure esperte e capaci valutare con attenzionele implicazioni sociali ed etiche della tecnologia dell'informazione.


Riga 317: Riga 317:
David Weinberger (New York,1950) è un filosofo e scrittore statunitense.
David Weinberger (New York,1950) è un filosofo e scrittore statunitense.


Il suo lavoro è incentrato sul modo in cui Internet sta cambiando le relazioni umane, la comunicazione e la società. Autore di numerosi saggi, ha pubblicato "La stanza intelligente", un libro destinato a lasciare il segno ridefinendo il concetto classico di intelligenza e il suo ruolo all'interno di un mondo sempre online. «Quando la conoscenza entra a far parte di una rete, la persona più intelligente della stanza è la stanza stessa: la rete che unisce persone e idee presenti e le collega con quelle all’esterno». Con queste parole nel prologo del suo libro l'autore sintetizza la sua visione della conoscenza ai tempi del web.
Il suo lavoro è incentrato sul modo in cui Internet sta cambiando le relazioni umane, la comunicazione e la società. Autore di numerosi saggi, ha pubblicato "La stanza intelligente", un libro destinato a lasciare il segno ridefinendo il concetto classico di intelligenza e il suo ruolo all'interno di un mondo sempre online. «Quando la conoscenza entra a far parte di una rete, la persona più intelligente della stanza è la stanza stessa: la rete che unisce persone e idee presenti e le collega con quelle all’esterno». Con queste parole nel prologo del suo libro l'autore sintetizza la sua visione della conoscenza ai tempi del web.


Il sapere, fino a pochi anni fa trasmesso su un supporto rigido e dai confini ben definiti come la carta stampata, per la prima volta nell'epoca di Internet è alla nostra portata in modo pressoché illimitato. Nella stanza in cui siamo riuniti (Internet), dove le fonti non sono certe e nessuno è mai d'accordo su nulla, circola molta più conoscenza di sempre, gestita con capacità superiori a quelle delle nostre singole menti e istituzioni, eppure Internet non ci rende più stupidi; al contrario, questa conoscenza sempre a disposizione, ci consente di prendere decisioni migliori di quelle di un qualunque esperto. L'importante è sapere come muoversi al suo interno.
Il sapere, fino a pochi anni fa trasmesso su un supporto rigido e dai confini ben definiti come la carta stampata, per la prima volta nell'epoca di Internet è alla nostra portata in modo pressoché illimitato. Nella stanza in cui siamo riuniti (Internet), dove le fonti non sono certe e nessuno è mai d'accordo su nulla, circola molta più conoscenza di sempre, gestita con capacità superiori a quelle delle nostre singole menti e istituzioni, eppure Internet non ci rende più stupidi; al contrario, questa conoscenza sempre a disposizione, ci consente di prendere decisioni migliori di quelle di un qualunque esperto. L'importante è sapere come muoversi al suo interno.

Versione delle 00:05, 22 ago 2016

Indice del libro

La filosofia digitale

La filosofia digitale è un indirizzo filosofico contemporaneo sviluppato negli ultimi decenni da promosso da Edward Fredkin, Gregory Chaitin, Stephen Wolfram e altri studiosi che si muovono in un'area di ricerca tra fisica, matematica, informatica e metafisica, e che pongono il bit alla base della realtà e spiegano l'evoluzione della realtà come un processo computazionale[1].

Edward Fredkin

Il fisico statunitense Edward Fredkin, nato nel 1934, è un pioniere della filosofia digitale (o fisica digitale). I suoi principali contributi sono nella computazione reversibile e negli automi cellulari. La sua invenzione più importante fu la porta di Fredkin.

Fredkin lascia il California Institute of Technology dopo un anno e si unisce all'USAF e diventa pilota di jet. La sua carriera in ambito informatico parte nel 1956 quando l'Air Force gli affida un lavoro al MIT Lincoln Laboratory. Nei primi anni '60 lavora alla BBN Technologies dove scrive l'assemblatore PDP-1. Nel 1968 ritorna all'accademia, iniziando come professore al MIT. Dal 1971 al 1974 fu direttore del progetto MAC. Al California Institute of Technology trascorre un anno lavorando con Richard Feynman, e diventa professore di fisica alla Boston University per 6 anni. Fredkin fondò la Information International Inc. In campo informatico fu inventore della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell'Intelligenza artificiale. Di recente ha sviluppato Slat, un modello di computazione basato sulle leggi di conservazione fondamentali della fisica.

Fredkin è un fautore del pancomputazionalismo, una teoria filosofica secondo la quale tutti i processi fisici della natura sono forme di calcolo o elaborazione delle informazioni ad un livello più elementare della realtà fisica. Ne deriva che la natura della realtà non è né materiale, né spirituale bensì è fondata su un'immaterialitá peculiare, che può definirsi informazionale. Il divenire della realtà è dunque concepito come un processo computazionale. Dal punto di vista teoretico, il pancomputazionalismo prende spunto da alcune tra le più importanti concezioni filosofiche del passato: l'atomismo, il determinismo, il meccanicismo, il monismo, il naturalismo, il realismo filosofico, il riduzionismo e l'empirismo scientifico.

"Esistono tre grandi domande filosofiche: cos'è la vita? Cosa sono la coscienza, il pensiero, la memoria e simili? Come funziona l'universo? Il punto di vista informazionale le concerne tutt'e tre."[2]

I contributi più significativi offerti da Fredkin alla filosofia digitale consistono in queste idee fondamentali: ogni cosa nella realtà fisica deve avere una rappresentazione informativa digitale; tutti i cambiamenti nella natura fisica sono la conseguenza dei processi informativi digitali; la natura è finita e digitale. Perfino la tradizionale visione dell'anima giudaico-cristiana trova la sua controparte statico/dinamica nella visione dell'anima profilata dalla filosofia digitale.

Gregory Chaitin

Gregory John Chaitin nasce a Chicago nel 1947. Figlio di emigranti argentini è considerato uno dei fondatori della filosofia digitale. A partire dagli anni sessanta ha contribuito alla teoria algoritmica dell'informazione che si occupa della complessità dei programmi ed è conosciuto per di più per le sue ricerche sulla complessità algoritmica e per i teoremi limitativi. All'età di quarantotto anni incassa la laurea honoris causa dall'università pubblica statunitense con sede a Oronto, in Maine e nel 2002 riceve il titolo di professore onorario dall'Università di Buenos Aires in Argentina. Al presente Gregory Chaitin è un professore ospite presso il dipartimento di Computer Science dell'Università di Auckland in Nuova Zelanda e presidente onorario della commissione scientifica del Valparaíso Complex System Institute (Cile). Chaitin ha pubblicato molteplici libri e diversi articoli, alcuni di questi reperibili integralmente anche in rete. È stimato come programmatore, come matematico, come fisico e come filosofo digitale.

Dopo le tesi di Kurt Gödel, i matematici sono diventati consapevoli del fatto che la loro materia peccava di diverse limitazioni. Gregory Chaitin ha scovato nel simbolo della costante numerica Omega il concetto chiave per confermare l'incompletezza della sua disciplina. Chaitin cercando di calcolare le probabilità che ha un programma informatico generato casualmente di fermarsi (il problema della fermata di Alan Turing) si è reso conto che quel numero è definito ma non può essere calcolato. Omega, evocativamente chiamato anche numero di Chaitin rappresenta la somma delle probabilità che ha quel programma di arrestarsi.

Il computer, afferma Chaitin, è un nuovo meraviglioso concetto filosofico e matematico; un'idea rivoluzionaria, un congegno pratico, capace di modificare la società. A parer di Chaitin l'universo è scritto in un linguaggio informatico e i suoi caratteri sono i bit. Il filosofo mostra una visione moderna dell'idea Pitagorica la quale identifica nel numero il principio di tutte le cose. Tutto è algoritmo. La metafisica permette a Chaitin di giungere con la sua filosofia digitale all'esattezza e all'essenzialità degli oggetti. La sostanza di un oggetto è il suo contenuto di informazione algoritmica. Leibniz architetta il codice binario e Chaitin lo fa elevare a linguaggio dell'universo.

Stephen Wolfram

Nato a Londra il 29 agosto 1959, è un matematico e fisico e, inoltre, viene definito come uno dei maggiori esponenti della filosofia digitale. Si è occupato in particolare di automi cellulari e di sistemi complessi. È inoltre il fondatore di Wolfram Research Inc.

Viene considerato fin da piccolo un enfant prodige nell'ambito delle discipline scientifiche, infatti, all'età di 13 anni,inizia a maturare un forte interesse per i fenomeni relativi alla complessità della natura e, all'età di soli 17 anni, viene ammesso al St.John's College dell'università di Oxford. A 20 anni consegue il dottorato di ricerca in fisica delle particelle e a 21 è insignito del Genius Award della Fondazione McArthur in riconoscimento dei risultati presentati nei suoi lavori sulla fisica e sulla computazione.

Nel 1986 realizza la prima versione di un linguaggio di programmazione e di un ambiente per il calcolo simbolico e numerico di grande efficacia:il programma Mathematica. L'ultima versione, la settima, è stata rilasciata alla fine del 2008.

Dal 1993 al 2002, Wolfram lavora al libro A New Kind of Science, un libro di 1.200 pagine, risultato della "parte migliore di vent'anni di vita, come dichiarerà lui stesso. All'interno dell'opera egli discute l'idea secondo la quale da input semplici seguono output semplici; da input complessi seguono output complessi, una legge che sembrava essere alla base della computer science. Al principio dei suoi studi si innesta una riflessione sugli automi cellulari che riescono a generare forme complesse a partire da regole semplici. L'analisi di diversi sistemi, mediante alcune simulazioni al computer, ha portato Wolfram alla conclusione che un limitato numero di regole ripetute all'infinito possa portare alla produzione di risultati complessi, confutando la teoria secondo cui regole semplici originino forme semplici e viceversa. Inoltre, è possibile dichiarare che attraverso gli automi cellulari sia possibile rendere comprensibile diversi fenomeni complessi, come ad esempio la forma di un fiocco di neve, di un guscio di una conchiglia, delle venature di una foglia, del manto maculato di un leopardo o striato di una zebra, mettendo in discussione le basi che caratterizzano alcune discipline scientifiche.

Seth Lloyd

Seth Lloyd (2 agosto 1960) è un fisico ed informatico statunitense.

Seth Lloyd

Si diploma nel 1978, alla Phillips Academy. Nel 1982 si laurea in fisica alla Harvard University. Dopo alcuni titoli conseguiti con diverse università, viene, nel 1994, assunto dalla facoltà di ingegneria al MIT. Ricopre ad oggi due incarichi: insegna ingegneria dei sistemi al MIT, e fisica dei computer quantistici e complessità informatica al Santa Fe Institute. Il suo contributo a livello scientifico riguarda lo studio della complessità e dei sistemi relativi in riferimento all'indagine su di essi condotta per mezzo degli strumenti informatici. Al MIT si occupa infatti prevalentemente di ricerca per lo sviluppo dei computer quantistici. La fama di Lloyd nel campo informatico è strettamente collegata ad una sua tesi (esposta in Programming the Universe), secondo la quale l’universo è un enorme computer quantistico, creando, come ogni computer, un programma informatico di cui noi facciamo parte. Ne deriva che l’universo è il più grande elaboratore di informazioni. Un articolo molto noto di Lloyd (Computational Capacity of the Universe) fornisce i numeri per capire come L’Universo, fin dalla sua nascita, abbia elaborato costantemente informazioni. In questo articolo vengono esposti i calcoli effettuati dal fisico, indispensabili per la comprensione della sua teoria. L’Universo, stando ai calcoli di Lloyd, ha computato dalla sua nascita 10 alla 120 operazioni logiche elementari, per un totale di 10 alla 90 bit… che sarebbe la quantità di informazione contenuta in tutta la materia dell’universo. Nella già citata opera (“Programming the Universe”) scrive: “Prima del Big Bang? Nulla. Non esisteva né il tempo, né lo spazio. Nessuna energia, nessun bit. L’informazione dell’Universo neonato era pari a zero bit […] Un miliardesimo di secondo dopo il Big Bang, l’Universo conteneva già 10 alla 50, cioè tanti bit quanti sono gli atomi della Terra. Il Big Bang è stato anche un Bit Bang.” Due, potremmo dire, sono le peculiarità della teoria di Lloyd: la prima è che l’Universo informatico e quello fisico coincidono: entrambi sono due modi complementari per descrivere la stessa cosa (la realtà). La seconda è che l’Universo non è solo un computer, ma un “computer quantistico”. Da ciò ne consegue che i bit dell’Universo sono in realtà qubit. Su questo punto trovò il sostegno di molti fisici, tra cui David Deutsch.

Eric Steinhart

Eric Steinhart è professore di Filosofia alla William Paterson University. Lavora principalmente sulla metafisica utilizzando metodi e strumenti analitici e logici contemporanei. Di formazione informatica e matematica, Steinhart ha lavorato come progettista di software per diversi anni, brevettando alcuni dei suoi algoritmi.

Nel suo saggio Digital Metaphysic, parte della raccolta The Digital Phoenix: How Computers Are Changing Philosophy, contrappone e mette in relazione la metafisica digitale con la metafisica materialista. Steinhart incolpa la scienza di oggi di ridurre tutta la realtà ai suoi costituenti materiali in quanto l'unica cosa reale è la materia. Il filosofo non abbraccia questa tesi, ma propone che i fondamenti della realtà siano computazionali: "la realtà ultima è una macchina di calcolo massicciamente parallela abbastanza universale da consentire la realizzazione di qualsiasi mondo fisicamente possibile". Questo sistema di idee viene identificato come metafisica digitale. Questa tesi è stata avanzata per la prima volta da Gottfried Wilhelm von Leibniz il quale descrive all'interno della sua Monadologia il mondo come un sistema di automi.

La metafisica digitale pone come fondamento ultimo della realtà uno spazio-tempo computazionale, costituito da calcolatori universali che interagiscono fra loro. Tali interazioni danno vita ai fenomeni fisici, fornendo spiegazioni proceduralmente efficaci di come si comporta la natura. Tale tesi presuppone una natura finita in quanto una realtà finitaria è molto più facile da comprendere, mentre l'infinito comporta paradossi. La natura, essendo coerente in sé stessa, non ammette alcun paradosso e di conseguenza non può contenere infiniti: natura, spazio e tempo hanno un'estensione finita. Steinhart mette in evidenza l'esistenza di varie teorie fisiche, ciascuna delle quali determina un mondo fisicamente possibile. Ciò non vuol dire che esistano vari mondi attuali, ma che sono possibili altri sistemi di leggi fisiche. Per il filosofo la realtà metafisica è struttura di tutti i mondi fisicamente possibili, mentre la realtà fisica è la struttura di una sola specie di questi mondi.

La metafisica digitale si sposa sia con l'argomento teologico di Dio, sia con la cosmologia atea. La visione di Dio si basa sul modello del Neoplatonismo plotiniano, mentre nella versione atea Dio viene sostituito da uno spazio-tempo computazionale eterno in cui la realtà materiale si è verificata.

Kevin Kelly

Kevin Kelly nasce in Pennsylvania nel 1952. Compie i suoi studi presso la Westfield High School, Westfield NJ, dopodiché si iscrive all'Università del Rhode Island che abbandona dopo un anno. Intraprende la carriera di fotografo indipendente viaggiando ed esplorando diverse parti remote dell'Asia tra il 1972 e il 1979[3].

Kevin Kelly

Kevin Kelly ha saputo unire in una miscela filosofica ambiti apparentemente distanti tra loro: etici, tecnologici, antropologici e religiosi. Scrittore, fotografo e ambientalista, è stato co-fondatore della nota rivista Wired[4].

Divenne noto soprattutto grazie al suo primo libro Out of Control: The New Biology of Machines, Social Systems, and the Economic World[5] pubblicato nel 1994. Questo libro fu uno dei testi che gli attori della celebre saga Matrix dovettero leggere obbligatoriamente per entrare nella logica del film.

Il suo articolo pubblicato su Wired God Is the Machine. In the beginning there was 0. And there was 1. A Mind-bending meditation on the transcendent power of digital computation[6], permette di collocarlo nell'ambito della filosofia digitale. Partendo da un esempio tratto dalle conclusioni scientifiche usate nel determinare la materia identificandola al di sotto del livello di quark e muoni, in cui racchiudere il mondo incorporeo, Kelly afferma che la filosofia digitale è entrambe le cose, ovvero indica il mondo fisico come digitale ovvero 1 e 0 ("La filosofia digitale dice questo: il mondo fisico è digitale, 1 e 0").

Kelly arriva ad "idealizzare" l'intera struttura genetica e la vita stessa come un processo informazionale e la materia costituita come un groviglio di bit, paragonando la sequenza di un intero DNA umano compresso in un CD da 3 gigabyte a quella di tre atomi, due di idrogeno e uno di ossigeno, mescolati nel "magico bicchiere della filosofia digitale"[7]. Infine unendo gli insegnamenti "esoterici" della fisica quantistica con la "nuova scienza del digitalismo" arriva a teorizzare una sorta di "dottrina mistica della computazione universale", prendendo spunto da argomenti di carattere teologico attraverso uno dei passi più noti della Bibbia:

"Dopo aver strappato via tutte le esteriorità e gli abbellimenti materiali, quello che rimane è lo stato di pura esistenza: qui/non qui, sono/non sono. Nel Vecchio Testamento, quando Mosè chiede al Creatore: “Chi sei tu?”, questi, in vero, dice: “Sono”. È un bit. Un bit onnipotente. Sì. Uno. Esisto. L'affermazione più semplice possibile"[8]

Mediante questo articolo arriva ad una "seconda Rivelazione" espressa in un nuovo linguaggio identificato come una nuova Creazione e una nuova evoluzione, includendo anche una sua eterna Triade di principi:

  1. la computazione può descrivere ogni cosa;
  2. ogni cosa può computare;
  3. nonostante la computazione possa "incarnarsi" in ogni cosa, la sua natura rimane unica e identica a sé stessa.

Con queste conclusioni, secondo Kelly, non ci sono più forme di computazione: a prescindere dalla materia del dispositivo che la sorregge o la veicola, la computazione è sempre equivalente a sé stessa, immutabile e universale. L'articolo termina con una domanda rivolta a tutti noi: "If the universe in all ways acts as if it was a computer, then what meaning could there be in saying that it is not a computer?" ("Se l'universo agisce in tutti i modi come se fosse un computer, allora che senso potrebbe esserci nel dire che non è un computer?").

Rendere l'essere umano capace di confrontarsi con questa domanda in modo più adeguato è forse proprio What Technology Wants, come recita il titolo dell'ultimo libro di Kelly[9].

Jürgen Schmidhuber

Jürgen Schmidhuber, nato a Monaco di Baviera nel 1963, è il direttore dell'Istituto di Intelligenza Artificiale (Idsia) di Lugano e del Laboratorio di robotica cognitiva dell'Università di Monaco. Il nome dell'informatico tedesco è legato soprattutto alla filosofia digitale e all'Intelligenza Artificiale (AI).

Tra i suoi contributi, una posizione di rilievo è sicuramente occupata dalla "teoria algoritmica della bellezza" (Schmidhuber's Beauty Postulate). Ogni soggetto, di fronte a una serie di paesaggi, volti, opere d'arte, indica come "il più bello" il più semplice da decodificare e memorizzare. Questo principio di origine matematica è strettamente legato alla "teoria algoritmica dell'informazione" di Chaitin.

Molto nota è anche la legge secondo cui la distanza temporale tra una scoperta tecnologica rivoluzionaria e un'altra decresce esponenzialmente. Schmidhuber, pur conservando dunque il criterio dell'esponenzialità, rovescia la "legge di Moore", per cui invece il ritmo del progresso tecnologico cresce in maniera esponenziale.

Il contributo più importante per la filosofia digitale è però la cosiddetta "ipotesi di Schmidhuber", esposta nel saggio del 1997 A Computer Scientist's View of Life, the Universe, and Everything. Il nucleo della trattazione è il seguente: "Molto tempo fa, il Grande Programmatore scrisse un programma che lanciò tutti gli Universi possibili nel suo Grande Computer. Qui "possibili" significa "computabili"[10].

Anche il nostro Universo gira su questo Grande Computer e il suo stato può essere descritto mediante un numero finito di bit. Nonostante questa regolarità, Schmidhuber riconosce anche l'esistenza di deviazioni. Queste deviazioni spingono molti a ritenere che il mondo sia parzialmente casuale e quindi incomputabile. Tuttavia, secondo Schmidhuber, la nostra incapacità di decodificare lo stato del nostro Universo non influenza le possibilità del Grande Programmatore, che può invece esaminarlo in qualsiasi momento.

Negli ultimi anni, Schmidhuber si è dedicato all'evoluzione del sistema di riconoscimento vocale di Google, sfruttando le reti neuronali ricorrenti da lui sviluppate.

La filosofia dell'informazione

Il mondo durante l'ultimo secolo ha vissuto una vera e propria rivoluzione, che ha richiesto una nuova analisi filosofica ben rappresentata da Norbert Wiener e Luciano Floridi, due intellettuali che, nonostante l'intervallo cronologico e il differente approccio teorico, hanno lasciato entrambi una traccia vengono citati nella stessa discussione non necessariamente come tesi ed antitesi del dibattito.

L'informazione da Norbert Wiener a Luciano Floridi

Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "teoria dell'informazione". Da affermato materialista affermò che "l'informazione è entropia" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "informazione di Shannon". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.

Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo costruttivismo, dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria etica dell'informazione. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.

La rivoluzione dell'informazione secondo Luciano Floridi

L'informazione

Secondo Luciano Floridi il rapido sviluppo della tecnologia ha trasformato il mondo stimolando nuove idee, modellando concetti e causando problemi inediti. Tra questi, quello principale, è quello dell'informazione.

Analizzando l'opera curata da Terrel Baynum e James Moore The Digital Phoenix (La Fenice Digitale), Floridi analizza i problemi riguardanti la Filosofia dell'Informazione, una nuova disciplina filosofica che riguarda l'indagine critica della natura concettuale e dei principi basilari dell'informazione, e l'elaborazione di una metodologia teoretica, informazionale e computazionale applicabile ai problemi filosofici.

Luciano Floridi

I problemi dell'informazione secondo Floridi sono 5 e riguardano l'analisi del concetto di informazione e le sue dinamiche, la sua semantica, l'intelligenza, la sua natura e i suoi valori. Attraverso la sua analisi il filosofo conclude che vi è una differenza netta tra intelligenza naturale (IN) e intelligenza artificiale (IA) e che solo la (IN) processa e identifica informazioni, anche se va detto che ci sono dei casi in cui la (IN) processa e identifica anche solo dati come fa la (IA).

L'informazione è vasta e varia e quindi vi sono infiniti modelli, essa inoltre è una cosa naturale che può esserci anche se manca l'informatore che informa o l'informato che viene informato dall'informatore. Per Floridi la filosofia dell'informazione è in continuo mutamento.

Fino al 1996 siamo tutti vissuti in una società in cui Internet non era la tecnologia caratterizzante e il modello "uno molti" o dal centro alla periferia, come veniva definito da Marshall McLuhan, dominava. La storia è piena di successioni temporali che vanno dal sociale al politico, dal naturale al circolare, dalla relazione con la religione alla relazione con la scienza. La storia è il succedersi di cronografie che per il sol fatto di dipendere da successioni temporali, accumulano e trasmettono informazioni per il futuro. Senza tali sistemi di trasmissione non vi sarebbe storia, cosicché storia è sinonimo di età dell'informazione. Dato che la preistoria è considerata "l'età dell'evoluzione umana che precede la comparsa di qualsiasi documento scritto", si potrebbe sostenere che l'umanità abbia vissuto in diversi tipi di società dell'informazione, dall'invenzione dell'aratro all'invenzione della scrittura. Quest'ultima in particolare, secondo alcuni studiosi ha segnato una vera e propria rivoluzione dell'informazione, ma una delle spiegazioni più accreditate del termine riguarda un contesto recente, dove il benessere e il progresso umano hanno cominciato a dipendere dalla gestione efficace ed efficiente del ciclo di vita dell'informazione.

Il ciclo di vita dell'informazione include delle fasi: occorrenza, trasmissione, processo, gestione e uso. Immaginiamo che questo ciclo sia come un vero e proprio indicatore del tempo, come può esserlo un orologio, e indichiamone un arco temporale: dall'età del bronzo alla fine del secondo millennio d.C. L'arco temporale rappresenta la quantità di tempo che l'evoluzione dei cicli di vita dell'informazione ha richiesto per generare la società dell'informazione. Questo ha permesso un'evoluzione delle tecnologie dell'informazione e della comunicazione (ICT) da sistemi di registrazione a sistemi di comunicazione, in particolare dopo Gutenberg e l'invenzione della stampa, e quindi sistemi per produrre informazioni, in particolare dopo Turing e la diffusione dei computer. Grazie a tale evoluzione, la società dipende fortemente da beni intangibili basati sull'informazione, da settori orientati ad essa (istruzione) a servizi intensificati grazie ad essa (commercio).

Nel 2003 una ricerca ha stimato che l'umanità abbia accumulato, nel corso della sua storia fino alla commercializzazione del computer, circa 12 exabyte (1018 byte). Il termine Exaflood è un neologismo coniato per qualificare questo tsunami di dati che da un lato ha portato alla "democratizzazione" dell'informazione, grazie all'immagazzinamento su supporti magnetici, dall'altro ha portato alla creazione di un ciclo che si autoalimenta, dato che i computer sono le principali fonti di produzione di questi dati.

Le ICT stanno modificando un mondo con un'ampiezza tale da aver creato concrete e significative opportunità di enormi benefici, ma portano con sé anche rischi significativi, generando questioni riguardanti la natura della realtà e della sua conoscenza, la responsabilità nei confronti delle generazioni future, l'organizzazione della società stessa. La società dell'informazione è come un albero che ha sviluppato i suoi rami in modo molto più ampio, rapido e caotico, di quanto non abbia fatto con le sue radici concettuali, etiche e culturali. La nostra capacità di comprendere le tecnologie dell'informazione e della comunicazione è scarsa come nell'analogia dell'albero dalle radici deboli, vi è il rischio che una crescita della superficie pregiudichi la fondazione fragile alla base. Da ciò nasce l'esigenza, da parte di qualunque avanzata società dell'informazione, di dotarsi di una valida filosofia dell'informazione, al fine di estendere e rafforzare la nostra comprensione. Per la stessa comprensione del mondo e delle interazioni con esso, nonché della comprensione di noi stessi e della nostra identità, le ICT e l'informatica hanno dato luogo a una quarta rivoluzione. Le prime tre vengono definite le "rivoluzioni scientifiche":

  • Copernico e la cosmologia eliocentrica: la Terra e indirettamente l'umanità non è più immobile al centro dell'universo;
  • Darwin e la teoria sulla origine delle specie: l'umanità non è separata e diversa dal regno animale, ma ogni forma di vita si è evoluta nel tempo per mezzo di progenitori comuni. In tal modo l'uomo non è più al centro del regno biologico;
  • Freud e la teoria della psicoanalisi: la mente umana non è più considerata isolata e interamente trasparente a sé stessa, ma è anche inconscia e soggetta al meccanismo di difesa della repressone.

La scienza ha fondamentalmente due modi di modificare la nostra comprensione: uno estroverso, riguardante il mondo, l'altro introverso, riguardante noi stessi. Le rivoluzioni scientifiche hanno avuto un forte impatto su entrambi i punti di vista: nel modificare la comprensione del mondo esterno, hanno mutato anche la concezione di chi siamo.

Se Copernico, Darwin e Freud sono gli esponenti delle prime tre, sicuramente uno scienziato rappresentativo della quarta rivoluzione è Alan Turing. L'umanità oggi non è un insieme di entità isolate quanto piuttosto si preferisce parlare di inforg, organismi informazionali interconnessi con agenti biologici e artefatti ingegnerizzati, in un ambiente globale chiamato per convenzione: infosfera. Quest'ultima, essendo l'insieme dei processi, servizi ed entità informazionali, non va confusa con la visione tipica della fantascienza di un'umanità di cyborg. Uno scenario simile è si realizzabile, ma tutt'ora troppo lontano sia su un profilo tecnico sia su un profilo etico.

Ciò che la quarta rivoluzione ha portato alla luce è la natura informazionale degli agenti umani, cioè la rappresentazione, sotto molti aspetti simile a quella di alter ego espressa da R. L. Stevenson nella sua opera, nella quale l'individuo necessita di un richiamo alla distinzione tra applicazioni che migliorano e applicazioni che aumentano.

Le prime, come pacemaker, occhiali o arti artificiali, sono applicazioni interfacciate interamente con la componente ergonomica. Le seconde, come l'habitat o la stessa realtà, sono applicazioni interfacciate con la componente comunicativa tra diversi mondi possibili. Ad esempio il mondo esterno, che condiziona l'agente che ne è parte, e il mondo caldo e scuro, pieno di acqua e sapone della lavastoviglie. Le ICT non sono applicazioni né che migliorano né che aumentano, ma apportano trasformazioni radicali, cioè "costruiscono". In un sistema simile, si preferisce utilizzare il neologismo "riontologizzare", per far riferimento al fatto che tale forma non si limita soltanto a costruire, ma soprattutto ad apportare una trasformazione radicale della sua natura intrinseca. In altre parole le ICT non stanno ricostruendo il mondo ma lo stanno riontologizzando.

La quarta rivoluzione è proprio questo, una dislocazione ed una ridefinizione dell'essenza della nostra natura e del ruolo che rivestiamo dell'universo. Se prima la nostra prospettiva sulla natura ultima della realtà, vale a dire la nostra metafisica, era materialistica, cioè basata su processi e oggetti fisici, ora diviene informazionale. Un simile passaggio sta a significare che gli oggetti e i processi perdono la propria connotazione fisica e sono tipizzati, cioè l'esemplare di un oggetto(copia di un file musicale) conta quanto il suo tipo (il tuo file musicale, di cui la mia copia è un esemplare). Porre minore enfasi sulla natura fisica di un oggetto implica che il diritto di uso sia giudicabile almeno tanto importante quanto quello di proprietà.

"L'essere è l'essere interagibile", definendo con questa espressione il passaggio, da un essere immutabile o un essere potenzialmente oggetto di percezione, a un essere potenzialmente soggetto a interazione, anche se indiretta. In tal senso, in tempi recenti, molti paesi hanno seguito la pratica degli Stati Uniti di riconoscere, come bene (digitale), il software. Data la premessa, non dovrebbe essere troppo difficile accettare che anche beni virtuali possano rappresentare investimenti importanti. In Cina, ad esempio sono sempre più famosi i cosiddetti negozi di beni virtuali, dove in stanze claustrofobiche, i lavoratori sono costretti a racimolare e creare beni su World of Warcraft o altri MMORPG, per poi essere venduti ad altri giocatori.

Quando un giocatore si iscrive ad un MMORPG, cioè ad un gioco di ruolo multigiocatore di massa, al momento della registrazione si accettano anche gli EULA, cioè i contratti di licenza di un software commerciale. Questi non permettono la vendita di tali beni virtuali, come se la proprietà di un documento digitale creato per mezzo di un software non ci appartenga. Questo "mercato nero" dei beni virtuali è in crescente aumento, per questo motivo società come la SONY, tramite la licenza SOE (Sony Online Entertainment), hanno deciso di creare un servizio ufficiale di aste che fornisca ai giocatori metodi legali e sicuri di acquisto e vendita di tali beni. Una volta che la proprietà dei beni virtuali sia stata legalizzata, il passo successivo sarà l'emergere di controversie giudiziarie relative a tale proprietà. Un esempio è quanto accaduto in Pennsylvania, dove un avvocato ha patrocinato una causa contro l'editore di Second Life, un simulatore di vita virtuale, per avergli confiscato un valore i 10mila dollari di terra virtuale.

Una delle questioni più sottili per la salvaguardia dei beni virtuali è proprio la stipulazione di assicurazioni che garantiscano la protezione dei beni. World of Wacraft ne è un chiaro esempio, essendo il più grande MMORPG con oltre 12 milioni di giocatori sottoscritti ad un abbonamento mensile. I suoi utenti, che hanno speso milioni e milioni di ore per costruire, arricchire e perfezionare le loro proprietà digitali, saranno ben disposti a spendere qualche dollaro per assicurarle. Le ICT stanno creando un mondo nella quale le nuove generazioni trascorreranno la maggior parte del loro tempo; invece di individui concepiti come entità uniche e insostituibili, abbiamo cominciato ad essere prodotti di massa, dal momento che le nostre vetrine di acquisto diventano le nostre "finestre" di acquisto e dato che anche il modo in cui viviamo la realtà si è spostato dalle strade al web, anche la nostra identità personale comincia ad essere erosa. Per questo ci troviamo di fronte ai meccanismi di personalizzazione che i social ci offrono. Usiamo ed esibiamo talmente tante informazioni che ci riguardano che anche l'anonimato diviene impossibile e processi, come questi appena descritti, sono parte di un più profondo slittamento metafisico causato dalla rivoluzione dell'informazione.

L'ubiquità computazionale, di cui si sente parlare oggi, è proprio il sottile distacco che c'è tra il qui analogico e il là digitale. Un distacco così sottile che potremmo considerare nullo, tant'è che diviene impercettibile distinguere i due ambiti. La crescente informatizzazione dell'intero ambiente sociale suggerisce che sarà difficile comprendere come fosse la vita prima dell'era informazionale e, in un futuro prossimo, la differenza tra online e offline scomparirà. L'infosfera sarà in tal modo sincronizzata, delocalizzata e correlata, cessando di essere considerata un modo di fare riferimento allo spazio del informazione per divenire sinonimo di realtà.

Il linguaggio dell'informazione

La definizione di informazione, nella sua declinazione generale (DGI), si esplica nella relazione tra dati e contenuto significante, passibile cioè di interpretazione. Un'informazione sussiste se include un certo numero di dati ben formati (ossia espressi secondo una sintassi in accordo con la configurazione scelta) e dotati di significato (conformi alla semantica del sistema di riferimento).

La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.

Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di Donald Mac-CrimmonMacKay "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.

I dati possono essere classificati come analogici (se trasmessi e codificati in una modalità continua) o digitali (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.

Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di informazione ambientale che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.

Il discriminante tra questo tipo di informazione e quella di carattere fattuale sta nel riscontrare in quest'ultima uno stato di cose, una dichiarazione dell'effettiva situazione, e nel suo designarsi come informazione o vera o falsa.[11]

L'informazione matematica

Le informazioni sono quantificabili: possono essere codificate, immagazzinate, sommate. Queste e altre proprietà vengono considerate sotto un punto di vista matematico dalla TMC (teoria matematica della conoscenza) ideata da Claude Shannon.

Principalmente, essa si occupa di codificare le informazioni, in modo da evitare il deficit dei dati conosciuto anche con il termine di “incertezza”: esso si presenta quando un dispositivo può produrre più simboli che il destinatario non può conoscere prima della loro trasmissione.

Nella codificazione giocano un ruolo importante ridondanza e rumore: la prima riguarda la trasmissione matematica (in bit) di un certo dato, la seconda il carico delle informazioni inviate non volutamente.

L’informazione considerata da Shannon prende anche il nome di “entropia”, dal suggerimento di John von Neumann. Essa indica:

  • la quantità di informazione prodotta da un simbolo,
  • il conseguente deficit generato da essa,
  • il valore informativo di essa.

Le informazioni però, oltre ad avere un valore matematico, presentano anche un valore semantico che non viene trattato dalla TMC: questo ambito riguarda il campo dell’informazione semantica.[12]

L'informazione semantica

Prendendo in considerazione il significato semantico, è giusto presentare la differenza fra contenuto semantico fattuale e informazione semantica fattuale. Il primo può essere costituito di dati non riducibili al vero mentre il secondo è composto rigorosamente da verità: è importante perciò che l’informazione semantica fattuale sia vera laddove il contenuto può essere falso.

Il contenuto informativo prende in considerazione il significato, nonché le relazioni che un’informazione può istituire. Nonostante ciò - come precedentemente detto - non sia ambito della TMC, esso e l’informazione semantica hanno in comune un aspetto: il PRI (principio di relazione inversa). Esso si occupa delle relazioni inverse che possono riguardare le probabilità. Infatti l’informazione semantica traduce come tale la relazione tra informazione e probabilità, la quale induce allo scandalo delle premesse e al paradosso di Bar-Hillel-Carnap.

Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto ad un fatto, meno informazioni giuste si hanno su di esso.

Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0 indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno all’ambito semantico: infatti un’informazione è definita semantica quando fa riferimento al vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.[13]

L'informazione fisica

Il processo informativo porta con sè un forte dispendio energetico ed è soggetto alle leggi fisiche della termodinamica. Il processo informativo quindi è causa di entropia. La domanda sulla quale occorre interrogarci è : Sarebbe possibile evitare questo dispendio energetico, anche solo teoricamente? Maxwell, studioso, mediante il "demone di Maxwell" ci fornisce una sua risposta. Ci invita a fare un piccolo esperimento mentale, "la teoria del calore": immaginiamo un omino (poi nominato demone di Maxwell) il quale si trova tra due caselle. Questo omino è capace, socchiudendo la porticina che divide le due caselle, di spostare le molecole più lente da una parte e quelle più veloci dall'altra. Questo processo tuttavia, attraverso l'elaborazione dei dati, il calcolo del momento in cui aprire la porticina, la localizzazione delle molecole, causa entropia, dispendio energetico. L'informatico Bennet, inoltre, esorcizza il demone: la cancellazione della memoria, la quale richiede comunque energia, è il prezzo irreversibile da pagare da parte del demone di Maxwell. Questa conclusione però non è legge, infatti uno scettico potrebbe ancora immaginare un demone nel quale la memoria non venisse cancellata, in continua espansione. Si arriverebbe quindi ad un pareggio. Se si trattasse di Computer Quantistici? Si potrebbe vedere vinta l'entropia? La risposta è no, ma elaboriamola. I computer quantistici, almeno teoricamente, potrebbero avere la possibilità di sovrapporre stati differenti, chiamati QUBIT. In questo caso si avrebbe un dispendio di tempo molto minore e si potrebbe presentare un nuovo sistema informativo, capace di rendere semplici calcoli molto complessi. Purtroppo i problemi di costruzione potrebbero rivelarsi insormontabili. Secondo alcuni studiosi si arriverebbe alla realizzazione della realtà come ente costituito da Bit. Questa teoria può sposarsi con la Metafisica dell'informazione, per la quale l'universo viene visto come un grande computer capace di produrre Bit. Questo da un lato non può ritenersi veritiero perchè il solo universo non basterebbe e dall'altro perchè si ricadrebbe nel "demone di Laplace" e il suo determinismo, superato a partire dal diciannovesimo secolo con teorie informative, che durano tutt'oggi (basti pensare a Wiener e la sua metafisica) meno deterministiche e basate sul principio di incertezza.

L'informazione biologica

L'informazione biologica può assumere svariati significati a seconda che si riferisca al soggetto e al suo codice genetico, al rapporto di elaborazione dati del soggetto rispetto all'esterno o alla produzione di informazione che, mediante la comunicazione, passa dal sogetto in questione ad altri. Qui ci occuperemo semplicemente dell'informazione biologica in relazione all'organismo e dell'informazione neurale (l'organismo in quanto cervello). Innanzitutto occorre distinguere l'informazione biologica fisica, che fornisce informazioni come realtà, istruttiva, che fornisce informazioni per la realtà e semantica, che fonisce informazioni sulla realtà. E' possibile poi ritrovare due diversi aggettivi per l'informazione biologica o genetica: attributivo e predicativo. Esempio calzante quello di Luciano Floridi: un'informazione attributiva è quella medica, di per sè non curativa; un'informazione predicativa è quella digitale, in quanto è tale poiche digitale. Che tipologia di informazione è quella biologica o genetica? I geni, protagonisti del codice genetico sono istruzioni e le istruzioni sono informazioni predicative che insieme a elementi indispensabili dell'ambiente circostante controllano e guidano lo sviluppo degli organismi. Dunque in questo senso, predicativo e procedurale, possiamo riassumere la tipologia dell' informazione biologica o genetica. Quando si tratta invece del rapporto fra cervello e mondo esterno occorre partire dal concetto di sistema nervoso: una rete che gestisce informazioni e che produce da azioni reazioni a vantaggio dell'organismo che ne è soggetto. I protagonisti di questa rete sono i neuroni e le cellule gliali. I neuroni sono molti ma è possibile schematizzarli in "neuroni sensori","neuroni motori" e "interneuroni", collocati tra i primi due tipi di neuroni. La "sinapsi" è l'incontro fra due neuroni dove è scambiato il segnale elettrochimico. Questa architettura di rete prevede un sistema nervoso centrale e un sistema nervoso periferico, interfaccia tra il corpo e il mondo esterno. Il centro di questa architettura è certamente il cervello, nel quale sono presenti 100 miliardi di neuroni. Dilemma informatico, ancora oggi, è il processo che arriva all'informazione semantica di alto livello: Luciano Floridi fa l'esempio della luce rossa lampeggiante e la nostra comprensione della batteria che si sta scaricando. Questo processo non può essere ancora interamente spiegato e rappresenta la meraviglia dei percorsi scientifici, sui quali è necessario ancora lavorare.

L'informazione economica

L'etica dell'informazione

L'etica informatica

La tecnologia informatica ha provocato una rivoluzione non solo tecnologica ma anche sociale ed etica, per cui è stato necessario fondare un'Etica Informatica, in cui si delineano i tradizionali problemi etici riformulati a causa dell'impatto dell'Information Technology).

I teorici dell'etica informatica

  • Norbert Wiener: fondatore della cibernetica oltre che autore di saggi sull'aspetto etico dell'information technology.
  • Donn Parker (SRI International, California): dopo aver esaminato gli usi "illeciti" e "immorali" da parte degli informatici di professione, rielaborò nel 1968 l'articolo Rules of Ethics in Information Processing dirigendo il primo codice di condotta professionale per l'Association for Computing Machinery.
  • Joseph Weizenbaum: informatico del Massachusetts Institute of Technology, è il creatore di ELIZA, un software che simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum approfondì poi gli aspetti filosofici legati alla creazione dell'Intelligenza artificiale scrivendo Computer Power and Human Reason, nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale possano sostituire l'uomo.
  • Walter Maner: solo alla metà degli anni '70 alla Old Dominion University viene coniato il termine "etica informatica" per indicare "quel campo dell'etica professionale applicata che riguarda i problemi etici aggravati, trasformati o creati dall'IT" (si fa riferimento tuttavia a tradizioni etiche come quella utilitarista o razionalista. Alla fine degli anni '70 creò un certo interesse per la nuova disciplina inaugurata organizzando numerosi corsi, seminari e conferenze oltre a pubblicare con la collaborazione di Terrell Ward Bynum lo Starter Kit In Computer Ethic, contenente dispense e consigli pedagogici per gli addetti ai lavori. Conteneva inoltre alcune ragioni fondamentali per integrare un corso di etica informatica, un elenco di obiettivi oltre a vaste discussioni su temi come: Privacy, reati informatici fino a trattare temi più complessi come codici professionali o dipendenza informatica.
  • James Moor: negli anni '80, dopo la progressiva diffusione delle problematiche relative al campo etico, si ebbe un'esplosione dell'attività dell'etica informatica. Esempi sono What is Computer Etics?, un articolo di James Moor pubblicato nel 1985 sulla rivista "Metaphilosophy", nel quale l'autore definisce l'etica informatica come disciplina che ha a che fare con il "vuoto politico" (come utilizzare al meglio le nuove tecnologie) e la "confusione concettuale". Per Moor uno dei compiti centrali dell'etica informatica è quello di formulare politiche che possano dirigere la nostra azione, in quanto la tecnologia informatica è logicamente malleabile. In questa ottica la rivoluzione informatica si distingue in due momenti: l'introduzione della tecnologia (sviluppo e raffinazione) e la penetrazione della tecnologia (integrazione nelle principali attività umane, arrivando a modificare concetti come il denaro, l'istruzione, il lavoro...).
  • Deborah Johnson: con la pubblicazione di Computer Ethics, il primo manuale della disciplina, definisce l'etica informatica con un approccio simile a Maner (filosofia applicata), tuttavia non crede che i computer abbiano creato nuovi problemi, ma solo una rielaborazione di questioni già note.
  • Terrell Bynum: nonostante la definizione di Moor sia la più ampia, Bynum propone un approccio che include etica applicata e sociologia informatica coinvolgendone le teorie e concetti: "L'etica informatica identifica e analizza l'impatto della tecnologia informatica sui valori umani e sociali come la salute, la proprietà, il lavoro, le opportunità, la libertà, la democrazia, la conoscenza, ecc.". Progettò inoltre con Maner la prima conferenza internazionale sull'etica informatica, tenutasi nel 1991, che vide convenire partecipanti da 7 paesi e 32 stati degli USA.
  • Simon Rogerson: negli anni '90 ci fu una diffusione di interesse per l'etica informatica sopratutto in Europa e Australia, soprattutto grazie a pionieri come Rogerson, fondatore del Centre for Computing and Social Responsibility (CCSR) inaugurando insieme a Terrell Bynum una serie di conferenze internazionali (ETHICOMP). Lo stesso Rogerson ha promosso l'esigenza di una "Seconda Generazione" degli studi sull'etica informatica, fondata sulla costruzione/elaborazione dei fondamenti concettuali e sullo sviluppo dei contesti teorici nei quali possono emergere azioni pratiche, minimizzando gli effetti imprevisti dell'IT.
  • Donald Gotterbarn: autore dell'ultima stesura del codice di etica e condotta professionale all'ACM per stabilire gli standard di licenza per i progettisti software, ha definito l'etica informatica come una branca dell'etica professionale per la sua applicazione in codici di condotta per gli addetti ai lavori.

I temi dell'etica informatica

Le principali questioni Sociali ed Etiche che riguardano i luoghi di lavoro sono :

  • Sicurezza Logica : Suddivisa in 5 aspetti:
  1. Privacy e riservatezza dei dati,
  2. Integrità (Garanzia che i dati ne programmi siano modificati senza adeguata autorizzazzione)
  3. Prestazione inalterata
  4. Coerenza
  5. Controllo dell' accesso alle risorse
  • Proprietà del Software:Un'altra questione sociale relativa a opinioni comuni sulla totale libertà dell'Informazione o sulla commercializzazione di esse ( per sostenere i programmatori e incentivare la produzione di software di qualità) sottoforma di:
  1. Copyright
  2. Segreti di fabbrica
  3. Brevetti
  • Responsabilità professionale:I professionisti responsabili,venendosi a trovare continuamente in una serie di rapporti professionali devono essere a conoscenza dei possibili conflitti di interesse ed evitarli.Negli Stati Uniti organizzazioni professionali come "ACM" e "IEEE" hanno stabilito dei codici etici ,delle direttive sui curricola e requisiti di accreditamento oltre a includere nel codice imperativi morali come :"evitare di danneggiare gli altri" o "essere degni di fiducia".

Computer Ethics

La diffusione così capillare del computer nella vita e nelle attività umane non poteva non chiamare in causa l'etica.

Il primo scienziato a riflettere sugli aspetti etici e sociali legati ai computer è stato Norbert Wiener, padre della cibernetica. La prima volta che fu usato il termine computer Ethics fu nel 1978, quando Walter Maner la definì come il campo di indagine che affronta i problemi etici creati, trasformati o aggravati dall’information techonology. Si arriva cosi al 1985, considerato l’anno di fondazione della Computer Ethics intesa come disciplia.

Cosa sia e cosa comprenda la Computer Ethics (l’etica dell’informazione), non è scontato. La mappatura dei temi che possono essere compresi sotto questa etichetta sono svariati e spaziano dalla Governance di Internet al tele-lavoro, dal digital divide ai temi della privacy e della criminalità informatica.

Il "principio unificante" della legge che governa l’uso e la diffusione delle tecnologie dell’informazione e che permette anche di inquadrare le complesse tematiche dell’etica delle tecnologie dell’informazione, è il seguente: "L’importanza dell’informazione in un’organizzazione, nell'economia e nella stessa società, è direttamente proporzionale al livello di complessità dei processi da conoscere e gestire e, inversamente proporzionale al livello di fiducia tra agenti coinvolti in tali processi".

Potremmo chiamare il primo tipo di complessità "complessità tecnica” e il secondo “complessità politica”. Potremmo dire che le tecnologie dell’informazione nel momento stesso in cui forniscono soluzioni sempre più performanti nel “dominare” la complessità tecnica e quella politica, suscitano sfide e problemi etico-sociali sempre più complessi.

Per avere un quadro esaustivo degli aspetti dell’informazione trattati dalla Computer Etics, si può fare riferimento alla mappatura proposta da Norberto Patrignani, che li colloca su diversi livelli, da quelli più fisici fino alla noosfera, la sfera delle idee.[14] I livelli verticali rappresentano le diverse aree della realtà potenzialmente influenzate dai computer (dal pianeta al mondo delle idee come detto prima); i domini orizzontali, invece, rappresentati da ellissi con dimensioni approssimativamente proporzionali alla loro importanza, costituiscono una panoramica delle principali aree di criticità o di attenzione della Computer Ethics.

Le questioni identificate con la computer Ethics possono essere affrontate a livello individuale, professionale e sociale. Un ruolo speciale spetta ai computer professional, nella definizione dei loro codici etici di condotta e nel fornire, al pubblico in generale ed ai decisori pubblici, tutte le informazioni sulle potenzialità, sui rischi e limiti delle tecnologie dell’informazione. In italia, ad esempio, diverse università hanno introdotto corsi di Computer Ethics, il che contribuirà alla formazione di figure esperte e capaci valutare con attenzionele implicazioni sociali ed etiche della tecnologia dell'informazione.

Etica e responsabilità nell’era del postumano

Il crescente e progressivo sviluppo delle tecnologie consente all'uomo di oggi di modificare se stesso volontariamente sia per scopi terapeutici che migliorativi. In questa nuova prospettiva si colloca il postumanesimo, la cui etica apre a scenari totalmente inediti. Il postumanesimo ha come obiettivo il trascendimento dei limiti biologici umani, attingendo a piene mani dalla rivoluzione GNR (Genetica, Nanotecnologia, Robotica) in corso per migliorare le capacità fisiche e cognitive individuali auspicando una prossima era postumana.

A ciò si aggiunge un cambio di paradigma da un punto di vista più strettamente teorico. I sostenitori del postumano, infatti, mettono in discussione alcuni punti fermi della tradizione religiosa come la sacralità della natura, (che si identifica con la sacralità della vita) e sostengono l'abbattimento della dicotomia naturale - artificiale, categorie ormai obsolete poiché il naturale sfocia nell'artificiale senza soluzione di continuità, come suo effetto consequenziale. Lo stesso concetto di identità è profondamente cambiato: l'Homo sapiens lascia spazio all'Homo technologicus, un uomo che costruisce degli strumenti che retroagiscono su egli stesso cambiandolo in profondità. L'uomo è un essere in continuo divenire (a differenza di quanto sostiene il fissismo) che oggi più che nei secoli scorsi, modifica se stesso e il proprio corpo in maniera totalmente volontaria e consapevole. Gli interventi non si limitano alla sfera individuale ma riguardano tutta la specie umana se comportano una manipolazione del genoma. L'uomo, in questo modo, prende in mano le redini della propria evoluzione che d'ora in avanti non sarà più soltanto biologica ma biotecnologica.

La prospettiva post-umana individuale è interessata anche al campo della ciborganica e della robotica. Il cyborg è una creatura formata dall'inserimento di protesi artificiali in un organismo animale : occhi , orecchie e pelle artificiale sono solo alcuni dei tanti esempi possibili. Le protesi non hanno unicamente una funzione terapeutica (in caso di menomazioni etc.) ma anche quella di estendere e potenziare capacità tipicamente umane come il movimento, la sensibilità, la cognizione. Alcuni dispositivi in particolare, quelli che collegano il cervello al computer, sono ancora in via di sviluppo. Questi ultimi puntano alla cura di alcune malattie neuro-degenerative, dunque apportando un notevole beneficio terapeutico, ma pongono questioni etiche inedite come quella sull'identità e sul confine tra uomo e macchina. Se in un cyborg si parte da una base fondamentalmente organica e successivamente si sostituiscono alcuni componenti con i corrispondenti artificiali, nei robot la base è completamente artificiale. A differenza dei cyborg, nei quali le componenti artificiali sono dei correttivi o dei potenziamenti della natura, nei robot si punta all'imitazione di funzioni tipicamente umane come quelle percettive, emotive, intellettuali, relative all'apprendimento etc.

Gli esponenti del postumano riflettono anche sulle conseguenze sociali della futura società. Le modificazioni genetiche e somatiche dovrebbero riguardare in primo luogo una piccola parte di individui, quelli più ricchi, capaci di far fronte a spese particolarmente esose. Successivamente, con il decrescere del prezzo degli interventi, tutti avranno la possibilità di migliorarsi e potenziarsi. A causa di ciò, è alto il rischio di una nuova eugenetica per combattere le malattie ereditarie che potrebbe diventare una pratica piuttosto comune.

Riflessioni sul web e sul digitale

Nicholas Negroponte: essere digitali

"Essere digitali" è un libro del professor Negroponte riguardante il confronto generazionale e l'abisso che separa generazioni apparentemente conseguenziali ma totalmente differenti tra di loro a causa dell'avvento del digitale che, nel corso di venti anni circa, ha totalmente modificato gli stili di vita dell'umanità allontanando i punti di vista tra genitori e figli. Il libro è nato, perciò, con lo scopo di rendere noto ciò che è considerato ignoto alle generazioni nate e cresciute senza la presenza di Internet; generazioni che finiranno per imparare da quelle successive. Per esplicare in maniera semplice questo cambiamento, in una delle interviste sostenute, Negroponte parla di bit ed atomi per descrivere la rivoluzione digitale della nostra epoca. Un bit in ambito digitale ha la stessa valenza di un atomo con la differenza che, se un atomo "sottratto" crea un vuoto, per ogni bit "sottratto" ve ne è sempre uno che rimane. L'avvento del computer si sviluppa verso la fine del 1994, quando i primi mezzi della tecnologia sono finiti nelle case private. La vera svolta, però, è delineata dalluso e dalla diffusione di Internet nel quotidiano che ha creato un punto di riferimento così grande da poter far crollare ogni altra forma di comunicazione. La velocità con la quale ha sovvertito sia gli scopi per i quali fu creato (Negroponte ci ricorda quelli militari) che il mondo lavorativo e quello sociale, ci mostra la grandezza e l'incontrollabilità della rete. Molti credono che l'avvento di internet e della tecnologia sia un deficit per l'umanità, il professor Negroponte ci fa notare, invece, che oltre ad essere un mondo che può arricchire notevolmente le persone, è anche una prova virtuale del mondo reale che permette anche una corretta educazione attraverso esperienze che, proprio perché virtuali, non nuocciono all'infante. Inoltre, gli approcci e le comunicazioni virtuali portano ad avere nel mondo reale, più fiducia nelle persone e più abilità a socializzare. Insomma, la visione della rete da parte di Negroponte, è del tutto positiva, basti pensare alle parole finali rilasciate nell'intervista: "Vedo la rete come uno strumento di potenziamento e armonizzazione [...] credo che Internet sia cresciuto meglio di qualsiasi altro organismo che io conosca nella storia."

Dall'atomo al bit Alla domanda su cosa significhi "essere digitali" il professor Negroponte risponde che è semplicemente un modo di vivere chiaro a tutti i bambini del mondo ma ignaro agli adulti. Questi ultimi, infatti, dovrebbero imparare dai bambini e comprendere il passaggio dall'atomo al bit, ossia dal mondo materiale al mondo senza confini e globale. Questa differenza generazionale divide il mondo tra i giovani, al corrente del mondo informatico, e gli anziani convinti che, se per tutta la vita hanno potuto fare a meno di questo tipo di conoscenza, non è necessario imparare ora. Questo errore di pensiero porterà le due generazioni ad allontanarsi ma se gli anziani iniziassero ad imparare dai giovani, il divario di conoscenze, potrà essere colmato in circa 4 anni. Il professor Negroponte, quando fondò il MediaLab, fu spinto dall'interesse al modo in cui le persone comunicano con le macchine e al modo in cui il contenuto dell'informazione può influenzare la tecnologia ed il canale informativo. Per quanto riguarda l'ipotesi di burocratizzazione di internet, il suo pensiero è che sia totalmente impossibile; sia per le sue radici, sia per il suo modo di diffusione, sia per l'assenza di un controllo centrale, internet non potrà mai essere fermato o affidato a delle aziende. Se in televisione si vuole interrompere un programma basta rimuovere il presidente e smettere con la trasmissione; per Internet non è così perché è sia trasmittente che ricevente, non ha controlli e supera tutte le frontiere. Tra i progetti di MediaLab c'è anche quello di dare spazio alle reti televisive che ci forniranno la giusta informazione in quel momento, degli agenti (ossia programmi informatici che vivono nella rete) sceglieranno per noi tra le moltitudini di programmi ciò che stiamo cercando;saranno una sorta di guide. Inoltre, Internet è un grande mezzo di comunicazione e anche di socializzazione, dà la capacità, tramite anche l'anonimato , di spingersi oltre ciò che nella vita reale, per timore, non chiediamo. È anche un ottimo mezzo per trasformare le piccole imprese in aziende multinazionali con un mercato mondiale, anche se contano due o tre addetti. L'unico lato oscuro di Internet, sul quale il professor Negroponte sostiene di dover ancora lavorare molto, nell’ambito della sicurezza e della privacy, bisogna aumentate la protezione della sfera privata. Per quanto riguarda la sua lentezza, essa è dovuta al fatto che è capace di crescere del 10% ogni mese, in alcuni paesi del 10% in una settimana. Il tasso di crescita è fenomenale ed implica una lentezza. Alla domanda se vivere in modo digitale sia un'idea troppo "americana", Negroponte risponde che, ha viaggiato per tutto il mondo, ha messo in funzione computer in zone più remote e ha notato la destrezza con la quale i più giovani ne fanno uso. Il computer, Internet e vivere digitale è qualcosa appartenente alle nuove generazioni ed è talmente fondamentale da poterlo e volerlo esigere come l'aria.

Jaron Lanier: la realtà virtuale e le distorsioni del web

Nato a New York il 3 maggio 1960, è un informatico, compositore e saggista statunitense, noto per aver reso popolare l’espressione virtual reality. Scrive per Edge e Discover, e insegna alla UC Berkeley.

In una celebre intervista espone la sua concezione di realtà virtuale intesa come strumento di condivisione di nuovi mondi, spiegando che il computer vive nella misura in cui è l’uomo ad attribuirgli delle qualità. Interessante è anche il rapporto tra mondo virtuale e disabili, ma questo resta un argomento abbastanza difficile da trattare in quanto esistono diversi approcci a seconda dei vari tipi di handicap. All’età di soli 20 anni crea la prima società di realtà virtuali, dal nome VPL Research, successivamente acquistata dalla SUN Computer, vendendo in tutto il mondo i primi guanti (data gloves) e apparecchi da mettere in testa (eyephones). Abbandonò poi il progetto a causa di alcuni investitori francesi.

Uno dei suoi saggi più importanti, “Tu non sei un gadget”, si propone come un’autocritica sui cambiamenti indotti dalle nuove tecnologie. Lanier analizza tutti gli aspetti di un universo digitale contraddittorio mettendoci in guardia dai mercati finanziari e da siti che troppo spesso privilegiano “l’intelligenza collettiva”, mettendo in crisi l’idea di sapere. Per questi motivi definisce Wikipedia come un “maoismo digitale”.

Le tecnologie sono estensioni del nostro io e il minimo dettaglio di un gadget può alterare la nostra identità. Perciò non dovremmo cercare di rendere il più efficiente possibile la mentalità di branco quanto cercare di introdurre il fenomeno dell'intelligenza individuale, seppure resta difficile esprimere attraverso una formula qualunque cosa sia una persona. Per Lanier essere una persona rimane una ricerca, un mistero, un atto di fede.

Jean Baudrillard: la scomparsa della realtà

Pierre Lévy: l'intelligenza collettiva

L'intelligenza collettiva è un tipo di intelligenza distribuita ovunque c'è umanità. Quindi se due persone sono lontane, tramite le nuove tecnologie , possono entrare in comunicazione l'una con l'altra e scambiarsi il loro sapere. Ciò, però comporta nuovi problemi etici ma l'intelligenza collettiva ha un'etica che consiste nel riconoscere alle persone le proprie qualità e di metterle a disposizione di tutta la comunità per poterne beneficiare. Per fare ciò, inoltre, bisogna che ogni individuo possa esprimersi liberamente ed è questa la prospettiva dell'intelligenza collettiva, quella di opporsi ad ogni tipologia di oppressione e di lottare per l'emancipazione. L'intelligenza collettiva è quindi, interattività, ad esempio con il cyber spazio, i forum di discussione elettronici, con Internet c'è la possibilità che tutti possano comunicare con tutti ma all'interno di ciò nessuno è obbligato a condividere le idee degli altri e ognuno può prendere la propria posizione. Questo, comporta dei pericoli, come la perdita del vero motivo per cui è stato creato , quello di creare un movimento sociale in grado di arricchire la civiltà e l'essere umano. Infatti, i governi stanno usando questo spazio per tentare di costruire un apparato collettivo, una sorta di "grande televisione", oppure i commercianti che vedono questo spazio come un luogo dove vendere i proprio prodotti o recuperare attività commerciali.

In rete, comunque, si trova una massa enorme di informazioni, una totalità di informazioni a cui noi no possiamo accedere nella totalità e quindi, dobbiamo necessariamente fare appello ad altri, alle conoscenza altrui. Ad esempio, se mettiamo sul World Wide Web un documento, ma anche il nostro punto di vista. Il world wide web non è solo una massa di informazioni ma anche un insieme di punti di vista.

L'intelligenza collettiva ha all'interno una forma di organizzazione chiamata "intelligenza connettiva" , ovvero una connessione da persona a persona all'interno di una rete specifica.

Tomás Maldonado: critica della ragione informatica

“Sono profondamente convinto che le tecnologie, se si vuole tutelare la loro carica innovativa, devono restare sempre aperte al dibattito delle idee”. In questi termini Maldonado conclude la prefazione di “Critica della ragione informatica”, un saggio pensato per approfondire, in primo luogo, il rapporto tra le tecnologie telematiche e le dinamiche imprevedibili della società. E seppure il titolo lascia pensare tutt’altro, il filosofo e designer argentino non vuole affatto contestare le nuove tecnologie informatiche, né gli effetti del loro impatto sulla società, bensì prendere le distanze dal conformismo e dal trionfalismo dilagante nei confronti di tali tecnologie. Il termine “critica”, infatti, afferma Maldonado in un’intervista del ’97, deve essere inteso in senso kantiano e cioè non come giudizio ma come analisi, per arrivare a determinate conclusioni attraverso l’esplorazione di pro e contro. Pertanto con “ragione informatica” si fa riferimento a tutte le argomentazioni che vengono utilizzate per fornire una giustificazione storica delle nuove tecnologie informatiche e in particolare di Internet. Ovviamente, trattandosi di realtà emergenti su scala mondiale, le opinioni a riguardo non possono che essere varie e controverse. L’infinita potenzialità delle nuove tecnologie telematiche, infatti, non può che suscitare dubbi e perplessità. Ma la loro efficienza nella vita quotidiana ha contribuito ad un radicale mutamento della società e, di conseguenza, i sospetti tanto acclamati dagli studiosi, hanno lasciato spazio ad una prepotente enfatizzazione. Proprio in essa Maldonado ha scorto il male più deleterio, poiché ci ha fatto dimenticare di questioni aperte su cui è necessario riflettere; infatti “niente può essere più pericoloso, in questo momento, che mandare in congedo l’intelligenza critica”. Le questioni da prendere in considerazione sono molte, tuttavia è certo che i pro, nel mondo virtuale delle informazioni, sono nettamente maggiori dei rischi in cui ci si può imbattere. La rete infatti è nata per ampliare la conoscenza umana riprendendo la tradizione socratica della ricerca, pertanto la sua esponenziale crescita e diffusione, derivata anche da una circolazione economica maggiore, ha procurato effetti imprevedibili, quali: eccesso di informazione, disinformazione, impoverimento del patrimonio linguistico, trasformazioni di identità. L’aspetto accidentale più inquietante è senz’altro la nascita di una scrittura fortemente stereotipata proveniente non dalla nascita di internet ma dall’invenzione di software per la comunicazione virtuale, come e-mail e chat. Quest’ultimo in particolare, ha aperto la strada ad un cyber-gergo basato su espressioni tecniche che omettono gli aggettivi. Inoltre questo nuovo linguaggio non è dannoso esclusivamente al patrimonio linguistico ma soprattutto influenza negativamente il nostro modo di pensare e di essere. Con le “chiacchiere” attraverso Internet, infatti, è possibile divenire l’oggetto di desiderio della persona dall’altro lato dello schermo, presentandosi con una personalità virtuale identica a quella reale dell’interlocutore. Attraverso la rete quindi, un individuo può attribuirsi le sembianze che desidera adattandosi alle occasioni assumendo così diversi tipi di individualismi. Tali rapporti, stabiliti attraverso la rete, creano, inoltre, delle comunità virtuali, le quali nascono, infatti, per un processo simpatetico ovvero di similitudine e interesse che la gente ha nei confronti di particolari argomenti. Ma questa assimilazione di interessi rappresenta anche un limite. Se infatti, da una parte, queste comunità esprimono un potenziale solidaristico, per esempio, in funzione dei malati, dall’altra rappresentano un problema circa la democratizzazione. Infatti, un processo democratico reale non può avvenire nel caso in cui gli individui di una comunità si confrontano con identità finte, né tanto meno se i membri di questa comunità possiedono gli stessi interessi. Una democrazia ricca non si basa su comunità di gente che si assomiglia o che ha gli stessi interessi, piuttosto su una varietà di individui che comunichino idee, preferenze e valori differenti. D’altronde una democrazia frantumata in una serie di comunità di simili non può rappresentare l’ideale di vita democratica. Il cyberspazio, comunque, è considerato dai suoi promotori e interpreti un contributo fondamentale per agevolare una democrazia diretta e accrescere così tra i cittadini una consapevolezza politica. L’informazione, infatti, predispone gli individui ad una presa di coscienza del funzionamento politico e burocratico con cui sono a contatto. Inoltre, la creazione delle cosiddette reti civiche, attraverso le quali i cittadini vengono in possesso di tali informazioni, ha permesso di rinforzare l’operatività democratica offrendo, inizialmente l’avanzamento di proposte, e poi altri elementi importanti all’esercizio della cittadinanza. Un altro vantaggio della rete, oltre all’informazione, è senz’altro la possibilità di lavorare a distanza evitando di recarsi necessariamente alla sede della propria occupazione. In questo modo, nell’immaginario collettivo, il lavoratore, tramite il computer, avrà più libertà e potrà gestire più facilmente il suo tempo. Ma questo processo costituisce solo in parte la realtà quotidiana. Infatti, quando si parla di telelavoro, non si deve immaginare un lavoratore casalingo “in pantofole”, piuttosto un impiegato che esegue mansioni specifiche, come commessi viaggiatori che contraggono contratti in tutto il mondo, giornalisti, i quali possono effettivamente scrivere articoli entro gli spazi domestici, fotografi o chi si occupa di ricerche di marketing. Pertanto il telelavoro non si può estendere anche in quei settori ancora troppo tradizionali ove la presenza reale è indispensabile, o forse è ancora troppo presto adattare le risorse tecnologiche in nostro possesso a tutti gli ambiti lavorativi. Ma probabilmente la questione non è il progresso tecnologico quanto l’alienazione degli individui dal loro ruolo familiare, i quali, entrando nel mondo della produzione, dovrebbero pagare il prezzo altissimo della desocializzazione. È evidente però che le nuove tecnologie e in particolare il fenomeno di internet, hanno favorito eccessivamente il mercato del lavoro e, insieme ad esso, una globalizzazione economica che ha consentito l’accesso a tutti i mercati possibili compreso quello della tecnologia che, di conseguenza, ha fornito la base tecnica e strumentale per un ulteriore ed esponenziale incremento della globalizzazione. Mentre però la globalizzazione economica e quella tecnologica sono oggetto di discussioni sia a favore che contro la loro utilità, per quanto riguarda quella culturale vi è un diniego generale poiché più che essere considerata un’enfatizzazione del sapere significa egemonizzare una sola e determinata cultura che come sappiamo è quella americana. Pertanto è necessario sollevare una seria riflessione ed essere vigili su tale processo per evitare l’annichilimento di usi, costumi e consuetudini caratteristici dei popoli. Inoltre non bisogna confondere la capacità di internet di divulgare l’informazione con la sua abilità di generare omologazione. Ma questo problema, se da una parte è deleterio per il modo di pensare, dall’altra costituisce il sistema più veloce e completo per comunicare ed aggiornarsi, aspetti importanti nel XX secolo e ancor più nel XXI. Pertanto, esercitare nella rete forme di controllo, costituisce il metodo più comprensibile per ovviare questioni rischiose di carattere economico e socioculturale. Maldonado però solleva giustamente dubbi sulla questione della censura perché ritiene necessario valutare il prezzo che si paga per essa e per la libertà di espressione. Tra l’altro, anche se non fossimo soggetti a nessuna forma di controllo, non saremmo altrettanto autonomi in quanto attori sociali che partecipano inconsciamente a tale processo. Infatti, noi entriamo in rete con determinate istanze e quindi con un nostro bagaglio di autocontrollo e autocensura. Pertanto seppure ci fosse concessa la piena libertà nel cyberspazio, noi con la nostra cultura porteremmo in esso una forma di controllo astratta. La globalizzazione, comunque, seppure ha travolto miliardi di persone, non è riuscita, nel suo profilo tecnologico, a condizionare più di un terzo dell’umanità. Se da un lato si pensava che Internet avrebbe armonizzato i rapporti tra gli individui e attuato un processo di uguaglianza, dall’altro non si prevedeva un’ulteriore emancipazione dei soggetti economicamente limitati. Infatti, si è venuta a creare, oltre al già presente divario tra l’emisfero nord e sud del pianeta, un’altra cernita di soggetti denominati info-poveri e info-ricchi. È probabile però, afferma Maldonado alla fine del secolo scorso, che in un futuro prossimo ciascun individuo potrà avere accesso a Internet anche se, questa prospettiva deve tener conto di indeterminati fattori di democratizzazione tecnologica e verificare condizioni ancora oggi incalcolabili, quali lo sviluppo economico, sociale e culturale che non lasciano presagire la direzione che potranno avere gli eventi socioculturali: “ con le crisi sociali, etniche, di religione che caratterizzano i nostri tempi e fanno di quest’epoca, un’epoca di convulsioni è difficile immaginare in tempi brevi una regolamentazione globale dello strumento Internet”.

Howard Rheingold: le comunità virtuali

Howard Rheingold, nato a Phoenix il 7 luglio 1947, è un critico letterario, sociologo e saggista statunitense. Si è specializzato sulle implicazioni culturali, sociali e politiche dei nuovi media. Nel 1987 ha pubblicato "Le Comunità Virtuali". Rheingold sostiene che una comunità virtuale è un gruppo in cui i componenti pur non incontrandosi di persona, scambiano parole e idee attraverso la meditazione delle reti. Esse iniziarono a diffondersi nella metà degli anni '80 grazie allo sviluppo delle BBS cioè computer abilitati a ricevere chiamate simultanee. Una delle comunità virtuali fu The Well. Le comunità virtuali oltre ad essere luoghi di discussione, sono anche strumenti utili per la ricerca delle informazioni. Pertanto, si partecipa ad una comunità online non solo per la costruzione di relazioni interpersonali, ma anche per un bisogno formativo. Essa é elettiva, ovvero frutto di una scelta personale, motivo per il quale si contraddistingue dalle comunità locali.

David Weinberger: la stanza intelligente

David Weinberger (New York,1950) è un filosofo e scrittore statunitense.

Il suo lavoro è incentrato sul modo in cui Internet sta cambiando le relazioni umane, la comunicazione e la società. Autore di numerosi saggi, ha pubblicato "La stanza intelligente", un libro destinato a lasciare il segno ridefinendo il concetto classico di intelligenza e il suo ruolo all'interno di un mondo sempre online. «Quando la conoscenza entra a far parte di una rete, la persona più intelligente della stanza è la stanza stessa: la rete che unisce persone e idee presenti e le collega con quelle all’esterno». Con queste parole nel prologo del suo libro l'autore sintetizza la sua visione della conoscenza ai tempi del web.

Il sapere, fino a pochi anni fa trasmesso su un supporto rigido e dai confini ben definiti come la carta stampata, per la prima volta nell'epoca di Internet è alla nostra portata in modo pressoché illimitato. Nella stanza in cui siamo riuniti (Internet), dove le fonti non sono certe e nessuno è mai d'accordo su nulla, circola molta più conoscenza di sempre, gestita con capacità superiori a quelle delle nostre singole menti e istituzioni, eppure Internet non ci rende più stupidi; al contrario, questa conoscenza sempre a disposizione, ci consente di prendere decisioni migliori di quelle di un qualunque esperto. L'importante è sapere come muoversi al suo interno. Nel Marzo del 2010 Weinberger, pubblica su "Il sole 24 ore" un articolo, "La Rete è un bene di tutti", in cui sostiene che la "libertà di Internet riguarda la libertà, non solo Internet" e " che noi continuiamo a discutere su come limitare l'uso della Rete, invece di valutare come renderla più libera e più aperta".

Nel suo articolo l’autore sostiene che ognuno di noi ha la possibilità di attingere ad informazioni in maniera uguale, indipendentemente dal ceto politico o sociale. Tutto ciò è reso possibile dalla struttura stessa della Rete, che ha abbassato le barriere alla partecipazione civile, esprimendo così gli antichi valori della democrazia: l'uguaglianza e le pari opportunità.

Il problema è capire se noi contrasteremo questi sogni o se combatteremo per esaudirli. In ogni caso abbiamo un confronto davanti a noi. Per Weinberger i poteri attuali sono preoccupati dall'uso della Rete perché questa può rendere pubblico del materiale che influenzi la cultura nazionale e le nuove generazioni. Questo è vero, poiché Internet rende disponibile ogni cosa. Ma ogni governo si è già dotato di leggi che proibiscono contenuti del genere. Così le aziende che ospitano contenuti caricati dagli utenti non sono ritenute responsabili. Nessuna azienda sana permetterebbe agli utenti di dialogare se fosse responsabile per ciò che gli utenti dicono. È per questo che tutto il mondo guarda alla sentenza italiana contro Google che ha rappresentato una doccia fredda per Internet, una minaccia alla libertà del web e una rivincita per gli avversari.

In secondo luogo vi è un’ulteriore preoccupazione per alcuni governi, sorta soprattutto negli ultimi anni, i quali temono che la Rete sia utilizzata dai terroristi e quindi ostacolano l'anonimato delle conversazioni. Ma i terroristi usano anche i telefoni e le radio. Bastano dieci minuti su Google per trovare i modi per comunicare sul web in maniera anonima. Le leggi contro l’anonimato in Rete privano quindi i cittadini rispettosi della legge di una rilevante fetta della loro libertà, senza peraltro ostacolare terroristi o altri criminali. L’anonimato non è solo per i colpevoli. È anche per le persone libere.

Dunque c’è ancora molto lavoro da fare. Internet potrebbe essere il mezzo perfetto per la democrazia, ma non c’è automaticità. Un governo potrebbe, per esempio, costringere gli Internet Cafè a registrare i passaporti dei propri clienti. Un giudice potrebbe minacciare di arresto i responsabili di aziende che pubblicano contenuti controversi, o le nazioni potrebbero lavorare insieme per imporre rigidi controlli sul copyright, distruggendo così il giovane ecosistema dell’informazione dal basso.

Gli ostacoli non mancano. Tutti possono fare il loro sito web, ma un colosso media raggiungerà molte più persone. Abbiamo bisogno di soluzioni per questo problema eterno perché abbiamo bisogno della democrazia. E per realizzare i sogni della democrazia dobbiamo andare contro la stessa natura umana.

Se abbiamo paura che idee rozze si propaghino tra i popoli, dobbiamo fare in modo di educarli, non di proibire la diffusione di tali idee. Se abbiamo paura che idee false siano facili da raggiungere, dobbiamo fare in modo che le idee false siano contraddette e le buone idee approfondite.

"Davanti a noi ci sono quindi due sfide. Una è una battaglia contro internet, ma nei fatti è la vecchia battaglia contro il consolidamento della democrazia. L’altra è la sfida per garantire che un medium adatto in maniera unica alla democrazia nei fatti realizzi il suo sogno. Perché quel sogno è il sogno della democrazia stessa."

Vinton Cerf: la conservazione digitale

Vinton Cerf, nato nel 1943, è considerato uno dei padri di Internet. Egli mette in guardia contro il rischio dell’impossibilità di usare i dati digitali di oggi. Per impedire ciò, secondo Cerf, non sono sufficienti solo le tecnologie, ma vanno cambiate anche le regole del copyright. Sostiene Cerf che il problema inizi negli anni Settanta, quando si è cominciato a sostituire il supporto cartaceo con quello digitale. Alcuni dei primi protocolli di Internet furono stampati su carta, e ancora oggi possono essere letti. Ma lo scambio dei messaggi elettronici in cui furono discussi tali protocolli non è più accessibile, perché non esiste più il programma necessario per leggerli. Alcune informazioni rischiano di andare perdute, come quelle che non possono essere salvate su carta e non hanno senso fuori dall'ambiente che permette di leggerli. Si possono, però, registrare misurazioni come una semplice sequenza di numeri. Ma è probabile che in futuro qualcuno potrebbe trovare quel file e usarli e interpretarli a proprio piacimento anche non sapendo il significato di quei numeri. Secondo Cerf non è conveniente rassegnarci e adattarci a questo potenziale avvento, ma è necessario emendare il copyright in nome della conservazione digitale. Bisognerebbe arrivare a un accordo che permetta a una qualche autorità di avere accesso a programmi, codici sorgente e sistemi operativi, con la missione di conservarne copie.

“Internet è ormai fondamentale ma non può diventare l’unica fonte di conoscenza”. La rete internet è un’invenzione in un certo senso ‘neutra’ ma ci sono persone che ne fanno un ottimo utilizzo e persone che ne abusano. Anche se non si tratta di una risorsa primaria per la sopravvivenza come l’acqua e il cibo, Internet è ormai fondamentale per garantire un accesso all'informazione, e questa è da sempre la chiave per il progresso di ogni società: quella di poter accedere alle informazioni nel modo più veloce possibile. Nonostante questo, è preferibile, dice Cerf, che oltre a questo strumento, che a volte offre informazioni non del tutto vere, usufruire anche dei libri delle biblioteche, nei quali l’informazione cercata è senza alcun dubbio molto più attendibile.

"Siamo noi i nodi della grande Rete". In un’intervista Cerf sottolinea che Internet è in continuo cambiamento. Tale cambiamento è costituto dall'uso del wi-fi, della fibra ottica,degli smartphone.. tutto è in costante evolversi, ma l'architettura di base è la stessa da 40 anni e continua ad adattarsi bene alle novità. Anche grazie all'invenzione della posta elettronica, Internet è passato dal diventare una rete di computer a una rete di persone favorita dall’interazione degli uni con gli altri anche se in modo non istantaneo. Inoltre, per merito di Internet, è possibile realizzare i propri obiettivi.

Evgenij Morozov: il lato oscuro della rete

Evgenij Morozov è un sociologo della Bielorussa. La sua notorietà è dovuta principalmente alla sua posizione critica nei confronti del comune entusiasmo e ottimismo che caratterizza il dibattito sulle virtù potenziali "democratiche e anti-totalitaristiche" di Internet.

Morozov, oltre a esprimere la sua visione critica attraverso la proficua attività giornalistica, che si compone di un notevole bagaglio di articoli e conferenze stampa, ha pubblicato 3 libri in cui, attraverso uno stile brillante, satirico, divertente, ma non privo di sensatezza, espone le sue tesi in maniera radicale e irriverente, scavando nelle conseguenze sociali, politiche ed economiche e mettendo in luce il modo in cui le nuove tecnologie stanno cambiando il panorama del quotidiano.

"L'ingenuità della rete" è il primo libro, divenuto best-seller, scritto da Morozov, nel quale, con un linguaggio misto tra sarcasmo e preoccupazione e tuttavia mai privo di una notevole capacità analitica, critica fortemente il fenomeno Internet, partendo da una demitificazione del sogno americano della Silicon Valley, fino a demolire il cieco ottimismo di uno dei più grandi sostenitori del progresso tecnologico dell'ultimo secolo: Steve Jobs.


In una celebre intervista[15], Morozov identifica una minaccia nell'attuale sogno di perfezione della Silicon Valley e nel modo di affrontare problemi sociali quali educazione, sanità e crimine. Un esempio è dato dal modus operandi della cosiddetta polizia predittiva, non più una semplice utopia cinematografica (Minority Report), bensì una realtà da conoscere. Con l'utilizzo dei Big Data, infatti, al mondo odierno si ha libero accesso a una raccolta di dati molto estesa che contiene informazioni aggiuntive di tutto ciò che viaggia attraverso internet, garantendo la possibilità di monitorare e tracciare digitalmente le azioni compiute dei singoli individui. Ed è proprio ciò che è successo a El Chapo, il quale, nonostante le precauzioni prese per sfuggire alla sorveglianza elettronica, fu arrestato non appena uscito dal territorio di cui aveva il controllo politico-militare assoluto.

Il vantaggio ottenibile da un sistema del genere deve fare i conti con le conseguenze sociali che portano cambiamenti nelle relazioni tra cittadino e stato: si passa da una situazione in cui è possibile far affidamento sull'istituzione pubblica a un modello dove è proibito "sbagliare". Se la polizia predittiva rende impossibile l'accadere di azioni "sbagliate" cosa rimane alla soggettività di un individuo?

Morozov risponde alla domanda approfondendo acutamente il legame tra democrazia e disobbedienza civile: l'atto volontario di infrangere la legge e subirne le conseguenze rende possibile un'affermazione politica, ma in un sistema dove vige l'assenza di scelta fra bene e male, è impossibile che ciò accada, poiché il sistema della polizia predittiva blocca in anticipo il compiersi di un reato. Se un tale sistema politico non ha modo di introdurre nuovi fatti e si identifica come il sistema perfetto, si corre il rischio di una cristallizzazione sociale che non permette di scoprire che ciò che viene considerato illegale oggi potrebbe non esserlo in futuro. Il prezzo da pagare diventa evidente quando Morozov trasporta il medesimo problema nel contesto storico statunitense di alcuni decenni fa, anni in cui era illegale per una persona di colore entrare in un ristorante. "Se avessero costruito dei sistemi predittivi attorno a quella legge", sostiene Morozov "oggi probabilmente sarebbe rimasta immutata, senza avere la possibilità di essere revisionata attraverso comportamenti devianti".


Il sociologo punta dunque il dito contro la Silicon Valley, evidenziando che le grandi aziende non solo non si curano affatto delle conseguenze politiche, etiche, culturali e sociali, ma non sono chiamati a rispondere per qualsiasi danno collaterale: nonostante la scoperta, ad esempio, che Google rubava le password dei Wi-Fi, la compagnia ha dovuto pagare una piccola multa senza altre ripercussioni.

Se Google si presenta come la rete che garantisce la promessa di meritocrazia intellettuale, dove le voci e opinioni più interessanti ricevono maggiori attenzioni, diventa necessario sfatarne il mito e considerarne la manipolazione informativa attuata dalle grandi aziende che ingaggiano altre aziende di Pr per diffondere e rendere virali i propri prodotti. Il primo passo verso una possibile soluzione, suggerisce Morozov, è prendere coscienza del problema e cercare di spodestare le multinazionali dal controllo di Internet, attraverso tecnologie che "possano creare spazio nuovo fra i contendenti, qualcosa di estraneo sia agli Stati che alle corporation", sviluppando canali discorsivi che siano efficienti, ma non vulnerabili. L'obiettivo deve essere quello di sensibilizzare sulla vera faccia del mondo cibernetico, riappropriandoci di un'etica del discorso.

Riferimenti bibliografici

  • U. Pagallo, Introduzione alla filosofia digitale. Da Leibniz a Chaitin, Torino, Giappichelli, 2005.
  • G. O. Longo - A. Vaccaro, Bit Bang. La nascita della filosofia digitale, Milano, Apogeo; Santarcangelo di Romagna, Maggioli, 2013.
  • E. Steinhart, Metafisica digitale, in: La fenice digitale: come i computer stanno cambiando la filosofia, a cura di T. W. Bynum e J. H. Moor, Milano, Apogeo, 2000, pp. 125-139.
  • T. W. Bynum - J. H. Moor, The Digital Phoenix: how computers are changing philosophy, Oxford 1998; tr. it. La fenice digitale. Come i computer stanno cambiando la filosofia, Milano 2000

Note

  1. http://www.digitalphilosophy.org/
  2. E. Fredkin in R. Wright, Three scientists and Their Gods, cit., p. 9.
  3. Kevin Kelly, la sua biografia è disponibile sul sito: http://kk.org/biography
  4. http://tg1live.blog.rai.it/2009/02/23/wired-la-bibbia-della-rivoluzione-digitale-sbarca-in-italia/.
  5. Il libro è disponibile sul sito dell'autore: http://kk.org/mt-files/books-mt/ooc-mf.pdf
  6. L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.
  7. Longo Giuseppe O.; Vaccaro Andrea - "Bit Bang. La nascita della filosofia digitale" Apogeo Education, Milano 2013
  8. L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.
  9. Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Torino, 2011.
  10. J. Schmidhuber, A Computer Scientist's View of Life, the Universe, and Everything, in C. Freksa (ed.), Lecturs Notes in Computer Science, Springer, 1337,1997, p.201
  11. "Luciano Floridi, La rivoluzione dell'informazione, Codice edizioni, Torino, 2010, pp. 23-44
  12. L. Floridi, La rivoluzione dell'informazione cit., pp. 45-58.
  13. L. Floridi, La rivoluzione dell'informazione cit., pp. 59-73.
  14. Ovviamente, come tutti i modelli, esso rappresenta una semplificazione della complessità del mondo reale.
  15. l'articolo completo su: http://www.linkiesta.it/it/article/2014/05/20/perche-internet-non-salvera-il-mondo/21303/