Filosofia dell'informatica/La filosofia dell'informazione

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search

La filosofia dell'informazione[modifica]

Il mondo durante l'ultimo secolo ha vissuto una vera e propria rivoluzione, che ha richiesto una nuova analisi filosofica ben rappresentata da Norbert Wiener e Luciano Floridi, due intellettuali che, nonostante l'intervallo cronologico e il differente approccio teorico, hanno lasciato entrambi una traccia vengono citati nella stessa discussione non necessariamente come tesi ed antitesi del dibattito.

L'informazione da Norbert Wiener a Luciano Floridi[modifica]

Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "teoria dell'informazione". Da affermato materialista affermò che "l'informazione è entropia" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "informazione di Shannon". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.

Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo costruttivismo, dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria etica dell'informazione. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.

La rivoluzione dell'informazione secondo Luciano Floridi[modifica]

L'informazione[modifica]

Secondo Luciano Floridi il rapido sviluppo della tecnologia ha trasformato il mondo stimolando nuove idee, modellando concetti e causando problemi inediti. Tra questi, quello principale, è quello dell'informazione.

Analizzando l'opera curata da Terrel Baynum e James Moore The Digital Phoenix (La Fenice Digitale), Floridi analizza i problemi riguardanti la Filosofia dell'Informazione, una nuova disciplina filosofica che riguarda l'indagine critica della natura concettuale e dei principi basilari dell'informazione, e l'elaborazione di una metodologia teoretica, informazionale e computazionale applicabile ai problemi filosofici.

Luciano Floridi

I problemi dell'informazione secondo Floridi sono 5 e riguardano l'analisi del concetto di informazione e le sue dinamiche, la sua semantica, l'intelligenza, la sua natura e i suoi valori. Attraverso la sua analisi il filosofo conclude che vi è una differenza netta tra intelligenza naturale (IN) e intelligenza artificiale (IA) e che solo la (IN) processa e identifica informazioni, anche se va detto che ci sono dei casi in cui la (IN) processa e identifica anche solo dati come fa la (IA).

L'informazione è vasta e varia e quindi vi sono infiniti modelli, essa inoltre è una cosa naturale che può esserci anche se manca l'informatore che informa o l'informato che viene informato dall'informatore. Per Floridi la filosofia dell'informazione è in continuo mutamento.

Fino al 1996 siamo tutti vissuti in una società in cui Internet non era la tecnologia caratterizzante e il modello "uno molti" o dal centro alla periferia, come veniva definito da Marshall McLuhan, dominava. La storia è piena di successioni temporali che vanno dal sociale al politico, dal naturale al circolare, dalla relazione con la religione alla relazione con la scienza. La storia è il succedersi di cronografie che per il sol fatto di dipendere da successioni temporali, accumulano e trasmettono informazioni per il futuro. Senza tali sistemi di trasmissione non vi sarebbe storia, cosicché storia è sinonimo di età dell'informazione. Dato che la preistoria è considerata "l'età dell'evoluzione umana che precede la comparsa di qualsiasi documento scritto", si potrebbe sostenere che l'umanità abbia vissuto in diversi tipi di società dell'informazione, dall'invenzione dell'aratro all'invenzione della scrittura. Quest'ultima in particolare, secondo alcuni studiosi ha segnato una vera e propria rivoluzione dell'informazione, ma una delle spiegazioni più accreditate del termine riguarda un contesto recente, dove il benessere e il progresso umano hanno cominciato a dipendere dalla gestione efficace ed efficiente del ciclo di vita dell'informazione.

Il ciclo di vita dell'informazione include delle fasi: occorrenza, trasmissione, processo, gestione e uso. Immaginiamo che questo ciclo sia come un vero e proprio indicatore del tempo, come può esserlo un orologio, e indichiamone un arco temporale: dall'età del bronzo alla fine del secondo millennio d.C. L'arco temporale rappresenta la quantità di tempo che l'evoluzione dei cicli di vita dell'informazione ha richiesto per generare la società dell'informazione. Questo ha permesso un'evoluzione delle tecnologie dell'informazione e della comunicazione (ICT) da sistemi di registrazione a sistemi di comunicazione, in particolare dopo Gutenberg e l'invenzione della stampa, e quindi sistemi per produrre informazioni, in particolare dopo Turing e la diffusione dei computer. Grazie a tale evoluzione, la società dipende fortemente da beni intangibili basati sull'informazione, da settori orientati ad essa (istruzione) a servizi intensificati grazie ad essa (commercio).

Nel 2003 una ricerca ha stimato che l'umanità abbia accumulato, nel corso della sua storia fino alla commercializzazione del computer, circa 12 exabyte (1018 byte). Il termine Exaflood è un neologismo coniato per qualificare questo tsunami di dati che da un lato ha portato alla "democratizzazione" dell'informazione, grazie all'immagazzinamento su supporti magnetici, dall'altro ha portato alla creazione di un ciclo che si autoalimenta, dato che i computer sono le principali fonti di produzione di questi dati.

Le ICT stanno modificando un mondo con un'ampiezza tale da aver creato concrete e significative opportunità di enormi benefici, ma portano con sé anche rischi significativi, generando questioni riguardanti la natura della realtà e della sua conoscenza, la responsabilità nei confronti delle generazioni future, l'organizzazione della società stessa. La società dell'informazione è come un albero che ha sviluppato i suoi rami in modo molto più ampio, rapido e caotico, di quanto non abbia fatto con le sue radici concettuali, etiche e culturali. La nostra capacità di comprendere le tecnologie dell'informazione e della comunicazione è scarsa come nell'analogia dell'albero dalle radici deboli, vi è il rischio che una crescita della superficie pregiudichi la fondazione fragile alla base. Da ciò nasce l'esigenza, da parte di qualunque avanzata società dell'informazione, di dotarsi di una valida filosofia dell'informazione, al fine di estendere e rafforzare la nostra comprensione. Per la stessa comprensione del mondo e delle interazioni con esso, nonché della comprensione di noi stessi e della nostra identità, le ICT e l'informatica hanno dato luogo a una quarta rivoluzione. Le prime tre vengono definite le "rivoluzioni scientifiche":

  • Copernico e la cosmologia eliocentrica: la Terra e indirettamente l'umanità non è più immobile al centro dell'universo;
  • Darwin e la teoria sulla origine delle specie: l'umanità non è separata e diversa dal regno animale, ma ogni forma di vita si è evoluta nel tempo per mezzo di progenitori comuni. In tal modo l'uomo non è più al centro del regno biologico;
  • Freud e la teoria della psicoanalisi: la mente umana non è più considerata isolata e interamente trasparente a sé stessa, ma è anche inconscia e soggetta al meccanismo di difesa della repressione.

La scienza ha fondamentalmente due modi di modificare la nostra comprensione: uno estroverso, riguardante il mondo, l'altro introverso, riguardante noi stessi. Le rivoluzioni scientifiche hanno avuto un forte impatto su entrambi i punti di vista: nel modificare la comprensione del mondo esterno, hanno mutato anche la concezione di chi siamo.

Se Copernico, Darwin e Freud sono gli esponenti delle prime tre, sicuramente uno scienziato rappresentativo della quarta rivoluzione è Alan Turing. L'umanità oggi non è un insieme di entità isolate quanto piuttosto si preferisce parlare di inforg, organismi informazionali interconnessi con agenti biologici e artefatti ingegnerizzati, in un ambiente globale chiamato per convenzione: infosfera. Quest'ultima, essendo l'insieme dei processi, servizi ed entità informazionali, non va confusa con la visione tipica della fantascienza di un'umanità di cyborg. Uno scenario simile è si realizzabile, ma tutt'ora troppo lontano sia su un profilo tecnico sia su un profilo etico.

Ciò che la quarta rivoluzione ha portato alla luce è la natura informazionale degli agenti umani, cioè la rappresentazione, sotto molti aspetti simile a quella di alter ego espressa da R. L. Stevenson nella sua opera, nella quale l'individuo necessita di un richiamo alla distinzione tra applicazioni che migliorano e applicazioni che aumentano.

Le prime, come pacemaker, occhiali o arti artificiali, sono applicazioni interfacciate interamente con la componente ergonomica. Le seconde, come l'habitat o la stessa realtà, sono applicazioni interfacciate con la componente comunicativa tra diversi mondi possibili. Ad esempio il mondo esterno, che condiziona l'agente che ne è parte, e il mondo caldo e scuro, pieno di acqua e sapone della lavastoviglie. Le ICT non sono applicazioni né che migliorano né che aumentano, ma apportano trasformazioni radicali, cioè "costruiscono". In un sistema simile, si preferisce utilizzare il neologismo "riontologizzare", per far riferimento al fatto che tale forma non si limita soltanto a costruire, ma soprattutto ad apportare una trasformazione radicale della sua natura intrinseca. In altre parole le ICT non stanno ricostruendo il mondo ma lo stanno riontologizzando.

La quarta rivoluzione è proprio questo, una dislocazione ed una ridefinizione dell'essenza della nostra natura e del ruolo che rivestiamo dell'universo. Se prima la nostra prospettiva sulla natura ultima della realtà, vale a dire la nostra metafisica, era materialistica, cioè basata su processi e oggetti fisici, ora diviene informazionale. Un simile passaggio sta a significare che gli oggetti e i processi perdono la propria connotazione fisica e sono tipizzati, cioè l'esemplare di un oggetto(copia di un file musicale) conta quanto il suo tipo (il tuo file musicale, di cui la mia copia è un esemplare). Porre minore enfasi sulla natura fisica di un oggetto implica che il diritto di uso sia giudicabile almeno tanto importante quanto quello di proprietà.

"L'essere è l'essere interagibile", definendo con questa espressione il passaggio, da un essere immutabile o un essere potenzialmente oggetto di percezione, a un essere potenzialmente soggetto a interazione, anche se indiretta. In tal senso, in tempi recenti, molti paesi hanno seguito la pratica degli Stati Uniti di riconoscere, come bene (digitale), il software. Data la premessa, non dovrebbe essere troppo difficile accettare che anche beni virtuali possano rappresentare investimenti importanti. In Cina, ad esempio sono sempre più famosi i cosiddetti negozi di beni virtuali, dove in stanze claustrofobiche, i lavoratori sono costretti a racimolare e creare beni su World of Warcraft o altri MMORPG, per poi essere venduti ad altri giocatori.

Quando un giocatore si iscrive ad un MMORPG, cioè ad un gioco di ruolo multigiocatore di massa, al momento della registrazione si accettano anche gli EULA, cioè i contratti di licenza di un software commerciale. Questi non permettono la vendita di tali beni virtuali, come se la proprietà di un documento digitale creato per mezzo di un software non ci appartenga. Questo "mercato nero" dei beni virtuali è in crescente aumento, per questo motivo società come la SONY, tramite la licenza SOE (Sony Online Entertainment), hanno deciso di creare un servizio ufficiale di aste che fornisca ai giocatori metodi legali e sicuri di acquisto e vendita di tali beni. Una volta che la proprietà dei beni virtuali sia stata legalizzata, il passo successivo sarà l'emergere di controversie giudiziarie relative a tale proprietà. Un esempio è quanto accaduto in Pennsylvania, dove un avvocato ha patrocinato una causa contro l'editore di Second Life, un simulatore di vita virtuale, per avergli confiscato un valore i 10mila dollari di terra virtuale.

Una delle questioni più sottili per la salvaguardia dei beni virtuali è proprio la stipulazione di assicurazioni che garantiscano la protezione dei beni. World of Wacraft ne è un chiaro esempio, essendo il più grande MMORPG con oltre 12 milioni di giocatori sottoscritti ad un abbonamento mensile. I suoi utenti, che hanno speso milioni e milioni di ore per costruire, arricchire e perfezionare le loro proprietà digitali, saranno ben disposti a spendere qualche dollaro per assicurarle. Le ICT stanno creando un mondo nella quale le nuove generazioni trascorreranno la maggior parte del loro tempo; invece di individui concepiti come entità uniche e insostituibili, abbiamo cominciato ad essere prodotti di massa, dal momento che le nostre vetrine di acquisto diventano le nostre "finestre" di acquisto e dato che anche il modo in cui viviamo la realtà si è spostato dalle strade al web, anche la nostra identità personale comincia ad essere erosa. Per questo ci troviamo di fronte ai meccanismi di personalizzazione che i social ci offrono. Usiamo ed esibiamo talmente tante informazioni che ci riguardano che anche l'anonimato diviene impossibile e processi, come questi appena descritti, sono parte di un più profondo slittamento metafisico causato dalla rivoluzione dell'informazione.

L'ubiquità computazionale, di cui si sente parlare oggi, è proprio il sottile distacco che c'è tra il qui analogico e il là digitale. Un distacco così sottile che potremmo considerare nullo, tant'è che diviene impercettibile distinguere i due ambiti. La crescente informatizzazione dell'intero ambiente sociale suggerisce che sarà difficile comprendere come fosse la vita prima dell'era informazionale e, in un futuro prossimo, la differenza tra online e offline scomparirà. L'infosfera sarà in tal modo sincronizzata, delocalizzata e correlata, cessando di essere considerata un modo di fare riferimento allo spazio del informazione per divenire sinonimo di realtà.

Il linguaggio dell'informazione[modifica]

La definizione di informazione, nella sua declinazione generale (DGI), si esplica nella relazione tra dati e contenuto significante, passibile cioè di interpretazione. Un'informazione sussiste se include un certo numero di dati ben formati (ossia espressi secondo una sintassi in accordo con la configurazione scelta) e dotati di significato (conformi alla semantica del sistema di riferimento).

La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.

Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di Donald Mac-CrimmonMacKay "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.

I dati possono essere classificati come analogici (se trasmessi e codificati in una modalità continua) o digitali (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.

Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di informazione ambientale che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.

Il discriminante tra questo tipo di informazione e quella di carattere fattuale sta nel riscontrare in quest'ultima uno stato di cose, una dichiarazione dell'effettiva situazione, e nel suo designarsi come informazione o vera o falsa.[1]

L'informazione matematica[modifica]

Le informazioni sono quantificabili: possono essere codificate, immagazzinate, sommate. Queste e altre proprietà vengono considerate sotto un punto di vista matematico dalla TMC (teoria matematica della conoscenza) ideata da Claude Shannon.

Principalmente, essa si occupa di codificare le informazioni, in modo da evitare il deficit dei dati conosciuto anche con il termine di "incertezza": esso si presenta quando un dispositivo può produrre più simboli che il destinatario non può conoscere prima della loro trasmissione.

Nella codificazione giocano un ruolo importante ridondanza e rumore: la prima riguarda la trasmissione matematica (in bit) di un certo dato, la seconda il carico delle informazioni inviate non volutamente.

L'informazione considerata da Shannon prende anche il nome di "entropia", dal suggerimento di John von Neumann. Essa indica:

  • la quantità di informazione prodotta da un simbolo,
  • il conseguente deficit generato da essa,
  • il valore informativo di essa.

Le informazioni però, oltre ad avere un valore matematico, presentano anche un valore semantico che non viene trattato dalla TMC: questo ambito riguarda il campo dell'informazione semantica.[2]

L'informazione semantica[modifica]

Prendendo in considerazione il significato semantico, è giusto presentare la differenza fra contenuto semantico fattuale e informazione semantica fattuale. Il primo può essere costituito di dati non riducibili al vero mentre il secondo è composto rigorosamente da verità: è importante perciò che l'informazione semantica fattuale sia vera laddove il contenuto può essere falso.

Il contenuto informativo prende in considerazione il significato, nonché le relazioni che un'informazione può istituire. Nonostante ciò - come precedentemente detto - non sia ambito della TMC, esso e l'informazione semantica hanno in comune un aspetto: il PRI (principio di relazione inversa). Esso si occupa delle relazioni inverse che possono riguardare le probabilità. Infatti l'informazione semantica traduce come tale la relazione tra informazione e probabilità, la quale induce allo scandalo delle premesse e al paradosso di Bar-Hillel-Carnap.

Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto ad un fatto, meno informazioni giuste si hanno su di esso.

Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0 indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno all'ambito semantico: infatti un'informazione è definita semantica quando fa riferimento al vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.[3]

L'informazione fisica[modifica]

Il processo informativo porta con sè un forte dispendio energetico ed è soggetto alle leggi fisiche della termodinamica. Il processo informativo quindi è causa di entropia. La domanda sulla quale occorre interrogarci è : Sarebbe possibile evitare questo dispendio energetico, anche solo teoricamente? Maxwell, studioso, mediante il "demone di Maxwell" ci fornisce una sua risposta. Ci invita a fare un piccolo esperimento mentale, "la teoria del calore": immaginiamo un omino (poi nominato demone di Maxwell) il quale si trova tra due caselle. Questo omino è capace, socchiudendo la porticina che divide le due caselle, di spostare le molecole più lente da una parte e quelle più veloci dall'altra. Questo processo tuttavia, attraverso l'elaborazione dei dati, il calcolo del momento in cui aprire la porticina, la localizzazione delle molecole, causa entropia, dispendio energetico. L'informatico Bennet, inoltre, esorcizza il demone: la cancellazione della memoria, la quale richiede comunque energia, è il prezzo irreversibile da pagare da parte del demone di Maxwell. Questa conclusione però non è legge, infatti uno scettico potrebbe ancora immaginare un demone nel quale la memoria non venisse cancellata, in continua espansione. Si arriverebbe quindi ad un pareggio. Se si trattasse di Computer Quantistici? Si potrebbe vedere vinta l'entropia? La risposta è no, ma elaboriamola. I computer quantistici, almeno teoricamente, potrebbero avere la possibilità di sovrapporre stati differenti, chiamati QUBIT. In questo caso si avrebbe un dispendio di tempo molto minore e si potrebbe presentare un nuovo sistema informativo, capace di rendere semplici calcoli molto complessi. Purtroppo i problemi di costruzione potrebbero rivelarsi insormontabili. Secondo alcuni studiosi si arriverebbe alla realizzazione della realtà come ente costituito da Bit. Questa teoria può sposarsi con la Metafisica dell'informazione, per la quale l'universo viene visto come un grande computer capace di produrre Bit. Questo da un lato non può ritenersi veritiero perché il solo universo non basterebbe e dall'altro perché si ricadrebbe nel "demone di Laplace" e il suo determinismo, superato a partire dal diciannovesimo secolo con teorie informative, che durano tutt'oggi (basti pensare a Wiener e la sua metafisica) meno deterministiche e basate sul principio di incertezza.

L'informazione biologica[modifica]

L'informazione biologica può assumere svariati significati a seconda che si riferisca al soggetto e al suo codice genetico, al rapporto di elaborazione dati del soggetto rispetto all'esterno o alla produzione di informazione che, mediante la comunicazione, passa dal soggetto in questione ad altri. Qui ci occuperemo semplicemente dell'informazione biologica in relazione all'organismo e dell'informazione neurale (l'organismo in quanto cervello). Innanzitutto occorre distinguere l'informazione biologica fisica, che fornisce informazioni come realtà, istruttiva, che fornisce informazioni per la realtà e semantica, che fonisce informazioni sulla realtà. E' possibile poi ritrovare due diversi aggettivi per l'informazione biologica o genetica: attributivo e predicativo. Esempio calzante quello di Luciano Floridi: un'informazione attributiva è quella medica, di per sè non curativa; un'informazione predicativa è quella digitale, in quanto è tale poiché digitale. Che tipologia di informazione è quella biologica o genetica? I geni, protagonisti del codice genetico sono istruzioni e le istruzioni sono informazioni predicative che insieme a elementi indispensabili dell'ambiente circostante controllano e guidano lo sviluppo degli organismi. Dunque in questo senso, predicativo e procedurale, possiamo riassumere la tipologia dell' informazione biologica o genetica. Quando si tratta invece del rapporto fra cervello e mondo esterno occorre partire dal concetto di sistema nervoso: una rete che gestisce informazioni e che produce da azioni reazioni a vantaggio dell'organismo che ne è soggetto. I protagonisti di questa rete sono i neuroni e le cellule gliali. I neuroni sono molti ma è possibile schematizzarli in "neuroni sensori","neuroni motori" e "interneuroni", collocati tra i primi due tipi di neuroni. La "sinapsi" è l'incontro fra due neuroni dove è scambiato il segnale elettrochimico. Questa architettura di rete prevede un sistema nervoso centrale e un sistema nervoso periferico, interfaccia tra il corpo e il mondo esterno. Il centro di questa architettura è certamente il cervello, nel quale sono presenti 100 miliardi di neuroni. Dilemma informatico, ancora oggi, è il processo che arriva all'informazione semantica di alto livello: Luciano Floridi fa l'esempio della luce rossa lampeggiante e la nostra comprensione della batteria che si sta scaricando. Questo processo non può essere ancora interamente spiegato e rappresenta la meraviglia dei percorsi scientifici, sui quali è necessario ancora lavorare.

L'informazione economica[modifica]

L'etica dell'informazione[modifica]

Nell'articolo "Information Realism"[4] Floridi argomenta in modo rigoroso che, a un determinato livello di astrazione, tutti gli oggetti nell'universo sono strutture di dati:

Il risultato è il realismo informazionale, l'idea per cui il mondo è la totalità degli oggetti informazionali che interagiscono in modo dinamico gli uni con gli altri [5]

L'universo, inoltre, per Floridi è fondamentalmente buono, di una bontà che è indipendente dal giudizio morale umano. Questo è il principale assunto della "macroetica" che Floridi sta tentando di costruire e che egli stesso ha definito Etica dell'Informazione (Information Ethics). Simile, secondo il suo stesso creatore, ad altre etiche, come quella della virtù o al deontologismo, l' Etica dell'Informazione si distingue, però, perché non intende sostituirle, quanto piuttosto essere loro complementare, arricchendole di ulteriori considerazioni. Si delinea come una teoria ontocentrica orientata all'oggetto[6], in cui l'oggetto (il paziente) non è soltanto l' essere umano, ma l' essere - vale a dire l'esistenza e il fiorire di tutti gli enti e del loro ambiente globale - e in cui la sofferenza, portata ad un livello di astrazione ancora più alto, diventa l' entropia, cioè ogni genere di distruzione o corruzione degli oggetti informazionali, ogni forma di impoverimento dell'essere. Ci sono quattro leggi morali di base:

1) Non si deve generare entropia nell'infosfera (legge negativa)

2) Si deve prevenire l'entropia nell'infosfera

3) Si deve rimuovere l'entropia dall'infosfera

4) Il benessere informativo deve essere promosso, estendendo (quantità informativa), migliorando (qualità informativa) e arricchendo (varietà informativa) l'infosfera [7]

L'approvazione o la disapprovazione delle decisioni e delle azioni dell'agente dovrebbero essere fondate sul modo in cui questi influenza il benessere dell'infosfera, in cui ogni ente informazionale è riconosciuto come centro di talune pretese etiche basilari e, dunque, il dovere di qualsiasi agente morale dovrebbe essere valutato nei termini del contributo apportato allo sviluppo dell'infosfera. Il male, nell'Etica dell'Informazione, viene visto con uno sguardo non-sostanzialista e deflazionista riguardo alla sua esistenza. Le azioni intese come messaggi e stati degli oggetti non hanno uno status ontologico inferiore a quello degli oggetti in quanto tali. Il male esiste non in termini assoluti, per se, ma in termini di azioni che danneggiano e di oggetti danneggiati. [8] Alla classica distinzione, poi, tra male naturale e male morale, la teoria di Floridi aggiunge e da conto anche del concetto di male artificiale, cioè quel tipo di male prodotto da un agente artificiale autonomo o eteronomo [9], un tipo di male che, nonostante le critiche, non è riducibile al male naturale.

Ma come si qualifica un agente? Floridi e il suo collega Jeff Sanders hanno sviluppato una caratterizzazione che include tre criteri che un ente deve soddisfare per essere un agente:

1) Interattività: l'agente e il suo ambiente possono agire l'uno nei confronti dell'altro.

2) Autonomia: l'agente è in grado di modificare il proprio stato indipendentemente dalle sue interazioni con l'ambiente. Un agente, pertanto, deve avere almeno due stati ed essere in qualche misura "sganciato" dal suo ambiente.

3) Adattabilità: le interazioni dell'agente con l'ambiente possono modificare le regole di transizione in forza delle quali l'agente muta stato; vale a dire che la capacità dell'agente di modificare i propri stati può evolvere grazie alle passate interazioni (nel caso di uomini o animali, parliamo della capacità di 'apprendere dalle esperienze'). [10]

Note[modifica]

  1. "Luciano Floridi, La rivoluzione dell'informazione, Codice edizioni, Torino, 2010, pp. 23-44
  2. L. Floridi, La rivoluzione dell'informazione cit., pp. 45-58.
  3. L. Floridi, La rivoluzione dell'informazione cit., pp. 59-73.
  4. Cfr. L. FLORIDI, "Information Realism", in Computer and Philosophy 2003: Selected Papers from the Computer and Philosophy Conference CAP2003, Australian Computer Society, Conferences in Research and Practice Information Technology, a cura di J. Weckert e Y. Al-Saggaf, pp. 7-12, 2004.
  5. L. FLORIDI, "Information Realism", cit.
  6. Cfr. L. FLORIDI, Infosfera, Etica e filosofia nell'età dell'informazione, Giappichelli Editore, Torino 2009, p. 35
  7. Ibid., p. 41
  8. Ibid., cap. 2
  9. Ibid., p. 67
  10. Ibid., cap. 4