Filosofia dell'informatica/Internet e il web
Le origini di Internet
[modifica | modifica sorgente]L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti, che misero a punto durante la guerra fredda un nuovo sistema di difesa e di controspionaggio. La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad accesso pubblico è On-line man computer communication dell'agosto 1962, pubblicazione scientifica degli statunitensi Joseph Licklider e Welden Clark. Nella pubblicazione i due ricercatori del MIT, danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network". Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere il 1991 quando il governo degli Stati Uniti d'America emana la High performance computing act, la legge con cui per la prima volta viene prevista la possibilità di ampliare, per opera dell'iniziativa privata e con finalità di sfruttamento commerciale, una rete Internet fino a quel momento rete di computer mondiale di proprietà statale e destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in atto anche dagli altri Paesi.
Il progenitore e precursore della rete Internet è considerato il progetto ARPANET, finanziato dalla Defence Advanced Research Projects Agency (DARPA, Agenzia per i Progetti di ricerca avanzata per la Difesa), un'agenzia dipendente dal Ministero della Difesa statunitense. In una nota del 25 aprile 1963, Licklider aveva espresso l'intenzione di collegare tutti i computer e i sistemi di time-sharing in una rete continentale. Avendo lasciato l'ARPA per un posto all'IBM l'anno seguente, furono i suoi successori che si dedicarono al progetto ARPANET.
Il contratto fu assegnato all'azienda da cui proveniva Licklider, la Bolt, Beranek and Newman (BBN) che utilizzò i minicomputer di Honeywell come supporto. La rete venne fisicamente costruita nel 1969 collegando quattro nodi: l'Università della California di Los Angeles, l'SRI di Stanford, l'Università della California di Santa Barbara, e l'Università dello Utah. L'ampiezza di banda era di 50 kbps. Negli incontri per definire le caratteristiche della rete, vennero introdotti i fondamentali Request for Comments, tuttora i documenti fondamentali per tutto ciò che riguarda i protocolli informatici della rete e i loro sviluppi. La super-rete dei giorni nostri è risultata dall'estensione di questa prima rete, creata sotto il nome di ARPANET.
I primi nodi si basavano su un'architettura client/server, e non supportavano quindi connessioni dirette (host-to-host). Le applicazioni eseguite erano fondamentalmente Telnet e i programmi di File Transfer Protocol (FTP). Il servizio di posta elettronica fu inventata da Ray Tomlinson della BBN nel 1971, derivando il programma da altri due: il SENDMSG per messaggi interni e CPYNET, un programma per il trasferimento dei file. L'anno seguente Arpanet venne presentata al pubblico, e Tomlinson adattò il suo programma per funzionarvi: divenne subito popolare, grazie anche al contributo di Larry Roberts che aveva sviluppato il primo programma per la gestione della posta elettronica, RD.
In pochi anni, ARPANET allargò i suoi nodi oltreoceano, contemporaneamente all'avvento del primo servizio di invio pacchetti a pagamento: Telenet della BBN. Tutto era pronto per il cruciale passaggio a Internet, compreso il primo virus telematico: il 27 ottobre 1980, facendo esperimenti sulla velocità di propagazione delle e-mail, Arpanet venne totalmente bloccata a causa di un errore negli header del messaggio. Definendo il Transmission Control Protocol (TCP) e l'(Internet Protocol), DCA e ARPA diedero il via ufficialmente a Internet come l'insieme di reti interconnesse tramite questi protocolli.
Tim Berners-Lee e la nascita del Web
[modifica | modifica sorgente]Il 6 agosto 1991 l'informatico inglese Tim Berners-Lee, nato a Londra nel 1955, pubblicò il primo sito web: è l'atto di nascita del World Wide Web: una grande ragnatela mondiale di informazioni. L'idea del Web era nata due anni prima, nel 1989, presso il CERN (Conseil Européen pour la Recherche Nucléaire) di Ginevra, il più importante laboratorio di fisica europeo. Fu lo stesso Berners-Lee a coniare le sigle HTML (il linguaggio di markup con cui sono scritte e descritte le pagine web) e HTTP (il protocollo di rete appartenente al livello di applicazione del modello ISO/OSI su cui è basato il Web) e evidenziare una chiara linea ereditaria fra la parola ipertesto, di cui riconosce la paternità a Ted Nelson, e la cosa ipertesto, il Web, di cui si proclama con fierezza l’inventore[1].
Al CERN l’informatica non era certo il principale indirizzo di ricerca. A partire dalle prime versioni di Enquire e Tangle, il Web assumerà vita propria. Il programma era una sorta di super-rubrica telefonica informatica grazie alla quale era possibile mettere in relazione tramite link nomi di colleghi, progetti e documenti: un modo per cercare di orientarsi meglio nel mondo del Cern, una “struttura a ragnatela” reticolare, dinamica e cosmopolita.
L’ambizione era quella di “creare un computer intuitivo, una macchina che fosse in grado di attuare collegamenti come il cervello biologico”. Berners-Lee scelse come primo indirizzo Web www.info.cern.ch e il 25 maggio 1993 tenne la prima conferenza sul Web. Ma il riconoscimento del valore dell’invenzione avverrà altrove, al Mit. World Wide Web è un nome rivelatore di un nuovo modo di fare ricerca e di concepire le nuove tecnologie. Web vuole denotare “un complesso di nodi e maglie in cui ogni nodo può essere collegato a un altro, e riflette la natura distribuita delle persone e dei computer che il sistema può mettere in collegamento, offrendo la promessa di un sistema potenzialmente globale”. Il Web enfatizza una linea di sviluppo tracciata a partire dagli anni '60 (Rete distribuita, commutazione di pacchetto, Arpanet) e '70 (Tcp/Ip), ossia un movimento verso l'integrazione di reti, macchine, programmi, memorie, processori, gruppi di lavoro, progetti di ricerca, fra loro difformi. Il Web esalta lo spirito di Internet: integrare, mettere in comunicazione l'esistente, piuttosto che costruire nuove infrastrutture e nuovi programmi.
Berners-Lee decise di non imporre un nuovo standard di comunicazione, bensì di adottare quello che nel tempo si era dimostrato il più valido: lo standard de facto Tcp/Ip. Anche l'instradamento dei messaggi non può essere preordinato, ma segue le strade disponibili al momento, esaltando le tecnologie sviluppate negli anni '60: commutazione di pacchetto e rete distribuita[2]. Per risolvere le criticità di Internet, Berners-Lee intuì che il sistema di Internet, ibridato con il concetto di ipertesto, avrebbe potuto dar luogo a un modo nuovo di intendere le tecnologie di rete. Piuttosto che digitare un indirizzo alfanumerico e collegarsi in modalità remota a una risorsa di rete (emulatore di terminale Telnet), sarebbe stato più agevole saltare ipertestualmente tra gli indirizzi. Il Web nasce dunque come integrazione fra Internet e la modalità ipertestuale di gestione documentaria già sperimentata dal programma HyperCard.
Le risorse di rete già disponibili con Internet potevano essere raggiunte anche da utenti non esperti e navigando tra esse grazie ai link. Con la produzione dei primi browser per tutte le maggiori piattaforme informatiche, protratta fino al 1993, si avrà una impennata del World Wide Web. L'interfaccia grafica facilita il momento della connessione e della interrogazione: agli utenti viene permesso di visualizzare una grafica a colori, animazioni e hanno la possibilità di puntare e cliccare i collegamenti alle pagine web. Cambia il concetto stesso di risorsa di rete: non più banca dati ma sito. Il sistema ipertestuale si rivela semplice, intuitivo, perché cerca di replicare la modalità del pensiero. Berners-Lee lasciò il Cern e l'Europa e venne accolto negli Stati Uniti, dove ha fondato il World Wide Web Consortium, il consorzio per la tutela e il miglioramento del Web.
Il contesto culturale
[modifica | modifica sorgente]Il Web si è sviluppato e consolidato nel momento in cui è stato riposizionato nel luogo di nascita sia dell'ipertesto che di Internet. La 'tecnologia per tutti' ha trovato negli Stati Uniti un territorio non solo tecnologicamente ma anche socialmente e intellettualmente più pronto. In Europa il Web (e in generale l'informatica) non era ancora percepito come un campo della “cultura”, un campo della vera ricerca scientifica, ma come un subordinato settore applicativo. Il Web trae molti insegnamenti dall'ipertesto, che si offriva come espressione delle due culture, come punto di convergenza fra l'ambito disciplinare umanistico o quello scientifico-tecnico. Mescolare tradizione umanistica e scientifica, applicare una specifica tradizione disciplinare al fine di una ricezione democratica e generalista delle tecnologie, sconfinare in altri territori disciplinari, viene spesso percepito come indebolimento di autorevolezza: è il sospetto contro cui hanno lottato sia Ted Nelson che Tim Berners-Lee. L'ipertesto è un caso esemplare di tecnologia come prodotto culturale: è la storia di una faticosa ricerca di legittimazione.
Nel 1999 Ted Nelson si dichiarò deluso dal Web e dalle sue lacune nel recupero delle informazioni: “Il progetto Xanadu viene spesso frainteso e identificato con il World Wide Web. In realtà, è stato sempre molto più ambizioso: proponeva infatti link che non si interrompono se le versioni dei documenti cambiano; possibilità di comparare in dettaglio documenti e di annotarli, possibilità di seguire le citazioni a ritroso, fino alla fonte originaria; e infine un valido sistema di copyright sia dal punto di vista legale che commerciale”. Nel 1997 Nelson ha rivolto un invito ai padroni della Rete ipotizzando un nuovo Web, basato sulla destandardizzazione e sull'allentamento di gerarchie e categorie. Il Web 2.0, sviluppatosi a partire dal 2004, ha risposto almeno in parte a queste sollecitazioni. Il nuovo principio base è l'interattività, la relazione del lettore con documenti intesi come espressione di punti di vista: folksonomy, cooperative tagging, Wiki, social networking (“il Web sei tu”). Grazie all'ipertesto le consuete azioni di scrittura, lettura e recupero informazioni vengono ripetute in modo differente, al fine di mostrare le varianti.
Il Web 2.0
[modifica | modifica sorgente]La prima epoca del Web è quella che inizia nei primi anni '90 e termina nel 2004 quando ci fu, con la diffusione delle tecnologie informatiche e digitali, lo scoppio della bolla speculativa della prima generazione della new economy, o anche net economy (da "network" ed "economy"). Il termine Web 2.0, coniato da Dale Dougherty nel 2004, designa un nuovo modo di fruizione di internet: la rete non è vista più come un luogo dove reperire passivamente informazioni, ma come una piattaforma che facilita la condivisione delle informazioni e la collaborazione a distanza. A differenza del Web 1.0, che aveva pagine statiche il cui contenuto e la cui grafica erano formattati in HTML, i siti della nuova epoca della rete saranno realizzati in pagine dinamiche, generate in XML, che si adattano ad ogni tipo di dispositivo.
La rete odierna viene più volte paragonata ad un ritorno alla tradizione orale, per via della plasticità dell'informazione che può essere modificata all'infinito dagli utenti.
Essendo diventato il web un'autentica comunità di users sembra doveroso citare Kevin Kelly quando dice:
I regolari frequentatori di un sito, incrementando il loro gruppo, cominciano a godere degli effetti della rete, ossia dei benefici comunitari: ci sarà chi pubblica articoli e chi li legge, chi rimuove lo spam per salvaguardare la veridicità delle pubblicazioni, il che porta sempre a risultati vantaggiosi.
Un'altra rivoluzione del Web 2.0 è la diffusione del tagging, ossia dell'etichettatura, per segnalare qualcosa che potesse sembrare interessante per qualche motivo. L'utente, a questo punto, non è più soltanto un lettore, né più un creatore di contenuti, ma è anche un arbitro che influenza la scelta del contenuto da rendere visibile ai suoi pari.
Il prodotto di maggior popolarità del Web 2.0 sono sicuramente i social network. Fin dalla fine degli anni '90 le connessioni tra le persone erano il nuovo centro d'interesse e, anche dal punto di vista economico, si avviavano a diventare un potenziale gruppo di investimento di capitali. Tra i primi social network a sorgere si ricordano: SixDegrees (1997) e i successivi Friendster (2003) e MySpace (2003), fino ad arrivare ai giorni nostri con Facebook, Twitter, ecc.
Il Semantic Web
[modifica | modifica sorgente]Perché passare dal WEB, strumento già di per sé potente ad una nuova entità, ovvero sia, il Semantic Web? Innanzitutto non si tratta di un vero e proprio passaggio bensì, di un’estensione necessaria a causa di una serie di limitazioni che caratterizzano il Web e che, solo un’analisi più accurata, consente di individuare. Ad esempio, diversi utenti utilizzano il Web per la ricerca di documenti seguendo due possibili strade: utilizzando link ipertestuali o attraverso i motori di ricerca. Il limite del primo processo riguarda il tempo, poiché, un utente che non sa bene da dove partire per ricercare ciò di cui ha bisogno, rischia di perdersi. Il limite del secondo procedimento riguarda l’elevato numero di risultati non utili che possono presentarsi all’utente, nel momento in cui inserisce nella barra bianca del motore di ricerca la sua parola chiave.
Il Web, ancora, nella ricerca delle informazioni non è in grado di integrare le parti d’informazioni contenute su siti differenti ed infine, la maggior parte dei siti web, non sono adibiti per fornire servizi ad altri servizi ma, sono solo, contenitori d’informazioni. Qui si colloca il Semantic Web che, parte dal presupposto di ridefinire e ristrutturare i dati sul Web in modo che il loro significato sia accessibile non solo, ad utenti umani ma, anche, a programmi che li utilizzano per manipolarli, integrarli e renderli fruibili da diverse applicazioni. Il termine Semantic assolve proprio questo compito: creare qualcosa che sia “significativo” per dei programmi di computer e, non solo per l’utente umano. I programmi scritti per il Semantic Web, devono avere un accesso al significato dei dati con cui lavorano per poter comprendere di cosa si stia parlando. Questo è possibile attraverso i metadati che sono letteralmente “dati che parlano di dati” e forniscono informazioni su quanto c’è da sapere su un certo insieme di elementi. L’espressione dei metadati è possibile attraverso degli strumenti tecnici, dei linguaggi di annotazione costruiti a partire da XML.
XML (Extensible Markup Language) è un metalinguaggio che consente, attraverso l’uso predefinito di regole standardizzate, di dare significato ai diversi dati contenuti in un documento. L’obiettivo è di poter controllare i significati dei diversi componenti di un testo. Una delle caratteristiche principali di XML è la sua versatilità, poiché, proprio grazie a questo metalinguaggio, è possibile utilizzare strumenti informatici in ambiti molto differenti, anche lì dove vi sono tecniche e teorie di rappresentazione della conoscenza radicate. La sua omogeneità e duttilità porta a credere che si tratti di uno strumento neutro attraverso il quale rappresentare la conoscenza. In realtà, il suo carattere neutrale può essere preso in considerazione solo se ci si focalizza esclusivamente sul singolo dato e dunque sulla sua identità sostanziale senza però considerare le relazioni esistenti tra i diversi dati. Se si osserva il fenomeno da questa prospettiva, si può notare come il dato, solo apparentemente conservi il suo significato attraverso tale metalinguaggio poiché in realtà, sono le relazioni esistenti tra i singoli dati a fornire significato al singolo. La neutralità è, per questo, un attributo improprio da associare a questo strumento poiché è necessario definire una struttura con la quale rappresentare i diversi elementi. Difatti, è fondamentale considerare le regole attraverso le quali questi dati vengono messi in relazione tra loro altrimenti si rischia di cadere in errore alterando anche il significato del dato stesso. In definitiva, l’idea è che la rappresentazione della conoscenza attraverso strumenti informatici non possa essere considerata neutra.
L’elemento di forza di XML è la possibilità di definire, attraverso il sistema dei marcatori incorporati nel documento, i linguaggi con cui il documento stesso potrà essere successivamente letto e rappresentato e l’aspetto strutturale è descritto attraverso un DTD ( Document Type Definition).
Attraverso i suddetti marcatori è possibile definire l’aspetto strutturale del documento e questi sono organizzati in una sorta di gerarchia caratterizzata da categorie più generali (i marcatori così detti generici) e più specifiche (marcatori speciali). Una struttura che viene costruita sulla base di questo principio, si avvicina all'idea di Porfirio che nell'opera Isagoge tenta in qualche modo di definire una rappresentazione della conoscenza. Questi, partendo dalla dottrina aristotelica e dunque dalle categorie, sviluppa una sorta di albero gerarchico per cui vi è un elemento di partenza, una categoria, che viene spiegata facendo ricorso ad elementi via via sempre più specifici fino a giungere all'ultimo che non è caratterizzato da nessuna sotto specificazione. I marcatori utilizzati rappresentano questi nodi e la regola sottostante è che non vi sia alcuna sovrapposizione tra questi e dunque, ognuno dei marcatori deve essere considerato al di là degli altri.
Anche il mondo digitale si pone problemi ontologici, si chiede quali predicati possano definire un soggetto e la sua essenza. Se la metafisica ricerca le cause ultime della realtà e quindi l’essenza, la ricerca ontologica in ambito informatico pretende di non avere implicazioni semantiche al di fuori dei termini usati per i marcatori. Porfirio struttura la conoscenza di modo che i diversi componenti dell’albero assumano un significato che prescinda dall'esperienza, estrapolandoli dalla realtà per adattarli in modo indifferente ai diversi ambiti ma questo tentativo risulta fallace. La struttura porfiriana pretende di raggiungere una definizione frutto di una somma di differenze che coincidono esattamente con l’oggetto che si intende descrivere e questo, non coincide con l’obiettivo di XML. Quest’ultimo invece, associa ai marcatori dei nomi che sono puramente convenzionali. Il problema è che l’aspetto semantico e quello strutturale non possono prescindere l'uno dall'altro poiché, le componenti semantiche sono inevitabili per comprendere le subordinazioni che specificano i marcatori.
L’idea è, dunque, che la conoscenza debba essere rappresentata attraverso una gerarchia di concetti e un insieme di attributi attraverso i quali specificarli. Il problema è che il modello ad albero non riesce a raggiungere questo scopo poiché, non vengono specificate delle regole attraverso le quali interpretare le relazioni tra questi concetti. E così anche il metalinguaggio XML pecca in questo. Le relazioni tra concetti ammesse dalla struttura albero non prevedono se non relazioni gerarchiche mentre si ritiene necessario uno strumento che consideri anche altri tipi di relazioni. Dunque, il limite più grande di questi strumenti è l’incapacità di fornire delle regole di interpretazione.
La necessità è quella di superare questo modello per utilizzarne uno che, non solo sia in grado di rappresentare la conoscenza ma, che fornisca anche un insieme di regole che ne definiscono la coerenza. Un tentativo seppur lontano dalla logica predicativa, di raggiungere questo scopo è stato operato da Roberto Grossatesta attraverso la cosiddetta resolutio-compositio. Anche questo autore, al pari di Porfirio, è partito da Aristotele nello sviluppo del suo metodo. Attraverso il primo procedimento, Grossatesta mostra come estrapolare gli attributi di un fenomeno per somiglianza e differenza (definizione nominale), mentre attraverso il secondo procedimento, quello della compositio, ordina le proposizioni in modo gerarchico ma considerandole in un rapporto causale. Le logiche predicative successive a Grossatesta renderanno centrale, anche nella rappresentazione della conoscenza, la logica deduttiva affrontata in parte dal suddetto autore. Di questi formalismi logico-deduttivi si avvale anche il “Semantic Web” nel quale si supera il limite del modello porfiriano, proponendo regole di applicabilità alle diverse relazioni. La struttura non è più quella di un albero ma piuttosto quella di una rete con delle relazioni.
Il Deep Web
[modifica | modifica sorgente]Il Deep Web o Web sommerso indica tutta quella parte del World Wide Web non raggiungibile dai normali motori di ricerca, includendo anche intranet aziendali, vari database, siti protetti da password e ambiti di dominio non pubblico. Tale espressione viene spesso associata alle "darknet", reti raggiungibili solo attraverso software particolari che garantiscono protezione tramite l'anonimato. Le Darknet più conosciute sono Tor, I2P e Freenet. Erroneamente i termini Deep Web, Dark Web e darknet sono usati come sinonimi: il Deep Web indica tutto il web non raggiungibile dai normali motori di ricerca, ambito assai più vasto rispetto alle darknet, che, sebbene difficili da misurare, costituiscono un ambiente piccolo e spesso sopravvalutato. Silk Road,sito presente sulla piattaforma Tor, spesso preso come esempio di vertice dell'illegalità: "si configura come una realtà di condivisione di idee, più che un vero e proprio business.[...] Non si vendono solo droghe, naturalmente, ma anche servizi e strumenti di hacking, prodotti di elettronica, riviste e libri introvabili, oggetti di ogni tipo"[3]. Nel Deep Web ci si muove avendo e cercando direttamente gli indirizzi dei siti nei forum, in directory di link oppure col passaparola. Inoltre i siti web cambiano spesso indirizzo: "è come vivere in una città la cui toponomastica venga rivoluzionata in continuazione. Ogni utente deve diventare un po' un cartografo"[4]. Una delle leggende del Deep Web è che si possono assoldare anonimi killer "Ebbene chiunque nell'ambiente vi dirà che si tratta quasi sempre di una truffa"[5]. Un altro metodo utilizzato è l'exit scam, la scomparsa improvvisa di siti web che comporta la perdita di bitcoin. Un esempio di tale attività illecita è stata adottata dal sito Revolution nel 2015, che fungeva da deposito di garanzia, che nell'apice della sua ascesa, improvvisamente sparì nel nulla portando con sé 12 milioni di dollari in bitcoin. In definitiva l'attività più diffusa nel Deep Web è la truffa.
Il Deep Web è anche caratterizzato dall'hackitivismo attraverso l'attacco di siti web molto rilevanti, spesso "dossati" (cioè colpiti con attacchi di tipo DDoS) per esprimere il proprio dissenso contro specifici comitati, istituzioni, terrorismo, ecc...vere e proprie manifestazioni di protesta digitali.
Note
[modifica | modifica sorgente]
- ↑ “Ted Nelson, visionario di professione, parlò nel 1965 delle macchine letterarie, cioè dei computer che avrebbero permesso di scrivere e pubblicare in un formato nuovo, non lineare, che battezzò ipertesto (…) Ted delineò un progetto futuribile, Xanadu, in cui tutta l’informazione del mondo poteva essere pubblicata sotto forma di ipertesto”.
- ↑ “Internet era già in funzione dagli anni '70, ma trasferire informazioni restava troppo complesso per quanti non fossero esperti di informatica”.
- ↑ Carola Frediani, Deep Web: la rete oltre Google, 2016, p. 17.
- ↑ Ibid., p. 83.
- ↑ Ibid. p. 28.