Questo sottodominio della biblioteca classicistranieri.com contiene il mirror dei files di Liber Liber. QUI informazioni sulla licenza.



Amazon - Website

Web Analytics
We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Internet 2000: temi e percorsi (09 di 09)

copertina e indiceintroduzionemappain brevestrumentiricerchetemi e percorsi
tecnologieInternet da zeromanuale HTMLglossariobibliografiaprogrammicerca

temi e percorsi
01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09

La storia di Internet

La successione di eventi, progetti, idee e protagonisti che, nel corso di trenta anni, hanno portato alla nascita di Internet e alla sua evoluzione nella forma attuale, costituisce un capitolo molto affascinante, ma anche atipico, nella storia dello sviluppo tecnologico.

Parte del fascino è legato al ruolo determinate che questa tecnologia ha svolto e sta ancora svolgendo nella cosiddetta 'rivoluzione digitale'. In pochissimi anni, infatti, la rete da esoterico strumento di lavoro per pochi informatici è divenuta un mezzo di comunicazione di massa, che coinvolge quotidianamente milioni di persone in scambi comunicativi privati e pubblici, scientifici e commerciali, seri e ricreativi. Nessuno strumento di comunicazione ha mai avuto un tasso di espansione simile. Ma altrettanto affascinante è il modo in cui questa tecnologia è stata sviluppata.

E qui entra in gioco l'atipicità cui facevamo cenno. Come gran parte delle innovazioni tecnologiche nel settore delle telecomunicazioni e dell'informatica, anche le origini di Internet si collocano nel terreno della ricerca militare. E tuttavia queste sue radici sono state assai meno determinanti di quanto non sia avvenuto per altre tecnologie, e di quanto non sia attestato dalla vulgata storiografica sulla rete.

Tale vulgata vuole che Internet sia stata un frutto della guerra fredda strappato ai suoi destini guerrafondai da un manipolo di visionari libertari hacker (dove a questo termine restituiamo il senso originario di esperto informatico in grado di restare giorni interi davanti ad uno schermo per far fare ad un computer ciò che vuole). Probabilmente questa leggenda è stata in parte avallata dai suoi stessi protagonisti, e da alcuni più tardi personaggi simbolo come Bruce Sterling, il teorico del cyberpunk [66]. La realtà è stata diversa; pure, come tutte le leggende, anche quella appena ricordata nasconde una sua verità.

Se è vero che il primitivo impulso allo sviluppo di una rete di comunicazione tra computer distanti venne da ambienti legati all'amministrazione della difesa, la maggior parte delle innovazioni che hanno scandito l'evoluzione della rete sono nate all'interno di libere comunità di ricerca, quasi del tutto svincolate dal punto di vista professionale e intellettuale dalle centrali di finanziamento del progetto. E ciascuna di queste innovazioni, proprio perché nata in tali contesti, è divenuta subito patrimonio comune. Internet insomma è stata sin dall'origine caratterizzata da un'ampia e soprattutto libera circolazione delle idee e delle tecnologie. A questo si deve la sua evoluzione, il suo successo e la sua influenza determinante che tanto sono celebrate ai nostri giorni [67].

Semmai il rischio di un'involuzione di questa sua natura è assai più vicino oggi. Il successo e la diffusione planetaria (anche se la visione del pianeta propugnata da queste statistiche è alquanto sbilanciata verso il nord industrializzato), hanno infatti attratto enormi interessi economici e finanziari. Tutti si affannano a trovar modi per far soldi con Internet, e naturalmente per far soldi bisogna impedire che le risorse circolino gratuitamente. Questo non vuol dire che la rete sia necessariamente destinata a divenire una sorta di supermercato digitale globale. Né che lo sviluppo commerciale di Internet sia da considerarsi in sé un male. Ci preme solo ricordare che ciò che adesso è Internet è il prodotto della libera circolazione delle idee, della cooperazione intellettuale, della mancanza di steccati e confini. E che questo lato della rete deve continuare ad esistere, affinché Internet mantenga intatto il suo fascino e il suo interesse. Per fortuna i naviganti virtuali, anche ora che sono molti milioni, continuano a condividere questa nostra convinzione.

La preistoria

Fare storia della tecnologia è attività complessa. Forte è il rischio di cadere in visioni semplicistiche, e di concedere troppo ai tentativi di reductio ad unum. Ma raramente lo sviluppo di una tecnologia e delle sue basi teoriche hanno un andamento lineare. Soprattutto, quasi mai le sue origini sono riconducibili ad un solo individuo, ad un unico progetto, ad un sistema teorico coerente. Se questo è vero in generale, tanto più lo è per ciò che oggi chiamiamo Internet.

Infatti alla nascita vera e propria della rete hanno contribuito diverse idee e altrettanti protagonisti, alcuni dei quali in modo indiretto. Vediamo allora di individuare quali sono state le istanze che nel loro complesso costituiscono la 'preistoria' di Internet.

Il contesto in cui si colloca questa preistoria è quello della 'guerra fredda' e della contesa tecnologica che ne derivò tra Stati Uniti e Unione Sovietica. Un evento simbolico di questa contesa fu la messa in orbita del primo satellite artificiale da parte dei sovietici, lo Sputnik, nel 1957. Dopo il rapido superamento del gap nucleare, questo successo della tecnologia sovietica seminò nel campo occidentale, e soprattutto negli USA, una profonda inquietudine. La sicurezza della supremazia tecnico-militare su cui era fondato l'intero sistema ideologico americano era stata duramente scossa.

Per cercare di rispondere immediatamente a questi timori, nell'ambito dell'amministrazione USA si concepì l'idea di creare un'agenzia il cui compito fosse quello di stimolare e finanziare la ricerca di base in settori che avrebbero potuto avere una ricaduta militare. L'idea circolava in varie sedi, ma in particolare fu il Segretario alla difesa Neil McElroy a convincere il presidente Eisenhower della necessità che tale agenzia fosse messa alle dipendenze del Pentagono. Oltre al vantaggio di stimolare l'attività scientifica con finalità strategiche, essa avrebbe anche avuto il ruolo di ridurre le tensioni tra le varie armi nella spartizione dei fondi dedicati a ricerca e sviluppo. Nonostante l'opposizione delle gerarchie militari, nel 1958 il Congresso approvò la costituzione e il finanziamento della Advanced Research Projects Agency, l'ARPA, la cui sede fu stabilita nell'edificio del Pentagono a Washington.

Appena costituita, l'ARPA indirizzò le sue attività nella ricerca aerospaziale: in fin dei conti, tutto era cominciato dalla paura suscitata dal lancio dello Sputnik. Ma quando pochi mesi dopo tutti i programmi spaziali vennero trasferiti (insieme agli ingenti finanziamenti) alla neonata NASA, per i dirigenti dell'ARPA fu necessario trovare una nuova area di sviluppo. Tale area fu individuata nella giovane scienza dei calcolatori. Un impulso decisivo in questa direzione venne dal terzo direttore dell'agenzia Jack Ruina, il primo scienziato chiamato a svolgere quel ruolo. Ruina introdusse uno stile di lavoro assai informale, e chiamò a lavorare con lui colleghi assai bravi ma alquanto fuori degli schemi militari. Tra questi un ruolo fondamentale fu svolto da J. C. R. Licklider, uno dei personaggi più geniali e creativi della storia dell'informatica.

Di formazione psicologo, Lick (così lo chiamavano i suoi amici) passò ben presto ad occuparsi di computer nei laboratori del MIT di Boston. Ma a differenza di tanti altri ricercatori in questo campo, il suo interesse si rivolse subito al problema delle interfacce uomo computer ed al ruolo che le macchine di calcolo avrebbero potuto avere per lo sviluppo delle facoltà cognitive e comunicative dell'uomo (ben trenta anni prima che questi concetti divenissero centrali nel settore informatico). Egli espose le sue idee al riguardo in un articolo uscito nel 1960 intitolato Man-Computer Symbiosis, che lo rese subito famoso. Appena giunto all'ARPA, iniziò a creare una rete di collegamenti tra i maggiori centri di ricerca universitari nel settore informatico, creandosi un gruppo di collaboratori che battezzò secondo il suo stile anticonformista 'Intergalactic Computer Network'. Tra i molti progetti che promosse vi furono lo sviluppo dei primi sistemi informatici basati sul time-sharing e sulla elaborazione interattiva. Ma in uno dei suoi memorandum apparve anche per la prima volta l'idea di una rete mondiale di computer.

Lick rimase molto poco all'ARPA. Ma il suo passaggio lasciò un segno così profondo da influenzare tutto lo sviluppo successivo di questa agenzia. E tra le tante eredità, l'idea di far interagire i computer in una rete fu raccolta da Bob Taylor, giovane e brillante scienziato chiamato dal successore di Lick, Ivan Sutherland, anche lui proveniente dal MIT.

Lasciamo per il momento la storia dell'ARPA, e dei tanti scienziati (in gran parte provenienti dal MIT) che vi hanno lavorato, per passare ad un altro dei centri legati alla ricerca militare, collocato questa volta sulla West Coast: la Rand Corporation. La Rand era un'azienda californiana nata come costola della Douglas Aircraft, e resasi autonoma nel dopoguerra allo scopo di proseguire gli sforzi di ricerca applicata che erano stati avviati nel corso del conflitto mondiale. Gran parte dei suoi studi e ricerche erano commissionati dall'aviazione, e il settore aeronautico costituiva il dominio principale delle sue attività di ricerca e consulenza.

Nel 1959 venne assunto alla Rand un giovane ingegnere che aveva lavorato nel settore delle valvole per computer: Paul Baran. Egli fu inserito nella neonata divisione informatica, dove si mise a lavorare su un problema che da qualche tempo veniva studiato dai tecnici della Rand: come riuscire a garantire che il sistema di comando e controllo strategico dell'esercito rimanesse se non intatto almeno operativo in caso di attacco nucleare. Le reti di comunicazione tradizionali su cui si basava l'intero apparato di controllo militare, infatti, erano estremamente vulnerabili.

Lavorando su questo problema, Baran giunse a due conclusioni: la prima era che una rete sicura doveva avere una configurazione decentralizzata e ridondante, in modo che esistessero più percorsi possibili lungo i quali far viaggiare un messaggio da un punto ad un altro; la seconda, legata alla prima, era che il sistema di telecomunicazioni doveva basarsi sulle nuove macchine di calcolo digitale, in grado di applicare sistemi di correzione degli errori e scelta dei canali comunicazione.

Sviluppando i suoi calcoli Baran aveva elaborato un modello in cui ciascun nodo fosse collegato ad almeno altri quattro nodi, e nessun nodo avesse la funzione di concentratore, al contrario di quanto avveniva per la rete telefonica. In questo modo ogni nodo poteva continuare a lavorare, ricevendo, elaborando e trasmettendo informazioni, anche nel caso in cui alcuni fra i nodi vicini fossero stati danneggiati. L'assenza di un nodo centrale inoltre eliminava ogni possibile obiettivo strategico, la cui distruzione avrebbe compromesso il funzionamento dell'intera rete. Oltre all'idea di una rete decentrata e ridondante, Baran ebbe anche un'altra intuizione geniale: piuttosto che inviare un messaggio da un nodo all'altro come un unico blocco di bit, era meglio dividerlo in parti separate, che potessero viaggiare attraverso vari percorsi verso la destinazione, dove sarebbero stati ricomposti. Convinto della bontà del suo progetto, intorno agli anni 60 iniziò a pubblicare vari articoli; ma le sue idee trovarono una decisa opposizione, soprattutto da parte di quella che avrebbe dovuto esserne la principale destinataria: la AT&T, monopolista delle telecomunicazioni. Dopo vari tentativi di convincere i tecnici del colosso industriale a prendere in esame il progetto, nel 1965 Baran si diede per vinto e passò a lavorare ad altri temi.

Proprio in quegli anni, in modo del tutto indipendente, un fisico inglese che lavorava al National Physical Laboratory, Donald Davies, era giunto a conclusioni assai simili a quelle di Baran, partendo da premesse diverse. Il suo problema, infatti, era la creazione di una rete pubblica abbastanza veloce ed efficiente da mettere a disposizione le capacità di elaborazione interattiva dei computer di seconda generazione anche a distanza, senza che le differenze di sistema operativo condizionassero la comunicazione.

La soluzione trovata da Davies si basava sull'idea di suddividere i messaggi da inviare in blocchi uniformi: in questo modo un computer avrebbe potuto gestire l'invio e la ricezione di molti messaggi contemporaneamente suddividendo il tempo di elaborazione per ciascun messaggio in ragione dei blocchi di dati. Egli ebbe l'idea di denominare tali parti di messaggio 'pacchetto' (packet), e il sistema di comunicazione 'commutazione di pacchetto' (packet switching), alternativa alla 'commutazione di circuito' su cui si basavano i sistemi telefonici tradizionali.

Tutte queste idee e intuizioni teoriche, elaborate in sedi diverse e indipendenti, confluirono pochi anni dopo nel progetto Arpanet, la progenitrice di Internet.

Arpanet

Bob Taylor si era brillantemente laureato in psicologia e matematica, e aveva fatto una tesi di dottorato in psicoacustica. Aveva conosciuto Licklider nel 1963, facendo una ottima impressione sul grande scienziato, e stabilendo con lui una relazione di amicizia e di stima reciproca. Per queste ragioni il successore di Lick all'Ufficio Tecniche di Elaborazione dell'Informazione (IPTO) dell'ARPA, Ivan Sutherland (il padre della computer graphic), lo chiamò come suo collaboratore nel 1965. Pochi mesi dopo anche Sutherland si dimise e Taylor, a soli 34 anni, ne assunse il posto.

Entrando nella sala computer del suo ufficio, Taylor si rese conto in prima persona di quanto assurda fosse l'incomunicabilità reciproca che quelle possenti e costose macchine dimostravano. Possibile che non fosse possibile condividere risorse tanto costose, come Lick aveva più volte suggerito? Spinto da questa profonda frustrazione, si decise a sottoporre al direttore dell'agenzia, Charles Herzfeld, il finanziamento di un progetto volto a consentire la comunicazione e lo scambio di risorse tra i computer dei vari laboratori universitari finanziati dall'agenzia. Il progetto fu approvato e Taylor ebbe carta bianca: iniziò così la storia di Arpanet, la rete dell'ARPA.

A sua volta Taylor decise di chiamare a sovraintendere agli aspetti tecnici del progetto un giovane e geniale informatico che aveva conosciuto al MIT, Larry Roberts. Dopo un iniziale rifiuto Roberts accolse l'invito, e si mise subito al lavoro prendendo contatto con i migliori colleghi disponibili sulla piazza, tra cui Frank Heart, il massimo esperto di elaborazione in tempo reale. Ma per molti mesi il problema di progettare una rete abbastanza affidabile e veloce da permettere l'elaborazione interattiva a distanza rimase insoluto. Finché alla fine del 1967 Roberts partecipò ad una conferenza alla quale intervenne un collaboratore di Donald Davies, che illustrò il principio della commutazione di pacchetto, e fece riferimento ai lavori precedenti di Baran su questo tema: fu come trovare l'ago nel pagliaio. Nel giro di sei mesi Roberts elaborò le specifiche di progetto della rete, facendovi confluire tutte quelle idee che erano rimaste nell'aria per oltre un decennio. La rete dell'ARPA sarebbe stata una rete a commutazione di pacchetto in tempo reale; per migliorarne l'efficienza e l'affidabilità, Roberts accolse nel suo progetto una idea di Wesley Clark: piuttosto che collegare direttamente i vari grandi computer, ogni nodo sarebbe stato gestito da un computer specializzato dedicato alla gestione del traffico (battezzato Interface Message Processor, IMP) al quale sarebbe stato connesso il computer che ospitava (host) i veri e propri servizi di elaborazione.

Dunque, se è vero che il progetto della rete nacque in un contesto militare, la diffusa opinione che essa dovesse fungere da strumento di comunicazione sicuro tra i centri di comando militari nell'evenienza di una guerra nucleare è frutto di un equivoco storiografico. In realtà l'obiettivo perseguito da Bob Taylor era di aumentare la produttività e la qualità del lavoro scientifico nei centri finanziati dall'ARPA, permettendo ai ricercatori universitari di comunicare e di condividere le risorse informatiche, a quei tempi costosissime e di difficile manutenzione. Parte dell'equivoco circa le origini belliche della rete deriva dal fatto che nella stesura delle specifiche Larry Roberts riprese le idee elaborate da Baran all'inizio degli anni 60.

La fase esecutiva del progetto Arpanet prese il via nel 1969. Dopo una gara di appalto alla quale parteciparono diversi grandi colossi dell'industria informatica del tempo, la realizzazione degli IMP (il vero cuore della rete) venne sorprendentemente assegnata alla Bolt Beranek and Newman (BBN), una piccola azienda con sede a Cambridge, la cittadina nei pressi di Boston dove sorgevano i due istituti universitari più importanti del paese, Harvard e MIT. Nel corso degli anni questa piccola società era divenuta una specie di terza università, alle cui dipendenze avevano lavorato tutti i più brillanti ricercatori di quelle grandi università. Quando venne affidato l'appalto dell'ARPA direttore della divisione informatica era Frank Heart. Oltre ad essere un valente scienziato, Heart era anche un ottimo manager. Egli dunque assunse in prima persona la responsabilità del progetto degli IMP, creando un gruppo di collaboratori di altissimo livello, tra cui Bob Kahn, uno dei massimi teorici delle reti di computer dell'epoca, che ebbe un ruolo fondamentale nella progettazione dell'intera architettura della rete.

Il primo IMP (delle dimensioni di un frigorifero) fu consegnato alla University of California il due settembre, e fu immediatamente connesso al grande elaboratore SDS Sigma 7 della UCLA senza alcuna difficoltà. Il primo di ottobre fu installato il secondo IMP presso lo Stanford Research Institute (SRI), dove fu collegato ad un mainframe SDS 940. Il progetto dell'ARPA si era finalmente materializzato in una vera rete, costituita da due nodi connessi con una linea dedicata a 50 kbps. Dopo qualche giorno fu tentato il primo collegamento tra host facendo simulare al Sigma 7 il comportamento di un terminale remoto del 940: l'esperimento, seppure con qualche difficoltà iniziale, andò e buon fine, e dimostrò che la rete poteva funzionare. Nei mesi successivi vennero collegati i nodi dell'Università di Santa Barbara e dello Utah.

Mentre la BBN si stava occupando dello sviluppo degli IMP, un'ulteriore fucina di cervelli si stava occupando dei problemi della comunicazione tra host e IMP, e soprattutto della comunicazione tra host, e dunque delle possibili applicazioni che la rete avrebbe potuto supportare. L'ARPA aveva deciso che questo aspetto del progetto fosse delegato direttamente ai laboratori di ricerca delle università coinvolte: dopotutto, era un problema loro sapere che cosa fare della rete, una volta che l'ARPA l'avesse realizzata.

In quei laboratori, a quei tempi l'età media era assai bassa: i professori avevano al massimo dieci anni di più degli studenti ed erano poco più anziani dei dottorandi. Al fine di coordinare le attività, tutti i giovani ricercatori coinvolti decisero di costituire un gruppo comune, che si sarebbe riunito di tanto in tanto per esaminare il lavoro svolto, e lo battezzarono Network Working Group (NWG). Le riunioni del NWG assunsero subito un tono assai informale e cooperativo. Ogni idea, risorsa e strumento che veniva elaborato dai primi 'utenti-creatori' della rete entrava subito in circolo e diveniva una ricchezza comune.

Uno tra i più attivi nel gruppo era Steve Crocker, della UCLA, che ne assunse la direzione. Ben presto egli si rese conto della necessità di iniziare a mettere su carta il frutto di tante discussioni. Fu così che scrisse il primo documento ufficiale del gruppo, dedicato al problema della comunicazione tra host. Tuttavia, per non esagerare nell'ufficialità, e indicare il fatto che quel documento era solo una bozza da rifinire, Crocker decise di intitolare il suo documento Request for Comment (RFC), richiesta di commenti. Questa denominazione dei documenti tecnici è sopravvissuta alla sua storia, ed è usata ancora oggi per siglare le specifiche tecniche ufficiali di Internet.

Il primo risultato prodotto dal NWG alla fine del 1969 era un rudimentale sistema di terminale remoto, battezzato telnet (non ancora il telnet che ancora oggi è in uso, le cui specifiche risalgono al 1972). Ma questo sistema non costituiva una grande novità rispetto ai terminali dei mainframe che già erano in funzione da anni: bisognava trovare un modo per far comunicare gli host da pari a pari, un qualche insieme di regole condivise da computer diversi. Nelle discussioni venne l'idea di chiamare queste regole 'protocolli'. Dopo un anno di lavoro finalmente le specifiche per il protocollo di comunicazione tra host erano pronte: esso fu battezzato NCP (Network Control Protocol). Poco più tardi venne sviluppato il primo protocollo applicativo vero e proprio, dedicato al trasferimento di file da un host all'altro: il File Transfer Protocol.

Ma l'applicazione che forse ebbe la maggiore influenza nell'evoluzione successiva della rete fu la posta elettronica. L'idea venne per caso nel marzo del 1972 a un ingegnere della BBN, Ray Tomlinson, che provò a adattare un sistema di messaggistica sviluppato per funzionare su un minicomputer multiutente (fu lui che ebbe l'idea di separare il nome dell'utente da quello della macchina con il carattere '@'). L'esperimento funzionò, e il NWG accolse subito l'idea, integrando nel protocollo FTP le specifiche per mandare e ricevere messaggi indirizzati a singoli utenti.

Nel frattempo la rete Arpanet, come veniva ormai ufficialmente chiamata, cominciava a crescere. I nodi nel 1971 erano divenuti quindici, e gli utenti alcune centinaia. Nel giro di pochi mesi tutti coloro che avevano accesso ad un host iniziarono ad usare la rete per scambiarsi messaggi. E si trattava di messaggi di tutti i tipi: da quelli di lavoro a quelli personali. La rete dell'ARPA era divenuto un sistema di comunicazione tra una comunità di giovani ricercatori di informatica! Intorno alla posta elettronica crebbe anche il fenomeno del software gratuito. Infatti ben presto cominciarono ad apparire programmi per leggere i messaggi sempre più raffinati e dotati di funzionalità evolute, che venivano liberamente distribuiti mediante FTP.

A questo punto Larry Roberts decise che era giunto il tempo di mostrare pubblicamente i risultati conseguiti dal progetto, e affidò a Bob Khan l'organizzazione di una dimostrazione pubblica. L'evento ebbe luogo nell'ambito della International Conference on Computer Communications che si tenne nell'ottobre del 1972, e fu un successo oltre ogni aspettativa. In quella occasione si decise anche di fondare lo International Network Working Group, che avrebbe ereditato la funzione di sviluppare gli standard per la rete Arpanet dal precedente NWG, e ne fu affidata la direzione a Vinton Cerf, uno dei più brillanti membri del gruppo della UCLA.

Poco dopo Cerf, che nel frattempo aveva avuto una cattedra a Stanford, fu contattato da Kahn per lavorare insieme ad un problema nuovo: come far comunicare tra loro reti basate su tecnologie diverse? Infatti in quegli anni erano stati avviati altri esperimenti nel settore delle reti di computer, alcuni dei quali basati su comunicazioni radio e satellitari (in particolare va ricordata la rete Aloha-Net, realizzata dalla University of Hawaii per collegare le sedi disperse su varie isole, le cui soluzioni tecniche avrebbero dato lo spunto a Bob Metcalfe per la progettazione di Ethernet, la prima rete locale). Se si fosse riuscito a far comunicare queste reti diverse, sarebbe stato possibile diffondere le risorse disponibili su Arpanet ad una quantità di utenti assai maggiore, con costi molto bassi.

I due si misero a lavorare alacremente intorno a questo problema e in pochi mesi elaborarono le specifiche di un nuovo protocollo di comunicazione tra host che battezzarono Transmission Control Protocol. Il TCP implementava pienamente l'idea della comunicazione a pacchetti, ma era indipendente dalla struttura hardware; esso introduceva anche il concetto di gateway, una macchina che doveva fare da raccordo tra due reti diverse. I risultati di questo lavoro furono pubblicati nel 1974 in un articolo dal titolo A Protocol for Packet Network Internetworking, in cui comparve per la prima volta il termine 'internet'.

Le ripercussioni dell'articolo di Cerf e Kahn furono enormi. Ben presto numerosi ricercatori si posero a rifinire la proposta iniziale e a sperimentarne varie implementazioni. La prima dimostrazione pubblica di un collegamento tra Arpanet, Satnet e Packet Radio Network fu fatta nel luglio del 1977, con un sistema che collegava un computer in viaggio su un camper lungo la Baia di San Francisco a uno installato a Londra. Il collegamento funzionò perfettamente e convinse la DARPA (al nome originale dell'agenzia si era aggiunto il termine Defense) a finanziarne lo sviluppo. Un anno dopo Cerf, Steve Crocker e Danny Cohen svilupparono il progetto iniziale del nuovo protocollo dividendolo in due parti: TCP, che gestiva la creazione e il controllo dei pacchetti, e IP che invece gestiva l'instradamento dei dati [68]. Pochi anni dopo il TCP/IP sarebbe stato adottato ufficialmente come protocollo standard della rete Arpanet (e di tutte le reti finanziate dall'agenzia), sostituendo l'ormai datato e inefficiente NCP, e aprendo la strada alla nascita di Internet quale la conosciamo oggi.

Nel frattempo Arpanet, la cui gestione era stata affidata dalla DARPA alla Defense Communication Agency (DCA), continuava la sua espansione, sia come diffusione sia, soprattutto, come servizi e applicazioni che vi venivano sviluppati. Nel giugno del 1975 era stato creato il primo gruppo di discussione basato sulla posta elettronica, ospitato sull'host della DARPA e battezzato MsgGroup. I temi che vi si discutevano erano di ambito tecnico, ma non mancarono polemiche su fatti esterni. Visto il successo di MsgGroup, ben presto fecero la loro comparsa altri gruppi di discussione non ufficiali ospitati sugli host universitari: si narra che il primo fu SF-Lovers, dedicato agli amanti della fantascienza.

Altra pietra miliare fu lo sviluppo dei primi giochi di simulazione. Il primo in assoluto fu Adventure, una versione digitale di Dungeons and Dragons, scritto in una prima fase da Will Crowther (uno del gruppo dell'IMP alla BBN) e poi rifinito da uno studente di Stanford, Don Woods, nel 1976. Il gioco ebbe un successo inaspettato, e generò una grande quantità di traffico sull'host dello Artificial Intelligence Laboratory dove era stato installato. Nel 1979 Richard Bartle e Roy Trubshaw della University of Essex crearono la prima versione di un gioco di ruolo multiutente che battezzarono Multi User Dungeons (MUD).

Come aveva previsto Licklider ormai quindici anni prima, sulla base di un sistema di comunicazione interattivo fondato sui computer si era costituita una vera e propria comunità intellettuale.

Da Arpanet a Internet

Il successo di Arpanet nella comunità scientifica aveva dimostrato ampiamente i vantaggi che le reti di comunicazione telematiche potevano arrecare nell'attività di ricerca. Tuttavia, alle soglie degli anni '80, delle centinaia di dipartimenti di informatica del paese solo 15 avevano il privilegio (ma anche gli oneri finanziari) di possedere un nodo. Questa sperequazione era vista come un pericolo di impoverimento del sistema della ricerca universitaria. Per ovviare a tale rischio la National Science Foundation (NSF), un ente governativo preposto al finanziamento della ricerca di base, iniziò a sponsorizzare la costruzione di reti meno costose tra le università americane. Nacque così nel 1981 Csnet (Computer Science Network), una rete che collegava i dipartimenti informatici di tutto il sistema accademico statunitense. Ma già prima di questa iniziativa alcune sedi universitarie avevano creato ad infrastrutture telematiche a basso costo. Nel 1979, ad esempio, era stato creata Usenet, che collegava i computer della Duke University e della University of North Carolina, permettendo lo scambio di messaggi articolati in forum. Nel 1981 alla City University of New York venne creata Bitnet (acronimo della frase Because It's Time Net), che fu estesa ben presto a Yale.

Tutte queste reti, pur avendo adottato internamente tecnologie diverse e meno costose rispetto a quelle di Arpanet, potevano comunicare con essa grazie ai gateway basati sul nuovo protocollo di internetworking TCP/IP. Ben presto anche altri paesi del blocco occidentale iniziarono a creare reti di ricerca, basate sul medesimo protocollo (le cui specifiche, ricordiamo, erano gratuite e liberamente disponibili sotto forma di RFC; il relativo archivio era gestito sin dai tempi nel NWG da Jon Postel), e perciò in grado di interoperare con le omologhe nordamericane. Intorno alla rete dell'ARPA, andava prendendo forma una sorta di rete delle reti. A sancire la nascita definitiva di tale rete intervenne nel 1983 la decisione da parte della DCA di dividere Arpanet in due rami per motivi di sicurezza: uno militare e chiuso, inizialmente battezzato Defense Data Network e poi Milnet, e uno per la comunità scientifica, che ereditava il nome originario e che non avrebbe avuto limiti di interconnessione esterna. La vecchia Arpanet poteva così divenire a tutti gli effetti il cuore della neonata Internet. Nello stesso tempo venne fondato un nuovo organismo di gestione tecnica della rete, l'Internet Activities Board (IAB), e tra i suoi sottogruppi l'Internet Engineering Task Force (IETF), cui fu affidato il compito specifico di definire gli standard della rete, compito che mantiene ancora oggi.

Parallelamente a tali sviluppi amministrativi, anche l'evoluzione tecnica della rete procedeva, raggiungendo proprio in quegli anni due tappe basilari: il 1 gennaio 1983, su decisione di DARPA e DCA, tutti i nodi di Arpanet passarono ufficialmente dal vecchio NCP a TCP/IP. Si narra che tutto filò liscio, anche se da un responsabile di nodo all'altro rimbalzò il messaggio "I survived the TCP/IP transition". Approfittando del clima di riorganizzazione che seguì la transizione, Paul Mockapetris, Jon Postel (che nel frattempo aveva anche definito il nuovo protocollo per la posta elettronica, il Simple Mail Transfer Protocol) e Craig Partridge si misero a lavorare a un nuovo sistema per individuare i nodi della rete, assai più facile da maneggiare rispetto agli indirizzi numerici IP. Nel novembre dello stesso anno, dopo alcuni mesi di lavoro pubblicarono le RFC 892 e 893 che delineavano il Domain Name System. Ci volle ancora un anno intero di discussioni prima che il DNS fosse accettato da tutti e messo in funzione, ma quando questo avvenne tutti gli elementi tecnici affinché la diffusione di Arpanet/Internet esplodesse erano disponibili.

A dare il via a tale esplosione fu ancora una volta la NSF. Dopo il successo dell'esperimento Csnet, l'ente federale per la ricerca si era vieppiù convinto della necessità di dotare il sistema universitario di una infrastruttura telematica ad alta velocità. Ma i fondi a sua disposizione erano del tutto insufficienti per tale obiettivo. Per ovviare a tale limite la NSF decise di coinvolgere direttamente le università nella costruzione della nuova infrastruttura. Essa si assunse direttamente l'onere di realizzare un backbone ad alta velocità che congiungeva i cinque maggiori centri di supercalcolo [69] del paese con una linea dedicata a 56 Kbps, battezzato NSFnet. Tutte le altre università avrebbero potuto accedere gratuitamente a tale rete a patto di creare a loro spese le infrastrutture locali. Il progetto fu avviato nel 1986 ed ebbe un successo enorme. Nel giro di un anno quasi tutte le università statunitensi aderirono all'offerta della NSF, e si riunirono in consorzi per costruire una serie di reti regionali, a loro volta connesse a NSFnet. A ciò si affiancò la diffusione delle reti locali, la cui commercializzazione era appena iniziata. Come risultato il numero di host di Internet decuplicò, raggiungendo la quota di diecimila.

Ma si trattò appena di un inizio. Il successo riportato dai protocolli TCP/IP, e da tutti gli altri protocolli applicativi che su di esso si basavano, stimolò la nascita di altre reti di ricerca nazionali in gran parte dei paesi occidentali. E ormai anche le reti private come Decnet, Compuserve e MCI decisero di connettersi ad Internet. Come conseguenza fra il 1985 e il 1988 il backbone della NSFnet dovette essere aggiornato ad una rete T1 a 1,544 Mbps, e un anno dopo il numero di host superò le 100 mila unità.

A questo punto divenne evidente che la vecchia Arpanet aveva ormai esaurito la sua funzione. Tutti i nuovi accessi passavano per la più veloce, evoluta ed economica NSFnet. Inoltre la DARPA (dove non era rimasto nessuno dei grandi protagonisti della storia di Arpanet) era ormai rivolta ad altri interessi e non intendeva più spendere i 15 milioni di dollari annui per quella vecchia rete. Fu così che qualcuno (ma nessuno in particolare si assunse pubblicamente il compito) prese la decisione di staccare la spina. Nel 1989, a venti anni dalla sua nascita, il processo di smantellamento di Arpanet ebbe inizio. Tutti i siti vennero trasferiti alla rete della NSF o a qualcuna delle reti regionali. Alla fine dell'anno Arpanet aveva cessato di esistere, e il glorioso IMP numero 1 divenne un reperto in mostra alla UCLA, dove tutto era iniziato.

World Wide Web e l'esplosione di Internet

Per molti anni la rete era stata uno strumento, alquanto esoterico, nelle mani di poche migliaia di studenti e ricercatori di informatica. Alcuni di loro potevano affermare senza battere ciglio di conoscere a memoria l'indirizzo di ogni singolo host. Ma la diffusione che conseguì alla nscita di NSFnet aveva cambiato radicalmente il quadro demografico degli utenti.

Agli informatici (accademici e professionisti) si erano affiancati i fisici, i chimici, i matematici e anche alcuni rari studiosi dell'area umanistica. Senza contare che le reti universitarie iniziavano a fornire accessi anche agli studenti undergraduate, e a fornire informazioni amministrative attraverso i loro host. Parallelamente la quantità di risorse disponibili cresceva in modo esponenziale, e nessuno era ormai più in grado di averne contezza con il solo aiuto della memoria.

Tutte queste ragioni, che si sommavano allo spirito di innovazione e di sperimentazione che aveva caratterizzato gli utenti più esperti della rete, determinarono agli inizi degli anni 90 una profonda trasformazione dei servizi di rete e la comparsa di una serie di nuove applicazioni decisamente più user friendly.

Il primo passo in questa direzione fu lo sviluppo nel 1989 di un programma in grado di indicizzare il contenuto dei molti archivi pubblici di file basati su FTP, da parte di Peter Deutsch, un ricercatore della McGill University di Montreal. Il programma fu battezzato Archie, e in breve tempo gli accessi all'host su cui era stato installato generarono più della metà del traffico di rete tra Canada e USA. Preoccupati da tale situazione gli amministratori della McGill decisero di impedirne l'uso agli utenti esterni. Ma il software era ormai di pubblico dominio, e numerosi server Archie comparvero su Internet.

Poco tempo dopo Brewster Kahle, uno dei migliori esperti della Thinking Machine, azienda leader nel settore dei supercomputer paralleli, sviluppò il primo sistema di information retrieval distribuito, il Wide Area Information Server (WAIS). Si trattava di un software molto potente che permetteva di indicizzare enormi quantità di file di testo e di effettuare ricerche su di essi grazie a degli appositi programmi client. Le potenzialità di WAIS erano enormi, ma la sua utilizzazione era alquanto ostica, e ciò ne limitò la diffusione. Nel momento di massimo successo il server WAIS principale istallato alla Thinking Machine ospitò circa 600 database, tra cui l'intero archivio delle RFC.

Ben più fortunata, anche se altrettanto breve, fu la vicenda del primo strumento di interfaccia universale alle risorse di rete orientato al contenuto e non alla localizzazione: il Gopher. Le sue origini risalgono al 1991, quando Paul Lindner e Mark P. McCahill della University of Minnesota decisero di realizzare il prototipo di un sistema di accesso alle risorse di rete interne al campus la cui interfaccia fosse basata su menu descrittivi, e che adottasse una architettura client-server (in modo da rendere possibile la distribuzione su più host del carico di indicizzazione). Il nome, ispirato alla marmotta scavatrice simbolo dell'università, si dimostrò un'ottima scelta. Nel giro di due anni il programma (i cui sorgenti furono messi a disposizione liberamente) si diffuse in tutta la rete, arrivando a contare più di 10 mila server e divenendo l'interfaccia preferita della maggior parte dei nuovi utenti. Al suo successo contribuì notevolmente lo sviluppo di un programma che permetteva di effettuare ricerche per parole chiave su tutti i menu del gopherspace, Veronica (la cui origine si colloca nella Duke University).

Ma proprio mentre il Gopher raggiungeva l'apice del suo successo un altro sistema, sviluppato nei laboratori informatici del CERN di Ginevra, cominciò ad attirare l'attenzione della comunità di utenti Internet: World Wide Web.

Il primo documento ufficiale in cui si fa riferimento a questo strumento risale al marzo del 1989. In quell'anno Tim Berners Lee, un fisico in carico al centro informatico del grande laboratorio, concepì l'idea di un "sistema ipertestuale per facilitare la condivisione di informazioni tra i gruppi di ricerca nella comunità della fisica delle alte energie", e ne propose lo sviluppo al suo centro. Avuto un primo assenso si mise al lavoro sulla sua idea, coadiuvato dal collega Robert Cailliau (a cui si deve il simbolo costituito da tre 'W' sovrapposte in colore verde). Nel novembre del 1990 i due firmarono un secondo documento, assai più dettagliato, che descriveva il protocollo HTTP, il concetto di browser e server, e che rendeva pubblico il nome ideato da Berners Lee per la sua creatura: World Wide Web. Nel frattempo Berners Lee, lavorando con la sua nuova workstation Nextstep, un vero e proprio gioiello dell'informatica, sviluppò il primo browser/editor Web (battezzato con poca fantasia World Wide Web anch'esso). Le funzionalità di quel programma erano avanzatissime (ancor oggi i browser di maggiore diffusione non hanno implementato tutte le caratteristiche del primo prototipo), ma purtroppo le macchine Next in giro per il mondo erano assai poche.

Per facilitare la sperimentazione del nuovo sistema ipertestuale di diffusione delle informazioni su Internet, Berners Lee realizzò un browser con interfaccia a caratteri, facilmente portabile su altre architetture, e lo battezzò Line Mode Browser. Esso venne distribuito nel marzo del 1991 in formato sorgente attraverso alcuni gruppi di discussione. Una versione funzionante fu messa on-line e resa accessibile tramite un collegamento telnet pubblico su un host del CERN. Intanto iniziavano a sorgere i primi server Web esterni al CERN ma sempre legati al mondo della fisica nucleare. Alla fine dell'anno se ne contavano circa cinquanta.

L'interesse intorno a questa nuova applicazione iniziava a crescere, ma l'ostica interfaccia a caratteri del browser ne limitava la diffusione. Un primo aiuto in questo senso venne nel 1992, quando Pei Wei, uno studente di Stanford, realizzò un browser grafico per X-window battezzato WWW Viola. Fu proprio provando Viola che Marc Andressen, studente specializzando presso il National Center for Supercomputing Applications (NCSA) della University of Illinois, concepì l'idea di sviluppare un browser web grafico, insieme ad Eric Bina: nacque così Mosaic. La prima versione per Unix X-window fu rilasciata nel gennaio 1993. Nel settembre dello stesso anno il gruppo di programmatori raccoltosi intorno a Mark ed Eric rilasciò le prime versioni per Windows e Macintosh. Mosaic fu una vera e propria rivelazione per gli utenti Internet. La semplicità di installazione e di uso ne fece una killer application che nel giro di pochi mesi attrasse su World Wide Web migliaia di utenti, e che soprattutto rese evidente un modo nuovo di utilizzare i servizi della rete Internet, completamente svincolato dalla conoscenza di complicate sintassi e lunghi elenchi di indirizzi. Grazie a Mosaic e alla sottostante architettura Web, Internet divenne uno spazio informativo ipermediale aperto che era alla portata di chiunque con il minimo sforzo.

Tutto ciò accadeva mentre Internet aveva già raggiunto i due milioni di host, e il backbone della NSFnet era stato portato ad una banda passante di 44,736 Mpbs. Ma l'introduzione del binomio Mosaic/Web ebbe la forza di un vero e proprio 'Big bang'.

Dalla fine del 1993 gli eventi si fanno ormai concitati. A fine anno Marc Andressen lasciò il NCSA. Nel marzo dell'anno dopo incontrò uno dei fondatori della Silicon Graphics, Jim Clark, che lo convinse a fondare una società per sfruttare commercialmente il successo di Mosaic. Il nome scelto per la società in un primo momento fu Mosaic Communication; ma per evitare di pagare royalties al NCSA fu deciso di cambiarlo in Netscape Communication, e di riscrivere da zero un nuovo browser Web, dopo avere cooptato la maggior parte dei vecchi amici e collaboratori di Mark. Pochi mesi dopo fu distribuita la prima versione beta di Netscape Navigator, le cui caratteristiche innovative ne fecero quasi immediatamente l'erede di Mosaic. Il 25 maggio del 1994 si tenne a Ginevra la prima WWW Conference (alcuni la hanno battezzata la 'Woodstock del Web'), seguita nell'ottobre da un seconda tenuta a Chicago. Da quei primi incontri si presero le mosse per la fondazione del W3 Consortium (la prima riunione risale al 14 dicembre 1994), una organizzazione voluta da Tim Berners Lee al fine di gestire in modo pubblico e aperto lo sviluppo delle tecnologie Web, così come era avvenuto per tutte le precedenti tecnologie che erano state sviluppate sulla e per la rete sin dai tempi del NWG.

Ma i tempi, appunto, erano ormai cambiati profondamente. Con cinque milioni di host, tra cui 25 mila server Web (moltiplicatisi con un ritmo di crescita geometrico), la nuova Internet era ormai pronta ad una ennesima mutazione: da un sistema di comunicazione fortemente radicato nell'ambiente accademico stava per divenire un vero e proprio medium globale, in grado di generare profitti miliardari. Già da qualche anno la rigida chiusura al traffico commerciale sul backbone NSFnet era stata sostituita da una ampia tolleranza. Il 30 aprile del 1995 la NSF chiuse definitivamente il finanziamento della sua rete, che venne ceduta ad un gestore privato. Nel frattempo molte grandi multinazionali delle telecomunicazioni avevano già iniziato a vendere connettività Internet per conto proprio. Il controllo tecnico della rete rimaneva in mano alla Internet Society, una organizzazione no profit fondata nel 1992 alle cui dipendenze erano state messe IAB e IETF. Ma il peso dei grandi investimenti cominciava a farsi sentire, specialmente con l'entrata in campo della Microsoft, e con la reazione al suo temuto predominio da parte di altri attori, vecchi e nuovi, dell'arena dell'Information Technology. Il resto, l'esplosione di Internet come host, come utenti e come fenomeno mediatico, è cronaca dei nostri giorni.

Verso il futuro

Se, come abbiamo detto in apertura di capitolo, fare storia di una tecnologia è impresa complessa, predirne il futuro è un esercizio intellettuale poco saggio, ancorché assai diffuso. In questo paragrafo finale ci limiteremo quindi a descrivere alcuni processi di innovazione, in parte già avviati, che a breve termine introdurranno alcune importanti novità nell'architettura di Internet e nelle sue potenzialità.

Tali processi, ancora una volta, trovano origine principalmente in ambito statunitense. Per la precisione ci riferiamo ai due grandi programmi di ricerca Internet2 e Next Generation Internet.

Internet2 è un progetto cooperativo che coinvolge attualmente oltre 150 istituzioni accademiche raccolte nella University Corporation for Advanced Internet Development (UCAID), diverse grandi aziende del settore informatico e delle telecomunicazioni e istituzioni federali (in particolare la NSF). NGI invece è un programma finanziato direttamente dal governo federale e gestito dalle grandi agenzie di ricerca federali come DARPA, NSF, NASA, Department of Energy e National Institute of Standards and Technology, che a loro volta collaborano con diversi centri di ricerca accademici.

A parte queste differenze giuridiche e amministrative, si tratta di due programmi complementari che hanno molteplici punti di contatto e di interscambio sia sul piano della ricerca sia su quello del finanziamento. Soprattutto, entrambi condividono le medesime finalità e individuano come destinatari i centri di ricerca universitari. Infatti, come è già avvenuto nella storia di Arpanet prima e di Internet poi, le università serviranno da luoghi deputati alla sperimentazione di una serie di nuove applicazioni che dovranno in seguito essere diffuse su scala globale.

Obiettivo generale di entrambi i progetti è lo sviluppo delle tecnologie hardware e software della rete al fine di rendere possibile la sperimentazione di servizi di rete avanzati (come le biblioteche digitali, il lavoro collaborativo, la telemedicina, il video on demand, la telepresenza e gli ambienti VR condivisi).

Dal punto di vista delle infrastrutture sono stati avviati due progetti di reti a banda larghissima in fibra ottica: una è il Very High Bandwidth Network Service (VBNS), finanziato dalla NSF e realizzato dalla MCI/Worldcom, uno dei giganti delle TLC statunitensi, che in un certo senso eredita il ruolo di NSFnet. L'altra è la rete del progetto Abilane, sviluppato dalla UCAID nel contesto di Internet2 e parzialmente finanziato dalla stessa NSF.

Entrambi i progetti hanno sottolineato come per lo sviluppo di servizi avanzati non sia sufficiente il solo potenziamento delle linee e delle strutture hardware della rete, ma serva anche una profonda ristrutturazione nell'architettura dei protocolli. In questo ambito sono stati individuati diversi settori di intervento.

Il primo riguarda la messa a punto operativa della nuova versione del protocollo IP, battezzata IP version 6 (Ipv6). Standardizzato nella RFC 1883 del dicembre 1995, IPv6 risolve il problema del limitato spazio di indirizzamento del vecchio IPv4 (a 32 bit) usando uno schema a 128 bit. Questa innovazione garantirà un impressionante incremento della disponibilità di indirizzi IP: secondo un calcolo approssimativo si avranno a disposizione 665x1024 indirizzi per ogni metro quadrato della superficie del nostro pianeta! Ma per rendere effettivamente funzionante IPv6 saranno necessari notevoli cambiamenti nei sistemi di instradamento dei dati e nei software di gestione dei router, che dovranno essere in grado di aggiornarsi automaticamente [70].

Il secondo importante obiettivo perseguito dagli esperti che lavorano per il rinnovamento della rete è indicato dalla sigla QoS (Quality of Service). Si tratta di sviluppare una serie di protocolli per allocare in modo dinamico e intelligente la banda passante disponibile, in modo tale da gestire diversi livelli di servizio. In base a questi standard, ai servizi a pagamento, o a quelli che necessitano di un contatto costante (come il video in tempo reale) sarà riservata automaticamente dal sistema una quota di banda tale da garantirne il funzionamento ottimale, mentre agli altri servizi verrà allocata la banda rimanente.

Legata allo sviluppo di servizi multimediali interattivi come il traffico vocale (in alternativa alle normali linee telefoniche), le videoconferenze, il 'video on demand', è la sperimentazione di nuove tecniche di trasmissione in multicasting. A differenza delle attuali modalità di funzionamento del protocollo di trasferimento dati, che si basa su connessioni punto-punto per ogni singola trasmissione, il multicasting permetterebbe di stabilire connessioni uno-molti, rendendo assai più efficiente l'occupazione della banda passante. Ulteriori aree di ricerca sono quelle relative alla sicurezza delle trasmissioni, all'archiviazione permanente dei dati e alla creazione di un sistema di indirizzamento stabile delle risorse [71].

Sebbene entrambi i progetti dedicati allo sviluppo della 'Internet del futuro' siano radicati nel mondo della ricerca, le potenzialità commerciali aperte da queste sperimentazioni sono enormi: basti solo pensare che il 'video on demand' via Internet potrebbe sostituire almeno una parte dell'attuale programmazione televisiva (ad esempio i canali tematici, che proprio in questi anni stanno conoscendo un forte sviluppo). Ovviamente non è possibile considerare questi risultati, attualmente in fase di work in progress, come dati acquisiti. Le incognite economiche, tecniche, politiche, che si legano a progetti di questa portata non sono, allo stato attuale delle cose, valutabili. Ma almeno negli Stati Uniti, la volontà di potenziare le risorse telematiche è parte integrante dei progetti dell'attuale amministrazione, e considerando le ricadute economiche preventivabili, lo sarà anche delle prossime.

Resta da chiarire il ruolo che l'Europa potrà giocare in questo contesto, ruolo che si spera non sarà passivo come è avvenuto nello scorso trentennio, e il tipo di rete che questi grandi investimenti ci lasceranno in eredità. Per ora una cosa appare certa: la rete si trasformerà, anche profondamente, cambiando servizi e tecnologie, ma non scomparirà. Alla continua crescita nel numero degli utenti continuerà a corrispondere, anche in futuro, un potenziamento delle linee e dei protocolli di comunicazione.


Note

[66] A lui in effetti si deve una breve storia di Internet dal programmatico titolo Free as Air, Free as Water, Free as Knowledge che consacra questa leggenda.

[67] Per chi fosse interessato ad approfondire la storia di Internet oltre i brevi cenni che forniremo in questo manuale, possiamo suggerire tre riferimenti bibliografici: Franco Carlini, Internet, Pinocchio e il Gendarme, Manifestolibri, Roma 1996, che specialmente nei suoi primi capitoli è dedicato ad una ricostruzione critica della storia di Internet; specificamente dedicati alla storia di Internet sono K. Hafner e M. Lyon, La storia del futuro, Feltrinelli, Milano 1998 (ed. or. Where Wizard Stay Up Late, Simon & Schuster, New York 1996), dal taglio giornalistico, e P. Salus, Casting the Net. From Arpanet to Internet and Beyond, Addison Wesley, 1995.

[68] Per ulteriori informazioni sul funzionamento del TCP/IP si veda il capitolo 'Principi di base della rete Internet'.

[69] Quei centri dotati cioè di costosissimi supercomputer. Per la precisione si trattava del JVNC di Princeton, del PSC di Pittsburgh, del SDSC alla UCSD, del NCSA alla UIUC, e del Theory Center alla Cornell University.

[70] I temi cui si fa riferimento in questo capoverso saranno approfonditi nel capitolo 'Principi di base della rete Internet'.

[71] Su questo tema ritorneremo parlando delle URN nel capitolo 'Come funziona World Wide Web'.



<<< pagina precedente

pagina successiva >>>

Con E-text Internet è facile!

inizio pagina

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Sub-domains

CDRoms - Magnatune - Librivox - Liber Liber - Encyclopaedia Britannica - Project Gutenberg - Wikipedia 2008 - Wikipedia 2007 - Wikipedia 2006 -

Other Domains

https://www.classicistranieri.it - https://www.ebooksgratis.com - https://www.gutenbergaustralia.com - https://www.englishwikipedia.com - https://www.wikipediazim.com - https://www.wikisourcezim.com - https://www.projectgutenberg.net - https://www.projectgutenberg.es - https://www.radioascolto.com - https://www.debitoformtivo.it - https://www.wikipediaforschools.org - https://www.projectgutenbergzim.com