Piccola storia delle reti dati in Italia


Reti dati e rete telefonica

Negli anni ‘70, la possibilità di utilizzare la già estesa, capillare e matura infrastruttura della rete telefonica per trasportare bit tra sistemi distanti tra loro fu naturalmente ben presto intuita sia dal nascente mondo dell’informatica sia da quello della telefonia. Fu subito evidente tuttavia, come già accennato, che la modalità telefonica di comunicazione, la quale comportava una connessione permanente tra due punti per tutto il tempo necessario al trasferimento dei dati, sarebbe stata molto antieconomica tenuto conto delle esigenze specifiche della comunicazione tra computer. Per comprendere l’evoluzione delle reti dati commerciali degli anni ‘80-‘90, soprattutto in Europa ed in Italia ove il mondo informatico non era così avanzato come negli Stati Uniti, è utile fare qualche premessa di carattere sia teorico-tecnico che economico-culturale.

Qualche considerazione di carattere tecnico: Telefono o Posta?

Dal punto di vista teorico c’è da dire che, per quanto tutti abbiano subito abbracciato le teorie della trasmissione a pacchetto per ottimizzare l’utilizzo delle linee in presenza di trasmissioni discontinue (in inglese bursty), la diatriba se queste trasmissioni dovessero essere più simili alle telefonate (connection oriented) o agli scambi via posta (connenctionless) si trascinò per lungo tempo. Ancora ai giorni nostri essa non è completamente sedata (anche se a livello pratico IP, il protocollo connectionless su cui si basa Internet, si è ormai definitivamente imposto). Infatti i protocolli connection oriented sarebbero teoricamente migliori proprio per applicazioni quali la visualizzazione di streaming video/audio, la televisione interattiva, il download di grandi masse di dati, applicazioni che hanno visto recentemente una esplosione di utilizzo.

Nelle reti a pacchetto, pur essendo la trasmissione dei dati affidata comunque a pacchetti di byte che attraversano la rete in maniera discontinua, le modalità di indirizzamento e commutazione possono essere molto diverse.

Nel caso di reti connectionless, come quelle basate su protocollo IP, ogni pacchetto dati contiene le informazioni necessarie al suo istradamento (routing), rendendolo indipendente da ogni altro pacchetto, anche da quelli appartenenti alla stessa sessione logica (ad esempio la trasmissione dello stesso file). Nel caso simile alle telefonate, invece, solo per il primo pacchetto da trasmettere i nodi della rete lavorano per trovare l’istradamento corretto sulla base dell’indirizzo destinatario. I pacchetti successivi appartenenti alla stessa connessione logica “seguono la scia” lasciata dal primo pacchetto in rete, rendendo molto più semplici, e quindi più rapide, le operazioni di commutazione nei nodi intermedi.
Senza entrare nel merito tecnico, c’è consenso sul fatto che il primo tipo di trasmissione sia più adatto a comunicazioni dati tra computer, e ad alcuni servizi applicativi tipo posta elettronica o navigazione sul Web, e che il secondo abbia migliori prestazioni per gli scambi di grossi volumi di dati che vanno tutti da un punto ad un altro della rete (es. trasferimento di file molto grandi o trasmissione in tempo reale di audio o video). Quale che sia la risposta teoricamente corretta, ammesso che esista, ai fini di questa breve narrazione vale la pena sottolineare un paio di fatti che spiegano quanto poi è accaduto nel mondo delle reti commerciali:

Qualche considerazione di carattere economico: i circuiti dalle uova d’oro

Uno sguardo alle prime architetture di ARPANET, riportate nelle pagine precedenti, ci suggerisce un’altra considerazione: quelle reti magliate a livello continentale non sono state costruite ad hoc, ma hanno sfruttato una infrastruttura esistente per i link a lunga distanza, mettendo poi i nodi di commutazione (router) nelle sedi, ed a spese degli utilizzatori: i centri di calcolo interconnessi. I collegamenti a lunga distanza in realtà non erano che segmenti di rete telefonica affittati da AT&T, la compagnia telefonica statunitense.

Qui si intravede quello che costituirà per oltre vent’anni il dubbio amletico delle compagnie di telecomunicazioni, anche dette Telco: meglio costruire reti dati o affittare collegamenti diretti?

In fondo, se c’era un mercato per le reti di calcolatori, soprattutto nell’epoca in cui i Personal Computers erano di là da venire, questo poteva solo essere costituito da grandi aziende (o equivalenti quali università o centri di ricerca) che avevano la necessità di interconnettere i propri centri di calcolo. La compagnia telefonica poteva dunque affittare a caro prezzo i collegamenti a lunga distanza (poco interessava se sfruttati in maniera intelligente o meno, anzi…), e lasciare agli utilizzatori gli investimenti ulteriori necessari (concentratori, routers ed apparati terminali).

Per oltre due decadi questo modo di ragionare, per quanto miope, risultò vantaggioso: alle aziende interessava soprattutto avere collegamenti affidabili e fissi tra le varie sedi, piuttosto che interfacciarsi ad una rete dati pubblica che, a fronte di maggiori rischi (ad esempio intercettazione dei dati), non forniva valore aggiunto poiché le comunicazioni dati tra aziende diverse erano ancora in gran parte solo una prospettiva teorica futura. Ancora oggi il mercato delle cosiddette Intranet, le reti che collegano sedi della stessa azienda, è ben consistente e remunerativo se paragonato a quello delle connessioni dati “aperte” verso Internet che consentono, tra l’altro, la comunicazione tra aziende diverse.

Per i Telco perciò la prima parte della storia delle reti dati è anche la storia di questo dilemma: sfruttare la gallina dalle uova d’oro dei collegamenti diretti o offrire una rete pubblica di commutazione dati che con i meccanismi del pacchetto ottimizzasse le trasmissioni, e quindi diminuisse i costi e parallelamente i prezzi verso gli utenti, di fatto uccidendo la gallina? I Telco inizialmente non ebbero dubbi: resistere, resistere, resistere! La diffusione delle reti pubbliche a pacchetto è perciò stata rallentata anche da questo iniziale scarso interesse economico da parte dei gestori delle infrastrutture di telecomunicazione.

X.25 E ITAPAC

Riprendiamo il filo del CCITT, del protocollo OSI X.25 e delle reti pubbliche a pacchetto, ricordando che esse furono concepite nella seconda metà degli anni ’70 e vennero alla luce circa 4-5 anni più tardi. Lo scenario dell’informatica era allora ben diverso da quello attuale, così come la tecnologia e le esigenze da soddisfare nel campo della comunicazione dati.

Mainframes, videoterminali e Personal Computers

Fino ai primi anni ‘80, quando debuttarono sul mercato i Personal Computer di IBM ed Apple insieme ai PC per intrattenimento stile Commodore 64 e Amiga, il mondo dell’informatica era sostanzialmente costituito dai cosiddetti mainframes, macchine che occupavano intere sale calcolo, costruiti dal colosso di Cupertino e da pochi altri, tra cui Digital Equipment Corporation (DEC), HP, Sperry-Univac. Questi cominciarono ad essere affiancati, proprio alla fine degli anni ’70, dai più snelli minicomputer, dalle più modeste dimensioni di un armadietto.

I calcolatori venivano utilizzati da operatori attestati a videoterminali con ridottissima capacità elaborativa, che servivano essenzialmente per l’input dei dati e la visualizzazione dei risultati. I terminali interagivano con i calcolatori attraverso protocolli di comunicazione molto semplici, in generale trasmettendo un carattere verso il computer ogni volta che veniva premuto un tasto sulla tastiera. La stessa apparizione del carattere a video era in realtà il carattere che il calcolatore rimandava verso il terminale, confermando la corretta ricezione del carattere stesso (funzionalità di eco).

I calcolatori potevano comunicare anche tra di loro per condividere file di dati e applicazioni, ma per lo più la comunicazione era ammessa solo tra calcolatori dello stesso costruttore, per incompatibilità dei sistemi operativi, differenti tra le varie marche. Le esigenze di comunicazione erano pertanto due: la connessione tra terminali e calcolatori, e la connessione di calcolatori tra loro. Questo scenario spiega l’architettura delle prime reti a pacchetto X.25 che entrarono in funzione nella prima metà degli anni ‘80, e che vedremo poco più oltre.

La tecnologia: modem telefonici e CDN

Alla fine degli anni ‘70 la tecnologia di trasmissione dati su rete telefonica, consentiva di raggiungere la ragguardevole velocità di 600 bit/s contemporaneamente per ognuno dei due sensi di trasmissione (in gergo, full duplex), un notevole passo avanti se confrontati con i 50 bit/s consentiti dalla rete Telex delle telescriventi!

A proposito di velocità di trasmissione dati su rete telefonica, è opportuno fare una piccola digressione tecnica allo scopo di comprendere l’evoluzione delle reti dati fino ai giorni nostri. Gli esperti mi perdoneranno le necessarie approssimazioni.

La rete telefonica è costituita da una rete di accesso, che include tutti i fili di rame (i cosiddetti doppini) che connettono fisicamente gli apparecchi telefonici alla centrale locale, e da una rete di trasporto che convoglia le telefonate tra le centrali.

La rete è stata studiata per ottimizzare il trasporto delle telefonate, perciò il segnale telefonico che attraverso il filo del telefono arriva alla centrale pressoché immutato, viene “ritagliato” dalla centrale locale (per gli esperti di audio: vengono conservate le frequenze tra 300 e 3400 Hz, le altre vengono scartate) in maniera tale da mantenerlo intelligibile e gradevole ma ottimizzando le risorse trasmissive. Questa ottimizzazione è da intendersi in rapporto alla qualità che ci si aspetta per la voce: se provate ad ascoltare musica classica trasmessa da un telefono capirete che la rete non è ottimizzata per un segnale musicale!

Ne consegue che, mentre la qualità massima ottenibile per una trasmissione sul doppino d’utente varia notevolmente da caso a caso (per esempio in dipendenza della distanza del telefono dalla centrale), la qualità del segnale che viaggia dentro la rete è per tutte le telefonate la stessa, ed è la minima indispensabile, per ragioni di ottimizzazione. Lo avevano ben capito gli inventori della Filodiffusione, un sistema che i più anziani ricorderanno ancora, e che trasmetteva musica a buona fedeltà sul filo del telefono sfruttando appunto il fatto di essere trasmessa non attraverso la rete, ma solo dalla centrale locale agli utenti direttamente attraverso il filo (di qui il suo nome).

Questo spiega la differenza tra le limitazioni cui sono soggetti i modem, che trasmettono dati attraverso la rete telefonica, e le possibilità molto maggiori delle tecniche ADSL, che invece sfruttano tutta la banda messa a disposizione dal filo del telefono, poiché i dati sono intercettati in centrale ed inviati su reti specializzate, anziché transitare nella rete telefonica. Questo spiega anche la limitazione delle velocità dei modem (La velocità massima ottenibile al giorno d’oggi sulle linee telefoniche classiche è di 56 kbit/s in un senso e 48kbit/s nel senso opposto) e l’estensione e variabilità delle velocità ottenibili con le tecniche ADSL (i più fortunati, che vivono vicino alla centrale telefonica, raggiungono velocità molto più elevate di coloro che sono più distanti, e la gamma di velocità ottenibili è amplissima se il collegamento utente-centrale è molto corto).

A questo punto mi si perdonerà un piccolo atto di orgoglio nazionale. Questa caratteristica fu sfruttata, e portò anche a sperimentazioni di successo, nel centro di ricerca dell’allora SIP, sotto il nome di “Filoinformazione”. Si riuscivano a raggiungere, a cavallo tra gli anni ‘70 e ‘80, le folli velocità di 64 kbit/s per utente, a fronte dei citati 600 bit/s ottenibili con un modem. Purtroppo il sistema non vide mai la luce commerciale per mancanza di applicazioni.

Quanto detto per i modem e la comunicazione attraverso la rete telefonica non valeva tuttavia per i collegamenti diretti che si potevano stabilire tra sedi interessate allo scambio dati. Collegare direttamente due punti significava infatti stabilire una connessione fisica tra i due, equivalente a stendere un cavo diretto, e quindi consentiva l’uso di apparati di trasmissione molto più veloci dei modem. Un collegamento diretto tra calcolatori annulla le ragioni della trasmissione a pacchetto, infatti implica l’impegno permanente di tutte le risorse trasmissive anche in assenza di dati da trasmettere.

D’altra parte, finché non si fosse predisposta una rete dati pubblica, questo era l’unico modo di scambiare dati a velocità sostenuta (si parla pur sempre, per l’epoca, di 9600 bit/s al posto dei 600 bit/s consentiti dai collegamenti su rete commutata). Questi collegamenti erano utilizzati perciò sia da aziende che necessitavano il collegamento diretto tra i CED delle proprie sedi, sia dalle università. Chi ne aveva bisogno, insomma, sullo stile di ARPANET si faceva da sé la rete a pacchetto, acquistando in proprio i router ed affittando a caro prezzo circuiti telefonici diretti (in inglese leased lines) dalle compagnie di telecomunicazioni.

Il protocollo X.25

Torniamo ora sul protocollo scelto dal CCITT e quindi dall’industria delle telecomunicazioni per costruire le prime reti pubbliche per dati. Si tratta di un protocollo a pacchetto orientato alla connessione. Quando si stabilisce una connessione virtuale tra due punti (ad esempio per trasferire un file) viene costruito un pacchetto di call request (letteralmente: richiesta di chiamata). Il pacchetto, che contiene gli indirizzi del chiamante e del chiamato insieme ad altre informazioni di servizio, viene instradato dai nodi di commutazione della rete, i quali mantengono memoria del percorso seguito marcandolo in una memoria temporanea.

I pacchetti successivi al primo contengono solo un riferimento alla connessione cui appartengono, e vengono indirizzati dai nodi sulla stessa direttrice da cui è passato il primo pacchetto della connessione. Alla fine viene inviato un pacchetto di chiusura comunicazione (clear) che cancella la memoria della comunicazione nei nodi e libera le risorse per un’altra comunicazione.

Il protocollo è caratterizzato da una notevole robustezza resa possibile dalla correzione degli errori effettuato tratta per tratta, e da una buona resistenza a condizioni di congestione ottenuta mediante un meccanismo di controllo di flusso (rallentamento delle trasmissioni in condizioni di sovraccarico). Il prezzo da pagare per queste qualità intrinseche, necessarie nelle prime reti dati vista la scarsa affidabilità dei collegamenti, era la notevole complicazione del protocollo, che rallentava le operazioni e limitava la portata della rete (throughput) a causa del sovraccarico computazionale imposto ai nodi di commutazione.
Un’altra caratteristica del protocollo era quella di avere pacchetti dati di lunghezza variabile ma limitata a 255 bytes, decisamente ridotti se confrontati con quelli di uso corrente sulle reti IP attuali, ma comunque maggiore dei pacchetti ATM (53 bytes) che incontreremo più in là.

Sia concesso riportare qui una curiosità storica che rischia l’oblio ma che ben rappresenta il modo farraginoso di lavorare dei comitati di standardizzazione. Tali comitati sono consessi tanto politici quanto tecnici, e tendono ad originare specifiche complesse e ridondanti spesso per la necessità di accontentare le disparate esigenze ed opinioni in essi rappresentate. Pochi sanno che il protocollo X.25 prevedeva anche una modalità di lavoro connectionless, un compromesso per non scontentare i sostenitori della superiorità di tale modalità di lavoro. Una opzione chiamata Fast Select consentiva al pacchetto di richiesta chiamata di portare con sé dei dati, trasformandolo così in un datagramma. Questo pacchetto solitario attraversava la rete, contemporaneamente aprendo e chiudendo il circuito virtuale in ogni nodo, e comportandosi perciò come un pacchetto IP. Non risulta a chi scrive che questa opzione (essendo di implementazione facoltativa) sia mai stata realizzata in qualche rete reale. Essa infatti è stata in seguito eliminata dallo standard X.25 nella sua revisione del 1984.

X25 in Italia: la rete ITAPAC

Figura1
Figura 13. La rete ITAPAC.

ITAPAC, la prima rete dati pubblica italiana, apriva ufficialmente il servizio nel 1986. La sua architettura, riportata in figura 13, riflette quanto detto sulle esigenze dell’informatica dell’epoca. Essa prevedeva infatti una zona di accesso costituita dagli ACP (Adattatori Concentratori di Pacchetto), ed una zona centrale di commutazione, costituita dagli NCP (Nodi a Commutazione di Pacchetto).

I terminali remoti si collegavano agli ACP tramite un protocollo asincrono. Il più usato tra essi era chiamato X.28 e consentiva l’invio di un carattere alla volta. L’ACP aveva la possibilità di rispondere con una funzione di eco per simulare il calcolatore centrale. L’ACP in realtà non inviava al calcolatore i singoli caratteri, ma li assemblava in pacchetti e li spediva quando l’utente digitava il Carriage Return (Enter nelle tastiere odierne, Invio in quelle italiane), oppure quando essi raggiungevano il numero massimo consentito per un pacchetto X.25.

L’accesso agli ACP poteva essere sia commutato (cioè via modem a 300-1200 bit/s), che diretto (mediante circuito dedicato, con velocità fino a 9600 bit/s). Gli ACP di accesso si connettevano alla zona di commutazione costituita dagli NCP  mediante collegamenti diretti a 9600 o 64000 bit/s. Gli NCP gestivano ingressi solo in protocollo X.25 da parte degli ACP o direttamente dei mainframes collegati alla rete. I nodi NCP erano (in realtà sono: la rete ITAPAC è ancora viva!) collegati tra loro con link a 64 kbit/s.
A quei tempi lo schema dei prezzi vigenti per le comunicazioni telefoniche era fortemente dipendente da due parametri: la durata della conversazione e la distanza tra i punti collegati. Per questo, la novità forse più eclatante apportata da ITAPAC fu la tariffazione “a peso”, indipendente da durata e distanza, ma dipendente solo dal numero di byte spediti in una comunicazione. È anche curioso notare come tale tariffazione fosse dettagliata: contare i byte in transito era troppo oneroso, ma contare i pacchetti non sembrava sufficiente, si inventò perciò una tariffazione a segmenti: se il pacchetto conteneva un numero inferiore a 128 bytes contava 1 segmento, se era più grosso ne contava due. Per confronto, nelle poche offerte odierne in cui le tariffe sono basate sul volume dei dati trasmessi l’unità di misura minima è il Gigabyte …

ITAPAC dunque fu la prima rete dati pubblica in Italia. Venne adottata da un discreto numero di aziende, soprattutto banche che in questo modo collegarono i loro POS (i Point Of Sale, in pratica i Bancomat) remoti in maniera affidabile e sicura. Per una decina d’anni, fino alla nascita di Interbusiness, ITAPAC rimarrà l’unica vera rete dati commerciale pubblica in Italia, ma la sua longevità può stupire: si pensi che essa è ancora oggi (nel 2010) attiva per un numero esiguo di collegamenti che, per l’impossibilità di cambiare apparati trasmissivi, continuano ad utilizzarla. Lo “spegnimento” di ITAPAC è operazione programmata da lungo tempo, e pare che finalmente entro il 2011 anche questo pezzo di storia delle comunicazioni in Italia verrà messo definitivamente fuori servizio.

Altre reti: BBS e VIDEOTEL

Negli stessi anni in cui in Italia veniva costruita ed aperta al pubblico ITAPAC, cominciarono a diffondersi i primi Personal Computers. Macchine che, nella loro versione di maggiore efficienza computazionale ed utilità tecnica (IBM, Apple) erano riservate ad una ristretta elite, ma che in versioni più domestiche, dedicate all’intrattenimento, ebbero grande diffusione (si pensi al successo mondiale del Commodore 64, ancora oggi vero oggetto di culto).

Sulla scia di quello che avveniva in America, ci si rese conto che queste macchine potevano servire non solo per lavorare o per giocare, ma anche per comunicare. Un modem consentiva di trasformare i primi Personal Computers in terminali remoti di Computer più grandi, i quali ospitavano programmi che oggi si chiamerebbero di social networking, ma che allora più semplicemente si chiamavano Bulletin Board Systems (BBS).

Applicazioni molto semplici di scambio messaggi sia asincroni (e-mail) sia “quasi sincroni”, sullo stile delle successive chat lines, fecero in pochi anni esplodere il fenomeno su scala mondiale, ed anche in Italia intorno alla metà degli anni ‘80 il loro uso cominciò a diffondersi tra i primi appassionati dell’informatica.

Il movimento nacque spontaneamente grazie ad operatori di computer (principalmente del mondo universitario e della ricerca) che mettevano a disposizione il proprio sistema ed il proprio tempo per consentire a chi lo volesse di collegarsi da casa per scambiarsi messaggi e per accedere ad applicazioni sulla rete Internet, che già cominciava a raggiungere dimensioni importanti in America. I gestori di questi sistemi si consorziarono in reti di BBS che ebbero un successo fulminante (la più famosa e longeva, Fidonet, fondata nel giugno 1984, all’inizio del 1985 contava già 160 computer consorziati, ed al suo apice, intorno al 1991, oltre 10000).

Spesso le reti di BBS, come già detto, fungevano anche da ponte verso Internet, che, oltre al servizio di posta elettronica, consentiva l’accesso ad un enorme numero di forum tematici (le Usenet News) e ad applicazioni specifiche, come quella dello IATA (International Air Transport Association) che permetteva, gratuitamente senza aggiunta di pubblicità, di trovare la miglior combinazione di voli (orari e tariffe) su una certa rotta. Chi scrive ha più volte usato, per programmare viaggi di lavoro, quel sistema, e può assicurare che oltre 20 anni più tardi, nonostante il Web, fare la stessa cosa è molto più difficile!

Sicuramente le reti di BBS diedero un impulso formidabile alla “voglia di connessione” delle persone, che si trovarono immerse improvvisamente, grazie a questi sistemi, in un mondo di incredibile ampiezza e ricchezza di relazioni e di informazioni, contribuendo in maniera essenziale allo sviluppo delle reti dati.
Torniamo per un attimo a parlare della rete ITAPAC, con una curiosità che riguarda proprio il suo uso non sempre canonico. I sistemi che ospitavano BBS non erano molti, ed erano naturalmente situati in grandi città o centri universitari; gli stessi sistemi erano inoltre spesso collegati alla rete ITAPAC. Solo i pochi fortunati che abitavano nella città della BBS riuscivano a raggiungere i sistemi BBS via modem al costo di una telefonata locale, chi viveva in provincia doveva invece pagare le salate tariffe di lunga distanza.

In questa occasione ITAPAC giocò un importante ruolo nella diffusione della cultura telematica consumer (cioè domestica, in contrapposizione all’uso aziendale della rete). L’accesso agli ACP via modem era infatti agevolato, dal momento che la connessione via modem era spesso a tariffa locale, essendo gli ACP distribuiti in maniera piuttosto capillare sul territorio nazionale.

Questa agevolazione tariffaria fu un elemento molto importante per la diffusione delle BBS. Ma se la tariffa di accesso, essendo legata alla linea fisica utilizzata, non poteva essere elusa,rimaneva il problema di pagare la tariffa ITAPAC, cosa che i primi hacker non vedevano certo di buon occhio. Per ovviare a questo piccolo inconveniente bisognava procurarsi una password per identificarsi con la rete ITAPAC come cliente autorizzato, ed avere libero accesso alla rete, lasciando l’onere della bolletta al legittimo proprietario della password stessa.

L’uso di parole chiave appartenenti ad aziende o istituzioni era però scomodo (la truffa veniva scoperta abbastanza in fretta e l’accesso disabilitato) e pericoloso, per il rischio di querele. Il metodo più diffuso era perciò l’utilizzo di password “di servizio” degli operatori Telecom o Italcable che spesso partecipavano a fiere e dimostrazioni per diffondere l’uso della rete dati. Le password “prese a prestito” in queste occasioni venivano poi diffuse tra gli hacker che le utilizzavano per i propri scopi.

Stranamente (?) questo tipo di abuso non era perseguito con durezza (le password avrebbero potuto essere facilmente disabilitate). Incontrollate voci di corridoio dicono che Telecom (allora SIP/STET/Italcable) non avesse grande interesse a reprimere questo tipo di truffa, poiché poco dannoso (la rete ITAPAC era comunque piuttosto scarica) e perché pare che chi gestiva a livello commerciale la rete ITAPAC non fosse incentivato in maniera proporzionale ai ricavi generati dalla stessa, ma al traffico che la attraversava (grandezza probabilmente più facile da misurare). Naturalmente chi scrive ritiene questa una fantasiosa leggenda metropolitana destituita di qualsiasi fondamento.

Prima di tornare alle reti dati a pacchetto è opportuno ricordare un sistema anche più importante delle stesse BBS per la crescita della cultura telematica di carattere popolare. Nei tumultuosi e vulcanici (dal nostro punto di vista) anni ‘80 vide la luce infatti un altro standard tecnologico che sfociò, nelle varie declinazioni nazionali, in servizi dal successo variegato. Lo standard internazionale si chiamava Videotex ed era studiato per trasmettere pagine dal contenuto testuale verso gli utilizzatori.

Pensato per servizi stile Web d’antan (accesso a pagine informative) esso ebbe in realtà un successo molto maggiore come sistema di messaggistica interpersonale. Oltre all’importanza sociale, vale la pena ricordare il Videotex per essere stato il primo sistema di comunicazione dati asimmetrico, costituendo così un precedente (una sorta di peccato originale) da cui ancora oggi non riusciamo ad affrancarci (Vedi ADSL, Asymmetric Digital Subscriber Loop/Line). Partendo da un presupposto aprioristico, e cioè che gli utenti avrebbero usato il Videotex per richiedere informazioni, e volendo in periodi di scarsità di banda (ma quando mai è stata abbondante?) ottimizzare la fruizione del servizio, il Videotex si basava su un modem dalle caratteristiche asimmetriche: si sfruttava in pieno il canale di ritorno (downstream) alla folle velocità di 1200 bit/s, lasciando per l’upstream (utilizzato solo per informazioni di servizio) miseri 75 bit/s.

L’esperienza dimostrò presto che in realtà l’utilizzo del sistema aveva un bilanciamento molto maggiore, poiché la comunicazione interpersonale ha caratteristiche più simmetriche che non la richiesta di pagine informative, ma ormai il danno era fatto. Tale danno si sarebbe ripetuto, in proporzioni ancora più gravi, per l’ADSL, pensato inizialmente per trasmettere la televisione sulla linea telefonica… ma questa è storia di almeno dieci anni più tardi.

Da un punto di vista culturale il Videotex è importante anche perché è il primo esempio di sistema di servizi telematici walled garden, vale a dire chiuso verso l’esterno, tentazione ricorrente nel mondo delle Telco perché ritenuto (e possiamo a posteriori ben dire a torto) un sistema con modello di ricavi più semplice, affidabile e redditizio. Proprio per le diverse scelte commerciali effettuate nei vari paesi il Videotex, nonostante fosse basato sulla stessa tecnologia, ebbe esiti di diffusione diversissimi tra loro.

Il maggior successo lo ottenne in Francia, sotto il nome commerciale di Minitel, dove ancora oggi è utilizzato da un numero consistente di utenti. In Francia il terminale (vedi figura 14) per l’utilizzo del servizio, essendo sovvenzionato dallo stato era gratuito, mentre i costi di accesso erano piuttosto limitati e tariffati direttamente sulla bolletta telefonica. Buon successo il sistema ebbe anche in Gran Bretagna (Prestel) ed in Germania (Bildschirmtext).

Figura2

Figura 14. Terminale per l’utilizzo del servizio Minitel.

In Italia, dove fu lanciato nel 1985 col nome di Videotel, il servizio stentò a raggiungere un numero importante di utenti, probabilmente per il costo del terminale (affittato a 7000 lire al bimestre, quando il canone ne costava 11240!) e per le numerose truffe che coinvolsero i fornitori di informazione, che gonfiavano artificiosamente i consumi per aumentare i propri introiti. In Italia il Videotel non durò più di una decina d’anni.

Le reti Frame Relay

Torniamo alle reti pubbliche per dati a pacchetto. Naturalmente, una volta messe in funzione reti che seguivano gli standard X.25, ci si rese conto dei loro problemi, essenzialmente di due tipi:

La soluzione di entrambi i problemi comportava una drastica semplificazione delle operazioni a carico della rete. Sulla base di queste considerazioni, sul finire degli anni ’80 venne definito un protocollo di commutazione di pacchetto che prendeva le mosse dall’X.25, semplificandolo molto col fine di renderlo più snello e veloce. Si cominciò a parlare di Fast Packet Switching, ed il protocollo che emerse in ambito CCITT prese il nome di Frame Relay (F.R.).

Il Frame Relay delega il controllo di flusso ai punti terminali di una connessione virtuale, realizza solo la rivelazione degli errori ma non la loro correzione (quando rileva un pacchetto corrotto lo scarta), non numera i pacchetti e quindi non si preoccupa della loro consegna ordinata né della loro perdita eventuale. Tutte queste operazioni vengono svolte dai punti terminali della connessione o, come si dice in gergo OSI, ad un livello di protocollo superiore. Secondo il modello OSI, infatti, le reti Frame Relay sono reti di livello 2 poiché non si occupano dell’istradamento (routing) dei pacchetti: la rete non deve occuparsi di trovare la strada ad ogni pacchetto verso la sua destinazione in quanto le rotte sono predefinite.

Inoltre, considerando la notevole mole di lavoro necessaria alla gestione di tanti pacchetti piccoli, Frame Relay prevede la possibilità di trattare pacchetti di dimensioni maggiori (fino a 8192 bytes). Con così poche cose da fare la rete può permettersi di essere molto veloce (i ritardi di propagazione end-to-end si mantengono dell’ordine delle decine di millisecondi) e di trattare moltissimi pacchetti, tra l’altro di dimensione maggiore (aumentando così il throughput).

Un ultimo (non per importanza) commento sulle reti Frame Relay: esse consentivano la garanzia di banda da punto a punto. Questo aspetto è stato e continua ad essere cruciale per fornire servizi ad aziende che, in condizioni di scarsità di banda, non possono affidarsi ad un protocollo che non gestisce la qualità del servizio.

Il protocollo IP è spesso classificato come best effort: la rete fa tutto il possibile per garantire la consegna dei pacchetti, ma in condizioni di congestione non è in grado di gestire priorità o garanzie verso nessuno, e tratta tutti i pacchetti allo stesso modo. Le reti Frame Relay (e successivamente quelle ATM) fanno di questa gestione un punto di forza: esse forniscono una banda minima garantita (il CIR, Committed Information Rate), consentendo di avere la certezza che il servizio non scenderà mai sotto una soglia definita contrattualmente, ma danno la possibilità di avere a disposizione una banda maggiore quando il carico della rete lo consente. Questa è sicuramente una caratteristica molto apprezzata dalle aziende che basano il proprio business anche sul buon funzionamento della rete dati.

Il protocollo Frame Relay fu il primo raffinamento dell’X.25 offerto dai gestori di telecomunicazione nelle loro reti. Mentre quelle X.25 non ebbero mai un successo commerciale di rilievo, risultando probabilmente in un investimento non produttivo da parte dei Telco, il Frame Relay effettivamente dava un servizio all’altezza delle aspettative e, proprio grazie alle sue caratteristiche di banda elevata e ritardi di pacchetto ridotti, fu molto apprezzato dal mercato ed ebbe un buon successo commerciale.
Gli accessi alla rete ad alta velocità (da 64 kbit/s a 2 Mbit/s) ed i limitati ritardi da punto a punto consentirono tra l’altro alle aziende di usare i collegamenti Frame Relay in un modo che inizialmente non era stato previsto dai Telco: trasportare, oltre ai dati, anche la voce!

Alcuni esperimenti effettuati su X.25 per trasportare la voce a pacchetto si erano rivelati deludenti proprio per le caratteristiche di queste reti. Si era però visto che, contenendo il ritardo ed aumentando la velocità delle reti, la voce avrebbe potuto ben presto viaggiare all’interno dei pacchetti dati. Si può ben immaginare che una tale fuga in avanti (!) non fosse ben vista dai gestori di telecomunicazione, che fondavano ancora sul trasporto della voce la parte di gran lunga più rilevante del loro business.

Ancora una volta messi di fronte al dilemma della cannibalizzazione di servizi più lucrosi i Telco non poterono tuttavia fermare l’affinamento delle tecnologie. Con la possibilità di inviare le telefonate sulle reti dati, fu ben presto possibile per le aziende costruire reti private virtuali che trasportavano tutto il traffico intra-aziendale, sia dati che voce, sulle reti dati commerciali, consentendo di contenere i costi. I bit della voce venivano così infatti fatti pagare alla stessa tariffa di quelli dati, con una notevole economia.

Frame Relay in Italia: la rete CLAN

Il servizio Frame Relay venne introdotto come offerta commerciale da Telecom Italia nel 1992. La rete, denominata CLAN (Connection of Local Area Networks) forniva circuiti privati virtuali per connettere, come la sigla suggerisce, reti locali tra di loro. Spesso gli apparati interconnessi usavano TCP/IP come protocolli di livello superiore. Gli accessi potevano variare da una velocità di 64 kbit/s a 2 Mbit/s. Il servizio ebbe un buon successo commerciale e fu, come si vedrà più avanti, la base su cui venne costruita l’infrastruttura di Interbusiness.

La rete CLAN riflette perfettamente ciò che Telecom (allora SIP) pensava di Internet a quel tempo (e per molto tempo ancora): essa era vista come un fenomeno passeggero, che sarebbe stato sopraffatto dall’avvento delle reti basate su protocolli standard OSI. TCP/IP era considerato un protocollo con qualche successo in ambito aziendale, ma non meritevole di investimenti specifici in rete. Veniva perciò offerto alle aziende un modo per interconnettere le loro LAN basate su questi protocolli, senza mettere in rete apparati (router) basati sui protocolli Internet. Telecom perseguiva ancora la sua “filosofia” dei CDN.

Da ISDN e Frame Relay a B-ISDN e ATM: un cenno veloce

Per comprendere la successiva evoluzione delle reti dati occorre fare un passo indietro ed un excursus veloce sul parallelo evolversi della rete telefonica. I destini dei due tipi di reti sono stati infatti legati indissolubilmente, ed ancora lo sono, fino a quando in un futuro non lontano non saranno definitivamente più distinguibili.

I vantaggi della trasmissione digitale rispetto a quella analogica sono stati ben compresi da lungo tempo. Quando si cominciava a parlare di trasmissione dati, l’opera di digitalizzazione della rete telefonica perciò era già iniziata. Coinvolgendo inizialmente i collegamenti a lunga distanza, che convogliavano decine di migliaia di conversazioni telefoniche, e diffondendosi poi verso la periferia della rete, la modulazione analogica cedette pian piano il passo a quella numerica, a partire dai primi anni ‘70.
La digitalizzazione della parte trasmissiva della rete fu solo il primo passo di un processo che, vista l’evoluzione tumultuosa delle tecniche di elaborazione digitale, doveva pian piano coinvolgere anche gli altri aspetti della rete, a cominciare dalla commutazione. L’idea di cambiare la tecnica telefonica classica delle centrali elettromeccaniche, mettendo al loro posto dei veri e propri computer (commutazione numerica), fu teorizzata e sperimentata durante gli anni ‘70 e codificata e standardizzata nelle raccomandazioni della serie I del CCITT nel 1984, l’anno della nascita della Integrated Services Digital Network, ISDN. La rete ISDN si proponeva già a quell’epoca di riunire voce e dati, trasmettendoli e trattandoli con le stesse tecniche.

Fiumi di danaro sono stati spesi, e fiumi di inchiostro sono stati scritti, per cercare di costruire il successo delle reti ISDN. Certamente, per quanto esse rappresentassero un passo in avanti notevole sulla via della convergenza voce/dati, non ebbero mai (in generale) quel successo commerciale che i Telcos avevano preconizzato ed avrebbero desiderato. Una ruolo non indifferente per lo scarso successo della rete digitale integrata fu giocato anche dai progressi delle tecniche trasmissive dei modem, che riuscirono rapidamente a raggiungere velocità paragonabili a quelle ISDN (48/64 kbit/s). Questa ed altre evenienze fecero sì che con poche eccezioni (ad esempio la Germania, dove gli investimenti statali furono più ingenti che altrove) le reti ISDN si affiancarono, a cavallo degli anni ‘90, alla rete telefonica generale (RTG) senza mai prendere veramente il sopravvento, anzi restando in molti casi una parte molto minoritaria della rete di telecomunicazioni.

L’idea di continuare a giocare un ruolo di guida dell’evoluzione delle reti dati era però ben solida nelle teste degli ingegneri telecomunicazionisti di tutto il mondo, che, incuranti dell’incertezza sul successo della ISDN, e prima ancora che questa desse i suoi frutti commerciali, nel 1988 si misero a ragionare sulla rete definitiva del futuro: una super-ISDN che senza grande fantasia battezzarono B-ISDN (dove B sta per broadband, a larga banda).

Qui ci ricolleghiamo alla storia precedente. I protocolli scelti per la realizzazione della profetizzata B-ISDN sono infatti i figli del Frame Relay (e pertanto nipoti dell’X.25): una esasperazione della commutazione veloce di pacchetto con paradigma connection-oriented: L’ATM (Asynchronous Transfer Mode). Secondo alcuni il protocollo più intelligente e dalle prestazioni più elevate mai concepito, secondo altri il più grande spreco di energie e investimenti fatto dai Telco nella loro storia. Probabilmente, come al solito, la verità sta magari non proprio nel mezzo ma sicuramente tra i due estremi …

Torneremo su questo tema, ma intanto vediamo cosa succedeva nel frattempo nell’universo parallelo (quello di Internet).

Intanto Internet …

La nascita delle reti X.25 era avvenuta quando ormai i protocolli Internet si erano assestati sia a livello di commutazione con l’adozione del protocollo IP versione 4, che a livello di servizi per gli utilizzatori. La posta elettronica basata su SMTP (Simple Mail Transfer Protocol), lo scambio di file attraverso il protocollo FTP (File Transfer Protocol), i forum di discussione di Usenet basati su NNTP (Network News Transfer Protocol), l’accesso remoto in emulazione di terminale a computer via Telnet consentivano agli utenti di Internet di usare la rete per fare cose utili in maniera semplice.

Nel mondo CCITT ed ISO invece la standardizzazione dei protocolli di posta elettronica, di trasferimento files, di accesso a servizi di Directory si trascinava lentamente e, una volta definiti e ratificati gli standard, non c’era chi li realizzasse vista la difficoltà di scrivere il software relativo e l’incertezza commerciale di riuscire poi a venderlo.

Al contrario, i protocolli e servizi su cui si basava Internet erano realizzati dalla comunità accademica delle università americane, basandosi su documenti in continua evoluzione (gli RFC, Request For Comments, gli standard-non-standard della comunità Internet). La loro realizzazione era attuata usando il metodo trial and error che consentiva un rilascio in tempi brevi dei pacchetti software (anche se non completamente messi a punto) demandando poi il raffinamento degli stessi a rilasci successivi. Inoltre, fatto di non poco conto, questi programmi erano distribuiti gratuitamente su Internet stessa, che agiva così come strumento di autopromozione.

Lo stesso software di base che realizzava l’interconnessione tramite Internet, la pila (stack) TCP/IP (Transmission Control Protocol / Internet Protocol) era distribuito gratuitamente insieme al sistema operativo Unix, che conquistava lentamente posizioni sul mercato anche grazie alla capacità innata di potersi connettere in rete (oggi sembra naturale avere il software di comunicazione compreso nel sistema operativo, allora non lo era!).

Negli anni ’80 la presenza di Internet sul territorio americano si consolida, e la rete, che ospitava inizialmente i computer del mondo accademico ed era perciò pagata da sovvenzioni statali, cominciò a trasportare anche traffico commerciale pagante. Le aziende, avendo bisogno di interconnettere i loro computer e non potendo o non volendo aspettare le reti standard X.25, usavano ciò che era attivo e sembrava funzionare bene. Nasce in quegli anni anche il mercato dei router, i nodi di commutazione di Internet, e con il mercato nascono aziende che diventeranno i giganti delle telecomunicazioni degli anni 2000, prima fra tutte Cisco Systems, fondata nel 1984.

TCP/IP – OSI: lo scontro finale

Nei due-tre anni a cavallo tra gli ‘80 e i ‘90 la situazione era paradossale.
Tutti i principali attori in gioco nell’arena delle comunicazioni dati (grandi aziende informatiche, il mondo delle Telecomunicazioni, ma anche i maggiori potenziali utenti: le pubbliche amministrazioni e molte grandissime aziende) facevano ferme dichiarazioni di principio di adesione agli standard ufficiali di comunicazione aperta dell’OSI.

Per quanto strano possa sembrare a posteriori, proprio il Governo degli Stati Uniti, che aveva finanziato pesantemente la nascita e la crescita di Internet, nel 1990 sposò (almeno in teoria) la causa OSI, emettendo il Government Open Systems Interconnection Profile (GOSIP), una raccomandazione rivolta a tutte le pubbliche amministrazioni che imponeva di usare, per l’interconnessione dei sistemi informatici, reti X.25 ed applicazioni OSI. A ruota seguì la Comunità Europea che, sulla scia di quanto fatto in America, nel 1993 stilò un documento similare chiamato EPHOS (European Procurement Handbook for Open Systems).

In realtà le reti X.25 vedevano scarso traffico, le applicazioni di posta elettronica, di trasferimento files aderenti agli standard OSI avevano rarissime realizzazioni software, molto costose e che spesso non parlavano tra di loro (ebbene sì, gli standard erano troppo complessi e ridondanti, e questo era il paradossale risultato: i sistemi teoricamente aperti dell’acronimo OSI risultavano in realtà chiusi!). Il mondo OSI, insomma, muoveva i suoi primi passi zoppicando vistosamente.

Il dilemma OSI contro TCP-IP (o Internet contro X.25) era ampliato dalla esistenza, in America, di una vastissima rete che funzionava perfettamente basandosi sulla pila di protocolli TCP/IP e, sebbene lo stato spronasse anche le aziende ad adottare le reti OSI ad essa alternative, chi doveva investire somme ingenti di danaro per effettuare il cambiamento preferiva seguire, col pragmatismo tipicamente americano, il detto “If it ain’t broke, don’t fix it” e continuò ad usare Internet finché questa funzionava.

Il problema venne definitivamente seppellito 5 anni più tardi quando nel 1995 l’amministrazione Clinton emise la seconda edizione del GOSIP in cui si consentiva l’uso degli standard OSI ma anche di quelli IETF (Internet Engineering Task Force, l’organismo che emette e manutiene gli RFC), “sdoganando” per la prima volta in maniera ufficiale Internet, i suoi protocolli ed i suoi servizi. Muoiono virtualmente in quel momento il modello OSI, le applicazioni e le reti su di esso basate.

Insieme a questa apertura, che di fatto diede impulso fondamentale alla diffusione nel mondo di Internet (e della tecnologia americana che vi stava alla base), il governo U.S.A. fece però un atto di coraggio apparentemente di segno opposto, visto allora da molti dei detrattori di Internet come il suo possibile affossamento.

A fine Aprile 1995 venne definitivamente chiusa NSFNet, la rete della National Science Foundation che aveva funzionato fino ad allora da backbone (spina dorsale) di Internet in America. Si dicono in gergo reti backbone (o reti di transito) le super-reti che agiscono da infrastruttura principale che interconnette altre reti di rango inferiore tra di loro. La chiusura di NSFNet decretava la fine alle sovvenzioni statali U.S.A verso Internet, sovvenzioni che, a detta di molti (soprattutto nel mondo Telco), costituivano un supporto essenziale per la sopravvivenza della rete. Quanto questi “esperti” delle reti dati abbiano avuto ragione è stato dimostrato dalla storia degli anni seguenti.

Ancora una premessa di carattere culturale, utile a comprendere l’avversione delle compagnie di Telecomunicazione verso Internet che ne ha frenato per qualche tempo la diffusione, prima di proseguire. Uno dei patrimoni immateriali più importanti posseduto dal mondo Telco era il controllo della numerazione. Nessuno in quell’ambiente poteva neanche ipotizzare che l’individuazione del punto di connessione di una qualsiasi rete fosse diverso da un numero telefonico (o qualcosa da esso derivato).

L’indirizzamento telefonico, basato su criteri di suddivisione geografico/amministrativa dei numeri, era ritenuto senza dubbio il più adatto dal punto di vista tecnico per fornire informazioni sull’instradamento delle chiamate o dei pacchetti dati. Cosa altrettanto importante, era ed è gestito al livello mondiale da un’assemblea di enti (allora CCITT, oggi chiamata ITU International Telecommunications Union) che rappresentano in una specie di democrazia tecnologica tutti gli interessi legati al mondo delle telecomunicazioni.

L’equivalente dei numeri telefonici in Internet sono gli indirizzi IP, ma la loro gestione era ed è radicalmente diversa proprio nei due punti sopra esposti. Gli indirizzi IP infatti non hanno nessuna connotazione geografica nè amministrativa, inoltre venivano gestiti da un ente statunitense emanazione del mondo accademico, lo IANA (Internet Assigned Numbers Authority). CCITT prima ed ITU poi hanno proseguito parallelamente a sviluppare un proprio schema di numerazione (evoluzione dei numeri telefonici) valido sia per reti telefoniche che dati, chiamato E.164.

Oggi anche gli indirizzi di Internet vengono gestiti a livello mondiale da una associazione tra tutti i diversi interessati al mondo delle reti, chiamata ICANN (Internet Corporation for Assigned Names and Numbers), costituito formalmente come ente internazionale no-profit solo nel 1998. Pur essendo ICANN formalmente indipendente e sovranazionale, l’influenza esercitata su di essa dall’amministrazione Statunitense è indubbiamente elevata, ma finora questo non ha portato scompensi di sorta all’operatività della rete.

Internet in Italia: la nascita degli ISP

L’argomento delle reti universitarie è trattato più ampiamente in un’altra sezione, si vuol solo qui ricordare che anche in Italia, come in altri paesi europei, l’ingresso di Internet fu opera dei centri di calcolo delle università.

Il primo dominio Internet italiano, cnr.it fu assegnato al Consiglio Nazionale delle Ricerche nel 1986. Il CNR avrebbe avuto in seguito per molti anni un ruolo fondamentale di amministrazione di Internet in Italia, gestendo la distribuzione dei nomi del dominio .IT . Nel 1989 nasce la rete GARR (Gruppo di Armonizzazione delle Reti della Ricerca) tra le università italiane. Sebbene sulla rete GARR fossero usati anche altri protocolli, l’IP prese rapidamente il sopravvento e già nel 1990 esso era il più usato su questa rete.

Nei primi anni ‘90 anche diverse aziende sono collegate con gli Stati Uniti ed Internet attraverso IUNet, una rete commerciale che offriva supporto ad aziende ed enti no-profit che necessitavano di connettività IP aperta verso l’esterno.

Negli anni seguenti il mercato dell’interconnessione ad Internet crebbe rapidamente. All’epoca però pochissimi erano i clienti che si collegavano via modem ad IUnet (forse l’unica rete che offriva questo tipo di accesso) per entrare in Internet. Due degli eventi più importanti per lo sviluppo dell’accesso ad Internet da parte dei privati si verificarono quasi contemporaneamente:

Proprio in quell’anno infatti nacque Video On Line (VOL), la prima rete di dimensioni nazionali pensata esplicitamente per l’accesso ad Internet degli utenti domestici. Con VOL il termine di Internet Service Provider (ISP) diventò di uso comune ed Internet conquistò la ribalta della stampa non specializzata. Il primo ISP italiano fece molto parlare di sé per le iniziative all’epoca inusuali (l’accesso ad Internet era offerto gratuitamente, anche se per avere il servizio gratuito gli utenti dovevano fornire molti dati personali, cosa che venne fortemente criticata). La forte spinta di marketing (i CD per l’accesso alla rete erano allegati a riviste e periodici a fumetti) e la gratuità del servizio fecero in breve di Video On Line il più grande ISP italiano, con oltre 15000 utenti nel 1995. La sua storia fu molto brillante ma anche molto breve, come vedremo sotto.

Altro importante ISP nato in quegli anni (1994) fu Italia On Line (la fantasia nei nomi commerciali non abbondava), che a differenza della precedente era destinata a vita più lunga.

Nel 1996 anche Telecom Italia entrò in punta di piedi nel mercato degli ISP con Telecom Online (l’originalità del nome stavolta è evidente!). TOL inizialmente occupò una nicchia tecnologica, l’accesso era infatti offerto solo agli utenti ISDN, una porzione nettamente minoritaria degli utenti telefonici. Il servizio ebbe un discreto successo, anche per la velocità di accesso a 64 o 128 kbit/s, ben superiore a quella ottenibile con i modem per la normale rete commutata allora disponibili.

Tornando per un attimo a Video On Line, fu presto chiaro che lo spregiudicato modello commerciale adottato dall’ISP non poteva reggersi a lungo. L’infrastruttura di VOL era infatti basata sui circuiti Telecom che, come detto in precedenza, non erano certamente gratuiti. Nella impossibilità di garantirsi sufficienti ricavi per coprire le spese, VOL vendette la sua infrastruttura a Telecom Italia nel 1996. L’offerta VOL venne allora accorpata con quella di Telecom Online creando Telecom Italia Net (TIN).

A parte i colossi di cui sopra, in quegli anni fiorì una serie di ISP locali, piccoli e piccolissimi, che oltre all’accesso ad Internet alla clientela domestica cominciarono a fornire servizi alle aziende (consulenza telematica, scrittura e hosting di siti Web…) creando un nuovo importante mercato per l’economia nazionale.

ATM e IP: ATMOSFERA E INTERBUSINESS

Riassumendo, gli anni ‘80 hanno visto la nascita e l’infanzia delle reti dati, un periodo preparatorio fatto di sperimentazioni ma anche di grandi realizzazioni come le reti X.25 in Europa e la rete IP in America. L’evoluzione tecnologica è stata tumultuosa, sviluppandosi su due filosofie portanti che abbiamo visto delinearsi nei capitoli precedenti.

Da un lato, il mondo giovane ma ormai adulto dell’informatica sponsorizzava apertamente il paradigma di una rete estremamente semplice, senza preoccupazioni di garanzie di banda o di servizio. Le basi teoriche che stanno dietro questo approccio dicono che le esigenze di banda non si soddisfano distribuendola in maniera controllata, ma facendo crescere a dismisura la capacità trasmissiva (lo stesso approccio di origine informatico, si noti, sta dietro alla crescita delle memorie di archiviazione sui PC!). Quanto alle garanzie di servizio, si preferisce far affidamento sulle funzionalità offerte ai bordi della rete piuttosto che su quelle offerte da chi vende l’accesso alla rete stessa. Il protocollo IP è sufficientemente buono per queste esigenze.

Dall’altro, il mondo ben più maturo, (qualche maligno direbbe con i primi sintomi di senescenza) delle Telecomunicazioni doveva invece far profitto dalla vendita degli accessi alle reti facendo leva su servizi di pregio da fatturare al di sopra della pura connettività. I Telco perciò puntavano sulle esigenze di chi teoricamente non poteva permettersi un servizio dati best effort (banche, grandi aziende che basano il proprio business anche su una buona connettività dati). Per queste esigenze IP non bastava, ed infatti la ricerca e la realizzazione di reti basate su protocolli più sofisticati, che consentivano l’offerta di un servizio di rete più pregiato proseguì, e dall’X.25 nacquero prima il Frame Relay e poi l’ATM.

Gli anni ‘90 vedono poi il dispiegamento reale, in proporzioni significative, di tutta la tecnologia maturata sui due filoni: da un lato router IP sempre più veloci e capaci di “macinare” quantità impressionanti di pacchetti, dall’altro i commutatori (switch) ATM riescono già a trasportare in maniera impeccabile sia i dati generati dai primi utenti Web sia la telefonia e servizi video in tempo reale (cosa che ad onor del vero IP riuscirà a fare solo molto più tardi), gestendo la banda in maniera puntuale ed offrendo garanzie di servizio.

Come fatto per gli altri protocolli, vediamo rapidamente di che cosa parliamo quando diciamo ATM.

L’Asynchronous Transfer Mode (ATM) in pillole

ATM è un protocollo a pacchetto, è connection oriented ed ha pacchetti di lunghezza fissa e di dimensione molto limitata (53 bytes). La caratteristica di essere orientato alla connessione è legata alla possibilità, in questo modo, di gestire accuratamente la banda assegnata ad ogni connessione. Vediamo perché.

Quando la connessione viene stabilita, e fino alla sua chiusura, i commutatori della rete le riservano risorse specifiche per poter gestire le sue esigenze. Una connessione video, ad esempio, ha bisogno di 1,5 Mbit/s con continuità, e di ritardi molto piccoli dei pacchetti. Nel caso non si riesca a garantire queste caratteristiche, la qualità video finale sarà inaccettabile. Se una delle macchine di rete attraversate dalla richiesta di trasmissione video scopre di non avere sufficienti risorse per trasportarla, la connessione verrà rifiutata. I nodi IP invece non sono in grado di rifiutare pacchetti, ma li devono gestire tutti, facendo del loro meglio (best effort, appunto…). Le reti IP svilupperanno solo molto più tardi (anni 2000) tecniche specifiche per far fronte a questo tipo di esigenze.

Per quanto riguarda i pacchetti di lunghezza fissa, questi sono gestibili dalle macchine di commutazione in maniera molto più snella e veloce poiché consentono una gestione semplice della memoria dinamica. Sulla lunghezza (o meglio, sulla cortezza dei singoli pacchetti) molto si è detto a suo tempo, sia sul serio che sul faceto. Il numero magico di 48+5 byte era il risultato di una mediazione in sede di comitati di standardizzazione: per poter trasportare agevolmente e con ritardi minimi trasmissioni sincrone come la voce era infatti necessario usare pacchetti molto brevi, tra i 32 e i 64 byte di lunghezza, ed il 48 sembrava una buona realizzazione del famoso detto sulla posizione mediana delle virtù. La decisione diede in seguito origine a sfottò da parte dei teorici della parte avversa, che alle riunioni della IETF indossavano magliette marcate “53 byte? No, grazie”.

Nella figura 15 sono rappresentati a sinistra la struttura di un pacchetto ATM, in gergo “cell” mentre a destra viene mostrato come un canale che trasporta celle ATM sia suddiviso in Virtual Paths (VP) e Virtual Circuits (VC). Per comprendere il significato, si pensi ad un’azienda che voglia costruire una rete tra sedi remote. Essa avrà bisogno dell’equivalente di quelli che pochi anni prima sarebbero stati dei circuiti diretti tra le sedi principali, che trasporteranno molto traffico (incluso quello telefonico). L’equivalente di questi collegamenti sono i Virtual Paths, per i quali l’azienda può negoziare con il Network Provider una banda garantita, in modo da assicurarsi una buona qualità di servizio anche nei momenti di punta del traffico. All’interno di questi VP vengono poi stabiliti i singoli VC per le singole comunicazioni, che a loro volta possono richiedere o meno garanzie di servizio quali banda minima garantita o banda costante.

Le reti ATM, nate per trasportare anche comunicazioni che hanno bisogno di banda garantita, offrono una serie di servizi che sono acquistabili per contratto o su richiesta per singola connessione, a seconda del bisogno. Per dare un’idea della varietà dei servizi di trasporto dati, le reti ATM possono offrire cinque diverse classi di servizio: Constant Bit Rate (CBR), Variable Bit Rate Real Time (VBR-RT), Variable Bit Rate Non Real Time (VBR-NRT), Available Bit Rate (ABR) ed infine Unspecified Bit Rate (UBR). Senza entrare nei dettagli del significato di ognuna delle classi di servizio, sia sufficiente citare il fatto che quella di minor pregio (e quindi anche la più economica), l’UBR, era ed è quella in generale utilizzata per trasportare il traffico IP, cioè la quasi totalità dei pacchetti che transitano nella rete …

Figura3

Figura 15. Il protocollo ATM.

ATM in Italia: la rete ATMOSFERA

L’entusiasmo per la nuova tecnologia ATM coinvolse gli operatori Europei, che nel 1994 si consorziarono per mettere in piedi una rete di prova: la “European ATM Pilot Network” che connetteva con la nuova tecnica quattro nazioni (Francia, Germania, Svizzera ed Italia). Telecom Italia partecipò con tre nodi di commutazione ATM di due diversi costruttori, con un nodo a Milano, uno a Roma ed un terzo ad Acilia. È vero che tre nodi possono sembrare pochi per chiamarla una rete, ma come vedremo più oltre per l’IP, quando si vuole sperimentare una soluzione tecnologica nuova non si può esagerare …

L’esperimento ATM italiano proseguì per tutto il 1995. A dicembre di quell’anno vennero acquistate ed installate le vere centrali di commutazione ATM e la rete avviò il servizio nei primi mesi dell’anno successivo, con il nome commerciale di ATMOSFERA.

ATMOSFERA attrasse diversi clienti nella fascia alta del settore business (banche, assicurazioni, grandi aziende manifatturiere) proprio per la possibilità di ottenere garanzie di banda. Quasi sempre, comunque, il protocollo trasportato era già allora IP, dando luogo ad una stortura destinata a durare oltre quindici anni. L’ATM infatti era pensato per consentire applicazioni end-to-end tra terminali in grado di “parlare” ATM, e quindi per trasportare solo se stesso e non il protocollo IP!

Il mondo Telco si diede molto da fare per sponsorizzare la nascita di apparati in grado di trattare nativamente l’ATM, in modo da favorire la nascita della Broadband-ISDN, ma senza successo. Le schede ATM per computer esistevano, ma erano molto costose, così come il software per poterle pilotare (si ricordi la vicenda X.25… evidentemente gli errori non insegnano). Nel frattempo, invece, il software TCP/IP aveva già sfondato nel mondo Unix e Windows, divenendo disponibile gratuitamente a chiunque avesse a disposizione uno dei due sistemi operativi.

A quel tempo (1995-96) si favoleggiava addirittura di portare l’ATM su ogni singolo PC, per gestire direttamente comunicazioni sincrone (ad esempio chiamate video ed audio), ma questo evento si rivelò ben presto solo una chimera. Oggi sembra naturale avere un PC con un attacco di rete Ethernet disponibile dalla fabbrica, ma allora le schede bisognava acquistarle e montarle, e perché non pensare di comprare una scheda ATM invece di una Ethernet? Il fatto è che, mentre le schede ATM erano di là da venire, quelle Ethernet cominciavano ad essere disponibili a prezzi relativamente modesti (intorno ai 50 $), ed i PC, oltre ad avere il software TCP/IP nativo cominciarono di lì a breve ad essere equipaggiati nativamente anche di una scheda di rete Ethernet.

Dopo pochi anni fu chiaro che ATM era destinato a rimanere un prodotto di fascia molto alta, adatto all’interconnessione di grandi aziende ed a costituire un solido backbone per le reti IP, ma che non sarebbe mai atterrato sulle apparecchiature di fascia consumer, così come il sogno della B-ISDN avrebbe voluto.

ATM e/o IP

Si è parlato prima di stortura citando il fatto che il protocollo IP viaggiava sopra le reti ATM, vediamo brevemente perché. Dal punto di vista teorico i due protocolli adempiono agli stessi compiti, tra cui quello principale è di fare in modo che i pacchetti raggiungano la corretta destinazione quando attraversano la rete. L’indirizzamento, con l’identificazione dei punti finali (endpoints) delle comunicazioni è una funzione fondamentale per entrambi, ma gli indirizzi IP sono diversi da quelli ATM.

Un pacchetto IP che viene trasportato in celle ATM perciò viene instradato due volte, dai router IP e dai nodi ATM, con evidente spreco di risorse. Lo spreco non è solo quello di potenza elaborativa sulle apparecchiature di commutazione dei due differenti livelli di rete, vi è infatti uno spreco (in inglese overhead) di banda, dovuto al fatto che sia IP che ATM aggiungono byte di controllo ai byte che effettivamente devono essere trasportati, e che gli inglesi pragmaticamente chiamano il carico pagante (payload). Tenendo conto che ogni cella ATM inserisce, come abbiamo visto, 5 byte di controllo su 53, questa aggiunta comporta una maggior richiesta di banda di almeno il 10% rispetto a trasmettere solo i pacchetti IP.

Ci sono anche altri inconvenienti che sarebbe tedioso elencare, ma già nel 1996 era sufficientemente chiaro quello che stava succedendo: i Telco avevano tutte le informazioni per fare una scelta precisa ed a prova di futuro ma non la fecero, preferendo imitare animali che usano nascondere la testa sotto la sabbia per non vedere i problemi ed in questo modo cercare di scongiurarli (anche se raramente la tecnica si rivela efficace). Una notizia per i curiosi e gli appassionati archeologhi delle reti nell’ottobre 1996 si tenne a Torino, nel centro di ricerca Telecom Italia, un dibattito interno, molto partecipato anche a livello emozionale, titolato “ATM versus IP: Alternativa o Integrazione?”. Di questo evento è reperibile ampia documentazione che bene illustra le tensioni di quegli anni.

Naturalmente all’interno di Telecom Italia vinse l’approccio tradizionale, e nelle sue reti il protocollo IP subì l’abbraccio delle celle ATM. Le conseguenze di questa scelta trascinano i loro effetti fino ai giorni nostri, e nonostante i costruttori abbiano annunciato nel 2009 (!) la cessazione della produzione di apparati ATM, ancora nel 2010 gran parte della rete metro di Telecom Italia (quella compresa tra la rete di accesso dei DSLAM e la rete backbone ormai totalmente IP-izzata) è realizzata con questa tecnica. Si può ben dire perciò che gran parte del traffico IP in Italia è ancora oggi trasportato su rete ATM!

Vendita IP all’ingrosso: la rete Interbusiness

Un piccolo passo indietro: nonostante nel 1994 il pensiero dominante in Telecom Italia fosse radicalmente contrario al ritenere Internet una rete degna di qualche attenzione, l’evidenza della sempre maggiore diffusione del TCP/IP come protocollo di interesse per le aziende non poteva essere negata. Quando fu chiaro che gli accessi IP erano richiesti non solo per costruire reti private virtuali all’interno delle aziende (per questa esigenza, ricordiamo, l’offerta Frame Relay di CLAN costituiva una risposta adeguata), ma anche per poter comunicare con aziende esterne (l’interesse principale era allora per il servizio di posta elettronica, che si era ormai imposto come l’unico standard internazionale) qualcuno in Telecom dovette fare i conti con la Big Internet, e offrire tra i servizi dati anche quello di interconnessione alla rete Internet mondiale.

Inoltre, anche in Italia stava nascendo e crescendo in fretta il mercato degli ISP come abbiamo visto sopra, aziende che facevano della connessione ad Internet di utenti privati il loro business primario. Un ISP si faceva carico di mettere in piedi le batterie di modem necessarie alla connessione degli utenti, ma aveva poi bisogno di connettere tra di loro i cosiddetti Point of Presence (POP), cioè le località in cui questi modem erano posizionati, e da questa rete di POP raggiungere infine la Big Internet.

Così, dopo una gestazione piuttosto breve, vista anche la disponibilità della rete CLAN che fungeva da buona infrastruttura portante, si concepì nel 1994 e nacque a marzo 1995 Interbusiness, l’offerta di servizi Telecom Italia di accesso ad Internet per le aziende. Come il nome dell’offerta sottolinea, infatti, essa non era pensata per far concorrenza agli ISP per utenti domestici, ma anzi per costituire un backbone che potesse servire, tra gli altri, gli stessi ISP nel loro compito di rivendita al dettaglio di accessi ad Internet.

Interbusiness era inizialmente in realtà una rete totalmente basata su Frame Relay, con un accesso alla Big Internet attraverso E-Bone, un backbone Internet Europeo collegato ai grandi backbone americani. Inizialmente Interbusiness aveva un numero molto limitato di nodi (router IP Cisco) ed era quindi una rete relativamente semplice, ma lo sforzo richiesto all’azienda per offrire servizi completamente al di fuori del proprio orizzonte culturale (quali posta elettronica e Domain Name Server ) non fu indifferente.

L’offerta commerciale consisteva in servizi dal nome di pietre preziose o semipreziose (giada, zaffiro, rubino, diamante) a seconda del tipo di accesso (dall’offerta “giada” di circuiti diretti a 9600 bit/s agli accessi “zaffiro” ISDN a 64 kbit/s fino a “diamante” con accessi a 2Mbit/s). Accessi commutati alla rete (via modem) erano inizialmente possibili solo tramite collegamenti X.28 offerti da ITAPAC e convertiti da un server centrale in protocollo IP (!).

Visto che, come ricordato, l’offerta era indirizzata fondamentalmente a due tipi di utenti (le aziende con necessità di connessione alla Big Internet e gli Internet Service Provider) con l’acquisizione di VOL, avvenuta poco dopo la nascita di Interbusiness, Telecom diventò concorrente di se stessa, offrendo connettività IP sia al proprio ISP (Telecom Italia Net, TIN) che agli altri.

Vale la pena ricordare un fatto curioso a questo proposito. Uno dei costi maggiori che Interbusiness doveva coprire era quello della connettività verso Internet, poiché i costi dei link intercontinentali erano notevoli. Molto del traffico aziendale sulla rete, d’altra parte, si richiudeva all’interno della rete stessa per le ragioni già viste in precedenza. Lo stesso non valeva per gli ISP, i cui utenti generavano un grande traffico verso gli snodi intercontinentali. Per questo l’offerta “diamante” di accesso a 2 Mbit/s in realtà aveva prezzi diversi per le aziende e per gli ISP (nel secondo caso si chiamava “diamante plus”), pur essendo identica dal punto di vista tecnico. Ma secondo il ben noto principio del “fatta la legge trovato l’inganno”, visto che non esiste alcuna definizione formale di “azienda ISP”, alcuni ISP di dimensioni medio-piccole si costituirono come associazioni che offrivano ai propri membri, a fronte del pagamento della quota associativa, un accesso ad Internet “gratuito”. Non essendo formalmente ISP ma libere associazioni culturali esse potevano perciò pagare un servizio “diamante semplice” anziché “plus”!

Il Progetto SOCRATE e la nascita dell’ADSL

A conferma della grande fioritura di tecnologie che si concretizzarono in quegli anni, anche l’ Asymmetric Digital Subscriber Loop (ADSL) viene pensato e sviluppato negli anni ‘90. Abbiamo accennato in precedenza al funzionamento di questa tecnica, in grado di portare sul filo del telefono grandi quantità di dati. Studiate per trasportare il segnale televisivo secondo lo standard MPEG-1, le prime realizzazioni ADSL avevano una velocità di 1,5 Mbit/s verso l’utente ma solo di 64 kbit/s verso la rete (questo canale dati verso la rete veniva infatti pensato solo per trasportare i segnali di controllo dei canali TV, il telecomando insomma).

Mentre in America si cominciava a parlare di ADSL e di servizi a larga banda nelle case, nel 1995, anche in virtù della grande liquidità finanziaria di cui l’azienda godeva in quel momento, Telecom Italia lanciò il progetto SOCRATE (Sviluppo Ottico Coassiale Rete di Accesso TElecom), che mirava a cablare le principali città italiane, portando poi a casa degli utenti (su cavo coassiale, ed in alcuni casi direttamente in fibra) molteplici nuovi servizi ad alta velocità, a partire proprio dalla Televisione e dal Video on Demand.

Il progetto fu lanciato ed il cablaggio andò avanti per un paio di anni, ma nel 1997 venne interrotto per una serie di concause tra cui la privatizzazione di Telecom con il conseguente cambio di responsabilità al vertice aziendale. Fu importante per l’arresto del progetto anche la considerazione che la maturità delle tecnologie ADSL avrebbe reso possibile portare gli stessi servizi a larga banda a casa degli utenti senza bisogno di posare nuovi cavi (in fibra o in coassiale) nel cosiddetto ultimo miglio, cioè il collegamento tra l’appartamento e la centrale telefonica locale. Il seme del nuovo corso nacque proprio all’interno della stessa Telecom, che con suoi centri di ricerca di Torino lancio’ la prima applicazione di tecnologie ADSL con il progetto Torino 2000. Nel periodo tra il 1998 e il 2000 a Torino venne avviata una sperimentazione su larga scala dell’ADSL, collegando in rete con questa tecnologia un numero importante di scuole, ospedali, studi professionali e sperimentatori privati. Il successo del progetto costituì il trampolino di lancio per l’offerta commerciale ADSL in Italia, che con il servizio BroadBandBox di Telecom Italia Net arrivò sul mercato agli inizi del 2000.

Le reti dati del nuovo millennio

Abbiamo brevemente raccontato le vicende che in due decenni videro nascere e svilupparsi le prime reti dati, in un fiorire ed appassire di iniziative, tecnologie, protocolli e reti, nel mondo e più in particolare nel nostro paese. Verso la fine degli anni ’90 un altro evento di grande portata, stavolta politico-economica e non tecnologica, sconvolse il mondo delle telecomunicazioni italiane: la privatizzazione di Telecom Italia e la liberalizzazione dei servizi di Telecomunicazione, con l’avvento di nuove società a portare servizi per la voce fissa e mobile e per le reti dati ed i servizi multimediali.

La liberalizzazione ha notevolmente vivacizzato il panorama dell’offerta di servizi ai cittadini, basti ricordare l’esempio di Fastweb. Nata nel 1999, questa società ha realizzato in maniera molto pragmatica ed economicamente produttiva (anche se con uno spettro di azione piuttosto limitato) quello che era stato solo pochi anni prima il sogno di Telecom Italia con SOCRATE. Essa infatti ha portato la banda larga ed i suoi servizi, ad un numero importante di cittadini in zone in cui la tecnologia era economicamente conveniente vista la elevata concentrazione urbana.

Dal punto di vista dell’evoluzione architetturale e tecnologica delle reti dati però il nuovo millennio non ha portato dirompenti novità, e gli anni recenti hanno visto una razionalizzazione ed una crescita di questo settore più quantitativa che qualitativa o innovativa. Da ormai dieci anni le reti dati “parlano” quasi solamente IP, anche perché nuove tecniche su cui non ci dilungheremo (es. MPLS, uno standard codificato nel 2001) hanno contribuito a migliorare il servizio, riuscendo in qualche modo a superare il paradigma best effort che caratterizzava le reti IP.

Anche i più incalliti critici e detrattori del modello Internet/IP ormai hanno accettato (con rassegnazione?) la situazione di fatto. Nonostante i problemi che IP continua ad avere, e che erano già noti 15 anni fa (il più importante è forse quello della scarsità degli indirizzi di rete) nessuno mette più in dubbio la rilevanza della rivoluzione che la rete delle reti ha portato nel mondo a tutti i livelli, da quello culturale a quello economico-industriale. Con l’ATM sarebbe stato lo stesso? O forse meglio? Magari peggio … Non è semplice dirlo, ma non è nemmeno importante, in fondo, in quanto non è più un problema.
Segno dei tempi: l’onda lunga ha pian piano trascinato anche le aziende identificate da molti come i dinosauri delle telecomunicazioni. La resa in Italia inizia proprio nel 2001, con la migrazione di tutta la parte centrale (il backbone) della rete telefonica Telecom sul protocollo IP. Da allora la conquista del protocollo a pacchetto sulla rete telefonica ha marciato dal centro verso la periferia, arrivando recentemente a conquistare con i servizi VoIP (Voice over IP) anche parte dell’ultimo miglio. Altro segno importante: nel 2010 è arrivata infine la decisione del phase out (la rimozione graduale) della tecnologia ATM dalla rete Telecom, ponendo fine anche in Italia ad un’epoca che i pochi appassionati del tema delle comunicazioni dati ricorderanno come eroica e pionieristica.