Come nasce "Internet"

Ringrazio il sito  www.giuseppemilo.com  dal quale ho "rubato" questa pagina....

Come è nato "Internet"

Siamo in piena guerra fredda, dopo la seconda guerra mondiale che vede Usa e Urss nemiche acerrime per il potere e la supremazia in Europa e nel mondo; il 4 ottobre del 1957 l'Urss manda in orbita lo Sputnick, il primo satellite artificiale della storia, che gli Stati Uniti sentirono come un'offesa inammissibile a testimonianza di un progresso tecnologico inarrestabile ormai. La contromossa statunitense fu repentina, guidata dal presidente Eisenhower; la preoccupazione ricorrente ed ossessiva derivava dall'impossibilità di comunicare con sicurezza in caso di attacco nucleare con le solite trasmissioni via radio. Il 15 ottobre viene convocato lo Science Advisory Committee (Comitato di consulenza scientifica) all'interno del quale si stabilisce di nominare uno Science Advisor, con il potere di decidere sullo sviluppo della tecnologia americana, senza subire le pressioni degli organi ufficiali. Il 7 gennaio Eisenhower trova lo scienziato adatto, James R. Killian Junior il quale definisce insieme al segretario della difesa americana le basi per la creazione di un'agenzia per lo sviluppo scientifico che portasse all'unione di esercito, marina militare e aviazione, interrompendo vecchie e reciproche concorrenze. Tale progetto è ostacolato dalle alte gerarchie militari, che non intendono sottomettersi ad un'unica unità decisionale; nasce dopo un estenuante braccio di ferro l'ARPA, Advanced Research Project Agency.

Nasce il Packet Swiching

Il sistema nato all'interno dell'ARPA prevedeva il collegamento fra computer distanti fra loro con possibilità di interscambio di documenti ed applicazioni, e nacque dopo gli studi condotti in America da Paul Baran e in Inghilterra da Donald Watts Davies. I due scienziati portarono avanti uno studio sulla "commutazione di pacchetto", ispirato al cervello umano; tale studio portò alla nascita del metodo di trasmissione definito "packet switching". In un documento pubblicato da Baran nel 1962, "On Distributed Communications Network", veniva infatti avanzata una proposta tutta nuova: la rete che collegava i vari computer tra di loro non doveva avere una autorità centrale, ed era fondamentale che tutti i nodi fossero indipendenti, godessero di una stessa posizione gerarchica e fossero in grado di originare, passare e ricevere messaggi. Tali messaggi sarebbero stati scomposti in pacchetti opportunamente targati per non perdersi ed ogni pacchetto indirizzato verso la propria meta finale, raggiunta la quale sarebbero stati ricompattati i diversi moduli. La strada percorsa da questi pacchetti era scelta da loro stessi, grazie ad una serie di computer programmati appositamente per incanalare i dati sulla strada più veloce e sicura; ovviamente, se la strada percorsa avesse presentato dei problemi il pacchetto sarebbe stato reindirizzato verso una strada alternativa e più sicura. Il sistema venne battezzato Arpanet.

ARPANET

Il nuovo sistema sperimentato dall'Arpa trovò alcuni ostacoli nella realizzazione ma alla fine arrivarono anche i sostenitori del progetto; tra i più autorevoli troviamo l'inventore del mouse, Engelbart, che mette a disposizione dell'ARPA il suo gruppo di lavoro per la realizzazione del NIC, che in seguito diventerà INTERNIC, (Internet Network Information Center). Importante per lo sviluppo di Arpanet è stato il progetto proposto da Wesley Clark, per il quale non andavano collegati tra loro due computer ma andava usata una sottorete di computer uguali tra loro per trasmettere e ricevere dati, in modo che ogni computer collegato avesse dovuto imparare solo il linguaggio della sottorete e non quello di tutti computer on-line. Queste sottoreti vennero definite IMP ( interface message processor); l'appalto dei primi IMP è affidato alla Bolt Beranek and Newman, piccola ditta del Massachussets nata nel 1948 e prima ditta che sostiene il progetto, dopo che l'IBM ha rifiutato la proposta. La BBN prende il nome di "terza università", dopo il MIT e Harvard, in quanto diventa il centro propulsore di una nuova tecnologia; attorno alla piccola azienda nascono gli "IMP guys", un gruppo di ricerca composto da scienziati quotati che realizzano il primo IMP. La svolta avvenne tra il 1968-1969 quando, creato il primo IMP, si cominciano a realizzare i primi nodi nelle università; nel 1969 viene inaugurato il primo nodo, ubicato fisicamente presso la University of California Los Angeles (UCLA), al quale seguirà il collegamento della University of California at Santa Barbara (UCSB), della Stanford University e della University of Utah. Curiosamente l'embrione della rete Internet nasce negli stessi anni in cui il primo essere umano pone piede sulla Luna e rappresenta un nuovo mondo sia per le leggi che lo regolano che per opportunità che offre. Arpanet ebbe successo fino ai primi anni ottanta quando il successo delle connessioni in rete fece proliferare i computer collegati rendendo indispensabile un rapido accordo per la loro interconnessione e la nascita di un protocollo per la trasmissione dati uguale per tutti e molto più elastico.

Nasce il protocollo TCP/IP

I calcolatori, pur avendo sistemi operativi diversi, dovevano infatti "parlare" la stessa lingua, un esperanto informatico basato sul metodo del packet switching; tale idioma nasce informalmente nel 1973, grazie a Vinton Cerf (che in un'intervista rilasciata a Mediamente ne spiega le caratteristiche) e Robert Kahn. I due ricercatori diedero vita al progetto di realizzazione di una architettura di cooperazione tra reti (internetworking), in grado di collegare tra loro reti diverse basate su pacchetti di informazioni e macchine diverse collegate a reti diverse ma interconnesse. Tale architettura si basa sul protocollo tcp/ip, del quale vennero realizzate quattro versioni tra il 1974-1978, fino a quando il protocollo divenne standard di riferimento: erano i primi anni '80, e la rivoluzione Internet prendeva sempre più piede, appoggiata anche dalle autorità e dalle imprese. Tecnicamente, il protocollo tcp/ip è formato da due protocolli distinti che svolgono funzioni diverse nella trasmissione dei dati: il TCP gestisce l'organizzazione dei dati e il controllo della trasmissione di questi ultimi, in quanto poiché i dati da inviare sono troppo grandi ne ridimensiona la grandezza, li spezzetta in pacchetti più piccoli e li ricompone nel momento in cui arrivano al computer scelto. Compito del protocollo IP è invece quello di trasmettere i dati e di gestire il traffico fra i diversi computer collegati; tale protocollo, infatti, impacchetta i dati in uscita e li invia , trovando la strada migliore per l'invio. Altro compito assolto dal protocollo IP è l'invio dei dati ad un indirizzo esistente, utilizzando uno schema di "indirizzamento" dei computer collegati, basato su un sistema di indirizzi numerici. Infatti in Internet ogni sito logico è individuato da un solo indirizzo numerico, intellegibile da parte di un computer; l'indirizzo numerico è determinato da quattro campi separati tra loro da un punto, in cui ogni campo può assumere valori da 0 a 255 per un totale di 8 bit , per cui l'indirizzo completo del sito dà vita ad una parola di 32 bit ( esempio: 131.175.64.1). L'indirizzo del sito assume diversi nomi, anche se più tecnicamente la prima parte corrisponde all'indirizzo della sottorete a cui il nodo appartiene, mentre la seconda parte individua i computer secondari di appartenenza fino ad arrivare al singolo computer. Tale modalità è efficiente ma non è molto semplice da memorizzare e perciò è stata affiancata da un altro metodo chiamato FQDN ( Fully Qualified Domain Name), che si caratterizza con nomi simbolici tipo: sito.dominio. Il dominio cui appartiene il sito appare in modi diversi in relazione alle sottoreti alle quali ci si appoggia, per cui nelle sottoreti statunitensi si caratterizzano i domini in relazione alla loro tipologia di appartenenza mentre in Europa secondo la nazione di appartenenza del sito stesso. Naturalmente ad ognuno di questi indirizzi simbolici (FQDN) è associato un indirizzo IP numerico nella forma xxx.xxx.xxx.xxx ma l'associazione tra le due codifiche non è compito dell'operatore bensì del sistema stesso; infatti la 'tabella di transcodifica' dei nomi simbolici in indirizzi numerici viene affidata ad uno o più nodi di sotto-rete chiamati name-server, distribuiti in modo conveniente all'interno della rete in modo tale da poter fornire in ogni momento e in tempo reale l'indirizzo numerico richiesto. Tutto questo avviene senza alcun coinvolgimento dell'utente. Con l'utilizzo di questa codifica possiamo raggiungere un determinato sito e se vogliamo raggiungere uno specifico utente nel sito (esempio: vogliamo inviare un messaggio di posta elettronica) dobbiamo aggiungere all'indirizzo il codice identificativo del destinatario. L'indirizzo individuale si presenta perciò così: utente@indirizzoIP oppure nel caso simbolico utente@FQDN otterremo così ad esempio: rossi@yahoo.it Vantaggi derivati dall'uso del protocollo tcp/ip sono relativi al fatto che esso ha assunto la status di open standard, in quanto chiunque può utilizzare le sue caratteristiche ed inoltre perché tale protocollo è indipendente dal modo in cui la rete alla quale si attacca è realizzata; esso infatti supporta una rete Ethernet, una linea telefonica o un cavo a fibre ottiche, integrando i diversi componenti hardware in un'unica soluzione.

Arpanet: da centro storico a periferia

Con l'utilizzo ufficiale del protocollo tcp/ip all'interno di Arpanet, la stessa Arpanet comincia a perdere progressivamente d'importanza; per questo motivo il Dipartimento della Difesa statunitense si convinse che per favorire la crescita del networking di suo interesse si doveva dividere la rete Arpanet in due separate sottoreti. Una di queste reti viene usata a scopi militari e collega prevalentemente siti all'interno degli Stati Uniti e solo eccezionalmente nel resto del mondo, la cosidetta rete MILNET; la sezione della ricerca universitaria prende invece il nome di NSFnet (National Science Foundation Network), della quale fanno parte diversi enti di ricerca ( Bolder, Carnegie Mellon University, University of Pittsburg). Tale scissione fu sostenuta in modo da far si che gli atenei potessero usufruire dei benefici di Internet nonostante non fossero a diretto contatto con enti militari; per questo motivo la NSF durante i primi anni '80 dà vita alla Csnet, che mette in contatto fra loro tutte le università americane. Ovviamente il protocollo tcp/ip mette ancora in comunicazione le macchine sulla rete MILNET e quelle sulla rete NSFnet, anche se i nodi della rete militare sono protetti dal fatto di trovarsi all'interno di siti protetti più che in laboratori di ricerca; dunque se ci sono problemi sulla rete NSFnet la rete MILNET può essere disconnessa tagliando i collegamenti in un determinato numero di gateways che le collegano, i quali vengono creati per limitare le comunicazioni fra le due reti al semplice scambio di posta elettronica.

I primi servizi della rete

Nel 1986 i Newsgroup creati da due studenti dell'Università del Nord Carolina migliorano enormemente grazie all'utilizzo del protocollo NNTP, che usufruisce del protocollo tcp/ip; i Newsgroup sono gruppi di discussione elettronica fra diverse persone che condividono interessi in comune. Nel 1985 nasce la prima comunità virtuale, Well (Whole Earth Lectronic Link), e nel 1988 cominciano le prove di terrorismo sulla rete (creazione di virus che danneggiano il sistema): alla fine del 1988 la prima infezione colpisce il 10% dei 60000 computer collegati alla rete. A seguito di ciò viene istituito il CERT (Computer Emergency Response Team), con il compito di controllare l'intromissione di virus informatici nella rete; nel 1988 nasce anche IRC (Internet Relay Chat), la prima chat che consente agli utenti di chiacchierare tra loro in diretta. Gli anni ottanta, dopo il boom dei servizi offerti dalla rete, si chiudono con un evento memorabile, che se ne trascina dietro un altro: cade il Muro di Berlino, simbolo della Guerra Fredda fra USA e URSS, e conseguentemente muore anche ARPANET. Nello stesso anno della morte di ARPANET, Peter Deutsch e la sua equipe danno vita al software ARCHIE, che permette di sviscerare all'interno di grandi archivi per gestire il contenuto dei singoli siti a livello di FTP; ad ogni nome di file di tali archivi è infatti associata una serie di informazioni (data di memorizzazione, dimensione) automaticamente archiviate dal programma.

Gli anni novanta: spopola la rete Internet

L'enorme circolazione di notizie sulla rete Internet comincia a rendere problematici i controlli o le censure delle stesse informazioni; nasce dunque nel 1990 la Fondazione EEF (Electronic Frontier Foundation), ad opera di Mitch Kapor; tale fondazione (www.eff.org) si propone come scopo quello di tutelare i "naviganti" in relazione alla libertà di circolazione delle informazioni e alla libertà di accesso a queste stesse. Inoltre questa fondazione ha difeso in molti processi presunti hacker o programmatori informatici, tacciati dalle autorità statali di pirateria e diffusione illegale di programmi. Nascono in questo periodo altri software per la navigazione protetta: WAIS (Wide Area Information Service) creato da Brewster Kahle, GOPHER creato da Mark McCahill e Paul Lindner e PGP (Pretty Good Privacy) inventato da Philip Zimmerman. PGP (www.pgpi.com) è il programma più famoso per garantire la sicurezza nello scambio di messaggi tramite la posta elettronica; il meccanismo di tale programma si basa sul possesso di due chiavi di accesso, una strettamente personale, l'altra pubblica e comunicabile a tutti coloro con i quali si vuole corrispondere. Queste due chiavi sono interconnesse fra di loro, per cui per decifrare un messaggio all'inizio si ha bisogno della chiave pubblica ma poi deve subentrare la conoscenza della chiave privata. GOPHER rappresenta invece il primo tentativo di razionalizzare l'architettura delle informazioni; tale strumento si fonda sul principio della struttura gerarchica, rappresentata da un grafico ad albero composto da rami e nodi. Gopher usa due moduli interconnessi fra loro, il server, col compito di gestire la struttura ad albero, e il client che permette all'utente di esplorare la struttura ad albero e accedere alle risorse richieste. Nel 1991 nasce infine la struttura portante dell'attuale sistema di Internet: Tim Berners Lee sviluppa il WWW, WORLD WIDE WEB.

WWW: Le Ragioni di un Successo

La "ragnatela mondiale", è questo il significato della tripla w, mira al superamento delle barriere geografiche che impediscono la collaborazione fra gruppi scientifici fisicamente distanti, ma anche ad accellerare lo scambio di informazioni grazie a protocolli standardizzati. L'architettura di WWW è di tipo CLIENT-SERVER; un'architettuta è definita client-server se, in un sistema, un'entità offre il servizio (server) ed un'altra (client) vi accede e ne usufruisce secondo una serie di regole specifiche. Dunque Server e Client sono due programmi che permettono la navigazione; come funzionano tecnicamente questi due programmi e qual è la loro finalità nel sistema? Il programma CLIENT funziona da interfaccia fra utente finale e server web, gestendone dunque l'interazione; esso si collega al server tramite il protocollo HTTP per richiedere un documento identificato dal proprio URL, scarica sulla propria macchina i dati che ha prelevato, legge da un buffer i dati scaricati dai server interpretando i TAG HTML che determinano lo stile di visualizzazione sulla pagina web ed infine visualizza i widget grafici costruiti in precedenza, grazie all'aiuto delle librerie grafiche. Il programma SERVER, invece, riceve le richieste di connessione in rete e distribuisce i documenti richiesti da qualche utente, tramite un programma CLIENT. Il programma WWW può essere eseguito su diverse piattaforme ma per sfruttare totalmente le caratteristiche peculiari di tale sistema si deve possedere una macchina con capacità grafiche e audio oltre ad una connessione ad Internet abbastanza veloce, che consenta il trasferimento di immagini, animazioni e suoni in tempi accettabili. WWW consente di astrarre dalla struttura fisica della rete presentandola con una struttura più pratica, trasformandola cioè in un ipermedia; si definisce "ipermedia" un insieme di notizie collegate tra loro nella rete non solo in forma di documenti testuali ma anche di testi, immagini, suoni, video. I dati per poter essere immessi in rete devono essere tradotti in un unico formato denominato HTML (HyperText Markup Language), standard di lettura per i Client browser in WWW. 

I Protocolli di Lavoro del WWW

WWW è collegato, tramite interfacce, a server che interagiscono tra di loro per mezzo di protocolli tcp/ip e da altri che si servono di standard ad un livello più elevato, come il recente http (HyperText Transfer Protocol), creato appositamente per supportare il trasferimento del formato HTML. Il protocollo http funziona semplicemente scrivendo i file in linguaggio HTML e alla fine creare delle connessioni fra questi file, all'interno del linguaggio stesso; per recuperare dei documenti, in qualsiasi forma, il programma CLIENT alla richiesta attiva una connessione con l'http passando per un identificatore universale, di solito l'URL. Il server, trovato l'esatto indirizzo trasferisce il documento in formato HTML, anche in caso di insuccesso; sarà poi il CLIENT a trasformare in ipertesto il documento trasferito in linguaggio HTML. 

Il Linguaggio HTML

In Internet il linguaggio HTML si basa su un sistema di etichettatura (tagging scheme), derivato dal complesso SGML (Structured Generalized Markup Language), che consente al browser di accumulare informazioni riguardanti la pagina web messa in rete. Ogni elemento da visualizzare nella pagina, in linguaggio HTML viene rappresentato da una struttura comprendente un etichetta iniziale (marcatore), al cui interno sono inseriti nomi e attributi, seguita da un ulteriore contenuto e da un marcatore finale; schematizzando:
-MARCATORE: ogni elemento inizia con un marcatore; i marcatori iniziali sono delimitati da "<" e ">", quelli finali da " -NOMI: seguono i delimitatori dei marcatori iniziali.
-ATTRIBUTI: in un marcatore iniziale sono premessi, prima di un nome, degli spazi seguiti da attributi; gli attributi sono costituiti da un nome, un segno "=" ed un valore, riportato tra virgolette.
I documenti in formato HTML sono costituiti da una parte iniziale (HEAD), seguita immediatamente da un corpo (BODY); schematizzando:
-HEAD: contiene informazioni riguardanti il documento in generale non visibile nella pagina web (ex: keywords per inserire la pagina nei motori di ricerca, titolo del documento).
-BODY: è il corpo del documento e contiene elementi posti nello stesso ordine col quale verranno visualizzati on-line; tali elementi sono suddivisi in categorie, tra le quali:
· HEADING: costituiscono i diversi livelli dei titoli;
· ANCHORS: parti del testo definite dal tag < A >, che definisce i links del documento;
· PARAGRAPH MARKS: parti del testo definite dal tag < P >, che segnano i limiti fra i diversi paragrafi;
· LISTS: sono liste di elementi e possono essere semplici, ordinate con titolo e spiegazione, etc…
Un documento scritto in linguaggio HTML inizia e finisce sempre con < HTML > e < / HTML >: un'osservazione importante riguarda il fatto che tutti gli elementi del linguaggio sono "case insensitive", per cui scrivere in maiuscolo o minuscolo non fa differenza ai fini del risultato finale; gli unici elementi "case sensitive" sono i caratteri speciali per gli accenti.

Identificazione univoca dei documenti: la URL

Internet non ha una propria autorità centrale in quanto ogni nodo ha un proprio protocollo per la ricerca delle informazioni; si genera però automaticamente la necessità di effettuare una ricerca e una lettura più uniformi, e dunque si cerca uno standard che permetta l'identificazione univoca dei documenti. Nasce dunque l'URL (Uniform Resource Locator), il formato usato dal WWW per localizzare dei file sui server; essa individua il tipo di risorsa alla quale si accede insieme al cammino del file sulla macchina dove risiede. Una URL ha una sintassi del genere:
· Scheme://host.domain.port/patch#anchor-id
  esempio: http://milo.scintilla.it/index.html
Tecnicamente:
-scheme: è il tipo di protocollo seguito da ":", e dunque può essere:
· http:// se deve collegarsi ad un server;
· telnet: se deve aprire una connessione con un'altra macchina;
· file:// o ftp:// se deve recuperare un file;
· mailto: serve per spedire della posta elettronica;
· news: serve per leggere o recuperare una news od un gruppo;
· gopher:// se deve recuperare delle informazioni su un gopher. -host.domain: è il nodo nel quale risiede il documento.
-port: identifica la porta logica alla quale ci si connette (di solito è omesso).
-path: è il cammino assoluto del documento.
-anchor-id: rappresenta una parte all'interno del documento e segue l'indirizzo dal quale è separato grazie a #. Se ci si riferisce all'intero documento, allora l'anchor-id è vuoto e # viene omesso.

InterNIC: un nuovo modo di concepire la comunicazione

Con la nascita ufficiale del protocollo tcp/ip, abbiamo visto, vi è la necessità urgente di definire una struttura in grado di assegnare ai diversi siti che si apprestano ad entrare nella rete Internet il loro nome, e perciò il loro numero di identificazione: assolve tale funzione proprio InterNIC (www.internic.net), il centro ufficiale che assegna gli indirizzi IP e i nomi di dominio a livello internazionale. Tale servizio è gestito dalla Network Solutions, per quanto riguarda la registrazione di nuovi nomi, e dall'AT&T per la manutenzione di un elenco di tutti i membri registrati; esso opera a favore del DDN NIC ed è nato per iniziativa della NSF (National Science Foundation), della General Atomics, dell' AT&T e della Network Solutions. Il servizio di database di InterNIC fornisce informazioni sulla reperibilità delle diverse risorse su Internet: centri di elaborazione dati, fornitori di accesso alla rete, elenchi telefonici, cataloghi bibliotecari, archivi di software, servizi informativi ed altro. Dal 1995 InterNIC chiede che venga versata una quota per ogni operazione di registrazione dei domini: 100 dollari per i primi due anni di utilizzo del dominio, 50 dollari per gli anni successivi al secondo.

VERONICA: un nuovo modo di ricerca delle informazioni

Il sistema nasce grazie allo studio di Steven Foster e Fred Barrie, dell'Università del Nevada, e viene utilizzato per la ricerca all'interno dei gopher server in quanto riesce ad interrogare tutti i loro menù per mezzo di parole chiave che l'utente del servizio gli fornisce. La ricerca si sviluppa all'interno di un database aggiornato periodicamente, e nel momento in cui Veronica trova all'interno dei menù voci relative alle parole chiave le invia al Client, con tutte le sue caratteristiche specifiche; per questo motivo, se Archie consente la ricerca all'interno di server FTP Veronica lo fa all'interno dei Gopher, interpellando non file ma voci di menù vere e proprie. In tutti i gopher server c'è una specifica voce che consente l'accesso a Veronica, selezionando la quale si può scegliere il server al quale connettersi per la ricerca, o si può scegliere di far scegliere il server Veronica al Client. Tecnicamente, si può dire che non è necessario scegliere un determinato server perché ha caratteristiche particolari rispetti agli altri; infatti il server Veronica va prescelto in relazione all'orario durante il quale ci si connette, per evitare afflussi considerevoli che non consentono l'accesso al server. Selezionato il server, bisogna immettere la parola chiave che consente di avviare la ricerca, tralasciando la differenza fra lettere maiuscole e lettere minuscole; spesso la ricerca si conclude con un gran numero di risultati, anche se è possibile semplificare la ricerca utilizzando gli operatori booleani "and, or, not".

Conclusioni

Dalle sue origini come progetto di ricerca commissionato dal governo americano, Internet è cresciuta fino a diventare una delle maggiori componenti delle infrastrutture di rete mondiale; oggi solo una piccola parte dell'intera struttura Internet è gestita o controllata dal governo. La maggior parte dei fondi per il mantenimento della rete, infatti, vengono devoluti spontaneamente dai privati; notevole anche l'aiuto offerto dalle aziende, che comprese le enormi potenzialità della rete, ne finanziano sempre più lo sviluppo per fini commerciali. Siamo infatti di fronte ad una crescita inarrestabile di Internet; merito dei nuovi software, che permettono a tutti di diventare buoni navigatori con pochissima pratica, dei mass media (la Repubblica offre spazi quotidiani al fenomeno Internet) che tormentano i lettori con paroloni come on-line e multimediale, entrati ormai nel comune parlato, della nascita delle riviste specializzate nel settore, dedicate sia agli esperti che ai principianti (Interpuntonet, Internet news, etc…), della pubblicità che appare sempre più spesso anche in televisione. Per quanto riguarda i dati, si è passati dai quattro nodi iniziali nel lontano 1969 agli 80000 nodi del gennaio 1989 e ai 376000 nodi del gennaio 1991; nel gennaio 1996 i nodi erano diventati 9.500.000. In Italia, come attesta l'Osservatorio Bocconi, nel 1999 i navigatori sono diventati circa 5 milioni. Nascono sempre più motori di ricerca, a causa dell'enorme quantità di dati che circolano in linea; Internet diventa sempre più un centro commerciale, nel quale si vendono libri e cd (è il caso di Amazon), computer (www.direct.it oppure www.chl.it), prodotti nazionali e regionali tipici, ma anche la propria amicizia con le chat, o i propri servizi. Attorno ad Internet vanno sempre più sviluppandosi nuove figure professionali: c'è bisogno di webmaster, webdesigner, programmatori, e manager che sappiano operare in questo settore. La pubblicità è sempre più la forza e l'anima del commercio on-line: eclatante fu lo scandalo suscitato da due impresari che per pubblicizzare la loro attività mandavano messaggi di posta elettronica a migliaia di indirizzi in tutto il mondo. Ma questo è stato solo il primo caso di spamming. In Borsa, le azioni legate alla rete Internet sono sempre più quotate: già nel 1995, la prima quotazione di Netscape ha fatto realizzare uno dei migliori risultati nella storia economica. La maggior parte delle associazioni e organizzazioni burocratiche è presente su Internet: il sito del Vaticano (www.vatican.va) nella prima settimana arriva ad un massimo di 40000 contatti e continua a macinarne, i siti della Camera (www.camera.it) e del Senato (www.senato.it) offrono la possibilità di assistere alle sedute in diretta e per questo sono sempre assediati dai visitatori. Inoltre grazie alle nuove tecnologie streaming sempre più persone sfruttano internet per video-conferenze; numerosi i siti nei quali webcam visualizzano per 24 ore interni di case o panorami di città di tutto il mondo (per un esempio visitare www.gabgab.com). Si assiste dunque ad una crescita esponenziale della rete che va man mano soppiantando i vecchi modi di comunicare: siamo convinti che il nuovo millennio ci darà la possibilità di sfruttare al meglio questa nuova immensa risorsa, con la riduzione degli attuali costi che creano una barriera fra gli utenti e le nuove tecnologie che aumentano la velocità di connessione.