Internet

Stampa

“I media non nascono mai dall’esterno di un corpo sociale ma sempre dal suo interno, dal suo cuore. Sono i mezzi attraverso cui diamo una forma al nostro esserci e sempre più sono il mondo che abitiamo. L’orizzonte delle tecnologie della comunicazione è un tipo di terreno che produciamo e che allo stesso tempo ci trasforma e riproduce (…); è la pelle della nostra cultura”. (De Kerckhove, Transpolitica. Nuovi rapporti di potere e di sapere).

 

Le origini di Internet tra Guerra Fredda e ricerca scientifica

Volendo tracciare una breve storia della nascita di Internet, occorre partire dal riferimento ad Arpanet, una rete di computer creata dall’agenzia ARPA (Advanced Research Projects Agency) nata alla fine degli anni Cinquanta per volere del Dipartimento della Difesa degli Stati Uniti con lo scopo di potenziare la ricerca in ambito tecnologico e scientifico. Nel 1957, infatti, l’Unione Sovietica aveva lanciato il primo satellite spaziale, lo Sputnik, e nel clima della Guerra Fredda questo aveva segnato il predominio della potenza sovietica sia in ambito tecnologico che militare. Il presidente statunitense Dwigth Eisenhower decise allora di costituire un’agenzia unica per lo sviluppo scientifico che permettesse di superare le rivalità esistenti tra le diverse componenti delle forze armate. All’interno dell’ARPA si sviluppa, nel corso degli anni Sessanta, il primo nucleo di networking con il coinvolgimento di scienziati, università, imprese e si struttura ciò che poi è diventato Internet.

Nonostante il forte legame con il Pentagono lo sviluppo della prima rete è dovuto, infatti, ad importanti collaborazioni tra università e studiosi anche di paesi diversi e alla cooperazione tra centri di ricerca collocati nelle accademie e nelle imprese private. Tra queste ultime, per esempio, la RAND Corporation all’interno della quale lo studioso Paul Baran ha sviluppato un primo studio sulla trasmissione dei dati attraverso la trasformazione in pacchetti e la costruzione del modello della “rete distribuita” a partire dall’analisi del funzionamento del cervello umano. Nel 1961 Leonard Kleinrock, ricercatore nel campo della trasmissione dei dati dell’Università UCLA (Università della California Los Angeles), viene coinvolto dall’ARPA per la fondazione di un centro di misurazione della rete che sviluppi la ricerca in questo campo. L’UCLA diventerà uno dei primi nodi della rete Arpanet, attivata nel 1969 con la connessione dei primi due nodi della rete.

Il primo collegamento avvenne, infatti, a fine agosto tra l’UCLA e lo Standford Research Institute. Nei mesi successivi si collegarono anche l’università di Santa Barbara e poi quella dello Utah. I nodi aumentarono rapidamente tanto che nel 1970 i ricercatori commentavano in questo modo la crescita della rete: “(…) questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta”. In effetti la mappa dei computer connessi divenne rapidamente molto più articolata: Arpanet era divenuto un sistema di comunicazione tra diverse comunità di giovani ricercatori, in grado di scambiarsi dapprima file di dati e successivamente, con l’invenzione della posta elettronica, anche messaggi e programmi utili secondo la logica del software libero.

Nell'ottobre del 1972 durante l’International Conference on Computer Communications la rete venne pubblicamente presentata e ottenne un notevole successo. In quella occasione si decise anche di fondare l’International Network Working Group, che avrebbe ereditato la funzione di sviluppare gli standard per la rete Arpanet a cui, nella fase iniziale, i professori e gli studenti delle diverse università avevano già lavorato in modo collaborativo. L’approccio cooperativo e di condivisione che ora viene esaltato all’interno della rete trova conferma nell’atteggiamento avuto dai primi ideatori della rete.

 

I principali sostenitori e protagonisti del progetto

All’effettiva creazione della rete Arpanet contribuiscono studiosi diversi che nel corso degli anni mettono a punto sia i modelli di configurazione dei dati affinché siano trasmissibili che la definizione delle modalità e gli strumenti per “connettere” anche a distanza computer diversi.

Tra i principali attori oltre a Paul Baran e Leonard Kleinrock vanno menzionati:

· Carl Robnett Licklider, detto anche “Lick”, noto per il saggio ‘Simbiosi Uomo-Computer’nel quale preannunciava il forte legame tra uomini e computer. Lick aveva inoltre previsto che il computer sarebbe diventato uno strumento essenziale per la comunicazione e quindi per la collaborazione tra persone ed enti di ricerca collocati in luoghi diversi, l’attuale networking

· Donald Watts Davies che a Londra perviene a conclusioni simili a quelle di Baran sulla “trasmissione a pacchetti” (Packet Switching)

· Larry Roberts che coinvolge centri di ricerca e università in un progetto per la creazione di una rete, successivamente denominata Arpanet

· Douglas Engelbart, ideatore del mouse e direttore dello Standford Research Institute che, sostenendo il progetto di Roberts dà vita al primo centro amministrativo di una rete: l’Inter Network Information Center. Altri centri (o NIC) verranno create in altre università.

· Wesley Clark, ricercatore che per primo suggerisce di non collegare direttamente i computer tra loro, ma di connetterli attraverso una rete di computer tutti compatibili tra loro da utilizzarsi solo per la trasmissione dei dati affinché i vari computer/nodi della rete non debbano adattarsi ai diversi protocolli di ogni singolo nodo, ma solo a quello della sottorete a cui sono collegati. Dall’idea di Clark nascono i primi IMP (Interface Message Processor) in grado di collegare computer diversi.

· Leonard Kleinrock dell’università UCLA fu incaricato di creare il primo collegamento telefonico da computer a computer fra l'Università della California di Los Angeles e lo Stanford Research Institute, i primi due nodi di Internet.

 

Il perfezionamento della trasmissione, la “prova” nell’etere e lo sviluppo di Internet

Le università e gli enti di ricerca proseguirono con l’elaborazione di numerosi protocolli con i quali venivano definite e perfezionate le modalità della trasmissione dei dati. Agli inizi degli anni Settanta restava ancora da dimostrare se fosse possibile scambiare i dati anche tra due macchine di tipo diverso, utilizzando collegamenti differenti ed anche l’etere. La “prova” nell’etere venne realizzata nel 1978, quando si tentò il collegamento tra un computer che viaggiava a bordo di un camion su un'autostrada californiana e un altro computer collocato a Londra. La connessione via etere aprì la strada allo sviluppo ulteriore di Arpanet che divenne uno strumento preziosissimo per i centri di ricerca che in questo modo sempre più facilmente erano in grado di condividere informazioni relative ai loro progetti, dati e informazioni.

Per far sì che Arpanet diventasse strumento accessibile da parte di tutte le università e centri di ricerca, il Dipartimento della Difesa, da cui il progetto ARPA dipendeva, creò una propria rete (Milnet), sganciata da quella originaria e il governo statunitense istituì la Nationan Science Foundation con lo scopo di finanziare la ricerca universitaria e la creazione di nuove reti meno costose. Queste rete erano in grado di comunicare anche con Arpanet, utilizzando un protocollo detto di “Internetworking”. Lo sviluppo di reti simili prese il via anche in alcuni paesi europei che potevano accedere ai protocolli e alle specifiche in quanto questi erano rimasti nella forma iniziale di documenti “aperti”, condivisi e ideati dalla comunità di studiosi delle università inizialmente coinvolte: i“RFC” (Request for comments), richiesta di commenti. Questa denominazione è utilizzata ancora oggi per siglare le specifiche tecniche ufficiali di Internet.

Alla fine degli anni Ottanta lo sviluppo di reti diverse portò allo smantellamento di Arpanet.

L’evoluzione di Internet avanza sempre più rapidamente nel corso degli anni Novanta, durante i quali vengono definiti alcuni sistemi e protocolli tuttora utilizzati, fra cui il World Wide Web (il www), ovvero una sorta di “ragnatela” di contenuti disponibili in Internet e legati tra loro tramite link in una sorta di ipertesto e il cui perfezionamento è tuttora in corso sotto il controllo del WC3 (World Wide Web Consortium). L’ideatore del WWW fu Tim Berners-Lee, ricercatore presso il CERN (European Organization for Nuclear Research), che immise sulla rete il primo sito web rivolto alla comunità scientifica. Il CERN rese pubblico e accessibile il protocollo del Web nel 1993. Fra gli elementi alla base del www si trova l’http (Hypertest Transfer Protocol), un protocollo utilizzato per trasferire informazioni. Importante fu anche l’introduzione, nei primi anni Novanta, dei browser (navigatori) che permisero agli utenti di utilizzare Internet in modo più facile e che contribuirono dunque alla sua diffusione. Tra i primi ricordiamo, Mosaic e Netscape. Quelli attualmente più diffusi sono Internet Explorer, Mozilla Firefox, Google, Opera, Safari.

 

La rivoluzione del Web 2.0: da utenti ad autori

Il perfezionarsi e l’ampliarsi della rete e del web sono segnati dall’avvento del Web2.0, nei primi anni Duemila. Con l’espressione Web2.0 non ci si riferisce tanto a modifiche tecniche o all’utilizzo di particolari applicazioni, alcune delle quali già presenti nel Web 1.0 o in quello chiamato Web1.5 (forum, chat, ad esempio), ma all’approccio con il quale gli utenti usano il web: un approccio più partecipativo che vede gli utenti non solo fruitori di siti statici, dai contenuti determinati e fissi, ma piuttosto autori e coproduttori di informazioni e contenuti. Con il Web 2.0 l’alto numero di persone che già utilizzano la rete e il web scopre la possibilità di partecipare alla costruzione delle informazioni, dei testi e la possibilità di “incontrarsi” in comunità virtuali, portandovi all’interno le proprie conoscenze, la propria personalità e cultura. Il ruolo degli utenti, che non devono necessariamente avere grandi conoscenze informatiche, diventa centrale e rispetto al Web 1.0 quello che prevale ora è l’interazione.

Un cambiamento quello introdotto dal Web 2.0 che va dunque a modificare le relazioni e la comunicazione all’interno della rete e che incide profondamente anche sull’evoluzione delle relazioni al di fuori della rete, che dà il via allo sviluppo di nuove opportunità comunicative e all’emergere di nuove competenze. Tutti fattori questi intorno ai quali negli ultimi dieci anni si è aperto un ampio dibattito che tocca i settori della comunicazione, del marketing, dell’economia, del diritto ma anche la sfera della politica e il settore dell’educazione.

Tra gli strumenti e applicazioni principali sviluppatesi con il Web2.0 ricordiamo:

· Google, motore di ricerca utilizzato dalla maggior parte degli utenti, che sta sviluppando negli anni nuove applicazioni quali la posta Gmail (primo sistema in cui gli utenti invitano altri ad accedere al servizio) e la possibilità di avere un unico account (codice di identificazione) personale con il quale accedere a tutti i servizi man mano immessi nella rete. Le applicazioni di Google sono oramai molteplici: Google Map, Google Earth, Google News, Blogger, Picasa, ecc.

· Wikipedia, enciclopedia on line, pubblicata in oltre 270 lingue, nata da un progetto nel 2000 e a cui oggi partecipano centinaia di migliaia di utenti che contribuiscono alla creazione e alla modifica dei contenuti raccolti. Il termine, letteralmente “cultura veloce”, deriva dall’awaiano “wiki”, veloce e dal suffisso greco “pedia”, cultura. Gli utenti, condividendo un codice di scrittura e un comportamento che regola la libera partecipazione, hanno a disposizione luoghi virtuali in cui possono confrontarsi all’interno della comunità.

· Writely, servizio di Google “Documenti” che permette agli utenti di salvare i propri documenti on line, consentendo ad altri di potervi accedere e di poterli modificare. Applicazione questa che segna il superamento della logica del file che risiede sul proprio pc e apre all’utilizzo del web come piattaforma.

· I social network come Facebook, Myspace, Linkedin, Badoo, Netlog, Twitter utilizzati dagli utenti per mantenere e stringere contatti, per scambiarsi informazioni, interessi, immagini, video e spesso per presentare proprie produzioni artistiche e culturali, per pubblicizzare eventi, manifestazioni, per diffondere campagne di sensibilizzazione o anche per pubblicizzare prodotti commerciali. Esistono anche social network tematici come, ad esempio, Anobii, dedicato allo scambio di informazioni su libri letti o di prossima lettura; Flixster, dedicato allo scambio di recensioni sui film. Visto il crescere degli accessi ai social network, e per cercare di tutelare i più piccoli, sono nati recentemente anche dei social network dedicati ai bambini fra cui, ad esempio, Shidonni e gli italiani Mypage.it, Troll.it. Anche in questi casi viene stimolata particolarmente l’interazione dei partecipanti e per questo si distinguono dai più tradizionali siti per bambini e adolescenti. Occorre aggiungere che sempre di più anche all’interno delle scuole stanno nascendo blog, Tv web, Radio web di cui bambini e ragazzi, guidati dai loro docenti, sono i principali autori.

· Youtube, fondata nel 2005 è una community che permette a milioni di utenti di vedere sequenze di film, documentari, cartoni animati, concerti, ecc., ma soprattutto di pubblicare e vedere video autoprodotti.

· Le web Tv e le radio web create da singoli utenti, scuole, associazioni, movimenti grazie all’utilizzo di programmi gratuiti e facilmente accessibili anche da parte di chi non ha competenze informatiche specializzate.

· Le più moderne applicazioni create per coloro che accedono ad Internet, utilizzando i cellulari, gli smartphone, i dispositivi mobili. Queste applicazioni sono molteplici e consentono agli utenti di cercare e di usufruire di informazioni di ogni sorta, dall’economia alla moda, dalle mappe alle news locali e internazionali, all’arte, al cinema, ecc. Attraverso questi dispositivi è possibile accedere alla posta e ai principali software di gestione dei documenti.

 

Free Software e Open Source

Un elemento importante legato al Web2.0, e che si lega strettamente con le applicazioni descritte, riguarda lo sviluppo e la diffusione del software libero, dei modelli Open Source: per arricchire e facilitare l’interazione degli utenti e la loro partecipazione alla creazione di contenuti vengono man mano messi a punto protocolli e applicazioni a cui gli utenti possono accedere liberamente e al cui perfezionamento possono contribuire. Già negli anni Settanta, con lo stesso spirito di condivisione dei software, Richard Stallman aveva fondato la Free Sofware Foundation (1985) e aveva lavorato alla licenza GPL (Licenza pubblica generale).

“Il Free software riguarda la libertà degli utenti di utilizzare, copiare, distribuire, studiare, modificare e migliorare il software. Più precisamente significa che chi utilizza il software gode di quattro libertà fondamentali:

  • La libertà di utilizzare il programma per qualsiasi scopo (Libertà n.0)
  • La libertà di studiare come il programma funziona e di modificarlo, adattandolo ai propri scopi (Libertà n.1). Il libero accesso al codice è precondizione per questo.
  • La libertà di distribuire copie (Libertà n.2)
  • La libertà di distribuire copie del programma modificato (Libertà n.3). Facendo questo si dà la possibilità a tutti di trarre beneficio dalla modifiche introdotte.

Un programma è libero se gli utenti hanno tutte queste libertà. (…) Avere queste libertà significa, tra le altre cose, che non occorre chiedere un permesso o pagare per poter distribuire il programma”.[1] Poiché nella lingua inglese il termine free può assumere significati diversi (libero o gratuito) Stallmann specifica che il “free software è una questione di libertà e non di prezzo” e che la filosofia di partenza è più vicina all’idea di “libertà di parola (free speech)” che a quella di “una birra gratuita (free beer)”, ponendo l’attenzione cioè sulla libertà di accesso e non sulla gratuità del software;[2] per questo motivo è del tutto lecito vendere copie dei programmi sia nella versione originale che nelle versioni modificate. Ciò che resta essenziale è che il programma sia utilizzabile e modificabile da tutti gli utenti secondo una logica cooperativa.

Alla luce di quanto detto, il termine “open source” non può essere utilizzato come sinonimo di “free software” perché fa riferimento ad un movimento nato successivamente per volere di alcune persone che non si riconoscevano più negli obiettivi della Free Software Foundation. Anche se le differenze possono non apparire macroscopiche, secondo i rispettivi sostenitori del “free software” o dell’”open source”, dietro ai due movimenti stanno valori diversi o un diverso modo di intendere la libertà degli utenti rispetto all’utilizzo dei programmi. Il software “open source” si basa su un approccio essenzialmente più pragmatico finalizzato al miglioramento continuo dei software stessi, ovvero sull’idea di un software a sorgente aperta che la comunità dei programmatori può in ogni momento, in modo gratuito e volontario, contribuire a perfezionare.

Nella filosofia del free software questa comunità opera quasi esclusivamente quando il programma è messo a punto e distribuito, le modifiche sono diciamo aggiuntive, ma vi è una maggiore attenzione alla libertà degli utenti. “I due termini (free software e open source) descrivono più o meno la stessa tipologia di software ma fanno riferimento a due approcci con valori differenti. Open source è piuttosto una metodologia di sviluppo; il free software è un movimento sociale”, che vede nel free software un imperativo etico - affermano i promotori.

La dimensione pragmatica dell’open source e il ruolo centrale della comunità vengono enfatizzati nel celebre libro ‘La cattedrale e il bazar’, scritto da Eric Raymond e assunto a manifesto del movimento Open source. Al modello “cattedrale” fortemente gerarchico nel quale i programmatori lavorano allo sviluppo del software in modo isolato e circoscritto viene opposto il modello a “bazar”, nel quale il codice del programma è aperto e accessibile a tutti e tutti, se ne hanno le capacità, possono integrarlo e modificarlo. Secondo questo approccio, essenziali sono: la libera partecipazione degli utenti; il decentramento del potere decisionale affidato ad un team leader individuato dalla comunità stessa a partire dal riconoscimento delle sue competenze; il crearsi della comunità intorno a progetti di sviluppo specifici e il rispetto di un codice interno di comportamento.

I progetti come Linux, Apache, MySQL sono esempi del funzionamento di queste comunità intorno allo sviluppo di software open source.

 

Dimensione sociale e politica di Internet

Con il Web2.0, il diffondersi del modello Open source o del free software e l’avanzamento continuo nella produzione di nuove applicazioni in grado di facilitare l’accesso alla rete, gli utenti scoprono nuovi spazi e nuove finalità nell’uso di Internet, elaborano nuove forme di produzione e di scambio di informazioni (dai testi scritti, alle immagini, ai video, ecc.), creano nuovi codici e stili di comunicazione. Esempi sono Twitter, in cui il numero di caratteri che si possono usare per comunicare con gli altri è strettamente limitato o, più genericamente, l’uso di una sintassi nuova nella quale vengono utilizzati simboli, emoticon, abbreviazioni, ecc.

Accanto alla crescita del materiale prodotto e scambiato si sviluppano anche sistemi diversi che tutelano la privacy o i diritti d’autore: un esempio fra tutti è il marchio “copy left” che lascia a chiunque la possibilità di utilizzare, riprodurre ed anche modificare i contenuti prodotti da altri purché chi li utilizza non se ne arroghi la paternità e nel rispetto di alcune condizioni.

In entrambi i casi all’origine vi è l’interazione sempre maggiore tra gli utenti e l’affermarsi di una sorta di “paradigma delle comunità”; comunità che si costituiscono e si riconoscono proprio e per via dello scambio di informazioni e nella costruzione di “luoghi” condivisi e il cui accesso può significare “appartenenza ad un gruppo sociale”, identità, potere sociale, politico od economico, posizionamento culturale rispetto a forme artistiche, a ideologie, ecc. Intorno a questi temi si è focalizzata l’attenzione di esperti in varie discipline e se un tempo la questione principale riguardava i possibili effetti di alienazione individuale e sociale (Internet che assorbe gli utenti, annullandone le individualità e riducendone le competenze), negli ultimi anni l’attenzione si è spostata sullo studio della dimensione sociale e politica di Internet e su questioni strettamente correlate quali, ad esempio, il Digital Divide, l’informazione indipendente e l’esercizio della democrazia, lo sviluppo di competenze digitali e il ruolo dei sistemi educativi, la tutela della privacy.

 

Digital Divide

L’espressione “Digital Divide” emerge per la prima volta nel 1995 in un rapporto della U.S. National Telecommunications and Information Administration (NTIA); nel giro di pochi anni diventa familiare all’interno del dibattito internazionale, sia per chi si occupa di nuove tecnologie e comunicazione, ma anche per chi si occupa dei temi legati alla cooperazione e allo sviluppo. Inizialmente l’espressione indicava il divario tecnologico esistente tra le tecnologie di alcuni paesi o di alcune zone del pianeta e il diverso accesso ad esse da parte degli individui; successivamente ha assunto un senso più ampio, che mette in luce le differenze di ordine qualitativo nell’uso delle nuove tecnologie, ovvero la possibilità di poter accedere o meno ai contenuti da esse veicolati e la capacità di utilizzarle per diverse finalità e attività. L’Organizzazione per lo Sviluppo e la Cooperazione Economica (OECD/OCSE) propone di definire il Digital Divide come “il divario esistente tra individui, famiglie, imprese e aree geografiche a diversi livelli socio economici con rifetrimento sia alle loro opportunità di accedere alle ICT sia alla possibilità di utilizzare Internet per un’ampia varietà di attività. Il Digital Divide riflette molte differenze tra i diversi paesi”.[3]

Qualunque sia l’accezione utilizzata, nel momento in cui si parla di Digital Divide si fa di fatto riferimento ad un mondo diviso in due: coloro che dispongono e accedono alle tecnologie dell’informazione e della comunicazione (ICT) e le utilizzano per scopi diversi e coloro a cui questo accesso è negato o risulta fortemente limitato. Ci sono coloro che nell’ “era dell’accesso”, così come è stata definita la nostra epoca dallo studioso ed economista Jeremy Riftkin, accedono alle reti e sono dunque “dentro” e coloro che, non accedendo, restano “fuori”, estranei cioè al continuo scambio di informazioni e contenuti che quotidianamente avviene nelle reti e dall’infinito numero di relazioni che in questa si creano e si rafforzano.

L’ITU (International Telecommunications Union) è l’agenzia dell’Onu che si occupa di telecomunicazione a livello mondiale e ha definito il primo Indice di Accesso Digitale (DAI) successivamente perfezionato. Grazie ai dati dell’ITU sappiamo che nel 2009 il numero di utenti di Internet ha raggiunto i 500 milioni (erano 150 milioni nel 2004) e che continuerà a crescere; sappiamo però anche che la maggior parte di questi risiede nei paesi industrializzati e che solo un’esigua minoranza si trova nei Sud del mondo. In questi paesi dunque alle difficoltà economiche e sociali si aggiunge anche l’impossibilità di “stare al passo” con gli “altri” e di partecipare allo scambio economico, sociale e culturale che Internet veicola in un evidente circolo vizioso dove la scarsità di risorse impedisce la diffusione delle nuove tecnologie, l’educazione al loro utilizzo e dove il mancato accesso acuisce le distanze dai paesi più industrializzati.

Riconosciuto in più occasioni il ruolo essenziale della comunicazione come fattore di sviluppo, in quanto strumento di empowerment dei singoli e delle comunità, e delle potenzialità di Internet e delle ICT in questo campo, organizzazioni non governative e istituzioni internazionali e nazionali hanno indicato nell’ultimo ventennio alcuni interventi per ridurre questo “gap” tecnologico e informatico. Diversi sono i progetti realizzati nei Sud del mondo per cercare di superare alcune delle cause della insufficiente diffusione delle ICT e del mancato accesso ad Internet; cause che possono essere di ordine economico (costi della strumentazione o dell’energia, delle connessioni, ecc.) o di ordine socioculturale (discriminazione delle fasce più vulnerabili, non scolarizzazione delle donne, non investimenti nell’educazione, ecc).

Nella seconda metà degli anni Novanta, in India viene sperimentato il Simputer (Simple, In-expensive, Multilingual, Peoples Computer), un computer palmare a basso costo ideato da un gruppo di ricercatori e informatici di Bangalore; utilizza LINUX come sistema operativo, impiega le lingue locali e un sistema di schede magnetiche permette a più persone di utilizzarlo in una logica più comunitaria. Tra gli obiettivi del progetto vi era, infatti, quello di consentire alle comunità rurali la possibilità di comprarlo e di utilizzarlo. Nonostante gli sforzi, il Simputer non ha tuttavia raggiunto la diffusione sperata.

Numerosi sono stati negli anni anche i progetti finalizzati a garantire un flusso di informazioni più democratico e partecipativo o volti a facilitare l’innescarsi di partnership tra gruppi di persone residenti in paesi diversi attraverso l’accesso a semplici piattaforme o l’utilizzo di software non complessi. Tra questi anche Unimondo e il network mondiale OneWorld, che, per esempio, nei primi anni del 2000 aveva promosso un progetto per “collegare” alcune radio locali dei Balcani attraverso lo scambio di mp3 via Internet. OneWorld ha tutt’oggi un canale on line specificatamente dedicato all’ “inclusione digitale” con esperienze e notizie da diversi paesi.

A livello istituzionale l’Onu ha istituito il World Summit on Information Society (WSIS) con lo scopo di favorire l’accesso alla comunità dell’informazione a tutti i popoli affinché ogni individuo, ogni comunità possa utilizzarne le risorse per il proprio sviluppo secondo i principi della carta delle Nazioni Unite e secondo quanto definito nella Dichiarazione degli Obiettivi del Millennio. Il Forum prevedeva due fasi: la prima tenutasi nel 2003 a Ginevra, finalizzata alla definizione di una carta dei principi e di un piano di azione; la seconda, tenutasi a Tunisi nel 2005 finalizzata alla definizioni di accordi tra i paesi e alla messa in atto dell’agenda precedentemente definita. Nonostante le intenzioni, il summit di Tunisi è stato piuttosto contestato in quanto non ha portato alla definizione di un organismo internazionale e indipendente a cui affidare la governante di Internet né a significativi passi avanti nella risoluzione del Digital Divide.

Il progetto che più ha inteso contribuire al superamento del divario tecnologico è stato quello proposto da Nicholas Negroponte, ideatore di un computer a manovella acquistabile per 100$ e quindi più facilmente accessibile anche nei paesi più poveri. In occasione del summit di Tunisi è stato istituito un Forum Internazionale per la Governance di Internet (Internet Governance Forum) con sezioni in vari paesi e anche in Italia. Scopo dell’IGF è supportare le Nazioni Unite nel mantenere un dialogo tra stati, imprese, movimenti della società civile dei vari paesi sulla gestione di Internet e sulle relative tematiche. Il WSIS si è riunito diverse volte e sta attualmente preparando l’incontro del 2011.

L’Unione Europea ha messo a punto il documento ‘Agenda Digitale Europea per il 2020’ al fine di definire una strategia di sviluppo delle ICT e del loro utilizzo. Si legge nell’introduzione:

“L’agenda si prefigge di tracciare la strada per sfruttare al meglio il potenziale sociale ed economico delle TIC, in particolare di Internet, che costituisce il supporto essenziale delle attività socioeconomiche, che si tratti di creare relazioni d'affari, lavorare, giocare, comunicare o esprimersi liberamente. (…)”. [4]

 

Informazione indipendente e nuove frontiere di democrazia

Internet diventa anche strumento per l’informazione indipendente, per la promozione di campagne di denuncia delle violazioni dei diritti nei diversi paesi, per la sensibilizzazione su temi sociali e per la protesta, tutte attività che trovano nei blog, nelle TVweb e nei social network spazio e diffusione. Un esempio fra i molti, la protesta dell’Onda Verde in Iran in occasione delle ultime elezioni che è riuscita a raggiungere un audience mondiale proprio attraverso la rete: le immagini della protesta diffuse via web, l’uccisione di Neda, la ragazza divenuta simbolo del movimento e di cui su Youtube compaiono numerosi filmati, hanno avuto una eco tale da informare e sensibilizzare le società civili in molti paesi.

Risale, invece, alla metà degli anni Novanta l’esperienza messicana del Subcomandante Marcos che si serviva di Internet per diffondere i propri comunicati al fine di poter comunicare con il maggior numero di persone nel mondo. I giornalisti parlarono allora (1994) di “Rivoluzione via Internet”.

Secondo lo studioso Derrick De Kerckove, il cyberspazio mette in discussione le forme tradizionali della politica in quanto attraverso la rete gli utenti riescono ad inventare nuove forme di partecipazione e la continua produzione di informazioni, il costante proliferare di gruppi diversi, il loro espandersi al di là delle tradizionali frontiere, contrasta con la tendenza alla centralizzazione di stati e partiti. “La tendenza alla centralizzazione della politica è a ben vedere messa a repentaglio dalle decentralizzazioni e dalle azioni locali e globali dei blogger”. (De Kerckove, Transpolitica)

Sul sito di Unimondo, un articolo del 4/9/2010, ‘Bosnia Erzegovina: elezioni politiche e nuovi media”, fornisce una chiara esemplificazione della forza di Internet in ambito politico: “sono i siti di stampo attivista, pungenti e provocatori, quelli che sembrano essere riusciti a disturbare alcuni dei politici più scaltri, soprattutto nella Federazione della BiH, generando una catena di reazioni e smentite. L'uso combinato di siti e social network, soprattutto facebook ha riversato su questi politici in poco tempo un onda di ridicolo che ha raggiunto anche quella parte di popolazione esclusa da internet. Non solo, ma ha anche reso evidente il potere di fare notizia dei media online”.

Tuttavia, proprio per l’alto potere di influenza sull’opinione pubblica e per la capacità di “far uscire” informazioni e notizie solitamente taciute dai governi all’interno dei paesi, recentemente si è abbattuta sulla rete una forte censura e si è compreso che la rete può diventare anche uno strumento di forte controllo da parte dei poteri forti. I governi di Cina, Siria, Iran, di Cuba, della Turchia e di molti altri paesi hanno negli ultimi due/tre anni censurato e chiuso diversi website e provvedimenti sono stati presi anche verso i social network (Twitter e Facebook in particolare). L’organizzazione non profit Committee to Protect Journalists riportava nel 2009 un articolo nel quale si spiegava come, ad esempio, in Iran la repressione dei media on line e dei blogger sia diventata sempre maggiore a seguito delle ultime elezioni e dei movimenti di protesta. In un articolo del 2010 viene descritta, invece, la censura in Thailandia (32 sitiweb chiusi) sempre a seguito delle proteste contro il governo. Ma molti altri possono essere gli esempi. Sul sito di Reporter Sans Frontières una rubrica è dedicata ai “Nemici di Internet” con dati aggiornati sui comportamenti dei vari paesi.

Purtroppo la censura non prende le forme solo della chiusura dei siti web ma diventa anche violenza su giornalisti e blogger: “Su 125 giornalisti in prigione nel 2008 in 29 diversi stati del mondo, ben 56 lavoravano per testate on line o alla redazione di blog personali”. (Antologia 2. Unimondo).

 

Ruolo dell’educazione e competenze digitali

L’ affermarsi di Internet e del Web 2.0 ha spinto negli ultimi anni esperti di didattica e pedagogia ad indagare i possibili utilizzi della rete all’interno delle scuole, enfatizzando il valore della forte interazione tra gli utenti, i meccanismi collaborativi e la possibilità di accedere ad un ampio numero di informazioni. Un esempio è dato dalle piattaforme che permettono a gruppi della stessa scuola o di scuole di paesi diversi di interagire (si veda il programma e-twinning promosso dalla Commissione Europea, ad esempio), ma anche i blog e i siti prodotti con la partecipazione di studenti e ragazzi, invitati ad esplorare l’universo dei nuovi media e a parteciparvi con articoli, tv web, radio web, ecc. L’Agenzia dei Ragazzi ne è un esempio.

Sia a livello nazionale che a livello internazionale (‘Carta degli Obiettivi del Millennio’, ‘Quadro delle competenze europee, indicazioni ministeriali’viene oramai riconosciuta la necessità di investimenti finalizzati a sostenere quei percorsi di educazione formale o non formale che possano favorire l’acquisizione di competenze digitali da parte dei bambini, degli adolescenti, ma anche da parte di quelle persone diversamente abili o più vulnerabili.

 

Bibliografia

R. Stallman, Software libero, Stampa Alternativa, Roma, 2003, vol. 1

J. Rifkin., L’era dell’accesso. La rivoluzione della New Economy, Mondadori, Milano, 2000

S. Bentivegna, Disuguaglianze Digitali. Le nuove forme di esclusione nella società di informazione, Laterza, Bari, 2009.

V. Susca, D. De Kerckhove, Transpolitica. Nuovi rapporti di potere e di sapere, Apogeo, Milano, 2008.

P. Levy, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, Milano, 2004.

C. Gubitosa, La vera storia di Internet.

Reporter senza frontiere, Manuale per blogger e cyber dissidenti.

P. Ardizzone, P.C. Rivoltella, Media e tecnologie per la didattica, Vita e Pensiero, Milano, 2008.

 

Note:

[1] Definizione di Free Software data sul sito ufficiale della Free Software Foundation.

[2] Dal sito della Free Software Foundation.

[3]Digital divide” refers to the gap between individuals, households, businesses and geographic areas at different socio-economic levels with regard both to their opportunities to access information and communication technologies (ICTs) and to their use of the Internet for a wide variety of activities. The digital divide reflects various differences among and within countries”. Tratto da: Understanding Digital Divide, OECD 2001.

[4] Tratto da: Un’agenda Digitale Europea (in .pdf).

 

(Scheda realizzata con il contributo di Chiara Lugarini)

E' vietata la riproduzione - integrale o parziale - dei contenuti di questa scheda su ogni mezzo (cartaceo o digitale) a fini commerciali e/o connessi a attività di lucro. Il testo di questa scheda può essere riprodotto - integralmente o parzialmente mantenendone inalterato il senso - solo ad uso personale, didattico e scientifico e va sempre citato nel modo seguente: Scheda "Internet" di Unimondo: www.unimondo.org/Guide/Informazione-e-Cultura/Internet.

Video

Le origini di Internet