L'enciclopedia collaborativa Wikipedia - origini, influenze, pratiche odierne/Ipertesti nella rete

Ipertesti nella rete

../Introduzione ../Wikipedia IncludiIntestazione 7 marzo 2008 50% Tesi universitarie

Introduzione Wikipedia

I software collaborativi online che vanno sotto il nome di wiki costituiscono una singola tappa in un cammino più ampio volto a creare sistemi tecnici per la condivisione e l'organizzazione della conoscenza avviato alla fine della Seconda Guerra Mondiale e giunto fino ad oggi. Questi sistemi, finanziati dapprima per stimolare la ricerca scientifico-tecnologica nel blocco Occidentale, avrebbero posto le basi per un nuovo settore industriale innovativo nelle economie capitaliste a fronte di una sclerotizzazione delle economie pianificate basate sulla declinante industria pesante, che a metà degli anni Ottanta «segnavano pesantemente il passo rispetto all'Occidente» [Mazower 1998, 356-357]. Mentre i laboratori statunitensi (Internet) si dividono con quelli europei (Web) i meriti della ricerca di base, saranno gli Stati Uniti a saperne ricavare per primi un nuovo mercato. Non solo, come nota Castells, occuperanno importanti posizioni di potere nelle autorità di regolazione di Internet1, ma lasceranno anche un importante imprinting culturale libertario che culminerà con i movimenti per il software libero [infra §2.2.1], quelli per i diritti digitali e quelli per la revisione della legge sul copyright [infra §2.2.2], estesisi al resto del mondo di pari passo all'incedere delle multinazionali del software proprietario e degli oligopoli mediatici che insieme completano e contraddicono. Ortoleva [2002, 235-257] nota che se la società statunitense è stata la più ricettiva nell'accogliere innovazioni «despazializzanti» quali il telegrafo, la radio e Internet è perché ha fatto della rete acefala un ideale nazionale, necessario, seppur mai sufficiente, a non lasciare indietro la middle America rispetto alle capitali della comunicazione quali New York e Los Angeles. Al contempo questi strumenti sono stati visti come livellatori delle disparità sociali in una Internet idealizzata a medium democratico. Nella geografia della comunicazione, procede Ortoleva [2002, 242], il controllo privato delle reti di comunicazione negli Stati Uniti si accompagna al decentramento delle capitali della comunicazione mentre in Europa si sovrappone alla capitale politica. Già nel 1968, epoca della modernità solida e della burocrazia rigida2, David Riesman [in Bell et. al 1968, 369] notava come la mancanza di «un unico polo magnetico» derivante dalla separazione della capitale politica (Washington) da quella economica (New York) impedisse quella «centralizzazione francese, accademica e culturale, così come politica, [che] fa sì che tutto, al di fuori di Parigi, sembri provinciale». Insieme «realtà concreta e una proiezione ideologica» [Ortoleva 2002, 241], la rete acefala è il modello di sviluppo con cui è stata costruita Internet e con cui viene sviluppato e distribuito il software libero e, più recentemente, opere creative di tipo diverso come Wikipedia. Introdurrò brevemente la nascita dell'ipertesto e delle reti informatiche su lunga distanza, rispettivamente il codice e l'infrastruttura di base di Wikipedia.

“Consenso di massima e codice funzionante”

La nascita della prima rete informatica a lunga distanza può essere ricondotta al 1º ottobre 1969, quando i primi due router (denominati ancora IMP3) prodotti dalla BBN «cominciano a scambiarsi messaggi» dai laboratori di due università statunitensi, il Network Measurements Centre dell'UCLA e (diretto da Leonard Kleinrock) l'ARC di Stanford (Douglas Engelbart), costituendo i primi nodi di ARPANET. I miti di una Internet «frutto della ricerca militare» o «sviluppata dalle multinazionali dell'informatica» sono smentiti dalla realtà di un «ambiente pubblico di collaborazioni libere» reso possibile dai fondi dell'ARPA4 e ideato per supportare le «ricerche di base» nelle università, come dirà lo stesso allora direttore dell'ARPA Charles Herzfeld, e non come infrastruttura di comunicazione resistente ad attacchi nucleari5. Paul Baran della Rand Corporation aveva già provato a sottoporre la tecnologia al Pentagono, ma la proposta della Rand di una rete «decentrata e ridondante» fu rifiutata, anche per la forte opposizione del monopolista della telefonia analogica AT&T, cosicché Baran abbandonerà il suo proposito nel 1965. Lo stesso scarso interesse per la tecnologia accolse il progetto di una rete nazionale proposta dal fisico Paul Davies al General Post Office britannico. La NPL usò la commutazione di pacchetto (termine coniato dallo stesso Davies) per le reti di computer Mark I e Mark II6, e il progetto di Davies avrebbe potuto anticipare ARPANET nella seconda metà degli anni Sessanta [Beccaria 2005, 12-17, 52-53; Castells 2001, 22, 33].

Il terzo nodo di ARPANET (Università di California Santa Barbara) e il quarto (Università dello Utah) sono rispettivamente online in novembre e dicembre, mentre si arriverà al 15º nodo nel 1971, per superare i 50 nodi l'anno successivo. Questo sviluppo è guidato dall'IETF (Internet Engineering Task Force) e da pratiche di proposta di sviluppo come i Request for Comments (RFC). La collaborazione degli specialisti dell'IETF si basa sulla «adozione di due principi fondamentali»: «consenso di massima e codice funzionante» e «sviluppo prototipale»7. Bisognerà aspettare il 1974 perché Vinton Cerf e Robert Kahn propongano il TCP/IP, lo stack di protocolli alla base di Internet, e il 1982-1983 perché la rete militare (MILNET) si separi dalla rete civile (ARPA-Internet), amministrata dalla National Science Foundation sotto il nome di NSFNET, operativa dal 1984 fino al 1995 [Berra-Meo 2006, 128, 120-122, 129-135; Beccaria 2005, 47; Bardini-Friedewald 2002, 192; Castells 2001, 32].

World Wide Web

Fra la fine degli anni Ottanta e l'inizio dei Novanta del secolo scorso viene concepito e successivamente realizzato il World Wide Web. Figlio di matematici del gruppo di programmazione del Mark I8, Tim Berners-Lee ottiene nel 1980 un contratto di sei mesi presso il CERN di Ginevra per lavorare al sistema di controllo del protosincrotrone. Influenzato da una discussione che ebbe con il padre che stava cercando il modo di «creare un computer intuitivo, una macchina che fosse in grado di attuare collegamenti come il cervello biologico», Berners- Lee inizia a scrivere il suo «primo programma "retiforme"» in Pascal per organizzare il suo lavoro al CERN, che chiama Enquire9. Usa link ipertestuali per creare e collegare singole "schede", i nodi, rendendo così esprimibili le «associazioni casuali».

«Mi piaceva molto l'idea che un frammento d'informazione fosse definibile soltanto attraverso ciò a cui è collegato, e come. In realtà nel significato c'è ben poco altro. La struttura è tutto. [...] Tutto quello che sappiamo, tutto ciò che siamo deriva da come i neuroni sono collegati.»
([Berners-Lee 1999, 17, 15-25])

Sebbene sostenga che a quei tempi ne ignorasse i contributi [ibid., 18], il suo approccio è identico a quello seguito dal direttore dell'Office of Scientific Research and Development statunitense Vannevar Bush nell'articolo As We May Think apparso sulla rivista "The Atlantic Monthly" nel luglio 194510, in cui proponeva un apparecchio meccanico basato su tecniche fotografiche all'avanguardia e microfilm che chiamò memex:

«La nostra incapacità nel fruire dei nostri stessi archivi è in gran parte causata dall'artificiosità dei sistemi di indicizzazione utilizzati. Quando dei dati, di qualunque tipo, vengono immagazzinati, essi sono archiviati alfabeticamente o numericamente, e le informazioni vengono reperite (quando vengono reperite) ricercandole di sottoclasse in sottoclasse.»
([Bush 1945 cit. in Landow 1997, 30])
«La mente umana non funziona così, opera per associazione. Afferrato un argomento, salta al successivo suggerito dall'associazione di pensieri, allo stesso modo dei sentieri nelle cellule cerebrali. [...] L'uomo non può sperare di replicare artificialmente questo processo mentale, ma senz'altro dovrebbe essere in grado di imparare da esso.»
([Bush 1945, §6, tr. mia])

Ingombrante e costosa, una tale macchina ipertestuale dovrà attendere lo sviluppo della tecnologia elettronica e informatica per essere realizzata. Douglas Engelbart 11 lesse l'articolo di Bush quando era ancora nelle Filippine come operatore radar della marina militare statunitense o subito dopo [Engelbart 2000-07-25; Rheingold 2002, 333] e ne fu ispirato al punto che alla fine degli anni Cinquanta inizia a pensare ad un sistema tecnico per l'"accrescimento dell'intelletto umano" nella soluzione dei problemi fronteggiati da «diplomatici, dirigenti, scienziati sociali e naturali, avvocati, progettisti» a cui propone «un dominio integrato dove idee, empirico, intangibile e umano sentire coesistono efficacemente con concetti potenti, terminologie e notazioni semplificate, metodi sofisticati e dispositivi elettronici potenziati». Influenzato dalle idee di Benjamin Lee Whorf, approderà al bootstrapping quale metodo di sviluppo incrementale atto a fornire rapidi risultati ai committenti militari del progetto. Engelbart istituisce l'Augmentation Research Center presso lo Stanford Research Institute con i finanziamenti di ARPA, NASA e aviazione, sviluppando oNLineSystem (NLS): presentato l'8 dicembre 1968 12 , NLS diverrà il secondo nodo di ARPANET l'anno successivo [supra §1.1]. Come dispositivo di puntamento, Engelbart manovra una scatoletta con due rotelle e dei bottoni che soprannomina mouse, con cui lui e i suoi collaboratori navigano un ipertesto visualizzato a schermo da diverse postazioni, tutte appoggiate ad un singolo computer in time sharing. L'anno successivo NLS implementa Journal, una specie di forum di discussione delle proposte progettuali dei tecnici che lavorano al progetto, costituito da un database con funzioni di «indicizzazione e recupero dati» in un catalogo centralizzato di articoli automaticamente provvisti di identificativo e così collegabili fra loro. In cinque anni, il sistema accumulerà più di 30.000 articoli [Bush cit. in Bardini-Friedewald 2002, 192-193, 196-197; Berners-Lee 1999, 19].

In S/Z (1964) Roland Barthes descrive «una testualità ideale che coincide perfettamente con quello che in seguito è stato chiamato "ipertesto"» [Landow 1997, 22] in cui pensa ai «testi letterari in termini di reti a percorsi multipli» [Volli 2004, 196] dove ogni nodo è una lessìa. Un anno dopo, Theodor Nelson nel manifesto Computer Lib/Dream Machines immagina «un ipertesto aperto in grado di evolversi autonomamente, pensato per collegare tutte le informazioni del pianeta, passate, presenti e future» che chiama Xanadu [Castells 2001, 26]. Nell'idea di Nelson, Xanadu avrebbe dovuto permettere «scrittura, tracciabilità delle versioni, inclusione di citazioni» e un sistema di licensing13. Berners-Lee verrà a conoscenza del lavoro di Ted Nelson nel 1988, mentre lo incontrerà il giorno stesso in cui la società Autodesk deciderà di abbandonare il progetto.

Berners-Lee torna al CERN nel settembre 1984, dove è assegnato al "controllo e acquisizione dati" per la rilevazione dei dati degli esperimenti. Il sorgente di Enquire è andato perduto, così ricomincia a scrivere a tempo perso un programma simile, Tangle, che creava un nodo per ogni "sequenza di caratteri" in maniera simile a ciò che avrebbero fatto i primi wiki [infra §1.3]. «[L]'aspetto fondamentale sono le connessioni. Non sta nelle lettere, ma in come si uniscono a formare parole», frasi e documenti.

«Immaginai di inserire in questa maniera un'enciclopedia, quindi porre una domanda a Tangle. La domanda sarebbe stata ridotta in tanti nodi, che poi avrebbero fatto riferimento ai punti in cui apparivano all'interno dell'enciclopedia. Il groviglio risultante avrebbe contenuto tutte le risposte relative.»
([Berners-Lee 1999, 26]14)

Messo nel cassetto Tangle, Berners-Lee riscrive Enquire, pensando di utilizzare il TCP/IP come «ponte tra diversi sistemi operativi e reti» presenti al CERN. Nel marzo 1989 presenta una proposta formale [Berners-Lee 1990] per la progettazione di un sistema di documentazione interno, in cui immagina di «combinare i link esterni di Enquire con l'ipertesto e con gli schemi d'interconnessione» di RPC15 e propone un'infrastruttura tecnica che permetta di reperire e tenere costantemente aggiornate informazioni su personale e materiali a fronte della complessità organizzativa e dell'elevato turnover al CERN. Berners-Lee sostiene come questi siano problemi che si presenteranno nell'arco di dieci anni (siamo nel 1990) alla società intera, e la mobilità del capitale unita alla flessibilità del lavoro caratteristiche del capitalismo leggero [Bauman 2000, 173] non tarderanno a confermarlo. Come nel caso di NLS, anche il World Wide Web muove i primi passi quale strumento di lavoro fatto ed utilizzato da tecnici e finanziato con stanziamenti pubblici, a fronte della scarsa fiducia dei privati nel settore. Alla conferenza europea sulla tecnologia dell'ipertesto (ECHT) tenutasi a Versailles nel settembre 1990, Robert Cailliau e Berners-Lee si scontrarono con un approccio differente all'ipertesto delle aziende che allora operavano nel settore: mentre Berners-Lee ha in mente un «mondo ipertestuale vivente, in cui tutte le pagine cambiassero di continuo», le aziende pensavano piuttosto a una biblioteca di "libri elettronici" 16 , testi «prefissati e coerenti» schedati in un archivio centrale per mantenere consistenti i riferimenti (link) ai testi, «un enorme divario filosofico» prima che tecnico [Berners-Lee 1999, 36-37].

Il World Wide Web si basa su un tre elementi «in ordine decrescente di importanza, URI, HTTP e HTML, cioè gli identificatori universali, il protocollo di trasferimento e il linguaggio», gestiti da un programma lato server ed uno lato client che servirà a "sfogliare" le pagine sul server, denominato appunto browser [Berners-Lee 1999, 44]. Nel Natale 1990 il browser/editor WorldWideWeb è pronto: Nicola Pellow svilupperà un browser line mode per consentire l'utilizzo del client su tutte le macchine [Berners-Lee 1999, 38-39] e il primo server web che affiancherà info.cern.ch verrà installato allo SLAC 17 a Menlo Park (California) come sistema di documentazione. Decisivo sarà l'annuncio del Web sul newsgroup alt.hypertext, in cui verrà posto al vaglio di «una comunità accademica ipercritica», cultori di NeXT 18 e semplici appassionati. La comunità fornirà «feedback, stimoli, idee, contributi al codice sorgente e un appoggio morale», [Berners-Lee 1999, 51-52] che gli permetteranno di andare avanti con il suo lavoro [Castells 2001, 38] la stessa esperienza che sperimenterà Torvalds nello sviluppo di Linux [infra §2.2.1.1] e, più in generale, gli sviluppatori di software libero. La prima presentazione di rilievo del World Wide Web avviene ad Hypertext '91 19 , convegno svoltosi a San Antonio (Texas) fra il 15 e il 18 dicembre 1991, dove Robert Cailliau e Tim-Berners Lee mostrano il browser a ricercatori quali Douglas Engelbart [Berners-Lee 1999, 55-56]. Il CERN renderà di pubblico dominio il sorgente di client e server 20 Web il 30 aprile 1993, aprendo la strada alla commercializzazione della tecnologia [Berners-Lee 1999, 73-74]. Nel 1995 la chiusura di NSFNET avvierà la «privatizzazione di Internet», anticipata dalla NSF già dal 1992 con la creazione dell'Internet Society [Castells, 23-24, 40]. Si chiude l'era pionieristica, si apre l'era del Web come business su larga scala: ai finanziamenti governativi subentra il «capitale impaziente» [Sennett 2006, 33], ai ricercatori dei laboratori universitari i nuovi yuppie della New Economy, illusione di crescita perpetua destinata a sgonfiarsi con lo scoppio della bolla speculativa alimentata dal 1999. In quei mesi a cavallo del millennio, non sembrava eccessivo che una delle tante dot-com di belle speranze sulla costa orientale degli Stati Uniti potesse ambire ad avviare un intero progetto enciclopedico basato sugli eredi degli strumenti collaborativi immaginati da Bush, realizzati da Engelbart e potenziati dal Web di Berners-Lee, sposati con la filosofia di sviluppo del software open source. L'enciclopedia sarebbe stata scritta da volontari sul Web usando dapprima la posta elettronica, poi uno strumento che prometteva di annullare la distanza fra scrittura e pubblicazione: il wiki.

Wiki

Se il browser WorldWideWeb permetteva sia la lettura che la scrittura di contenuti, successivamente la componente di scrittura venne sacrificata rispetto alla visualizzazione. Solo con la diffusione dei database sul Web e dei linguaggi di scripting lato server 21 l'editing via browser prende la forma dei forum e dei weblog (blog), accompagnata dall'emergere di servizi di hosting gratuito. Prima dei weblog i forum si sono affermati ospitando discussioni in un ambiente grafico più accattivante di Usenet, accessoriati con avatar personalizzati in milioni di colori 22 , funzionalità assortite (es. sondaggi, user rights management), sistemi di moderazione ed un markup semplificato ispirato a HTML, il Bulletin Board Code (BBCode).

Oggi i wiki sono strumenti che sfruttano le medesime tecnologie di blog e forum e CMS 23 , ed usano una propria sintassi denominata wiki markup o wikitext 24 a cui possono essere mischiati altri linguaggi quali ad esempio HTML e TeX 25 , usato in Wikipedia per esprimere le formule matematiche con una sintassi più compatta e comprensibile rispetto a MathML (W3C), fogli di stile inline (tramite l'attributo style) e JavaScript, anche se il più delle volte il suo uso all'interno delle pagine scrivibili dagli utenti comuni è disabilitato per motivi di sicurezza 26 . Similmente agli altri strumenti del Web dinamico, un wiki inserisce un livello di elaborazione e controllo aggiuntivi fra scrittura via browser (wikitext) e presentazione in HTML, tradotto usando precise regole di conversione [Ebersbach et. al 2005, 14-16] di cui potete osservare un esempio nella fig. 1.

Figura 1: Sintassi utilizzata per link, immagini e tabelle in wikitext e HTML. Nell'ultima colonna il risultato in un browser visuale. Il piede di mosca ( ¶ ) indica un ritorno a capo obbligatorio (carattere non stampabile). Elaborazione mia, visibile anche in HTML e wikitext su <http://it.wikipedia.org/w/index.php?title=Utente:Dzag/markup&oldid=5570086>.

L'uso delle parentesi acute per distinguere i tag 27 e l'obbligo di chiuderli sempre rende l'HTML più difficile da leggere e apprendere del wikitext specie nella scrittura di elementi semplici, mentre negli annidamenti 28 la comprensibilità del wikitext segna il passo su HTML: uno dei pregi del linguaggio scritto da Berners-Lee è che ignora i caratteri esterni ai tag cosicché è possibile rendere più leggibile la struttura del testo usando spazi, tabulazioni e ritorni a capo, usati invece come delimitatori in wikitext (vedi gli a capo nelle tabelle). Prima di arrivare a MediaWiki, il motore wiki usato da Wikipedia di cui ho già introdotto la sintassi, è necessario introdurre il padre di tutti i wiki: WikiWikiWeb.

WikiWikiWeb

Il primo wiki è stato messo online dall'ingegnere informatico statunitense Ward Cunningham il 25 marzo 1995 come aggiunta al suo Portland Pattern Repository , una sezione che raccoglie «una storia incompleta dei principi di programmazione, scritta occasionalmente» 29 . Chiama il software Wiki Base e la sezione WikiWikiWeb. Il nome è scritto in Camel Case, dove le parole sono separate dalle loro maiuscole piuttosto che dagli spazi 30, mentre il termine wiki è di origine hawaiana 31. Interpellato da una lessicografa dell'Oxford University Press, Cunningham motiva la scelta del nome con la pratica del raddoppiamento di specifici delimitatori nei dialetti wikitext, ad es. apici (corsivo), a capo (paragrafo) per mutare aspetto o funzione di blocchi di testo32.

Wiki Base è uno script Perl che si occupa di memorizzare le pagine di WikiWikiWeb come file di testo in una singola directory Linux. Il dialetto wikitext viene convertito al volo in HTML quando giunge al server CGI33, la richiesta della pagina, e il visitatore ottiene a schermo il testo correttamente formattato con link esterni attivi, parole in Camel Case convertite in link interni alle voci, link a immagini trasformati in elementi immagine HTML e così via. In coda al testo della pagina, trovano spazio i comandi di modifica, ricerca e rimando a voci correlate 34. A differenza dei successori, all'originario WikiWikiWeb manca l'interfaccia di navigazione globale35, presente in ogni pagina, a cui sostituisce una maggiore densità di link interni nelle singole pagine, mentre lo stesso titolo della pagina funge da link alle pagine che la citano.

MediaWiki e gli altri

Nonostante WikiWikiWeb sia ancora operativo con il software originario (Wiki Base), un decennio dopo la comparsa del primo wiki sono disponibili circa duecento36 cloni che ne riproducono e ne evolvono le funzionalità, ottimizzano la memorizzazione delle voci (usando DBMS) e utilizzano linguaggi di programmazione più potenti (ad es. PHP). Rimangono invece intatti gli assunti fondanti dell'approccio wiki, enumerati retrospettivamente da Cunningham alla pagina WikiDesignPrinciples: libera modifica, scalabilità dei contenuti in evoluzione incrementale e organica, tracciabilità delle modifiche, rappresentatività dei titoli delle voci, riduzione delle ridondanze tramite un uso estensivo dei link interni, markup intuitivo. Come cardini della collaborazione sui wiki Cunningham pone la fiducia, il divertimento e la condivisione della conoscenza, preoccupazioni comunque secondarie rispetto ai principi di progettazione del sistema 37che li rendono possibili. La progettazione dello strumento tecnico diventa così l'espressione affatto neutra di una precisa serie di assunti ideologici: per i wiki di Cunningham come per il Web di Berners-Lee, «la struttura è tutto» [supra §1.2], come dimostra un breve scambio fra Wales, Cunningham e Sanger alla voce WikiPedia su WikiWikiWeb ai tempi dell'avvio di Wikipedia:

«La mia domanda a questa stimata comunità Wiki è: Pensate che un Wiki potrebbe produrre con successo una valida enciclopedia? -- JimboWales

Sì, ma infine non sarebbe un'enciclopedia. Sarebbe un wiki. -- WardCunningham»
(38)

Sanger allora si affrettò a sostenere quanto la cultura di Wikipedia fosse differente da WikiWikiWeb , essendo questa più concentrata sul progetto enciclopedico. Più tardi ammetterà di aver negato per mesi che Wikipedia fosse una comunità «pretendendo che invece fosse solo un progetto enciclopedico» quando invece «Wikipedia fu dall'inizio una comunità ed un progetto enciclopedico» vedendo in questa sottovalutazione dello strumento e della cultura wiki la radice del problema di governance 39 su Wikipedia.

Tra i numerosi cloni wiki, Wikipedia utilizza inizialmente UseModWiki sviluppato da Clifford Adams nel 1999 su un software wiki (AtisWiki, basato su CvWiki) discendente da Wiki Base : il funzionamento è essenzialmente simile al suo "bisnonno", l'archivio è memorizzato in file di testo in una directory. Il 25 agosto 2001 viene creato su SourceForge 40 uno spazio per il progetto Wikipedia, anche noto come Phase II del software per Wikipedia. Lo sviluppatore principale è lo studente tedesco Magnus Manske, già collaboratore in Nupedia, che utilizza PHP come linguaggio di programmazione dello script e il DBMS MySQL per l'archiviazione delle voci. Il 25 gennaio 2002 Wikipedia passa così a Phase II e il 20 luglio a Phase III, che assumerà il nome di MediaWiki: il software è rilasciato sotto GNU GPL e dunque aperto al contributo degli sviluppatori indipendenti 41 secondo le pratiche della comunità software libero / open source . MediaWiki è oggi usato come software collaborativo (groupware) in alternativa o a complemento dei CMS in particolari progetti di organizzazioni commerciali, politiche e culturali [Ebersbach et al. 2005, 255-258] (tra parentesi il campo di azione): Free Software Foundation, Mozilla Foundation (sviluppo software libero), Creative Commons, SourceWatch (attivismo), Wikia (wiki hosting) sono alcuni esempi di siti wiki nello spazio Web pubblico 42. Allargando la ricerca a tutti gli altri cloni si trovano numerosi altri wiki: il GCN Wiki del Gruppo Coordinamento Newsgroup italiani, il wiki del progetto Debian 43 , fino ad arrivare ad Intellipedia, il wiki privato 44 della rete Intelink delle 16 agenzie di intelligence statunitensi reso noto recentemente 45 . A fronte di un uso piuttosto diffuso, sono molto pochi i wiki realmente attivi sul Web: per capire l'attività di una comunità wiki basta un'occhiata all'elenco per data ed utenti delle ultime modifiche (Recent Changes), e un rapido confronto con il numero di articoli scritti 46 . Particolarmente attivi e brillanti risultano essere i wiki basati su comunità di appassionati di film o serie televisive. Un esempio è l'Encyclopaediae Pokémonis, composta da tre wiki in lingua, inglese (3.814 voci), giapponese (1.653) e tedesco (1.614), tecnicamente separati ma riuniti in un webring e accomunati dall'uso di MediaWiki e della medesima licenza Creative Commons per i contenuti 47 . Diverse comunità di questo tipo, come Memory Alpha e Wookieepedia, sono ospitate su Wikia.com 48 , che può essere considerato uno spin-off commerciale dei princìpi provati su Wikipedia, come afferma Angela Beesley, cofondatrice del servizio insieme a Wales nel 2004 49.


Note

  1. Ad esempio l'ICANN (Internet Corporation for Assigned Names and Numbers) istituita nel 1998 dal governo statunitense [Castells 2001, 41-42].
  2. I due termini sono rispettivamente di Bauman [2000] e Sennett [2006].
  3. Interface Message Processor.
  4. 2 miliardi e mezzo di dollari richiesti da Eisenhower al Congresso nella corsa tecnologica contro l'Unione Sovietica [Berra-Meo 2006, 122]. Il dipartimento dell'ARPA a cui è assegnato il progetto è l'Information Processing Techniques Office (IPTO) costituito nel 1962 [Castells, 22]. Di seguito parlerò genericamente di ARPA.
  5. Questa convinzione sorvola tra l'altro l'utilizzo iniziale della commutazione di circuito al posto della commutazione di pacchetto in ARPANET [Berra-Meo 2006, 129].
  6. Solo omonimi del precedente Manchester Mark I (1949) a cui lavorarono i genitori di Berners-Lee, dato che la rete Mark I è del 1970 [Beccaria 2005, 53].
  7. In ingl. «rough consensus and running code» e «fly before buy» [Berra-Meo 2006, 132]. Le traduzioni sono mie. Il termine "fly before buy" è tuttora utilizzato negli ambienti della Difesa statunitense per definire un sistema di sviluppo degli armamenti (principalmente aerospaziali) alternativo al total package procurement concept (TPPC). Il TPPC, introdotto dal segretario alla Difesa Robert S. McNamara durante l'amministrazione Kennedy, assegnava sviluppo e produzione all'appaltatore principale, portando a lievitazioni di costi rispetto alle stime e sopratutto a gravi malfunzionamenti sul campo di battaglia, tanto che solo uno su 22 sistemi d'arma sviluppati con il TPPC risultarono esenti da difetti nella guerra nel Sud-est asiatico fra il 1965 ed il '70. Su incarico dell'amministrazione Nixon, nel 1969 il vicesegretario alla Difesa David Packard (cofondatore della Hewlett-Packard) sostituì il TPPC con il metodo "fly before buy", contraddistinto da «dettagliati rapporti sulle acquisizioni, stime dei costi più realistiche, più precisi requisiti operativi, analisi tecniche di rischio, minore sviluppo concorrente in favore della pianificazione sequenziale e il ritorno alla pratica di costruire prototipi, anche da mettere a confronto fra gli appaltatori». Cfr. Lawrence R. Benson, Acquisition Management in the United States Air Force and its Predecessors, Air Force History Support Office, Bolling (D.C.) 1997, <https://www.airforcehistory.hq.af.mil/Publications/fulltext/AcquisitionManagementinTheUSAirForce.pdf>, 31-35, tr. mia.
  8. Per maggiori dettagli su questo computer, cfr. Early computers at Manchester University, "The Bulletin of the Computer Conservation Society", vol. 1 n. 4 (1992), <http://www.cs.man.ac.uk/CCS/res/res04.htm#g>.
  9. Preso in prestito da Enquire Within upon Everything, «un ammuffito volumone di consigli pratici di epoca vittoriana [...] un portale su un intero universo di informazioni, a proposito di qualsiasi argomento» [Berners-Lee 1999, 15].
  10. Una veloce rassegna sui pionieri dell'ipertesto è in Ciotti – Roncaglia, Il mondo digitale, ISBN 88-420-5974-9, pp. 328-330. La scheda è altresì reperibile su <http://www.mediamente.rai.it/mediamentetv/learning/ed_multimediale/lezioni/07/sc_07_02.htm>, il sito della trasmissione RAI a cui hanno collaborato. In Italia, MediaMente è stato un punto di riferimento per la divulgazione al grande pubblico di temi inerenti alle nuove tecnologie negli anni Novanta. Per testi più approfonditi si rimanda alla bibliografia.
  11. Un ottimo punto di partenza riguardo ai contributi di Douglas Englebart e di altri pionieri dell'ipertesto come Ted Nelson è il sito <http://www.invisiblerevolution.net/>, in cui sono raccolte numerose interviste in formato audio. Sfortunatamente le trascrizioni non sono disponibili.
  12. L'intero filmato della dimostrazione, di eccezionale valore storico, è disponibile su <http://www.invisiblerevolution.net/video-68-large.html> (pagina) e <http://www.invisiblerevolution.net/68-full-lg.mov> (video).
  13. Fleur Klijnsma intervista Ted Nelson, < http://www.invisiblerevolution.net/ted-xanadu.mp3 > 1'26", tr. mia. Berners-Lee sostiene che l'intransigenza di Nelson sui meccanismi di pagamento, che prevedevano l'immediata retribuzione dell'autore, e le difficoltà di attuarli su ampia scala sono cause del fallimento del modello Xanadu [Berners-Lee 1999, 66-67].
  14. Come già in Bush, ritorna l'enciclopedia come primo esempio di applicazione dei meccanismi dell'ipertesto [Bush 1945, §7].
  15. Remote Procedure Call, un protocollo per eseguire programmi anche a distanza. Per maggiori dettagli vedi Dave Marshall, Remote Procedure Calls (RPC), < http://www.cs.cf.ac.uk/Dave/C/node33.html >.
  16. Il termine "libro elettronico", tornato in voga negli ultimi anni, è stato coniato da Andy VanDam per il suo Dynatext (EBT) [Berners-Lee 1999, 37].
  17. Stanford Linear Accelerator Center, un centro di ricerca sulla fisica delle alte energie dell'università di Stanford per il Dipartimento dell'Energia statunitense. Sito ufficiale <http://slac.stanford.edu/>.
  18. La macchina su cui Berners-Lee stava sviluppando il browser.
  19. Il testo dell'annuncio della conferenza è su <http://www.w3.org/Conferences/HT91/CallForParticipation>.
  20. Inizialmente Berners-Lee propendeva per la licenza GNU GPL [infra §2.2.1.2], ma il cattivo esempio di gopher e le pressioni degli imprenditori del settore lo convinsero a chiedere al CERN il rilascio sotto pubblico dominio [Berners-Lee, ibid.].
  21. Si tratta di codice eseguito appunto sul computer che ospita il sito e non su quello di chi richiede la pagina. Questo livello aggiuntivo permette tra le altre cose di estrarre dati da un database e presentarli come HTML all'utente, che con un semplice browser potrà conoscere informazioni memorizzate in database come lo stato del suo conto in banca.
  22. Gli utilizzatori di Usenet avevano allo scopo l'header X-face, progenitore degli avatar attuali, che consentiva immagini monocromatiche 48×48px tradotte in testo semplice. La conversione avveniva originariamente con il comando compface, anche se ora sono disponibili convertitori via web, ad es. < http://www.dairiki.org/xface/ >. Il manuale di compface, aggiornato al 25 gennaio 1990 dice: «compface è un filtro per generare rappresentazioni altamente compresse delle facce in file immagine formato 48x48x1». Cfr. comando man compface su GNU/Linux. X-face è ancora utilizzato, sebbene non tutti i newsreader lo interpretino.
  23. Content Management System. Plone < http://plone.org/ > è un esempio piuttosto diffuso di CMS, rilasciato sotto GNU GPL.
  24. Dato che non esiste uno standard comune, si dovrebbe parlare di dialetti Wikitext, di cui quello usato su Wikipedia è solo il più conosciuto. Cfr. <w:en:Wikitext>.
  25. TEX è un linguaggio ideato da Donald Knuth nel 1984 per il programma di typesetting omonimo. Pressoché sconosciuto ai più, riscuote maggiore successo negli ambienti scientifici. Una buona fonte di informazioni in italiano è il Gruppo Utilizzatori Italiani di TEX (GuIT) <http://www.guit.sssup.it/>.
  26. Su Mediawiki [infra §1.3.2] ad es. il flag $wgAllowUserJs, una sorta di "interruttore" software nel file di configurazione principale, era abilitato fino alla versione 1.3.10. Cfr. <http://www.mediawiki.org/wiki/Manual:%24wgAllowUserJs>.
  27. Convenzione in uso per SGML, cui Berners-Lee si è ispirato. «Non ho mai pensato che il codice sorgente di HTML [...] fosse visibile agli utenti [...]. Un browser/editor avrebbe fatto vedere o editare all'utente soltanto una pagina di ipertesto, come se stesse usando un word processor. Per me [...] l'idea di chiedere al pubblico di battere a mano le parentesi era inaccettabile» [Berners-Lee 2001, 48-49].
  28. Ossia l'inserimento di un contenuto marcato in un altro contenuto marcato, es.: Grassetto Corsivo: in wikitext è '''Grassetto ''Corsivo'''''; in HTML è <b>Grassetto <i>Corsivo</i></b>. Anche le tabelle più complesse risultano spesso più comprensibili in HTML che non in wikitext.
  29. Cfr. < http://c2.com/cgi/wiki?InformalHistoryOfProgrammingIdeas >.
  30. Si noti l'analogia con WorldWideWeb, nome del primo browser/editor HTML [supra §1.2].
  31. In hawaiano, wikiwiki significa molto veloce, dove wiki sta per veloce.
  32. Ward Cunningham, Correspondence on the Etymology of Wiki, <http://c2.com/doc/etymology.html>.
  33. Common Gateway Interface, protocollo che permette di eseguire determinati programmi sulla macchina server. In questo caso è usato per convertire un testo semplice in HTML. I linguaggi di scripting server side ora svolgono la maggior parte delle funzioni che una volta erano possibili con solo con CGI.
  34. Data la struttura squisitamente non-lineare di WikiWikiWeb, queste informazioni sono diffuse su numerosi nodi tra cui segnalo: c2:MoreAboutTheDatabase, c2:MoreAboutTheTranslator. La prima pagina è c2:WelcomeVisitors.
  35. In Wikipedia e nei wiki che usano Mediawiki si tratta della pagina MediaWiki:Sidebar, sostanzialmente un indice del sito che compare a sinistra di ogni pagina assieme alle funzioni di ricerca e rimando già viste in WikiWikiWeb
  36. Cfr. Ebersbach et al. 2005, 17. Per informazioni aggiornate, vedi anche la lista "canonica" su WikiWikiWeb c2:WikiEngines e il confronto fra i cloni wiki più noti su w:en:Comparison_of_wiki_software.
  37. Cfr. c2:WikiDesignPrinciples.
  38. < http://web.archive.org/web/20020703080558/http://c2.com/cgi/wiki?WikiPedia >, registrata sull'Internet Archive il 3 luglio 2002. La versione attuale è c2:WikiPedia, tr. mia.
  39. Lascio inalterato il termine, ormai piuttosto diffuso, e riciclo la definizione di Stefano Viviani, traduttore di Castells 2001: «Il termine governance racchiude l'ambivalenza di un processo di gestione "spontaneo" dal basso e di "governo" dall'alto» [Castells 2001, 39]. Sanger [2005-04-19] lamenta come un "governo" dall'alto sia impossibile senza meccanismi di revisione e controllo.
  40. Sito specializzato nella gestione di progetti open source.
  41. Cfr. <w:en:UseModWiki, <w:en:User:Magnus_Manske>, <w:en:Wikipedia:MediaWiki>; <w:it:Wikipedia:Il_giorno_di_Magnus_Manske>. Il sito ufficiale del software è <http://www.mediawiki.org/> mentre lo spazio su SourceForge è <http://sourceforge.net/projects/wikipedia/>.
  42. In ordine: < http://gplv3.fsf.org/wiki/ >, <http://wiki.mozilla.org/>, <http://wiki.creativecommons.org/>, <http://www.sourcewatch.org/>. Un elenco ben più ampio e aggiornato è su <http://www.mediawiki.org/wiki/Sites_using_MediaWiki>.
  43. Cfr. <http://wiki.news.nic.it/>; <http://wiki.debian.org/>.
  44. Sebbene in questo lavoro mi soffermi sui casi d'uso sul World Wide Web, i wiki possono difatti essere usati nelle intranet di organizzazioni che rendono così accessibili i suoi dati all'interno della propria rete privata.
  45. Intellipedia, basata sul software MediaWiki, il 17 aprile 2006 contava 28.000 articoli e 3.600 collaboratori. U.S. intelligence unveils spy version of Wikipedia, "Reuters.com", 2006-10-31. <http://www.reuters.com/article/politicsNews/idUSN0123738920061101>; Wikipedia for Intel Officers Proves Useful, National Defense Magazine (online) <http://www.nationaldefensemagazine.org/issues/2006/November/SecurityBeat.htm#Wik>. Vedi anche la voce Intellipedia sulla Wikipedia in lingua inglese <w:en:Intellipedia> e la relativa pagina di discussione.
  46. MediaWiki ad esempio dispone della variabile NUMBEROFARTICLES, un contatore in tempo reale delle pagine presenti nel database e spesso riportato nella prima pagina del sito. Come impostazione predefinita, il software riporta anche il numero di volte in cui la pagina è stata richiesta da un browser: si tratta di un dato poco significativo per valutare il numero di visitatori differenti, perché sono conteggiate tutte le richieste, indipendentemente dall'IP del client.
  47. Dati aggiornati al 28 ottobre 2006.
  48. Rispettivamente <http://www.memory-alpha.org/> e <http://starwars.wikia.com/>, tra i più vasti e popolari wiki ospitati su Wikia.
  49. Sulla sua pagina utente all'indirizzo <http://en.wikipedia.org/w/index.php?title=User:Angela&oldid=83370463>, 2006-10-24. Angela Beesley è stata membro del Consiglio direttivo della Fondazione Wikimedia dal giugno 2003 al settembre 2006. Cfr. <http://wikimediafoundation.org/w/index.php?title=Consiglio_Direttivo&oldid=16191>, 2006-10-29