Il sociologo, la sociologia e il software libero: open source tra società e comunità/Capitolo 5

CAPITOLO 5
UN APPROCCIO COSTRUTTIVISTA PER COMPRENDERE LA CULTURA TECNOLOGICA

../Capitolo 4/3 ../Capitolo 5/1 IncludiIntestazione 20 agosto 2011 75% Tesi universitarie

Capitolo 4 - 3 Capitolo 5 - 1



La teoria neo-funzionalista di Luhmann sposta il processo conoscitivo dai sistemi cognitivi ai sistemi di comunicazioni operanti in condizioni di chiusura, dove sia possibile, quindi, riconoscere un sistema in un ambiente attraverso l'indicazione e l'osservazione complessa, cioè osservazione di osservazioni, in quanto la realtà non è data, è di per se inconoscibile e quindi non è di per sé osservabile direttamente. La conoscenza in qualche modo ha bisogno di dispiegarsi attraverso la condivisibilità operativa preclusa ai sistemi cognitivi. La percezione e la coscienza, di per sé non si possono trasferire. La conoscenza si dispiega all'interno di un sistema auto-poietico - cioè che riproduce necessariamente i suoi elementi ai fini della sua continuità – e come tale non può che essere autoreferenziale, cioè costruita.

Questo approccio alla conoscenza visto in termini generali è molto astratto, lo stesso concetto di sistema è “ancorato” a dei confini concettuali che devono essere indicati (definiti) di volta in volta. La questione diviene pertanto quella di individuare quel sistema che contenga il fenomeno “informatica aperta” ed il fenomeno “informatica chiusa” e quali gli aspetti della conoscenza che si dispiegano al loro interno, e come questi sistemi si compenetrino.

Rispetto ad un concetto generale o classico di conoscenza, la conoscenza tecnologica è più facilmente riconducibile, anche intuitivamente a qualcosa di costruito. Se gli approcci epistemologici che si sono susseguiti nella storia riguardano il dilemma di come sia possibile la conoscenza di un oggetto autonomo dai sistemi cognitivi, qui il problema non si pone: l'informatica, come la tecnologia in genere, riguarda indubbiamente una costruzione all'interno di un sistema, tanto che considerare la conoscenza tecnologica alla stregua della conoscenza problematica di una realtà altra rispetto a qualsiasi scelta selettiva soggettiva o quantomeno riconducibile ad una necessità di procedere nei sui confronti in modo pubblicamente accettato, può sembrare quantomai bizzarra se non irrispettosa.

Se utilizziamo gli strumenti che Luhmann ci mette a disposizione il dilemma non dovrebbe sussistere, poiché il presupposto dell'impossibilità della conoscenza della realtà esterna quand'anche sia plausibile la realtà esterna, mette qualsiasi conoscenza sullo stesso livello. Non può esistere in termini concettuali una conoscenza più costruita di un altra dal momento che la realtà è inconoscibile, in ogni caso si tratta, secondo l'approccio di Luhman, di una costruzione radicale, cioè totale.

Resta il fatto che questo approccio ci sembra molto fecondo. È evidente un immanente relativismo della scienza informatica nel suo aspetto software autonomo, rispetto alla logica circuitale del livello hardware che risponde invece alle leggi della fisica riconducibile ad una conoscenza sottoposta ai processi di legittimazione, verificazione, riproducibilità, falsificazione e via dicendo. L'informatica si sottrae a questo processo dialettico di legittimazione o più esattamente definisce in modo molto più autonomo i criteri di validità. È radicalmente autoreferenziale e autopietica. Infatti nessuno può stabilire analiticamente, a-priori se il computer si debba spegnere con un procedimento piuttosto che con un altro. È una scelta arbitraria di chi costruisce il sistema, o di esperti di ergonomia che indicano al programmatore come procedere e quali metafore usare. Un semplice esempio: nei sistemi UNIX per visualizzare il contenuto di una cartella si usa il comando “ls”, nei sistemi DOS il comando “dir”. Nei sistemi UNIX la metafora è “case sensitive” cioè “LS” non funziona, nei sistemi DOS è invece “case insensitive”. Nei sistemi Gnu/Linux invece funzionano entrambe le matafore tanto “dir” quanto “ls” ma sola in modalità “case sensitive”. Queste differenze sussistono solo a livello di metafora, in sintesi lo stesso microprocessore controllato da un sistema Gnu/Linux non fa cose diverse se controllato da un sistema UNIX o DOS. Quello che diventa la nostra “cultura informatica” sono le metafore scelte da altri che solo per una questione di “buon senso”, e a volte neppure quello1, hanno deciso di chiamare un comando con un nome piuttosto che con un altro, di associarlo ad un tasto piuttosto che a un altro.

Alberto Cevolini nell'introduzione a “Conoscenza come costruzione” (Luhmann, 2007) spiega come:

[...] Heinz Von Foester radicalizza la differenza fra auto ed eteroreferenza sostenendo che per evitare contraddizioni non ci si dovrebbe limitare a dire che la mappa non è il territorio (Korzybski) ma che la mappa della mappa non è il territorio ..

dal punto di vista informatico la situazione è ben peggiore e si potrebbe dire che la “metafora della mappa della mappa non è la realtà”. In questo caso non funziona l'analogia con la lingua. Anche nelle diverse lingue esistono diversi suoni per indicare le stesse cose, addirittura esistono suoni simili per indicare cose diverse: i cosiddetti falsi amici o interferenze linguistiche che sperimenta chiunque studi una lingua straniera. La differenza sostanziale verte sul fatto che la lingua, a differenza delle metafore informatiche, è frutto di una negoziazione collettiva sui significati lungo un arco evolutivo che si perde nella notte dei tempi. Per l'informatica non è così, una metafora è frutto di una scelta arbitraria di un singolo programmatore o di una software house fatta in modo del tutto autonomo, spesso in tempi stretti e in modo frenetico per rispettare tempi di consegna o per battere sul tempo la concorrenza.

Se vogliamo rendere operativa questa metafora della mappa della mappa dovremmo quindi supporre una “realtà informatica” cioè supporre che almeno sia possibile “la mappa della mappa della realtà informatica”. La risposta è positiva, la condizione è la negoziabilità sul codice. Innanzi tutto è necessario eliminare la ricorsione della metafora sulla metafora e questo avviene considerando le scienze informatiche operanti su di un livello più basso, più astratto e meno mediato, che non necessita di metafore o comunque non ha bisogno di considerarle come “conoscenza” ma semplicemente come una convenzione tra le tanti possibili. La realtà informatica diventa in, questa prospettiva, il paradigma scientifico (Thomas Kuhn, 1979) valido in quel determinato momento, spesso destinato ad essere falsificato e sostituito in tempi brevissimi, è il compromesso su cui si addensa consenso attraverso quel processo che Zacchiroli nell'intervista del 7 luglio 2010 chiama “show me the code” che ha come criterio di validità la conferma empirica del migliore funzionamento rispetto ad un dato precedente (versione precedente):

[...] cioè si fa vedere che un cambiamento di cui si sta discutendo da secoli è possibile, una volta che c'è l'evidenza in termini di codice che il cambiamento è possibile è più facile che collettivamente si decida che quella è la via giusta.

Questo ci permette di fare queste considerazioni: il software proprietario non può permettersi di condividere il codice, perché tale paradigma scientifico entra in contraddizione con il paradigma economico della limitazione delle risorse. Ma resta comunque la necessità della condivisione, almeno operativa, perché questo è ciò che a sua volta consente la domanda economica di software. Quindi nell'ambito dell'informatica proprietario l'idea di “cultura informatica” è spostato su un livello ancora più mediato e cioè sulla metafora della “mappa della mappa della mappa del territorio”; nell'ambito del software libero e dell'open source la cultura, pur ricomprendendo il livello “metaforico” fa suo anche il livello di condivisione più basso della “mappa della mappa territorio”. Zacchiroli nell'intervista del 17 luglio 2010 evidenzia questi due livelli di condivisioni pur menzionandoli in un contesto diverso della sua esposizione:

[...] Nel caso di Debian è un caso diverso dai LUG (Linux Users Groups), se non altro per un motivo di scala, i LUG sono formati da gente che già si conosce, se qualcuno si approccia a Gnu/Linux si iscrive alla mailing list, si fa conoscere, il mese dopo o relativamente poco dopo partecipa alle riunioni locali, e quindi conosce subito le persone fisicamente, quindi non c'è quello che spesso è un problema in Debian ed il fatto che essendo un progetto su scala internazionale.

Quindi a livello di LUG avviene la condivisione delle “metafora” in un contesto locale, mentre nel contesto globale avviene la condivisione sul livello della “mappa della mappa”. Nei diversi LUG si può occasionalmente discutere di patch, di algoritmi e di bugs ma le discussioni più frequenti riguardano, oltre all'organizzazione di eventi, la richiesta di aiuto sul funzionamento e non sulla costruzione.

Un procedimento informatico può quindi essere progettato in molti modi diversi. Proprio l'approccio costruttivista consente di usare senza troppi problemi il termine “virtuale”, anzi il “virtuale” enfatizza ancora di più il concetto di costruito, significa già un reale in negativo. Alla fine abbiamo definito il virtuale, ma questo percorso è comunque utile per prospettare un campo di indagine.

Muoversi nella rete, spedire un messaggio di posta elettronica, navigare, usare i programmi di videoscrittura, di contabilità, gli accessori multimediali, i videogiochi; e per i più “colti” programmare, configurare, installare e via dicendo fa parte di un modo consueto di agire per ore, mesi, anni con schemi di senso che diventano parte integrante della nostra visione del mondo.

Ciò che invece è drammatico è l'autonomia con cui questa realtà viene costruita da altri in modo arbitrario, ma potenzialmente anche malevolo. La questione verte sul fatto che mentre la realtà costruita a cui si riferisce Luhmann riguarda una costruzione che sfugge al controllo dell'uomo perché sistemica, la realtà virtuale è costruita da altri uomini consapevolmente. Accanto alla conoscenza che possediamo costruita dalla coazione del sistema cognitivo con il sistema sociale, deteniamo una sempre maggiore quota di conoscenza costruita nell'ambito di processi pianificati che sfuggono alla dialettica della falsificazione. Il concetto di falsificazione introdotto da Popper va oltre il più semplice concetto di verificazione, è più attinente alla necessità che un paradigma, così come un software, si esponga alla critica della comunità scientifica e questo è possibile solo con il codice aperto. Questo significa che il software chiuso, secondo un approccio popperiano non è scientifico perché si sottrae alla critica sul piano scientifico attraverso la chiusura, e alla competizione sul piano economico attraverso il monopolio. Non è quindi così avventata l'idea che il codice dei sistemi debba essere reso intelligibile e quindi aperto, che debba essere reso falsificabile secondo principio di Karl Popper. Ciò significa che la realtà virtuale, per il peso che occupa nella conoscenza all'interno dei sistemi sociali, deve essere resa accessibile alla critica altrimenti dovremmo rassegnarci ad accettare una conoscenza costruita arbitrariamente e sottratta alla riflessività collettiva.