Dalle dita al calcolatore/XIII/6
Questo testo è stato riletto e controllato. |
◄ | XIII - 5 | XIII - 7 | ► |
6. La programmabilità
Il periodo cruciale per la nostra storia è la seconda guerra mondiale, quando i contendenti danno il massimo per realizzare strumenti che eseguano in maniera rapida ed efficace i calcoli richiesti dallo sforzo bellico: calcolo delle traiettorie di proiettili di vario tipo, massiccia ricerca scientifica e tecnologica tesa a realizzare armi sempre più potenti, attività di decrittazione dei messaggi del nemico, ecc.
In Germania un ingegnere, Konrad Zuse, realizzò tra gli anni 1935 e 1945 diverse versioni di un calcolatore programmabile a relais, ma il suo lavoro fu prima impedito e poi bloccato dalle vicende della guerra, tanto che non ebbe sviluppi di rilievo.
Nel campo avverso, invece, i risultati principali furono raggiunti negli Stati Uniti, ma la ricerca che portò al risultato finale ebbe inizio qualche anno prima. Nel 1927 Ben Wood, professore di psicologia alla Columbia University, attese alla preparazione di una macchina che raccogliesse ed elaborasse automaticamente i risultati dei test. Da questi studi nacque il “TEST SCORER 805”, una macchina capace di eseguire una certa sequenza di operazioni. Proseguendo lungo questa direzione di studi, verso la metà degli anni trenta un gruppo di scienziati coordinati da Wallace Eckert, dell’Astronomical Computing Bureau “Thomas Watson”, si servì di macchine tabulatrici per eseguire i calcoli necessari agli studi astronomici. Queste macchine, tuttavia, erano incapaci di risolvere più di un problema per volta.
È di questi anni la massima diffusione nelle varie ditte di uffici meccanografici, nei quali “plotoni” di impiegati compiono i calcoli necessari alla conoscenza dello stato della produzione, dell’andamento delle vendite, ecc.
Nel 1944 Howard H. Aiken, dell’Università di Harvard, produce il primo calcolatore aritmetico universale, collegando in serie tra di loro 78 calcolatrici a relais: nel complesso, la macchina contiene 3300 relais: il suo nome è MARK 1.
Prima della guerra, il professor John Atanassoff, dello Iowa State College, aveva progettato un calcolatore basato sull’uso di valvole termoioniche, ma non aveva avuto i mezzi per realizzare le sue idee. John Mauchly, ex collaboratore di Eckert, impiegato presso la Moore School, venuto a conoscenza del progetto, lo realizzò con i fondi dell’esercito, così nel 1946 entrò in opera “ENIAC” (Electronic Numerical Integrator And Calculator).
A dire il vero, la programmabilità di “ENIAC” era alquanto limitata, e così pure le sue capacità di memoria, ma comunque si trattava di uno strumento funzionante. Esso operò in un primo tempo presso la scuola di ingegneria elettronica dell’Università di Pennsylvania, e poi fu trasferito al Centro Studi Balistici dell’esercito ad Aberdeen. Occupava una superficie di centottanta metri quadrati, e pesava circa trenta tonnellate.
Nel 1945, lo scienziato di origine ungherese John von Neumann, che operava presso l’MIT nell’ambito to degli studi relativi alla realizzazione di bombe atomiche, inizia a progettare un nuovo calcolatore: la macchina di von Neumann riceveva il programma come serie di istruzioni che memorizzava in un settore “libero” della sua memoria, quindi una “unità di governo” leggeva sequenzialmente la serie e procedeva all’esecuzione dei vari passi, prelevando i dati da altre zone opportune della memoria stessa.
Il fatto che il programma fosse memorizzato sotto forma di numeri permetteva che la sequenza variasse in base ai risultati intermedi dell’elaborazione in corso, e questa è una possibilità fondamentale che segna il passaggio dal calcolatore all’elaboratore.
Il calcolatore realizzato sulla base delle idee di von Neumann, lo “EDVAC”, entra in funzione nel 1951 al Centro Studi Avanzati dell’Università di Princeton, e dispone di una quantità di memoria dell’ordine di grandezza del centinaio di locazioni.
Le idee su cui era basato l’“EDVAC” si sono affermate e hanno segnato tutto lo sviluppo della tecnologia dei calcolatori fino ai giorni nostri. È infatti solo negli ultimi anni che nei supercalcolatori si sta mettendo a punto un’architettura differente, basata non più sulla unicità della sequenza da eseguire, ma piuttosto su un parallelismo di azione tra diverse unità logiche.
Il primo grosso passo avanti fu la nascita delle memorie a nuclei magnetici, che sostituirono le valvole termoioniche. Divenne così possibile dotare le macchine di quantità di memoria molto più alte, intorno alle migliaia di locazioni.
Il secondo passo fu la comparsa dei transistor che, verso la fine degli anni sessanta, hanno sostituito le valvole termoioniche nella funzione di organi di elaborazione e calcolo; anche questi componenti sono molto più piccoli, affidabili ed economici, per cui hanno permesso un ulteriore passo in avanti.
La sostituzione delle valvole era un’esigenza fondamentale perché queste offrivano sì prestazioni buone, ma a costi altissimi e con una frequenza di guasti assolutamente insostenibile.
Dai transistor si passò naturalmente ai circuiti integrati, fino a che nel 1974 il fisico italiano Faggin, che operava in America per la Intel, mise a punto un circuito integrato che conteneva tutta la struttura di un elaboratore in un unico chip, portando quindi le dimensioni, il costo e l’affidabilità della macchina ad un livello tale da permetterne la produzione in serie con costi molto bassi.
Già cinquemila anni fa la strada della tecnologia matematica si era incrociata con il silicio. L’argilla, di cui erano costituiti i calculi dei Sumeri, ha come elemento principale proprio il silicio, e i nostri antenati la trattavano mantenendola in forma amorfa. Oggi, la costruzione dei circuiti integrati consiste proprio nell’ottenere opportune cristallizzazioni di silicio.
I circuiti integrati hanno permesso anche la costruzione di memorie dell’ordine prima delle decine di migliaia, poi delle centinaia e attualmente dei milioni di locazioni, a costi trascurabili. Dobbiamo ricordare che gli anni sessanta videro la diffusione generalizzata della televisione in bianco e nero e la nascita di quella a colori; comparve la registrazione magnetica; le automobili si imposero come mezzo di trasporto a livello di massa; gli elettrodomestici (lavatrici e frigoriferi) divennero un bene indispensabile; in quegli anni si ebbe poi la corsa allo spazio con il programma “Apollo”. Furono insomma anni di grande espansione economica. La popolazione mondiale passò dai tre ai quattro miliardi di individui.
Questi sviluppi della tecnica hanno rivoluzionato la possibilità di far entrare i dati nelle macchine e di ottenerne risultati. Sono state create unità stampanti capaci di scrivere i risultati direttamente in forma decimale su carta, senza passare attraverso la fase delle schede perforate; si è potuta utilizzare una tastiera dattilografica come unità per l’immissione diretta di dati e istruzioni, è diventato reale ed economico l’uso del tubo a raggi catodici, come strumento per indirizzare messaggi all’utente, ma soprattutto si sono potuti impiegare nastri e dischi magnetici.
Le unità magnetiche permettono di immagazzinare dati e programmi in forma molto stabile, economica, facilmente e rapidamente accessibile al calcolatore. La validità di tale forma di ingresso-uscita di informazioni è così accentuata da consentire addirittura lo sviluppo di queste unità come memorie accessorie per la macchina durante la fase di elaborazione. Si inizia a parlare di memorie “di massa”.
Oggi, la diminuzione dei costi e delle dimensioni degli elaboratori e l’aumento di potenza ottenuti in questi quarant’anni di sviluppo esprimono un tasso di perfezione inconfrontabile con alcun’altra tecnologia nella storia dell’umanità. Si pensi, ad esempio, che attualmente si trovano in commercio, a un prezzo che può arrivare alle centomila lire, macchine di gran lunga più potenti di “ENIAC”, costato a suo tempo alcuni milioni di dollari. Analogamente, si è passati dai centottanta metri quadrati di “ENIAC” a pochi decimetri quadrati, raggiungendo una riduzione valutabile intorno ai cinque ordini di grandezza.
Per la potenza, se ci limitiamo alla velocità di calcolo, l’incremento è “solo” di tre o quattro ordini di grandezza, a seconda delle macchine, ma l’incremento reale è molto maggiore per la migliorata possibilità di colloquio tra utente e computer, per la superiore complessità delle macchine e per la grande facilità di accesso ai dati necessari alle elaborazioni.
I fantastici miglioramenti ottenuti sono legati al fatto che in questo settore è stata investita, in ricercabase e applicativa, una quantità di capitali che non ha paragoni nella storia dell’umanità intera.
Infatti, l’enorme vastità di applicazioni di queste macchine ha fatto sì che sostanziose quote degli investimenti destinati, per esempio, alla conquista dello spazio o alla ricerca nucleare o ad altri settori ancora fossero in pratica rivolte alla produzione di calcolatori e programmi sempre più perfezionati. Il fatto che tale tecnologia fosse già in fase di avanzata espansione, ha funto poi da agente catalizzatore di tutti gli sforzi ed energie disponibili.
Oggi, la tecnologia digitale di elaborazione sequenziale ha invaso anche campi nei quali si erano affermate impostazioni differenti, come il settore della riproduzione musicale, della misurazione, ecc., fino a pochi anni fa appannaggio esclusivo di una tecnologia analogica.
Bisogna comunque ricordare che il prevalere di un certo orientamento cognitivo e organizzativo presenta anche dei limiti, oltre ad innegabili vantaggi: viene cioè inibito lo sviluppo di altri approcci ugualmente possibili.
In senso più ampio, il tutto si potrebbe configurare come una perdita globale di potenzialità, più consistente dell’effettivo guadagno ottenuto. tuttavia, come vedremo in seguito, gli ultimissimi anni hanno decretato il rilancio su solide basi dell’architettura parallela.