Dalle dita al calcolatore/XIII/14
Questo testo è stato riletto e controllato. |
◄ | XIII - 13 | XIII - 15 | ► |
14. La matematica
Questa disciplina può essere considerata la “madre” dei calcolatori, in quanto questi sono nati come evoluzione naturale delle calcolatrici, ma è certo che ne è anche diventata la “figlia”, in quanto è stata modificata profondamente dal nuovo strumento.
L’uso corretto e completo delle possibilità offerte dagli elaboratori ha dato un impulso importantissimo allo sviluppo di alcune parti della disciplina che erano state trascurate, come la teoria dei grafi, lo studio della notazione numerica espressa in basi diverse da dieci, gli studi sulla decidibilità e sulla computabilità dei problemi, le tecniche di calcolo numerico, gli studi sulla formalizzazione a vari livelli, ecc.
Rispetto alla decidibilità e alla computabilità dei problemi, studi molto importanti furono condotti, tra il 1930 e il 1940, dal matematico inglese A. Turing, sulla scia di Gödel. Egli sviluppò le idee precedenti, ipotizzando “macchine programmabili” non meglio definite, che non si curò di costruire ma intorno alle quali svolse le sue riflessioni. È interessante notare come i suoi studi abbiano preceduto di pochi decenni la costruzione delle macchine reali, i calcolatori, che avrebbero dato sostanza materiale al suo pensiero. Dopo la seconda guerra mondiale, Turing iniziò a interessarsi alla realizzazione pratica degli elaboratori, collaborando alla costruzione di “EDSAC” e di altre macchine analoghe. Purtroppo morì giovane nel 1953.
La disponibilità di macchine capaci di gestire modelli matematici complessi, come quelli utilizzati dai calcolatori, richiese una specifica struttura teorica. Nacque così verso la fine degli anni settanta la teoria dei sistemi. Questo strumento ha permesso di elaborare modelli di eventi economici, biologici, fisici, ecc., di una potenza assolutamente inimmaginabile.
Fino alla comparsa dei computer, i matematici si erano occupati essenzialmente di due tipi di problemi: quelli inerenti ai numeri piccoli e quelli inerenti all’infinito. Le ragioni sono abbastanza chiare: i numeri piccoli sono analizzabili con attività di calcolo semplici, mentre l’infinito è analizzabile logicamente, non essendo sottoponibile a calcolo. I calcolatori hanno invece permesso di affrontare il settore dei numeri finiti grandi.
Nella teoria dei numeri il calcolatore ha prodotto un fenomeno paragonabile a quello che in astronomia si è avuto con la comparsa del telescopio. Analizziamo alcuni eventi significativi: il primo si ebbe quando L.J. Lander e T.R. Parking dimostrarono l’esistenza di una soluzione per l’equazione a5 + b5 + c5 + d5 = e5. Tale equazione era stata data per irresolubile da Eulero; successivamente, J. Dieudonné aveva dimostrato che l’affermazione di Eulero conteneva alcune imprecisioni. La scoperta della soluzione, data dai numeri 27, 84, 110, 133, 144, fece sensazione, anche perché fu ottenuta con diverse ore di calcolo effettuato per tentativi.
Si può osservare come il metodo di esplorazione dei numeri “per tentativi” offra uno strumento capace di estendere molte proprietà, definite come valide oltre un certo N per N opportunamente grande, assegnando loro una validità generale. Se il calcolatore si occupa di esaminare i casi più piccoli di N è possibile risolvere il problema, ma un lavoro di questo tipo prevede l’esame di molte migliaia se non milioni di casi, ed è affrontabile solo con l’uso del calcolo automatico, che lo risolve con un intervento di potenza e non certo di ragionamento.
Questa scelta apre però vari problemi; infatti si definisce dimostrata un’asserzione se un ragionamento costituito da un numero finito di passaggi permette di arrivare alla sua dimostrazione. Fino alla comparsa dei calcolatori, la cosa era apparsa ragionevolmente chiara, ma ora si pone il problema di quale sia il numero limite di tentativi accettabile, o in altre parole di quale sia il numero oltre il quale smettere perché ci si è “avvicinati” abbastanza all’infinito.
Un altro caso di dimostrazione eseguita al calcolatore che destò scalpore fu la soluzione dell’annoso problema dei “quattro colori”: l’esperienza insegna che è possibile colorare una carta geografica utilizzando solo quattro tinte ed evitando di assegnare a due regioni contigue lo stesso colore; il problema se questa proprietà fosse universale e dimostrabile era stato sollevato nel 1852, ma da allora aveva resistito ad anni di ricerche e di tentativi di soluzione.
Sul piano teorico questa proprietà era stata dimostrata valida per cinque colori, ma nessuno era stato capace di dimostrare che quattro colori fossero sufficienti; i numerosi matematici che avevano affrontato il problema erano riusciti solamente a individuare alcune caratteristiche generali e alcune classificazioni che riducevano i casi possibili da infiniti a molte migliaia, ma a questo punto avevano dovuto fermarsi.
Nel 1976 K. Appel e W. Haken ottennero una “dimostrazione” attraverso l’impiego di 1200 ore di tempo- macchina di un elaboratore ad alta velocità; questo esaminò tutti i casi possibili e fornì la risposta richiesta. Il dipartimento di matematica dell’Università dell’Illinois, sede dell’impresa, emise un timbro postale, “four colors suffice”, per ricordare l’avvenimento, ma alcuni matematici non furono altrettanto entusiasti.
Un’elaborazione effettuata con 1200 ore di calcolo ad alta velocità assomiglia molto da vicino a una serie infinita, o comunque di dimensioni tali da essere completamente fuori dal nostro controllo di esseri umani. Un’altra caratteristica delle dimostrazioni, oltre alla finitezza del numero dei passaggi, deve essere la possibilità, per chiunque^ di controllare la validità della dimostrazione stessa. E ben chiaro che solo un altro calcolatore può ripercorrere tutti i passaggi della “dimostrazione” in questione, per cui alcuni sostengono che non è stato dimostrato nulla, essendo in gioco solo un problema di “fede”.
Ma è avvenuto un terzo fatto, ancora più “scandaloso” dei precedenti: il matematico francese Fermat aveva individuato nel 1640 un test che permetteva di escludere la primalità di alcuni numeri. Il teorema dice che se un numero N è primo e B è un altro numero intero, allora bn − b è multiplo di N; da questa affermazione si può trarre un test che ci dice se B sia primo o no.
I numeri che superano questo tipo di test vengono detti pseudoprimi, perché, al loro interno, esistono ancora i numeri cosiddetti di Carmichael, che pur superando il test non sono primi. Questi numeri sono molto pochi. I numeri primi inferiori a 20 miliardi sono esattamente 882.206.716: se si eseguisse il test di Fermat in base 2 su tutti i numeri compresi tra 1 e 20 miliardi, la percentuale di errori, e cioè di numeri pseudoprimi, sarebbe di circa uno su un milione.
Negli anni settanta due studiosi dell’Università di Berkeley misero a punto una variante del test di Fermat per dimostrare la primalità di un numero, e dimostrarono che se un numero passava il loro test la probabilità che si trattasse di uno pseudoprimo era inferiore o uguale a uno diviso 10 30, una probabilità tale da essere molto superiore al livello di “sicurezza” di molte “dimostrazioni”. Alcuni hanno osservato che un livello tale di “incertezza” (ma sarebbe più corretto definirla “certezza”) potrebbe essere accettato come dimostrazione matematica della primalità del numero che passi il test.
Questo risultato pone ovviamente una serie di problemi che riguardano il concetto stesso di certezza matematica e di dimostrazione: il livello di certezza raggiunto mediante il test proposto è tale da imporre una distinzione tra i concetti di dimostrazione e di certezza, separandoli. In questo modo però si mette in discussione una parte consistente dell’intelaiatura stessa del pensiero matematico, abituato a collegare la certezza solo alla dimostrazione, e a separare nettamente le affermazioni probabili da quelle dimostrate e perciò considerate certe.
Si può dire tranquillamente che risultati di questo genere impongono un ripensamento dalle fondamenta dei concetti stessi di certezza e di dimostrazione di una proprietà per un certo ente matematico.
Oltre a tutto ciò, la comparsa dei calcolatori ha permesso di allargare lo studio delle serie matematiche. In precedenza, questo studio si limitava all’esplorazione di quelle serie il cui sviluppo fosse regolare: si poteva infatti ragionare sul valore del termine ennesimo in base alle linee di tendenza mostrate dalla serie nei suoi primi elementi. Ora invece l’esplorazione si è allargata a quelle serie che, pur non essendo definibili mediante formule, possono essere analizzate mediante il loro algoritmo di sviluppo. Esse possono avere andamenti molto strani, e a volte l’unico modo di conoscere il termine ennesimo consiste nel percorrere tutta la serie fino a quel termine: una cosa del genere è possibile, ovviamente, solo per un calcolatore, se N è abbastanza grande.
Queste nuove serie si chiamano attrattori strani proprio per il loro andamento imprevedibile.
Un altro gruppo di enti esplorabili unicamente mediante la definizione del loro algoritmo e lo sviluppo dello stesso sono gli automi cellulari, enti che “vivono” in uno spazio reticolato riproducendosi o morendo in base alle condizioni delle celle circostanti. Se vogliamo esprimerci in un linguaggio più matematico possiamo dire che, ad ogni ciclo di calcolo, ogni elemento di una certa matrice assume un valore, scelto in un insieme finito in base ai valori degli elementi contigui.
Questi nuovi strumenti matematici, gli attrattori strani e gli automi cellulari, sono applicabili alla modellizzazione di fenomeni fisici che fino ad ora erano sfuggiti a una rappresentazione matematica proprio per il loro andamento irregolare.
La novità introdotta da questi studi consiste nel fatto che l’ente viene definito non mediante una formula, ma attraverso l’esplicitazione dell’algoritmo che lo genera; tale impostazione logica richiede, a differenza della precedente, la disponibilità di una potenza di calcolo che percorra materialmente tutti i passi che separano la condizione iniziale dall’elemento da considerare. Questi enti, in altre parole, sono inconoscibili se non si dispone di una potenza che trascenda di molti ordini di grandezza quella degli esseri umani in se stessi.
Di peso apparentemente inferiore è un’altra serie di fenomeni inquadrabili nel contesto delle abitudini operative: per esempio, quella di risolvere problemi, anche semplici, sfruttando la potenza di calcolo dell’elaboratore e non più gli algoritmi – eleganti ma lenti – che erano di uso corrente alcuni anni fa e che tuttora sono materia di insegnamento nelle scuole. Tali algoritmi avevano il difetto di essere applicabili solo al calcolo manuale, richiedendo ogni problema un ragionamento a sé, come nel caso delle equazioni differenziali. Queste ultime vengono oggi affrontate con tecniche di calcolo numerico messe a punto negli ultimi decenni, mentre una volta esse esigevano un lavoro molto complesso, ma, per l’appunto, più “elegante”.
Come abbiamo già detto e come emerge ampiamente dalle analisi appena fatte, la matematica sta vivendo una fase di profonda trasformazione della sua stessa struttura logica e delle sue possibilità di comprendere il reale e di costruire e gestire con dinamismo modelli nuovi, più complessi e dotati di maggiore aderenza alle cose. È una trasformazione grandiosa, i cui effetti non siamo ancora in grado di prevedere e apprezzare nella loro totalità.