Il primo vero computer vide la luce alla fine del 1950 a Princeton, in New Jersey. Montato, usando in gran parte residuati bellici, in un unico blocco di cemento fatto costruire dall’Institute for Advanced Studies, venne chiamato MANIAC (acronimo di Mathematical Analyzer Numerical Integrator and Computer, ossia “Calcolatore e integratore numerico e matematico”). Il suo primo compito fu di eseguire i calcoli necessari per progettare il prototipo della bomba all’idrogeno. Il mattino del primo novembre 1952 l’ordigno che quei calcoli avevano reso possibile esplodeva in gran segreto sopra Elugelab, un isolotto del Pacifico, disintegrandolo insieme a ottanta milioni di tonnellate di corallo.
Il computer, per così dire, fu quindi “concepito nel peccato” (Jim Holt, “Quando Einstein passeggiava con Gödel”, Mondadori, 2019). La sua nascita, infatti, contribuì ad accrescere smisuratamente la capacità distruttiva delle superpotenze durante la guerra fredda. D’altronde, il principale responsabile della creazione del MANIAC, John von Neumann, era uno dei più suoi più accesi combattenti e fautore di un attacco militare preventivo contro l’Unione Sovietica. Stanley Kubrick si ispirò a lui per il personaggio del Dottor Stranamore, il protagonista di uno dei suoi capolavori cinematografici (1964).
Lo scienziato, ebreo ungherese, era stato assunto appena trentenne dall’Istituto nel 1933. Cresciuto a Budapest durante il crepuscolo dell’impero asburgico, aveva assistito dopo il primo conflitto mondiale all’effimero regime comunista di Béla Kun; esperienza che lo aveva reso, per usare le sue parole, un “feroce anticomunista”. Tornato in Europa verso la fine degli anni Trenta per corteggiare la sua futura seconda moglie, Klári, aveva lasciato il continente dominato da un’implacabile avversione anche per i nazisti. Come ha scritto lo storico della scienza George Dyson, era animato dalla “determinazione a non permettere più al mondo libero di ritrovarsi nella posizione di debolezza militare che aveva prodotto i compromessi con Hitler” (“La cattedrale di Turing. Le origini dell’universo digitale”, Codice, 2012).
Von Neumann sul finire della Seconda guerra mondiale si trasferì a Los Alamos, dove era stato reclutato per le sue competenze matematiche sulle onde d’urto. I suoi calcoli portarono allo sviluppo delle “lenti di implosione”, responsabili delle reazione a catena della bomba atomica. A tal fine, si avvalse di alcune macchine tabulatrici meccaniche requisite a Ibm. L’ex matematico puro fu conquistato dal loro potere, che rendeva possibile fabbricare una macchina universale (“general purpose”), capace cioè si svolgere simultaneamente funzioni diverse.
In realtà, il suo progetto lo aveva segretamente promosso l’esercito, che aveva bisogno di strumenti rapidi per calcolare le tavole di tiro dell’artiglieria. Il risultato fu ENIAC (acronimo di Electronic Numerical Integrator and Computer, vale a dire “Calcolatore e integratore numerico elettronico”), costruito all’Università di Pennsylvania. I suoi inventori, John Presper Eckert e John Mauchly, avevano creato un aggeggio mostruoso, composto da decine di migliaia di tubi. Un prodigio di ingegneria, ma estremamente faticoso da gestire. Per programmarlo, i tecnici dovevano spendere intere giornate di lavoro per ricollegare cavi e reimpostare interruttori a mano.
Sfruttando in parte le idee di Eckert e Mauchly, verso la fine della guerra von Neumann abbozza l’idea di un computer universale. Nella relazione che la illustrava, omette però di citare proprio colui che per primo lo aveva immaginato: Alan Turing. Era stato infatti il giovanissimo fellow del King’s College a gettare le basi dell’innovazione che più ha segnato il Novecento: una macchina in grado non solo di effettuare calcoli numerici, ma qualunque operazione descrivibile mediante un algoritmo, cioè una successione di istruzioni eseguibili in modo automatico. In altre parole, una macchina (hardware) in grado di decodificare e simulare le istruzioni, ossia i programmi (software), per avere la “macchina universale”. E i computer sulle nostre scrivanie sono esattamente come Alan li aveva pensati: macchine che, come tutte le macchine, sanno fare soltanto un numero finito di operazioni, ma che fanno quelle giuste.
“La storia del calcolo digitale — ha osservato Dyson — può essere divisa in un Vecchio Testamento in cui i profeti, Leibniz in testa, hanno fornito la logica, e in un Nuovo Testamento in cui i profeti, von Neumann in testa, hanno costruito le macchine. Alan Turing si colloca tra il Vecchio e il Nuovo Testamento”. Nel 1954 il presidente Eisenhower nominò von Neumann membro della commissione per l’energia atomica; e, con la sua partenza per la cultura informatica dell’Istituto di Princeton iniziò il declino. Nel 1957, dopo essersi convertito al cattolicesimo muore di cancro alle ossa. Il 15 luglio 1958 MANIAC venne spento per l’ultima volta. I suoi resti riposano ora nella Smithsonian Institution di Washington.
La vera alba dell’universo digitale, in conclusione, non spuntò negli anni Cinquanta, quando il congegno del matematico ungherese iniziò a macinare i calcoli termonucleari. Spuntò invece nel 1936, quando Turing, allora ventiquattrenne, disteso su un prato dopo una delle sue abituali lunghe corse, concepì la sua macchina astratta per risolvere un problema di pura logica. Come von Neumann, nel Secondo conflitto mondiale svolse un ruolo cruciale dietro le quinte. Il 4 settembre 1939 era arrivato a Bletchley Park, una villa monumentale situata una cinquantina di miglia a nord-ovest di Londra. Insieme a un team di matematici, gli viene assegnato il compito di decifrare il codice Enigma. Il suo inventore, Arthur Scherbius, l’aveva brevettato nel 1918 per venderlo a banchieri e uomini d’affari. Potenziato dai tecnici del Terzo Reich per scopi militari, era contenuto in una minuscola cassetta di legno, con una tastiera da macchina per scrivere standard. Per violarla, occorreva però fare i conti con circa duecento milioni di combinazioni possibili.
Per fortuna, Turing non doveva partire da zero. Infatti, già nel 1932 tre matematici dell’università di Poznan — Marian Rejewski, Henryk Zigalski e Jerzy Rózycki — avevano compreso che se il codice era generato da una macchina, poteva essere decodificato da un’altra macchina. Alan si mette subito all’opera con Joan Clarke, la sua principale collaboratrice. Il 18 marzo 1940 a Bletchey viene installata “Victory”, soprannominata Bomba per il suo ticchettio costante. Era un modello trecentomila volte più veloce di quello realizzato dai polacchi, ed era costata un decimo del prezzo di un bombardiere Lancaster. “Agnus Dei”, la seconda Bomba, viene piazzata ad agosto. Mentre infuriava la battaglia d’Inghilterra, le trasmissioni della Luftwaffe venivano ormai regolarmente intercettate; anche quelle che confermavano la rinuncia all’invasione della Gran Bretagna pianificata dal Führer.
Turing e i suoi hacker ante litteram erano considerati da Winston Churchill come “oche dalle uova d’oro che non schiamazzano mai”. Nel maggio del 1941 a Whiteall, sede del governo, vengono insigniti di un’onoreficenza e ricevono un bonus in denaro. Allora erano già riusciti a decrittare anche i messaggi della Kriegsmarine, neutralizzando gli attacchi dei sottomarini U-boat ai mercantili inglesi che trasportavano cibo e beni di primaria necessità. Con la sconfitta dei “lupi dell’Atlantico”, l’Inghilterra non correva più il pericolo di essere affamata. Nel frattempo, uno degli assistenti di Turing, l’ingegnere telefonico Tommy Flowers, aveva cominciato a progettare nei laboratori di Dollis Hill un prototipo di computer elettronico digitale. Nel gennaio del 1944 Colossus era già operativo a Bletchey. In effetti, era gigantesco: aveva le dimensioni di una stanza e pesava una tonnellata. Elaborando venticinquemila caratteri al secondo, forniva agli Alleati preziose informazioni sui piani del nemico. Con la costruzione del Colossus, antenato dei microprocessori Intel, Flowers aveva dimostrato che era possibile realizzare la macchina di Turing.
Tuttavia, il servizio reso al suo paese rimase un segreto di stato ancora a lungo dopo la sua scomparsa nel 1954, a due anni di distanza dalla sua condanna per “atti osceni gravi” (allora la legge nota come “emendamento Labouchere”, che sarà abolita solo nel 1967, li puniva con pene severe, anche se compiuti da adulti consenzienti dello stesso sesso). Oggi è una gloria del Regno Unito. Times lo ha incluso nella lista dei cento personaggi più influenti del Novecento. Dopo una petizione popolare, nel 2009 il premier Gordon Brown si è scusato con i suoi connazionali per il martirio giudiziario che gli è stato inflitto. Sollecitata dalla comunità scientifica, nel 2013 la regina Elisabetta gli ha concesso la “grazia postuma di stato”.
Del resto, come diceva François-René de Chateaubriand, “Gli uomini di genio sono generalmente figli del loro secolo; ne sono come la sintesi; ne rappresentano i lumi, le opinioni e lo spirito, ma pure talvolta nascono troppo presto o troppo tardi. Se nascono troppo presto, prima del loro secolo naturale, restano ignorati; la loro gloria ha inizio soltanto dopo di loro, quando è sbocciato il secolo cui avrebbero dovuto appartenere; se nascono troppo tardi, dopo il loro secolo naturale, non contano nulla e non raggiungono affatto una fama duratura. Li si guarda un attimo per curiosità, come si guarderebbero dei vecchi passeggiare sulle pubbliche piazze vestiti degli abiti del loro tempo”.