18 minute read
5.2 La macchina …………………………………………………… pag
from DO i NUMERI tra Arte e Matematica - Tesi di laurea di Tiziana Pavone in Net Art e Culture Digitali
by poianissima
5.2 LA MACCHINA I segni sulle pareti, le tacche sulle ossa, l’uso di corde annodate e delle proprie dita hanno anticipato le prime macchine calcolatrici, costruite in ogni parte del pianeta oltre tremila anni fa. Ogni comunità umana, gli Indiani ed i Cinesi, anche gli Egizi, i Maya, gli Aztechi, i Greci, i Romani, gli Arabi e gli aborigeni in Africa e quelli in Australia, ha inventato un proprio sistema di contare i numeri e poi un sistema per il loro controllo, necessario alla gestione delle risorse alimentari, dei territori, delle proprietà, in battaglia come in pace. La necessità ha portato gli Uomini a costruire ciò di cui avevano bisogno, ogni volta apportando cambiamenti alle condizioni di vita delle popolazioni che se ne servivano. Furono gli indiani e i cinesi i primi a pensare e costruire le prime macchine conosciute come abachi, tramandate fino a noi praticamente identiche. Mi piace ricordare il rinvenimento nei fondali dell’isola di Anticitera, Grecia, nel 1900 del relitto di un'imbarcazione naufragata, risalente al primo secolo antecedente l’anno zero. La nave pare fosse adibita al trasporto di oggetti di prestigio, tra cui statue di bronzo e marmo, e conteneva, al momento del rinvenimento, un oggetto strano, una “macchina” che decenni dopo si scoprì essere il più antico calcolatore meccanico conosciuto, databile intorno al -150. Dopo anni e anni di studi sull’oggetto misterioso, si capì essere un sofisticato planetario, mosso da ruote dentate, che serviva per calcolare il sorgere del sole, le fasi lunari, i movimenti dei cinque pianeti allora conosciuti, gli equinozi, i mesi, i giorni della settimana ed anche le date dei giochi olimpici. All’inizio l’oggetto passò quasi inosservato a causa delle cattive condizioni in cui versava, incrostazioni ed usura determinate dall’acqua marina e dal tempo avevano compiuto il danno, ma studi successivi dimostrarono essere un congegno degno di menti sopraffine che elaborarono un sistema di calcolo degno dei nostri computer odierni. Insomma, le spalle dei Giganti su cui è stata poggiata l’idea di un così elaborato congegno, erano ampie, forti e di grande propulsione per la nascita degli strumenti necessari al miglioramento della vita dell’Uomo ed erano molto molto antiche.
Fig. 4 Macchina di Anticitera
La Macchina di Anticitera fu il frutto infatti di tante conoscenze matematiche provenienti sia dalle menti dell’area di Mediterraneo che da quelle dell’Oriente e fu realizzata in Grecia, all’epoca il centro delle idee e delle tecniche più evolute. (La scoperta della Macchina di Ancitera, la sua composizione, i suoi ingranaggi e le iscrizioni apportate, fanno pensare al fatto che i Greci già sapessero che la visione tolemaica non era la giusta rappresentazione del mondo e che già considerassero il sole il centro del nostro sistema solare). Già per i Greci fu importante la circolazione e condivisione di conoscenze, di studi e di informazioni: in una sinergia di pensieri provenienti da ogni parte del mondo, si costruirono oggetti e sistemi che ci lasciano tuttora stupiti ed increduli di fronte a tanta sagacia riposta in un piccolo oggetto. La macchina di Anticitera ha infatti le dimensioni di un libro (30 per 15 per 5 cm) ed in ogni sua ruota dentata, incastro, ingranaggio, iscrizione (sono incisi 2000 caratteri su rame di cui la macchina è costruita), risuona l’eco lontano dei nostri saggi e curiosi avi. Tornando a tempi più recenti, nel 1936, come abbiamo già detto, Alan Turing descrisse il primo modello formale di calcolatore, la Macchina di Turing Universale, una macchina in grado di simulare la computazione di qualunque altra macchina, gettando le basi teoriche del calcolatore programmabile. Nello stesso anno dell’enunciazione del progetto, 1936, un ingegnere tedesco Konrad Zuse (1910/1995), anche pittore per passione, iniziò a costruire il primo calcolatore moderno, chiamato macchina logica ”V1”, poi ribattezzato “Z1” per evitare riferimenti con armi naziste dal nome simile. Lo realizzò artigianalmente, a casa sua, utilizzando la tecnologia elettromeccanica disponibile negli anni trenta e fu la prima macchina al mondo basata su codice binario, completamente programmabile, in grado di processare numeri in formato binario e le cui caratteristiche più importanti furono la netta distinzione fra memoria e processore, rispettando l’architettura del calcolatore ipotizzata da Babbage oltre 100 anni prima. Era azionata da un motore elettrico, che la rendeva simile, nell’aspetto e nel suono prodotto, ad una specie di grosso centralino telefonico poggiato su un tavolo. Durante la seconda guerra mondiale fu distrutta dai bombardamenti tedeschi assieme ai progetti relativi, ma Konrad Zuse ne costruì un’altra versione aggiornando alcuni componenti tra cui 2200 relè, facendo diventare la sua nuova “ Z3”, il primo computer digitale programmabile funzionante al mondo, potenzialmente operativo tra il 1939/1940, ma senza esiti. (Da rilevare, che nessuna delle invenzioni di Zuse fu nota fuori della Germania prima degli anni '60 ed il governo tedesco non manifestò particolare interesse per gli studi e gli esperimenti del matematico scienziato: ci è andata bene!). (4) Il Novecento è il secolo in cui le idee di una macchina da calcolo universale si sono intrecciate con il progresso scientifico e con le necessità proprie di chi fa o deve difendersi da guerre. Per affrontare le incombenze belliche che necessitano di tutte le novità tecnologiche per operare calcoli veloci ed effettuare lo smistamento di innumerevoli informazioni vitali per le popolazioni e per il risultato ultimo dei conflitti, si passò dal calcolo fondato su semplici operazioni aritmetiche fatte a mano a quello dove erano le “mani” delle macchine voluminose a compierli. La Macchina di Turing sembrava essere stata progettata allo scopo, perché poteva essere programmata per risolvere ogni problema matematico espresso in forma logica, proprio ciò che i Paesi andavano cercando per rispondere alla complessità dei calcoli della guerra.
Il governo inglese a partire dal 1939 concentrò in gran segreto a Bletchley Park, a nord di Londra, a metà strada tra le università di Oxford e di Cambridge, un team di menti superiori allo scopo di bloccare la macchina infernale Enigma in uso dai nazisti per le comunicazione ed il controspionaggio. Tali menti, che spaziavano per la diversità di competenze (matematiche, degli scacchi, di enigmistica, di crittografia, …), si dedicarono alla decodificazione dei messaggi di guerra dei nemici. A capo di tutte c’era quella di Alan Turing, che da subito ideò, creò ed utilizzò una macchina chiamata Bomb, il primo calcolatore logico programmabile per decifrare i messaggi criptati segreti dei tedeschi. Nel 1944 Bomb fu sostituito da un’altra più potente e colossale macchina universale, da qui il suo nome, Colossus, sempre basata sul progetto della Macchina Universale di Turing, che permise di intercettare in tempo reale tutti i messaggi tedeschi, prevedendo e anticipando le mosse del nemico, cambiando letteralmente il corso della storia. E mentre in Inghilterra alcuni geni decriptavano messaggi di guerra, dall’altra sponda dell’oceano Atlantico, altri matematici per lo più europei, ungheresi ebrei, scappati negli Stati Uniti per sfuggire alle persecuzioni, lavoravano al Progetto Manhattan per la costruzione della bomba atomica. Tra questi anche un matematico di pura razza John von Neumann (1903/1957) che, mentre si occupava di come porre termine alla guerra con la costruzione della bomba atomica, aveva la testa coinvolta ed appassionata anche in un progetto per la realizzazione di una macchina universale di Turing. Proprio grazie ai suoi studi e alla fascinazione che subì verso l' ENIAC (Electronic Numerical Integrator And Computer), un enorme calcolatore a valvole, che ancora era in fase di realizzazione sempre per scopi bellici, von Neumann fu l’artefice della costruzione di un’altra grande macchina sempre americana. Era il 1946 e presso l’Institute of Advanced Study di Princeton venne iniziata la costruzione dell' Electronic Discrete Variable Automatic Computer, EDVAC. Questa nuova macchina fu basata sul sistema di numerazione binario e partendo dal progetto della Macchina Universale di Turing adotterà quella che verrà definita l'architettura di von Neumann, (5) a sua volta figlia di quella di Babbage. Fu dotata, per la prima volta di un programma memorizzato (software), di una memoria RAM (Random Access Memory) e di una memoria di 40mila byte (per i nostri computer praticamente quasi nulla!), pesava 8 tonnellate, aveva un volume di circa 45 mq, costava moltissimo ed assorbiva tantissima energia a causa delle 3474 valvole di cui era dotata. Nel 1951 EDVAC ebbe i natali insieme anche al suo software, suscitando molta impressione e clamore per cui si coniò la definizione di "cervello elettronico". A questo fu richiesto di gestire il flusso delle informazioni tra la memoria, costruita con elementi di ferrite, l’unità logico-aritmetica, basata su porte logiche (realizzate con valvole termoioniche) e l’unità di controllo, simile a un centralino telefonico in grado di smistare il flusso delle informazioni all’interno del sistema. Il cervello elettronico riceveva in ingresso (input) informazioni espresse in codice binario e restituiva in uscita (output), sempre in codice binario, i risultati dell'elaborazione; questa era ottenuta attraverso la gestione del flusso di elettroni tra un’unità di controllo, una memoria e un’unità logico-aritmetica. Per chiarezza, la porta logica detta Nand (6) è quella che permise, e permette tutt’ora, il ragionamento alla macchina, ed è la componente minima intorno alla quale si assemblò tutto il complicato sistema del cervello elettronico. La macchina Universale di Turing costruita da von Neumann, che è alla base dei nostri moderni computer, ha due componenti fondamentali, ai quali, non appena l’industria
dei computer s’impadronì dell’idea, furono dati i nomi di hardware e software: la prima elabora fisicamente l’informazione, la seconda la contiene e la modifica in base alle istruzioni di cui è formata: come un corpo rigido (hardware) fornito di una “testa” contenente il “pensiero logico” (software) e di una coda collegata ad una presa elettrica per azionare la “logicità” della macchina e farla quindi funzionare. Mentre l’elemento caratterizzante la prima generazione di elaboratori elettronici fu la valvola termoionica, inventata dallo scienziato inventore americano Lee De Forest (1873/1961) nel 1907, per quelli della seconda sarà l’invenzione del transistor. Le valvole permisero di eliminare tutte le parti meccaniche ed elettromeccaniche dalle “macchine”, avevano però il limite di essere molto ingombranti, di consumare tanta energia e di produrre eccessivo calore, spesso danneggiando la macchina stessa. Il transistor, inventato da tre scienziati della Bell Corporation nel 1947, inaugura la seconda generazione di elaboratori; rispetto alle valvole, i transistor, impiegati principalmente come amplificatori di segnali elettrici o come interruttori elettronici comandati, era un dispositivo più efficiente, più affidabile, più piccolo, più duraturo, molto più veloce e più economico. Entrambi i computer di prima e seconda generazione, erano riservati solo ai laboratori militari e scientifici sia per la difficoltà di utilizzo (linguaggi di programmazione complessi) che per i costi notevoli. Terminata la guerra, alcune aziende che prima producevano componenti elettromeccaniche si convertirono alla novità tecnologica e nel giro di pochi anni iniziarono a lanciare sul mercato i nuovi computer. La novità che porterà alla terza generazione è l’invenzione dell'hard-disk, che darà alla macchina una maggiore autonomia, in quanto i dati si potevano conservare anche a macchina spenta. Per avere un "hard disk” del tipo di quelli che conosciamo ora, certamente all’epoca con meno capacità, si dovrà attendere fino il 1973, e sarà un prodotto dell’IBM. Ma ciò che caratterizzò la terza generazione di computer sarà l’applicazione di una nuova tecnologia, il circuito integrato, frutto di sperimentazioni avanzate effettuate nei campi della fisica e della chimica. Siamo nel 1960 ed i primi circuiti integrati potevano raggiungere un massimo di 10 componenti (transistor e altri elementi) su ogni chip, grande come un francobollo, ed il transistor sarà alla base di tutti i circuiti elettronici da lì in avanti, grazie al fatto che i chip, in un prossimo futuro, arriveranno a contenere al loro interno migliaia di transistor miniaturizzati. Le dimensioni, il peso, gli ingombri delle nuove macchine ed i costi di produzione si ridussero sensibilmente mentre accelerarono i tempi di elaborazione e le prestazioni. Pian piano e con fiducia nelle continue innovazioni, si incominciò ad intravedere la possibilità, anche per le persone comuni, di acquistare una macchina così speciale, assolutamente rivoluzionaria. In quegli anni una delle aziende che più di altre sarà attiva nella progettazione e creazioni di nuovi sempre più efficienti computer, sarà la IBM, che nel 1964 lanciò sul mercato il suo prodotto di terza generazione la IBM360, potente e veloce, che permise alla IBM di diventare il primo produttore mondiale di calcolatori elettronici e una delle aziende al mondo con la più alta redditività. Nel 1967 costruì il primo Floppy disk, come spazio di memoria per il programma di avvio del computer. Solo anni dopo la funzione del Floppy disk sarà allargata anche per l’archiviazione di qualunque programma o dato.
Il primo microcomputer sarà progettato dall’ingegnere poi imprenditore Gordon Bell (1934) per la Digital Equipment Corporation col nome di PDP 8 nel 1965 e segnerà una svolta grazie alle sue dimensioni ridotte ed alla sua economicità aprendosi al mercato di utenti quali aziende, uffici e scuole. Un vero anticipatore degli odierni personal computer. Anche in Italia, già nel 1965, la Olivetti lanciò il suo calcolatore programmabile da tavolo, Programma 101, denominato “Perottina” dal nome del suo designer Pier Giorgio Perotto, ma le sue potenzialità non vennero comprese e l’Italia perse l’occasione di dare i natali al primo personal computer della Storia. Nel 1967 Douglas Engelbart ottenne il brevetto per un indicatore di posizione X-Y per display, comunemente chiamato "mouse", che entrerà in commercio solo nel 1981 a corredo di un computer della Xerox, con l’intento di migliorare l’accesso alle funzioni del computer. Tutte le aziende tecnologiche coinvolte nella ricerca e nel mercato avvertivano la necessità di migliorare e velocizzare ulteriormente i processi e giunsero ad ideare e progettare una combinazione di un processore con una unità di calcolo incorporata. Come altre innovazioni tecnologiche, il microprocessore monolitico apparve appena la tecnologia lo consentì, dato che l'idea di integrare i componenti di una CPU in un singolo circuito integrato era una soluzione logica, che già alla fine degli anni 60 era stata articolata con architetture di microprocessore. Dopo controversie circa il brevetto, nonostante già nel 1971 la Intel avesse costruito il primo microprocessore commerciale, Intel 4004 (il chip era a 4 bit e combinava 2250 transistor, con una potenza era di 60.000 operazioni al secondo), solo nel 1973 fu riconosciuto il brevetto per l'architettura di un microprocessore a singolo chip alla società Texas Instruments.
Fig. 5 Primo processore Intel 4004 sul quale chip furono incisi 2250 transistor
Fu l’inizio della quarta generazione di computer essendo quella del microprocessore una invenzione rivoluzionaria che permise in pochi cm. di spazio di contenere tutta la potenza di calcolo del gigantesco EDVACE e dagli anni ‘70 la tavoletta di silicio posta nei computer di
tutto il mondo, subì modificazioni solo nella sua potenza e velocità (da 4 a 64 bit), contribuendo a rendere meno inavvicinabile l’agognato computer nella propria casa. Si pensi che Intel 8080, nato nel 1974, secondo figlio del primo microprocessore Intel 4004, era a 8 bit ed in grado di eseguire fino a 200.000 operazioni al secondo; viene considerato il precursore dell’ Intel Pentium, attualmente usato nei più nuovi computer. Grazie alle continue innovazioni nel settore, si potevano costruire ora dispositivi veramente potenti, ma molto più piccoli e in grado di ridurre molto il loro prezzo. Nasce nel 1980 il primo computer economico, lo ZX-80, progettato, costruito e commercializzato dall'inglese Clive Sinclair (1940), macchina ideale ed accessibile per i primi aspiranti programmatori smanettoni. E nel 1981 anche l’IBM creò il suo computer dal prezzo più abbordabile, dal nome Personal Computer IBM (PC IBM), che soppiantò il giovane Sinclair nelle vendite, inaugurando il desktop, seppur monocromatico. Fu però nel 1982, col lancio da parte della Commodore International del Commodore 64, che il pc divenne “popolare”, grazie al suo prezzo molto ridotto rispetto alla concorrenza ed alle sue prestazioni migliori, determinate anche da una dotazione di software molto ampia. Nel giro di pochi anni il Commodore 64 entrò in milioni di case, stabilendo un incredibile successo di vendite e diventando il sogno realizzabile di sempre più persone. Nel 1983 fece la sua apparizione nel mercato, Apple Lisa, prodotto dalla giovane società “Apple Computers” nata nel 1976, i cui fondatori, due giovani californiani, Steve Wozniak (1950) e Steve Jobs (1955/2011), fanno già parte della Storia dell’informatica. Apple Lisa fu il primo computer commerciale ad utilizzare l’interfaccia grafica, basata su finestre ed icone, pane quotidiano oggi di ognuno di noi. Nel 1984, sempre da Apple uscì sul mercato Macintosh Plus, una macchina interamente grafica, accessibile per il costo (mai però come il Commodore 64), con un monitor in bianco e nero integrato con la CPU; la tastiera era povera di tasti, ma efficace al tocco, come il mouse, che presenta un solo tasto. L'interfaccia grafica del Macintosh Plus simula una scrivania, con le varie cartelle (in forma di icone), dispositivi di memorie (floppy e disco fisso) e cestino per i documenti da buttare. Era una macchina completamente nuova, diversa da tutte quelle presenti sul mercato e fu un successo, soprattutto tra il pubblico dei grafici e dei compositori editoriali. Nel 1975 due giovani americani, dopo aver abbandonato gli studi e l’attività che svolgevano, appassionati e fiduciosi nel futuro radioso del nuovo magico strumento, costituirono la loro società Microsoft Corporation (questo è l’ultimo nome assegnato). I due amici, compagni di scuola di Seattle, Bill Gates (1955) e Paul Allen (1953/ 2018), realizzarono una versione ridotta del linguaggio di programmazione chiamato Basic, adattato ad un computer della MITS (Micro Instrumentation and Telemetry Systems), società per cui lavorava Gates. I proventi conseguiti dal loro superbo lavoro di programmazione, furono quindi destinati per mettersi in proprio e proporre le loro conoscenze in termini di servizi informatici e creazioni di linguaggi. Nel 1983 i due soci misero a punto il sistema operativo Microsoft Windows, che era lo stesso MS-DOS, ma implementato con un'interfaccia grafica (GUI) e 2 anni dopo lanciarono sul mercato il frutto del loro lavoro dal nome Windows 1.01. E’ l’inverno del 1985, e nulla sarà come prima nel mercato dei computer, ma soprattutto nella vita di chiunque sul pianeta Terra.
La particolarità di Windows 1.0 era l'interfaccia grafica e la promessa di fornire all'utente un modo "visuale" più semplice e gradevole per interagire con il computer. Windows 1.0 permetteva alle nuove applicazioni, scritte appositamente per Windows, di mostrarsi all'interno di una finestra sullo schermo, consentendo la presenza di più applicazioni aperte contemporaneamente, e per questo motivo fu assegnato il nome più adatto, windows (finestre). Per i tempi fu un cambio di paradigma notevole, infatti all’epoca era necessario inserire lunghi comandi sul "prompt" testuale di MS-DOS prima di veder attivata la macchina. L’interfaccia grafica di Windows 1.0 aveva molte somiglianze con quella del Macintosh e non mancarono quindi le battaglie legali fra quelli che diventeranno da lì a poco, i due giganti nel mondo dei computer e della….finanza. Windows fu costretta ad abbandonare l'MS-DOS e scrivere da zero una nuova famiglia di sistemi operativi, cioè le varie versioni di Windows che si sono succedute e Macintosh, divenne il Mac che conosciamo, con sorprendenti novità ad ogni lancio di nuovo prodotto.
Fig. 6 Macintosh Plus, 1984 Fig. 7 Windows 1.01, 1985
All’inizio degli anni ‘80 quindi i computer diventarono così come siamo abituati ad usarli, ovvero con uno schermo, un mouse e una tastiera, e negli anni le imprese coinvolte nella creazione di nuove macchine e nella loro immissione nel mercato puntarono ad offrire alla sempre più estesa massa di acquirenti macchine sempre più sofisticate ed anche economiche. Si può parlare al presente, ormai, poichè a partire dagli anni ‘90 l'industria informatica non ha mai smesso di fermarsi in una corsa inarrestabile verso la digitalizzazione della vita di ognuno di noi. La quasi totalità degli abitanti della Terra ha in casa o in tasca, per lo più in mano, un computer. Per far ciò le aziende produttrici hanno perseguito le stesse strade: ridurre il volume dei componenti delle macchine pur aggiungendo strumenti migliorati e nuovi (stampanti, webcam, ..), inserire pacchetti di software per poter dotare il sistema di sempre più possibilità, ricercare per la macchina un'estetica curata come un oggetto a supporto di comprovato status, e potenziare l’azione sul mercato con una forte dose di marketing. Col miraggio di una nuova vita scandita dalle promesse di un cambiamento
determinato da un nuovo modello di computer piuttosto che di cellulare, da nuove applicazioni, da nuovi schermi, da tutto ciò che che fa sognare di essere nel futuro, inconsapevoli di viverlo già, procediamo nella Storia che oggi vede l’Umanità avere a disposizione un cervello elettronico strumento capace di elaborare, controllare, archiviare e tramandare migliaia di informazioni in una manciata di secondi e di avere questo magico strumento in mano. Una vera bomba digitale! a seconda dell’uso che se ne fa. Sempre alla fine del secolo XIX, un ricercatore inglese del CERN di Ginevra, Tim Berners Lee (1955), sognava di scrivere un programma eseguibile su un sistema operativo di rete capace di far transitare liberamente le informazioni utilizzando i protocolli di trasmissione di internet, all’epoca utilizzato solo dalla comunità scientifica: il visionario ricercatore stava dando i natali al World Wide Web.
Fig. 8 Tim Berners Lee, il generoso "papà" del World Wide Web
Coadiuvato dai suoi amici colleghi nel 1991 coniò il nome, scrisse il programma per il primo server, scrisse la prima versione del linguaggio di formattazione di documenti con capacità di collegamenti ipertestuali, l'HTML, definì il protocollo HTTP, ne scrisse le applicazioni necessarie, creò il primo sito Web e lo mise online su Internet. Nel 1993, Tim Berners Lee fece il suo grande regalo al mondo, rendendo pubblica la tecnologia alla base del Web e fu un successo, determinato dalle infinite possibilità che questo strumento offriva a chiunque. Si poteva e sempre di più si potrà, migliorando i servizi in atto, spedire e ricevere email, vedere ed ascoltare film e musica in streaming, parlarsi attraverso uno schermo guardandoci negli occhi, scaricare o inviare file, navigare l’intero Web, condividere qualsiasi tipo di file e software. Ma anche acquistare tutto (anche armi), avere un sito dove vendere i propri prodotti e/o diffondere il proprio pensiero, fare trading, ricevere ed offrire servizi, visitare musei, organizzare mostre, .. e fare anche Arte! La Apple, la Microsoft e tante altre aziende informatiche continuano a migliorare le macchine che producono e i servizi collegati, tanto che, anche grazie all’ accoppiata col W.W.W., il