multiverso 11 misura

Page 1

UNIVERSITÀ DEGLI STUDI DI UDINE

FORUM

EURO 15,00

misura

n.11 12

UNIVERSITÀ DEGLI STUDI DI UDINE Multiverso misura a cura di Luigi Gaudino e Mauro Pascolini hanno pensato questo numero Marco Breschi, Andrea Csillaghy (direttore editoriale), Alberto F. De Toni, Gian Paolo Gri, Andrea Lucatello, Laura Morandini, Mauro Pascolini, Mario Turello (direttore responsabile), Angelo Vianello, Norma Zamparo, Davide Zoletto progetto grafico cdm associati, Susi Grion, Laura Morandini, Elena Minisini stampa Poligrafiche San Marco (Go) ufficio stampa e promozione ufficiostampa@forumeditrice.it n. 11/2012 iscrizione al Tribunale di Udine n. 37/2005 ISSN 1826-6010 ISBN 978-88-8420-688-6

Andrea Csillaghy

Editoriale La massima antica «l’uomo è misura di tutte le cose», rinverdita e fatta propria sia simbolicamente che graficamente dal Rinascimento italiano, è la base di tutte le culture della fascia ‘temperata’ del nostro globo e potrebbe da sola giustificare il peso della civiltà europea intesa come ‘civilizzazione dell’universale’, fatta o in via di farsi faticosamente dall’uomo e per l’uomo, inteso come ideale universale, principio e fine di ogni valore dell’esistere. Questa nostra zona, risparmiata fino ad ora da quei fenomeni estremi e ineludibili di cui madre natura sa essere così prodiga, conosce misure perfette adatte all’uomo e alle sue temperate necessità, moderati progetti, contenute aspirazioni e voglie. Civiltà europea è tutto questo. Solo questo. Perciò civiltà deve continuare ad essere anche moderazione, capacità di adattarsi, equità e sostenibilità, flessibilità nella comprensione, inflessibilità

nel rigore morale e nell’assunzione di responsabilità, generosità nell’accontentare gli altri assai più che se stessi. Con-vivenza. Dove l’extra, il super, il furor, l’eccesso, sconfinano nell’orrido e nel grottesco. Nella Gerusalemme liberata di Torquato Tasso, poema troppo frettolosamente messo da parte perché oggi può superficialmente apparire ‘politically uncorrect’, Tancredi, eroe crociato che ama Clorinda, la bella eroina islamica, non riconoscendola in una armatura frusta e in vesti non sue, trascinato dal suo furore guerriero la trafigge a morte in duello. Per questa dismisura che trasforma un amante in assassino Tancredi, come chi ha violato la legge della misura, vivrà sì, ma «...Vivrò fra i miei tormenti e le mie cure / Mie giuste furie, forsennato, errante... / Temerò me medesmo, e da me stesso / Sempre fuggendo, avrò me sempre appresso» (G.L., XII, 77).

Questo numero di Multiverso è stato realizzato con il contributo di

e con il sostegno di

che ringraziamo per la sensibilità e la disponibilità dimostrate a questo progetto.

© FORUM 2012 Editrice Universitaria Udinese srl 38 Via Larga 33100 Udine t. 0432 26001 f. 0432 296756 forum@forumeditrice.it www.forumeditrice.it

ISSN 1826-6010 EURO 15,00

www.multiversoweb.it 1


© Luca Laureati

Giovanni Boniolo

giovanni.boniolo@ifom-ieo-campus.it

A proposito di misura e proprietà

© Luca Laureati

© Luca Laureati

Misurare! Un concetto fondamentale all’interno del mondo della scienza. Si misura come esito di un esperimento, anche se non tutti gli esperimenti comportano misure (come, ad esempio, ogni biologo evoluzionista sa) e non tutte le misure comportano un esperimento (come, ad esempio, ogni sarto sa). Ma qualunque sia il modo e il motivo per cui misuriamo, sotto vi sono le stesse caratteristiche epistemologiche che non sono forse così note a chi misura. Ed è proprio su questo aspetto che mi voglio soffermare, ma non solo. Partendo dal concetto di misura si possono infatti sviluppare interessanti considerazioni su che cosa sia una proprietà e su come classificarla. Non approfondirò le questioni tecniche inerenti la teoria della misura (cfr. H. Helmholtz, Zählen und Messen erkenntnis-theoretisch betrachtet, 1887; O. Hölder, Die Axiome der Quantität und die Lehre von Mass, 1901; N.R. Campbell, Physics, 1920; B. Ellis, Basic Concepts of Measurements, 1966; D.H. Krantz, R.D. Luce, P. Suppes e A. Tversky, Foundations of Measurements, 1971-1990; F.S. Roberts, Measurement Theory, 1979; L. Narens, Abstract Measurement Theory, 1985; H.E. Kyburg, Quantities, Magnitudes, and Numbers, 1997) e neppure il ruolo che l’esperimento, segnatamente quello che comporta misura, svolge nel controllo delle ipotesi o comunque nel normale processo scientifico (cfr. G. Boniolo e P. Vidali, Introduzione alla filosofia della scienza, 2003), ma farò alcune considerazioni qualitative su come misura e proprietà possano interconnettersi fruttuosamente. Cominciamo il percorso riflettendo su quello che solo apparentemente è un problema banale: ‘Che cosa misuriamo quando misuriamo?’, ovvero ‘Misuriamo oggetti, eventi, proprietà, grandezze, quantità?’. Già questa seconda formulazione dovrebbe rendere immediatamente perspicuo il motivo per cui la domanda non è banale. Per rispondere dovremmo, infatti, avere bene in vista le differenze non scontate fra le nozioni di ‘oggetto’, ‘evento’, ‘proprietà’, ‘grandezza’, ‘quantità’. Afferrarle appieno non è sicuramente impresa da poco, anche solo considerando la portata del dibattito cui nel tempo hanno dato origine. Anche se questo non è certo il luogo per affrontarlo storicamente o teoricamente, bisognerà che fissiamo delle coordinate in modo da poter proseguire. Innanzitutto, dobbiamo scartare l’idea che misuriamo eventi. Ma che cos’è un evento? Scorrendo la vastissima letteratura esistente sull’argomento, una definizione ormai abbastanza canonica è quella secondo cui un «evento si caratterizza per tre elementi: un oggetto, una proprietà di tale oggetto e l’istante di tempo in cui tale oggetto e tale proprietà vengono considerati» (J. Kim, Events as Property Exemplification, 1976). Tenuto conto di questa spiegazione, sostenere che misuriamo eventi può essere corretto o meno a seconda di che cosa si intenda con ‘misurazione’. In effetti, se con essa si intende un singolo processo empirico-tecnologico che porta a un singolo valore numerico, allora, in prima istanza, potrebbe essere corretto sostenere che misuriamo eventi. Tuttavia, se con misurazione si intende – come l’intenderò – l’intero processo empirico-tecnologico e matematico che conduce a un valore numerico, ossia quel processo che comporta, da un lato, l’introduzione e l’uso di un apparato sperimentale e, dall’altro, l’applicazione dell’analisi statistica

su n risultati diversi, ognuno dovuto a una replica di una data operazione di misura, allora non è corretto affermare che misuriamo eventi (non considererò qui, comunque, né il problema dell’elaborazione statistica dei dati, né quello, forse un po’ sottovalutato dai filosofi, degli errori di misura). Gli eventi sono determinati nel tempo, mentre la misurazione, nella seconda accezione, è il risultato dell’elaborazione di un insieme di risultati di singole operazioni, ognuna delle quali fatta in un certo istante di tempo. Da questo punto di vista, più che parlare di ‘insieme di misure di eventi’, si dovrebbe parlare di ‘misure di insiemi di eventi che si differenziano solo per il tempo’. Tuttavia, la difficoltà più grande per chi sostiene che si misurano eventi e che, a mio avviso, elimina questa possibilità, è un’altra: si misura anche il tempo, ma il tempo non è un evento, visto che concorre alla sua determinazione. In secondo luogo, dobbiamo scartare anche l’idea che misuriamo oggetti. E per far questo è sufficiente che ci sovveniamo del fatto che misuriamo masse, lunghezze, cariche, spin, resistenze, ecc. Ma nulla di tutto ciò è un oggetto. Caso mai, ognuna di queste ‘cose’ può essere considerata come una proprietà di un oggetto. E, per il momento, accontentiamoci proprio di questo: si misurano ‘proprietà di oggetti’. A proposito delle proprietà, giova ricordare un’importante riflessione di Hermann von Helmholtz, tratta da Die neueren Fortschritte in der Theorie des Sehens (1868): Ogni proprietà o qualità di una cosa non è in realtà nient’altro che la capacità di esercitare certe azioni su altre cose [...]. Un’azione di tal genere è da noi chiamata proprietà quando il reagente con cui si manifesta è da noi tenuto presente come ovvio nel pensiero, senza essere nominato. Così noi parliamo della solubilità di una sostanza, che è il suo comportamento rispetto all’acqua; parliamo del suo peso, che è l’attrazione da essa subita verso la Terra; e parimenti la diciamo azzurra in quanto viene presupposto come ovvio che con ciò si tratta d’indicare soltanto la sua azione su di un occhio normale. Ma se ciò che noi chiamiamo proprietà indica sempre e soltanto una relazione fra due cose, una tale relazione non può dipendere dalla sola natura della cosa agente, ma esiste esclusivamente in relazione con la natura di una seconda cosa, che subisce l’azione, e da questa natura dipende.

Secondo il contenuto di questo passo, una proprietà P che abbia un qualche interesse per le scienze è qualcosa che dà luogo a un fenomeno rilevabile F prodotto da una interazione dell’oggetto O di cui essa si predica (ovvero, che è posseduta dall’oggetto in questione) con un secondo ben determinato oggetto O’, ossia con quello che permette, o stimola, l’accadere di F. Per cui se vogliamo, ad esempio, misurare la carica (la proprietà P) di una particella (l’oggetto O), dobbiamo fare interagire quest’ultima con un’altra particella

La misura ha un suo intimo legame con l’uomo e con le cose per lui più preziose: la terra, il cibo, le bevande. Essa serve a misurare ciò che il destino gli ha elargito così avaramente. A volte il destino gli offre una misura abbondante, più spesso insufficiente. La misura non è mai una convenzione, ma un valore. La misura non è mai indifferente: è buona o cattiva. Witold Kula, ‘Le misure e gli uomini dall’antichità a oggi’, Laterza, Roma-Bari 1987, p. 16 (trad. it. di A. Salmon Vivanti).

2


Aquilina sa ben spiegare anche il senso dei particolari. Il numero dei «groppi» non è indifferente: due o tre o più groppi? Perché si limita a far due groppi soli e non più, chiede l’inquisitore? Perché il numero dei nodi deve essere coerente con la dimensione cosmica del calare e crescere, del sorgere e tramontare: «Perché si deveno sgropar un la matina quando leva il sole, et l’altro quando el va a monte». Egualmente il rituale delle misurazioni, entro un contesto nel quale la ‘misura’ non è un dato oggettivo assoluto, ma anch’esso un dato relativo e relazionale, coerente «con l’idea di un mondo in stato di perenne incompiutezza» (Bachtin): per cui il rituale si pone come struttura simbolica di raccordo fra l’ordine degli eventi personali e l’ordine delle relazioni sociali, e il che cosa sta succedendo al mio corpo, reso palpabile dall’instabilità della sua misurazione, va messo in rapporto con il piano delle mie cattive relazioni con vicini e parenti dai quali posso attendermi la ‘medicina’. Gian Paolo Gri, ‘Altri modi’, Edizioni Università di Trieste, Trieste 2001, p. 54.

carica, o con un campo elettrico o magnetico (l’oggetto O’): solo l’interazione con un tal tipo di oggetto O’ dà luogo al fenomeno F che viene rilevato (ad esempio, l’accelerazione della particella O). Ebbene, rilevare una proprietà (ora intesa come rilevazione del fenomeno cui essa dà luogo quando l’oggetto di cui si predica interagisce con un altro ben determinato oggetto avente un’altra ben determinata proprietà) altro non è che il primo passo per poterla misurare. Si può, così, affermare che condizione necessaria per poter misurare una proprietà è che essa dia luogo a un fenomeno rilevabile quando l’oggetto di cui si predica interagisce opportunamente. In questo modo, siamo arrivati a stabilire, almeno in prima approssimazione e intuitivamente, che misuriamo proprietà che sono rilevabili in quanto producono fenomeni rilevabili quando gli oggetti di cui esse si predicano interagiscono con altri (ben definiti) oggetti. Dobbiamo ora porci due domande: ‘Che cosa vuol dire rendere rilevabile il fenomenrelato alla proprietà che vogliamo misurare?’ e ‘Sono tutte misurabili le proprietà?’. Cominciamo dalla prima domanda. Ebbene, abbiamo visto che ciò che permette che una proprietà P di un oggetto O venga misurata è che essa venga resa osservabile tramite la rilevazione del fenomeno F che produce in una ben determinata interazione con un secondo oggetto O’. Bisogna quindi approntare le condizioni che permettano l’interazione. Questo significa predisporre un apparato sperimentale e fare un esperimento. Dunque, come accennato, in ogni misurazione vi è un aspetto tecnologico relativo all’approntamento di un apparato sperimentale atto a far

sì che la proprietà P che si vuole misurare possa essere rilevata tramite la rilevazione di un determinato fenomeno F dovuto a una determinata interazione, che viene così artificialmente provocata, con l’oggetto O di cui P si predica. Ed è l’esperimento che consente di rendere rilevabile il fenomeno F dovuto all’interazione dell’oggetto O, che gode della proprietà P che si vuole misurare, con un secondo oggetto ‘reagente’ O’. Ed è, allora, l’esperimento che, attraverso l’analisi del fenomeno F, permette di misurare P. Accantoniamo, tuttavia, sia la questione inerente l’esperimento sia quelle connesse con le problematiche filosofiche cui esso dà origine, e torniamo alla misura e alla seconda domanda che ci eravamo posti: ‘Sono tutte misurabili le proprietà?’. Si può dire che, mentre tutto ciò che misuriamo è una proprietà, non ogni proprietà è misurabile, o per lo meno non lo è come lo si intende nell’ambito delle scienze, dove misurare significa trovare, grazie a un apparato strumentale adatto, dei numeri caratterizzati in un modo ben preciso e tali da essere ritrovati (entro un certo margine di errore) da tutti coloro che vogliano ripetere lo stesso esperimento. Sostenere che non ogni proprietà è misurabile deriva da due considerazioni. La prima ha a che fare con il nostro concedere a un eventuale metafisico che non tutto è risolubile in termini di scienza. In effetti, nulla ci impedisce di concedere (al metafisico) che ci siano anche proprietà non empiricamente rilevabili, né ora né mai. La seconda considerazione è legata ad un altro aspetto – accettabile almeno a livello intuitivo, cui per il momento ci stiamo limitando –, ovvero che non tutte le proprietà

utile, ma bisogna leggermente modificarla, non essendo del tutto corretta. Per Aristotele, la grandezza è ciò che è ‘divisibile in parti continue’, però noi ora sappiamo che la temperatura e lo spin di una particella – che indubbiamente sono grandezze – non sono certo ‘divisibili in parti continue’. Possiamo quindi tralasciare l’aspetto della divisibilità in parti discrete e continue, e accettare invece la divisione fra pluralità e grandezza, ossia fra ciò che è numerabile e ciò che è misurabile. È necessario, comunque, non fare confusione e prestare attenzione al fatto che, mentre la pluralità è relata a insiemi di cui si numerano gli elementi (o a quella proprietà degli insiemi detta ‘cardinalità’), la grandezza è relata a proprietà di oggetti singoli e sono queste che si misurano. Ritornerò fra breve sul numerare e sul misurare, per ora accontentiamoci della loro comprensione intuitiva e soffermiamoci sulle qualità. Se si rammenta, per l’Immanuel Kant della Critica della ragion pura (17872), la categoria di ‘quantità’ e quella di ‘qualità’ sono connesse, rispettivamente, con gli ‘assiomi dell’intuizione’, il cui principio è «tutte le intuizioni Si dice ‘quantità’ ciò che è divisibile nelle proprie parti costitutive, ciascuna delle quali [...] è per natura sono quantità estensive» (p. 180) e con le una cosa unica e indivisibile. La pluralità, qualora sia ‘anticipazioni della percezione’, il cui principio numerabile, è una specie di quantità, e così anche la stabilisce che «in tutti i fenomeni il reale che è grandezza, qualora sia misurabile. Si chiama ‘pluralità’ oggetto della sensazione ha qualità intensiva, ciò che è potenzialmente divisibile in parti non continue; si chiama, invece, ‘grandezza’ ciò che è divisibile cioè un grado» (p. 183, faccio qui riferimento in parti continue. solo alla seconda edizione della Critica; nella prima i due principi avevano una formulazione Dunque, all’interno della categoria della quan- leggermente diversa). Nel primo caso, intuire un oggetto significa pensarlo come quantità tità, lo Stagirita differenzia le ‘pluralità’ dalle estesa e, quindi, attraverso lo schema del ‘grandezze’ e sostiene che, mentre le prime numero; significa cioè matematizzarlo, ossia sono numerabili e divisibili in parti discrete, le seconde sono misurabili e ‘divisibili in parti costituirlo come grandezza o come pluralità (per usare la divisione aristotelica). continue’. Questa divisione ci può essere

empiricamente rilevabili sono proprietà misurabili. Ad esempio, la proprietà dell’‘essere potente’ del cavallo di Cesare non è misurabile; la proprietà di ‘essere bella’ di Alessia o di ‘essere simpatico’ di Alberto neppure (si ricordi che ho agganciato la misura con la presenza di un apparato strumentale che porta a risultati numerici ritrovabili da chiunque voglia ripetere lo stesso esperimento). Sembra, quindi, che le proprietà debbano essere suddivise in proprietà rilevabili e non rilevabili, e che le prime possano essere ulteriormente suddivise. Senza alcun grosso problema (la nomazione non dovrebbe mai costituire problema), potremo pensare di chiamare ‘quantità’ le proprietà rilevabili e misurabili e ‘qualità’ le proprietà rilevabili ma non misurabili. Tuttavia, è vero che tutte le quantità sono misurabili? O, meglio, è corretto chiamare ‘quantità’ solo ciò che è rilevabile e misurabile? Non sembra, almeno accettando la lezione di Aristotele, il quale, nella Metafisica (V, 13, 1020a, 6-11), scrive:

Nel secondo caso, percepire un oggetto significa anticiparlo (per costituirlo) come dotato di un grado. Tuttavia, l’operazione della graduazione, pur potendo sempre comportare l’uso della matematica, è diversa sia da quella della numerazione che da quella della misurazione. Proprio a questo proposito Kant parla di due diverse applicazioni della matematica, ovvero come: - mathesis estensorum, nel caso della numerazione e della misurazione; - mathesis intensorum, nel caso della graduazione. Se Aristotele ha quindi insegnato che nel regno della quantità la matematica può essere applicata per numerare e per misurare, Kant ha precisato che essa può essere applicata anche nel regno della qualità per graduare (si tenga ben presente, naturalmente, il diverso impegno ontologico di Aristotele e Kant, come pure che cosa significhi la ‘rivoluzione copernicana’; per una filosofia della scienza di stampo kantiana, cfr. G. Boniolo, On Scientific Representation, 2007). Insomma, una cosa è misurare, altra è numerare, e altra ancora è graduare; però tutte sono accomunate dal far riferimento in un qualche modo al numero. Ed ecco che, come si può vedere dallo schema sotto, siamo arrivati a quanto desideravamo: una classificazione delle proprietà dove, in particolare, le qualità sono caratterizzate dalla graduazione, le pluralità dalla numerazione e le grandezze dalla misurazione vera e propria.

Proprietà

rilevabili

non rilevabili

qualità

pluralità

grandezza

© Luca Laureati

Ci fu un silenzio per qualche minuto. Il Bruco fu il primo a parlare. «Di che statura vuoi essere?» domandò. «Oh, non faccio la difficile in fatto di statura», rispose in fretta Alice; «solo che non è piacevole cambiarla così spesso, come sa anche lei». «Io non lo so», fece il Bruco. Alice non disse nulla: in tutta la sua vita non era mai stata contraddetta così tante volte prima di allora e sentiva che stava per perdere la pazienza. «Sei contenta adesso?» fece il Bruco. «Be’, mi piacerebbe essere un pochino più grande, signore, se non le dispiacesse», rispose Alice, «otto centimetri è una statura piuttosto infelice». «Al contrario, è una statura ragguardevole!» disse collerico il Bruco, impennandosi tutto dritto mentre parlava (era alto otto centimetri precisi precisi).

quantità

Lewis Carrol, ‘Alice nel paese delle meraviglie’, Baldini Castoldi Dalai editore, Milano 2010, p. 82 (trad. it. di A. Càsoli).

3


Dalle misure degli arti prese dalla Tarnowsky, risulta che l’arto superiore che nella donna onesta, ma lavoratrice, analfabeta, misura 0,608, nelle ladre giunge a 0,597, nelle prostitute a 0,583, con una, dunque, leggera diminuzione; anche l’arto superiore destro, che nelle contadine oneste giunge a 0,619, nelle ladre scende a 0,605, nelle prostitute a 0,588, con una leggera differenza in meno: sarebbero le prostitute quelle che hanno le braccia più corte. E le une e le altre perché lavorano meno delle oneste. Cesare Lombroso e Guglielmo Ferrero, ‘La donna delinquente, la prostituta e la donna normale’, Fratelli Bocca, Torino 1923, p. 166.

4


Arnaldo Cecchini

abcecchini@gmail.com

La questione della misura Quale danno finiscono per causare quelle enormi figure che i ragazzi vanno scarabocchiando ovunque, nei corridoi e nelle sale dei grandi palazzi! Di qui deriva un crudele disprezzo per la nostra misura naturale. M.E. de Montaigne, ‘Dizionario della saggezza’, a cura di R. Bonchio, Newton, Roma 1994, p. 55.

È abbastanza noto che la misura conta. Non voglio dire che conta davvero (a meno di essere al di qua o al di là della coda), ma che si pensa che conta, e questo conta. È sicuro che conta per chi si interroga se la sua misura è giusta (e il primo passo dell’ansia da prestazione nasce da qui) o per chi

si chiede se questa misura sarà giudicata congrua da altra persona interessata (e qui c’è il secondo passo). Sulla misura si favoleggia, ci sono pregiudizi razziali ed etnici, e anche pregiudizi legati ad altre misure.Insomma, se la misura diviene un’ossessione è un brutto inizio. Eppure una

misura che si apparenta un po’ a quella cui abbiamo voluto alludere è alla base della progettazione degli edifici, anche da molto prima che Le Corbusier mostrasse che l’uomo (in senso proprio) è la ‘misura di tutte le case’, inventando il Modulor. In fin dei conti, l’urbanistica nasce con una giusta voglia di misurare. I metri quadri per persona, la quantità di luce disponibile sono misure indispensabili per progettare gli spazi necessari alla vita sana, per pensare agli standards abitativi, più in là per pensare all’Existenzminimum. Inoltre, per pianificare sono sempre servite molte misure, imponenti quantità di dati, ma anche indici, indicatori, standards; e poi modelli, modelli sempre più grandi, a scala sempre più larga, per inferire dalle misure attuali misure future. Anche se l’ossessione per i numeri poteva far dire: «Un paese progressista deve conoscere il numero delle sue pulci, divise per sesso, gruppi d’età, anno e stagione» (Louis-Ferdinand Céline, Viaggio al termine della notte, 1932). E persino se l’ossessione per i modelli onnicomprensivi è stata una delle cause per cui, assieme all’acqua sporca della pretesa di pianificare tutto e in modo esatto, si sono buttati via molti bambini; in particolare, si è permesso di sostituire alla volontà di governare il territorio, la misura universale della misura del valore fondiario. E non sarà ozioso ricordare che misura è modus in latino, e che da modus viene ‘modulo’ e ‘modello’. E nel frattempo era tutta la terra a essere misurata. In piena Rivoluzione francese nasceva il metro, e di lì l’idea di sistema di misura universale, i pesi e le misure. Anche il tempo, un’entità che scorre, poteva essere afferrato, dominato e servire a misurare la posizione (come mostra la triste storia del povero John Harrison che inventò un cronometro che serviva a misurare la longitudine e che, essendo plebeo, si vide derubato della sua invenzione, non ottenendo ‘misura per misura’). Nel misurare la terra, di una sfera vera si trattava, ché se si adoperano sfere ‘matematiche’ la misurabilità diventa più complicata e paradossale (anche se si può immaginare che duplicare sfere d’oro utilizzando il paradosso di Banach-Tarski sia un modo interessante di far soldi) sulla base del fatto che: ‘nessuna misura con ragionevoli proprietà può misurare tutto’, e che la misurabilità intesa come possibilità di misurare sta a monte della definizione della ‘funzione misura’. E a misurare si dedicarono i nuovi uomini di scienza, risalendo fiumi e scalando montagne, prendendo misure nelle campagne, nei deserti, nelle giungle. Pazzi esploratori con l’ansia di capire e di misurare; e prima ancora di classificare, una straordinaria mania che voleva, con quella delle misure, mettere ordine nel mondo. E già Don Giovanni aveva, secondo Mozart e Da Ponte, un catalogo per rappresentare la sua potenza: «In Italia seicento e quaranta; in Almagna duecento e trentuna; cento in Francia, in Turchia novantuna; ma in

Ispagna son già mille e tre. V’han fra queste contadine, cameriere, cittadine, v’han contesse, baronesse, marchesine, principesse». Una misura anche dell’uomo, del suo corpo come misura della sua anima: la frenologia e la fisiognomica hanno goduto a lungo dello statuto di discipline scientifiche (sicuramente Cesare Lombroso avrebbe avuto un h-index impressionante) e sono risultate persino utili per la tecnologia (il bertillonage funzionava per l’identificazione, anche se fu presto reso un po’ obsoleto dall’uso delle impronte digitali. Cesare Lombroso, Alphonse Bertillon e pure il grande statistico sir Francis Galton non esitarono a piegare la misura ai loro pregiudizi ideologici, così Bertillon per giustificare la responsabilità di Alfred Dreyfus a dispetto dei fatti, e sir Galton manipolando un po’ i risultati dei suoi studi sui gemelli per giustificare l’eugenetica. En passant bisogna dire che l’eugenetica piaceva abbastanza anche a sinistra, come dimostra l’esperienza dei socialdemocratici svedesi e quella personale dei coniugi Myrdal: una conferma, se mai servisse, che non vale la legge della ‘retroattività dei principi morali’ (per fare un piccolo, ma non inutile détour: non c’è dubbio che Thomas Jefferson fosse razzista e Voltaire antisemita; sappiamo poi che Karl Marx metteva incinta la serva e si faceva ‘coprire’ da Friedrich Engels per evitare il biasimo sociale ‘borghese’; Albert Einstein sfruttava le mogli e ha abbandonato una figlia; George Simenon e John F. Kennedy si facevano portare qualche prostituta ogni giorno; e difficilmente Lewis Carrol potrebbe sfuggire oggigiorno ad un’accusa di pedofilia. Del resto ‘nessun uomo è un grand’uomo per il suo maggiordomo’, e in generale, come diceva Woody Allen, «nessuno potrebbe scommettere sullo stato delle proprie mutande»). Con il grande sir Galton (che non è meno grande come statistico perché era un sostenitore convinto e radicale della selezione forzata della specie umana; così come il Céline delle pulci non è scrittore meno grande nonostante il suo feroce antisemitismo) e con Alfred Binet inizia poi l’avventura di misurare direttamente l’anima, o meglio l’intelligenza, con le molte tecniche per calcolare questa ineffabile essenza umana; i cosiddetti test per l’IQ costruiscono un’entità nel momento stesso in cui la misurano (una costruzione scientifica analoga a quella sociale; per citare Simone de Beauvoir, «non si nasce donne, si diventa»). C’è stata, insomma, un’epoca con le sue colpe e i suoi meriti, in cui si è passati dal «mondo del pressappoco all’universo della precisione» (Alexander Koyré) e – tutto sommato – non è stato (solo o soprattutto) un male. Il male non sta nel misurare, può stare nell’usare le misure al posto della valutazione e della scelta. Si può fare della misura la base di una filosofia o di un approccio alla vita. Con Orazio (porcellino del gregge) si potrebbe dire in una

versione moderata dell’epicureismo: «C’è una giusta misura nelle cose, ci sono giusti confini | al di qua e al di là dei quali non può sussistere la cosa giusta» («Est modus in rebus, sunt certi denique fines | quos ultra citraque nequit consistere rectus»). Ma chi dice qual è la giusta misura, dove si trova l’aurea mediocritas? Si può fare della misura il feticcio per dare una risposta apparentemente oggettiva, ma in realtà forsennatamente ideologica ai molti problemi di identità e di ruolo della scuola e dell’università, come la cosiddetta ‘cultura della valutazione’ (sic!). Da professore universitario, da professore di urbanistica, da direttore di un Dipartimento di Architettura non posso trattenermi dal dire la mia, su questo punto. Intanto, non si capisce perché mai un docente (dal latino docere, ovvero ‘insegnare’) dovrebbe essere valutato solo per come ricerca e non per come insegna (e, perché no, per come coopera alla gestione della sua istituzione): mi è capitato di scrivere che la valutazione non è mai una mera misurazione (numero di pubblicazioni, numero di citazioni, livello della rivista; gradimento da parte degli studenti o numero di ore di insegnamento; numero di incarichi organizzativi; numero di convenzioni o contoterzi), anche se alcuni dati, alcuni indici, alcuni indicatori aiutano. La valutazione ha bisogno senz’altro di qualche criterio oggettivo, ma quale? E qui potrebbero far paura alcuni dati: nel 2010, secondo il calcolo di The SCImago Journal & Country Rank (SJR), l’Italia era all’ottavo posto nel mondo per numero di articoli con una media di 1,72 citazioni per articolo; nel 1996, primo anno della rilevazione, era al settimo posto (nel frattempo ha fatto irruzione la Cina, che ha conquistato il secondo posto, ma che nel 2010 aveva una media di 0,67 citazioni per articolo prodotto), ma con una media di 18,32 citazioni per articolo; nel 2010 erano presi in considerazione 73.562 articoli italiani (di cui 67.459 citabili) e nel 1996 ce n’erano 36.847 (di cui 35.685 citabili). Da queste misure si dovrebbe desumere che l’obiettivo vero è quello di aumentare ancora gli articoli scritti (sono raddoppiati in 15 anni) oppure quello, mettiamola così, di aumentare gli articoli letti (le citazioni per articolo si sono ridotte a meno del 10 per cento di quelli di 15 anni prima)? Ecco perché misurare serve alla decisione solo se si ragiona sulle misure. Ripeto, sono molto convinto dell’utilità delle misure, in alcuni casi mettere insieme dei numeri può fornire – se li si sa scegliere e rappresentare – un modo semplice e forte di capire e interpretare. Mi viene in mente la mappa della campagna di Russia di Napoleone proposta da Charles Joseph Minard nel 1861, in cui un insieme di misure descrive e spiega l’esito di quella guerra con una chiarezza di enorme impatto; ma dietro c’era un’interpretazione. Già: misurare non basta. E a volte non serve: anche per ‘quella’ misura.

5


benacchio@inaf.it

Confrontare per conoscere, la sfida senza fine della misura

© Eugenio Novajra

Leopoldo Benacchio

‘Hai un secondo?’, ‘Sto ingrassando troppo, oramai ho raggiunto i 70 chili!’, ‘Eh, Paolo oramai è un ragazzo, pensa che è alto un metro e settanta’… Frasi che usiamo, o sentiamo pronunciare, quasi tutti i giorni e che lasciano capire quanto la misura, e le unità che usiamo, facciano indissolubilmente parte della nostra vita. Forse non ci siamo mai soffermati su come il misurare sia una delle avventure più antiche, affascinanti e senza fine dell’umanità. Basta però girare per molti centri storici delle nostre belle città per trovare, nella piazza del mercato e scolpite sulla pietra, le unità di misura usate localmente nei commerci dal medioevo in avanti. Stampa di Jérôme Cock da Pieter Bruegel (1560) in cui si celebra, fra i molti significati, una sorta di ‘festa della misura’ nelle sue tante forme del tempo, come passo fondamentale per la precisa quantificazione della realtà. Un’esigenza ineluttabile dopo la rivoluzione copernicana.

Tutte hanno a che fare con la vita pratica, ad esempio le dimensioni dei recipienti, o addirittura con il nostro corpo, come il braccio, il pollice o il piede, e alcune di queste sono peraltro ancora usate in molti Paesi anglosassoni. Per non parlare poi di quell’infinità di misure locali per l’agricoltura, come il ‘campo’, con il quale si determina la dimensione di un appezzamento di terreno e che cambia praticamente di provincia in provincia, anche a distanza di pochi chilometri. Si potrebbe tranquillamente risalire alle prime grandi civiltà, dagli Assiri agli Egiziani, trattando questo argomento ma, per restare alla storia moderna, la rivoluzione nella misura avviene assieme a quella nella società francese di fine Settecento. Dalle centinaia e centinaia di differenti unità utilizzate allora, tutte molto locali e quindi buone per una vita quotidiana spesa lì dove si nasce, la rivoluzione arriverà alla definizione di poche, valide per tutti, e al sistema metrico decimale. Oggi per noi questo è naturale, ma all’epoca ci furono notevolissime resistenze e in gran parte dell’Europa il sistema venne adottato con molta riluttanza e non certo in modo istantaneo, salvo ancora una volta nei Paesi anglosassoni. Da allora la vita di ogni giorno fu semplificata, affrancata dalla necessità di cambiare continuamente unità di misura per i commerci sempre più importanti, dovuti alla maggiore frequenza dei 6

viaggi e alla prima rivoluzione industriale. La misura è fondamentale soprattutto per la scienza e, in particolare, per la fisica, di cui costituisce uno dei pilastri fondanti e il cui oggetto di interesse è la natura, studiata attraverso i fenomeni che hanno luogo nel mondo reale. Per descriverli questa disciplina considera ‘grandezza fisica’ qualunque ente suscettibile di una precisa definizione quantitativa. Fra le varie grandezze esistono relazioni fisiche e quindi si scelgono le unità di misura soltanto per quelle fondamentali, da cui è possibile poi far derivare tutte le altre. Ad esempio, se prendiamo la velocità, questa è semplicemente una misura di quanto spazio percorro in un certo tempo, e quindi potrò calcolarla in metri al secondo, senza dover coniare una nuova unità. Dato che le grandezze fisiche e le conseguenti unità che è possibile adottare per misurarle sono comunque innumerevoli, nel 1980, attraverso la Conferenza internazionale dei pesi e delle misure, è stato istituito un sistema di unità omogeneo, assoluto, invariante e decimale, il Sistema Internazionale (SI), basato su sette grandezze fondamentali: lunghezza, massa, tempo, corrente elettrica, temperatura termodinamica, quantità di sostanza, intensità luminosa. Le rispettive unità sono: metro, kilogrammo, secondo, ampère, grado kelvin, mole, candela. L’azione del misurare consiste

facesse al minimo grazie anche ai metalli usati e alla particolare forma, né potesse in alcun modo cambiare: il metro campione conservato nel famoso Bureau International des Poids et Mesures di Sèvres. Tutto molto semplice quindi, eppure non ci siamo ancora. Se questo procedimento può andare bene da un punto di vista pratico, non funziona sul piano concettuale, sia che noi misuriamo la lunghezza di una stoffa, sia che cerchiamo di determinare di quanto si sposti un elettrone in un campo elettrico, o quanto distante sia la più remota galassia conosciuta. Oltretutto il campione materiale tende ineluttabilmente a cambiare nel tempo, anche se in modo apparentemente trascurabile. Oggi, con molta maggior precisione e stabilità, seguendo un’idea che si cerca di applicare per tutte le unità di misura, ci si affranca dal campione materiale definendo il ‘metro’ come il percorso fatto dalla luce nel vuoto nell’intervallo di tempo dato da 1/299.792.558 di secondo. Spiegazione semplice ed elegante come poche, ma che ci mette in seri guai, dato che per fissare l’unità di lunghezza abbiamo bisogno dell’unità di tempo, in una specie di gioco a rimpiattino. Fin dagli albori dell’umanità, il tempo viene definito tramite i fenomeni astronomici: in primis, il nascere e il tramontare del Sole, dovuto alla rotazione terrestre. Storicamente il ‘secondo’ corrisponde a 1/86.400 di giorno solare medio. Ma c’è un problema, e piuttosto grande, dato che se ne dibatte da anni a livelsostanzialmente nel confrontare il campione della grandezza in studio con un riferimenlo internazionale. Il moto della Terra, che fino to standard di una grandezza omologa per al 1920 si pensava sufficientemente regolare, capire quale sia il rapporto fra le due. Sfocia non lo è proprio del tutto e, visto che oggi quindi, inevitabilmente, nella produzione di disponiamo di orologi atomici capaci di scarun numero, associato ad un identificatore tare di meno di un secondo ogni 30 milioni di dell’unità di misura che abbiamo utilizzato per anni, siamo in grado di dire che la Terra sta il confronto. Prendiamo il più semplice degli rallentando la sua rotazione, per influsso della esempi e supponiamo di dover calcolare la Luna principalmente, e ogni giorno è più lunlunghezza di un pezzo di stoffa. L’operazione go del precedente di 1,7 millesimi di secondo consisterà nel confrontarlo con un campione circa, oltretutto in modo non regolarissimo. di lunghezza predeterminata, un metro, e Ogni 18 mesi circa abbiamo dunque lo scarto capire quante volte occorre scorrerci sopra la di un secondo fra orologio atomico e tempo stoffa per arrivare alla sua fine. Questo darà astronomico. Da anni, come detto, si discucome risultato la lunghezza della stoffa stessa te se rimanere ancorati al tempo terrestre, sotto forma di un numero, probabilmente imprimendo quando serve la correzione di con decimali, e il simbolo del metro: ‘m’. La un secondo a tutti i sistemi di controllo e di questione però si complica parecchio se con- sicurezza esistenti – teoricamente fattibile ma sideriamo la definizione di metro, inizialmente praticamente impensabile – oppure passare al tempo degli orologi atomici, molto più oppensato come la quarantamillesima parte di portuno per il nostro tecnologicissimo mondo. un meridiano terrestre. Definizione forse eleBasta considerare infatti che un secondo è gante ma del tutto inopportuna, specie due una quantità enorme di tempo per i sistemi di secoli fa, data la difficoltà a replicarlo localmente: difficile confrontare un pezzo di stoffa posizionamento come il GPS, i quali lavorano con un tratto di meridiano terrestre, ‘oggetto’ con orologi atomici propri e non con il tempo che peraltro non esiste ma è solo un’astrazio- terrestre, o pensare alle contrattazioni finanne con cui partizioniamo idealmente la Terra. ziarie odierne, in cui sofisticati programmi Si passò pertanto a determinare un campiosoftware sfornano migliaia e migliaia di tranne fisico replicabile a piacere, mantenuto in sazioni ogni secondo. Il secondo ‘atomico’ è condizioni ottimali di temperatura e ambiente così l’intervallo di tempo necessario perché si svolgano 9.192.000.631.770 oscillazioni costanti, in modo che non si dilatasse, o lo

della radiazione emessa dall’atomo di cesio 133, nel passaggio fra due particolari livelli energetici. L’esempio ci fa capire come la questione delle unità di misura sia costantemente in evoluzione, nello sforzo congiunto di preservare la definizione corrente e aggiungere sempre maggiore accuratezza, invarianza dell’unità e facilità a riprodurla. Misurare un pezzo di stoffa è un tipico esempio di misura diretta, in cui confrontiamo grandezze omogenee, ma quando vogliamo calcolare l’area di un quadrato, ad esempio, usiamo una relazione matematica: area = lato x lato. Quello che misuriamo è una lunghezza e ciò che ricaviamo è un’area, che dimensionalmente è altra cosa, una lunghezza al quadrato. Siamo alla misura indiretta, ricavata sotto una relazione matematica. Ma possiamo avere anche misure valide se e solo se un’ipotesi è realmente valida, anche se non dimostrabile. Un esempio? La distanza delle galassie lontane, non di quelle più vicine, viene determinata, misurata, grazie al red shift, lo spostamento verso il rosso del suo spettro luminoso. Più è arrossato lo spettro, più distante è la galassia. È la ‘legge di Hubble’, che ribaltò poco meno di un secolo fa l’astrofisica. Si dovesse in futuro capire che non è valida, in parte o del tutto, le misure di queste distanze andrebbero rifatte completamente. Nel corso del metodo scientifico la misura è


La precisione per gli antichi Egizi era simboleggiata da una piuma che serviva da peso sul piatto della bilancia dove si pesano le anime. Quella piuma leggera aveva nome Maat, dea della bilancia. Il geroglifico di Maat indicava anche l’unità di lunghezza, i 33 centimetri del mattone unitario, e anche il tono fondamentale del flauto. Italo Calvino, ‘Lezioni americane. Sei proposte per il prossimo millennio’, Mondadori, Milano 2002, p. 65.

un passaggio fondamentale, che differenzia questo da tutti gli altri tipi di speculazione sulla natura che l’uomo ha sviluppato. Per la fisica studiare i fenomeni significa osservarli, definire le grandezze che lo caratterizzano, misurarle, ragionare su questi numeri così prodotti e sviluppare un’ipotesi sul ‘funzionamento’ del fenomeno. Solo allora si potrà testare tale ipotesi con esperimenti e, infine, dare una interpretazione dei risultati sperimentali, a loro volta descritti da misure, e formulare una legge fisica. Ovvio che questo percorso appena descritto è ideale, o schematico se vogliamo, e la logica della scoperta scientifica può percorrerlo in vari modi, ma esemplifica bene come la misura sia fondamentale e come, senza di essa, non si possa parlare di scienza. Peraltro, in fisica si usano, nel campo della misura, parole che possono creare equivoco e che sono invece importanti per caratterizzarla. E quindi ecco come ‘accuratezza’ significa quanto la nostra misura è vicina a un valore che riteniamo accettabile per quel tipo di misura e dipende sostanzialmente da quanta cura viene messa nel procedimento, mentre ‘precisione’ si riferisce alla ripetibilità di una misura che si riflette nel numero di figure significative che ne danno il valore e dipende, in definitiva, dalle capacità dello strumento usato.

Nel quantificare le misure utilizziamo ordini di grandezza, le potenze di 10, da 10-18 (prefisso ‘atto-’) a 10+18 (prefisso ‘exa-’). Un’ultima, fondamentale, proprietà della misura in fisica è l’errore che lo accompagna. Qualche lettore ci dovrà perdonare se ricordiamo che in fisica anche la parola ‘errore’ ha un significato diverso che nel nostro linguaggio, non vuol dire infatti ‘sbaglio’, ma indica l’insopprimibile incertezza che è presente in tutte le misure, dato che il concetto di valore ‘vero’ non esiste proprio in questa disciplina. Si può invece dare il valore misurato indicando l’intervallo di incertezza entro cui si è confidenti che cada il valore vero. Per sincerarsi dell’impossibilità di avere un valore vero, è possibile, banalmente, dare un righello a dieci persone e pregarle di misurare un lato di un foglio di carta. Daranno probabilmente, se non dieci, senz’altro parecchi diversi valori. Possiamo ridurre l’intervallo di incertezza aumentando la cura e la bontà dello strumento di misura, in questo caso il righello, ma di sicuro non possiamo ridurlo a zero. Che l’errore sia casuale, una lettura sbagliata per parallasse momentanea o per aumento della temperatura locale che dilata il campione, o sistematico, ad esempio banalmente un righello che riporti una scala errata, con esso occorre convivere perché riflette le proprietà intrinseche della materia vista a livello macroscopico

e del nostro metodo allo stesso tempo. Sia nel caso della lunghezza di un foglio di carta che in quello delle tracce nucleari ottenute con gli esperimenti del gigantesco acceleratore di particelle Large Hadron Collider di Ginevra, vi possono essere quindi errori di misura, anche perché si tratta comunque di individuare lunghezze, posizioni, tempi e così via in modo più o meno sofisticato. Il nostro breve viaggio nel mondo della misura non può che finire con i suoi limiti, dettati dal ‘principio di Heisenberg’, anch’esso spesso travisato a causa del suo infelice nome: ‘principio di indeterminazione’. Che non si possa conoscere sia quantità di moto (velocità per massa) che posizione, allo stesso istante, di una particella sembra un limite a molti lettori, ma è forse ciò che rende unica la fisica rispetto alle altre discipline, dato che noi sappiamo quali sono i nostri limiti, e da lì si riparte, con il mondo dei quanti, ancora tutto da esplorare. Lì, dove la misura è tutta un’altra cosa.

Vorrei passare alla storia come un’unità di misura Watt Volt Faraday oppure dare il nome a una scala come Mercalli Fahrenheit Réaumur la mia sarebbe la scala della noia al grado uno la pioggia di novembre al due i locali notturni al tre, quattro... scegliete voi e così via, fino al nove, me stesso Luciano Erba, ‘Vorrei passare alla storia’, in ‘Negli spazi intermedi’, All’insegna del Pesce d’Oro, Milano 1998, p. 47.

7


Massimo Vignelli

massimo@vignelli.com

About Measure Misura dello spazio, misura del tempo, misura fisica, misura concettuale, misura virtuale, misura tangibile e intangibile, misura misurabile e incommensurabile. Misura come essenza della vita, misura come negazione e come affermazione, e poi ancora altre misure. Misura in ogni cosa, musica, scienza, arte, poesia e misura dei sentimenti. Misura controllata e misura fuori controllo. L’idea di misura è essenzialmente legata all’homo sapiens. Non credo che il mondo animale ne abbia uno. È un concetto intellettuale, implica il desiderio di ordine, di regola, di misurazione come atto razionale teso a strutturare qualsiasi cosa o fenomeno. È la negazione del caos, l’opposto del caso, del gratuito, dell’indefinito. Richiede controllo, intelligenza, visione, sistema. Misura è la struttura dello spartito musicale, è la gabbia tipografica, è la modulazione alla base dell’architettura da sempre. L’assenza di modulazione è arbitrarietà, che a sua volta non ha misura. Misura come responsabilità, disciplina, ordine, razionalità. Spazio e tempo sono le prime due misure dell’umanità. ‘Quanto dista?’, ‘Quanto tempo ci vuole per arrivare’?, e subito nasce la necessità di quantificare quella distanza: in piedi, a spanne, in pollici e più tardi con unità stabilite, codificate per poter essere utilizzate da tutti. Oppure misure concettuali legate ad esperienze, a memorie: ‘Quanto tempo fa?’, ‘Ieri, oggi, domani, fra un mese, fra un anno…’, anche loro misure stabilite e codificate per poter essere recuperate, usate. Misure tangibili e misure intangibili, ambedue necessarie per comunicare, per poterci collocare nello spazio, nel tempo e tra di noi. E poi le misure incommensurabili, come la dimensione dell’Universo, grandezze teoriche al di là dell’immaginabile: anni luce, misure al di là

della percezione, ma comunque codificate. Misura come essenza della vita, per aiutarci a comprendere il passato, a percepire lo scorrere dei tempi, a codificarne la durata. Senza codificazione non potremmo misurare la percezione, non sapremmo mai da quanto, da dove e forse perché. Forse non esisterebbe la musica: la scrittura musicale è codificazione, è misura. Il suono stesso è misurabile, in decibel, perché tutto è misura, lo è anche la sua assenza. Scienza e matematica usano unità di misura, particolarmente definite per loro, ciascuna con valori specifici. Misura nell’arte: come codice, come struttura all’interno della quale operare, oppure la sua negazione, nell’accidentale, nella glorificazione dell’imprevisto, nella casualità, nell’assenza com-

pleta di un ordine, nella celebrazione dell’arbitrarietà che non ha confini, completamente incommensurabile ma controllabile. Su quale misura si basa il suo controllo? Sulla sua assenza, paradigma di uno spazio senza confini. Misura come affermazione di responsabilità, verso l’oggetto in questione, la sua origine e il fruitore finale. Misura significa: disciplina, ordine, struttura, razionalità, atemporalità, gli elementi base del modernismo. Essere senza misura significa caos, glorificazione del caso, dell’imprevisto e del gratuito, elementi prediletti del post-modernismo che stabilizzava l’effimero. Misura come definizione metrica dello spazio, paradigma dell’illuminismo, della ricerca di una codificazione al di là di contesti locali o storici, ovvero intesa come espres-

sione sublime del pensiero, strumento logico per un ‘sistema di sistemi’, misura di controllo sullo sviluppo tecnologico ad ogni livello e misura per la nostra sopravvivenza ecologica. Misura come intensità nei sentimenti umani, intangibile ma presente nella definizione dei rapporti tra persone, misurabile nelle sue manifestazioni – odio, amore, affetto, passione, tolleranza, indifferenza, entusiasmo, grettezza, curiosità, avidità, desiderio – e poi ancora, ciascuna con un proprio metro di intensità totalmente incontrollabile, non codificabile. Misure incommensurabili, al di là di ogni logica, ma profondamente legate al nostro essere. Splendida ambiguità della misura.

La carta era stata suggellata in diversi punti, e come sigillo era stato adoperato un ditale, forse lo stesso che avevo trovato nella tasca del capitano. Il dottore ruppe i sigilli con gran precauzione, e apparve la mappa di un’isola, con le indicazioni di latitudine, longitudine, fondali, nomi di colline, baie e insenature, e con tutti i particolari necessari per condurre una nave a un sicuro ancoraggio sulle sue sponde. […] C’erano diverse aggiunte posteriori, ma si notavano soprattutto tre croci tracciate con l’inchiostro rosso, due nella parte nord dell’isola, una a sudovest, e accanto a quest’ultima, con lo stesso inchiostro rosso e con una grafia chiara e minuta, ben diversa da quella incerta del capitano, erano state scritte queste parole: «Qui il grosso del tesoro». Robert Louis Stevenson, ‘L’isola del tesoro’, Feltrinelli, Milano 2004, pp. 79-80 (trad. it. di L. Maione).

8


Come fin da bambini impariamo a ridimensionare, a reprimere questa illusione nei confronti del senso dello spazio, così dobbiamo fare per il senso del tempo, del valore e dell’esistenza. Altrimenti saremo incapaci, sotto ogni aspetto, eccetto per ciò che concerne lo spazio, di distinguere un solo oggetto, di muovere un solo passo. Noi siamo nella irrealtà, nel sogno. Rinunciare alla nostra illusione di essere situati al centro, rinunciarvi non solo con l’intelligenza, ma anche con la parte immaginativa dell’anima, significa aprire gli occhi alla realtà, all’eternità, vedere la vera luce, sentire il vero silenzio. Simone Weil, ‘Attesa di Dio’, Rusconi, Milano 1972, p. 125 (trad. it. di Orsola Nemi).

Sergio Polano intervista Massimo Vignelli

sergio.polano@gmail.com massimo@vignelli.com

Polano. In musica, nella teoria della composizione musicale, la misura, la battuta, è unità fondamentale. In architettura, la metrica, come in poesia, fonda l’arte stessa del costruire. Misura deriva dal greco antico metìri, a sua volta dal radicale indoeuropeo [MA], donde tra l’altro appunto misura, matematica, mese, metro e altri sostantivi di non poco tratto. Nell’architettura dell’informazione quale ruolo svolge la ‘misura’? È forse un analogo del rapporto ‘proporzioni-dimensioni’ di cui ha acutamente scritto?

Vignelli. Responsabilità, verso se stessi e verso gli altri. Responsabilità civile ed etica. Responsabilità professionale, verso il produttore e verso l’utente. Il malinteso sulla libertà individuale, derivato da un frainteso concetto di democrazia, ha eroso il senso di responsabilità e favorito gli interessi privati. In un mondo ossessionato dall’esosità, dal possesso indiscriminato, non meraviglia che la responsabilità abbia perso il ruolo di bilancio dell’economia dei valori. Questo principio è alla base di tutti i valori etici senza i quali la società e l’individuo hanno poche possibilità di crescere. Siamo ancora una volta di fronte ad un grande cambiamento storico, e la responsabilità è l’essenza di questo mutamento, senza percezione della quale non c’è ritenzione del suo significato profondo.

Vignelli. Misura è ritmo, è modulazione, è articolazione del messaggio nelle sue componenti per facilitarne la lettura, è una serie di rapporti proporzionali tra l’insieme e il dettaglio. Essa non si ferma mai, assume forme diverse, tangibili e intangibili, tra cui l’abilità di non eccedere e di contenersi. È la misura che ci salva dall’arbitrarietà, che per sua natura è incommensurabile. Nell’architettura dell’informazione, misura è struttura, sostiene il messaggio e permette raffinati giochi visivi tra le parti. È il rapporto tra lo spazio bianco e quello occupato dal segno; è la tensione provocata dai contrasti di scala, tra l’estremamente grande e l’estremamente piccolo, tra l’urlo e il silenzio, in rapporti precisi, misurabili. La misura, quando manca, è il vuoto assoluto, volgarità come forma di espressione. Misura come atto senza tempo, come opposto di arbitrarietà e come opposto dell’effimero, del caotico, del volgare. Polano. Nella progettazione, si fa sempre attenzione a misure e proporzioni cercando, per quanto si può, di trascendere la soggettività. Ma quanto siamo veramente liberi da noi stessi per non lasciare tracce riconoscibili? Ogni forma, infatti, non è mai neutra e porta in sé unicità e appartenenza. Quanto dobbiamo tenere conto di questa imprescindibile realtà? Vignelli. Verissimo, com’è anche vero che l’oggettività è, alla fine, la proiezione di una ricerca soggettiva… Amo la contraddizione e l’ambiguità, valori soggettivi, pluralistici di natura. Ma la mia tensione spasmodica è rivolta verso l’oggettività, la ricerca utopistica dell’essere perfetto, dell’essenza delle cose, senza incrostazioni personali. L’oggetto puro, la geometria pura: il quadrato, il cerchio, forme assolute non modificabili; non come il triangolo, figura eternamente soggettiva, senza un assoluto; e non parliamo dell’ellisse… È incredibile che, nell’universo delle forme, solo il quadrato e il cubo, il cerchio e la sfera sono immutabili, l’essenza stessa dell’oggettività, l’essenza stessa dell’Universo. Unicità e appartenenza – come il peccato originale – ce le portiamo addosso, senza possibilità di scrollarcene, ma in noi, sordi alla realtà, il desiderio di assoluto rimane come se fosse vero. Polano. La parola ‘responsabilità’ significa dover dare delle risposte. Anche quando si progetta si cercano risposte, e ci si imbatte spesso in una situazione limite, in una sorta di soglia. Se da una parte ogni scelta sta alla base della libertà creativa, allo stesso modo quella stessa scelta chiede di tenere e dare conto. Sembrerebbe che oggi, in quella soglia, non ci si spinga più, nel senso che ci si tende a fermare su ciò che ormai si trova già precostituito, senza immaginazione né, tanto meno, consapevolezza. Lei ha spesso parlato della professionalità come di un’ossessione. La situazione sembrerebbe, in questo senso, addirittura peggiorata. Cosa può dire al riguardo?

Polano. Uno degli aspetti fondamentali per esplorare un progetto è quello di chiedersi: ‘si può fare in un altro modo?’, innescando dubbi e andando in fondo alle cose fino a raggiungerne l’essenza. Con l’affermazione ‘design is one’, lei ha voluto sottolineare come un atteggiamento mentale metodologicamente consapevole debba sempre trovare un suo senso, pur applicandolo in contesti diversi; per capirci: dal cucchiaio alla città il disegno è uno. È un presupposto che dovrebbe riguardare non solo chi fa design anche perché, visto che viviamo immersi in forme create, chi progetta ha sempre a che fare con tanti altri interlocutori. Come interpreta oggi il rapporto tra etica ed estetica? Quando e quanto la forma riesce ancora a farsi portatrice, essa stessa, di contenuto? Vignelli. Forma e contenuto sono assolutamente inseparabili. Niente meglio della forma riflette il pensiero o la sua mancanza. Sono i contenuti che hanno generato le vere forme della volgarità. Viceversa, altre forme rappresentano contenuti sublimi. È il cervello che qualifica la forma, la nostra cultura. Un sasso può essere bellissimo, non perché è un sasso, ma perché è trasformato dalla nostra cultura che ne può apprezzare l’aspetto esteriore. Esisterà sempre in forme diverse, alcune immutabili altre condizionate dai tempi. Mi ha sempre affascinato che la parola ‘etica’ faccia parte integrante della parola ‘estetica’. Non c’è un’estetica senza un’etica che le dia ragione di esistere, non può esserci un’estetica del male, perché il male non è un valore etico, ma sintetico. Uno stile può esistere perché non necessita di una essenza etica. Innumerevoli esempi nella storia ci ricordano stili senza un fondamento etico. A volte seducenti ma, come la seduzione, non necessariamente etici. Credo nel pluralismo, lo ritengo una condizione necessaria affinché possiamo approfondire le nostre opinioni, metterle a confronto e rinvigorire le nostre posizioni etico-culturali per poter meglio espandere le nostre convinzioni. Dal cucchiaio alla città? Certamente, il disegno è uno!

9


Alessandro Minelli

alessandro.minelli@unipd.it

Scena prima. Un gatto si è impadronito di un passero. Lo afferra con le dita unghiute, lo lascia, lo riprende. Sembra giocare con la povera vittima. Ma, alla fine, la uccide, la lascia sul terreno immobile, e presto fredda, come una palla. C’è da stupirsi? Il gatto è un predatore. E un predatore, prima di iniziare il suo pasto, uccide necessariamente la preda. Quello che mi turba è lo spreco, quella vittima ammazzata dalla quale il predatore staccherà appena un boccone, e forse nemmeno quello. Un gesto senza misura. Scena seconda. Questa volta, il predatore

sono io. Cacciatore di coleotteri, avviato forse a sprecare piccole vite con una disinvoltura anche maggiore di quella di un gatto. Verso il tramonto, sui rami più grossi dei vecchi salici piangenti lungo le sponde del Sile, il mio fiume, fanno la loro passeggiata i tabachèri, splendidi coleotteri dalle lunghe antenne, ammantati di una livrea metallica che brilla di verde e di azzurro. Presi in mano, emanano un odore inconfondibile, inatteso ma non sgradevole, che dà ragione del loro nome scientifico (Aromia moschata) e anche di quello dialettale: quest’ultimo risale ai tempi in cui era comune l’uso del tabacco da fiuto e uno di questi insetti finiva spesso nelle tabacchiere, ad aggiungere il proprio aroma a quello di un buon trinciato. Nelle aromie, come spesso nei coleotteri, i maschi hanno le antenne assai più lunghe di quelle delle femmine, ma in compenso hanno mole minore. E questa è la regola presso la maggior parte degli animali. A parte i mammiferi, e ciò potrebbe indurci a meraviglia. Ma un giovane entomologo impara presto la lezione… Quella sera, tuttavia, mi capitò tra le mani una bestiola così piccola che, sulle prime, dubitai potesse trattarsi davvero di un’aromia. Lunga sì e no due terzi del normale, così leggera che ce ne sarebbero volute quattro per fare un’aromia degna della sua specie. Per un anno o due vantai questo esemplare come uno dei pezzi più curiosi della mia collezione d’insetti, ma un giorno mi accorsi che il suo caso non era poi così strano. Fatti simili accadevano proprio sotto i miei occhi, a danno dei mobili di casa. Anche fra i tarli – che sono coleotteri al pari delle aromie – compariva qualche volta un individuo molto più piccolo del solito, peraltro normale nelle sue forme e, con ogni probabilità, sano e capace di riprodursi. Cercai di farmene una ragione. Le dimensioni dell’adulto, in questi insetti, dipendono dalle risorse che l’individuo ha avuto a disposizione durante la sua vita larvale. Da adulto, infatti, non potrà più crescere, imprigionato com’è in uno scheletro esterno che equivale a una corazza, leggera ma indeformabile. Tarli e aromie hanno in comune le condizioni di vita larvale, gli uni e gli altri crescendo all’interno di una prigione che non possono lasciare prima di tramutarsi in adulti. L’intera loro vicenda dipende dal sito in cui, un giorno, la madre ha deposto le sue uova e dalla qualità del legno dentro al quale la larva si è trovata a scavare la sua galleria. Se quel legno è capace di assicurare appena la sopravvivenza della larva, da questa prenderà origine un adulto

di dimensioni stentate. Nessuna possibilità di sterzare verso una vena di legno più succosa e nutriente. Da vivo o da morto, l’albero riesce a manipolare la vita del piccolo insetto, a imporgli la sua misura. Scena terza. Di recente sono riuscito a strap-

pare a mia madre il consenso ad allevare in casa qualche bruco, a patto di tenerlo confinato in camera mia. Adesso sto seguendo un paio di neri bruchi di vanessa e una piccola schiera di verdi bruchi di cavolaia. Quest’ultimi, da un paio di giorni, hanno smesso di mangiare e si preparano a diventare crisalidi. La metamorfosi è vicina! Uno di questi bruchi, però, è diverso dagli altri. Se fosse un essere umano, direi che è più svogliato; quello che è certo è che il suo colore è insolito, e vorrei sapere perché. La risposta arriva presto. Mentre gli altri bruchi, in effetti, si trasformano in crisalidi, appese con la testa all’ingiù e sorrette da una cintura di seta, dal corpo del bruco triste esce una folla di piccole larve bianche, ciascuna delle quali, senza allontanarsi, fila rapidamente un suo minuscolo bozzolo di color giallo zolfo. Alla fine, quello che resta del bruco è una spoglia vuota, tutta ricoperta da questi bozzoli. Ci vorranno pochi giorni per vedere la conclusione della vicenda. Dai piccoli bozzoli gialli escono altrettante minuscole vespine nere. La loro madre aveva deposto una cinquantina di uova nel giovane bruco. La vita di queste vespine non è quella, senza misura, del predatore che intanto uccide, e poi la sua fame, il suo umore, o la presenza di competitori decideranno quanto della vittima sarà davvero consumato da chi l’ha abbattuta. La vita di queste vespine non è nemmeno quella del parassita, che sfrutta senza uccidere, non solo perché la sopravvivenza della propria vittima è necessaria per la sua stessa vita, ma anche perché in genere le sue dimensioni sono minuscole, rispetto a quelle della vittima, e la sua vita è assai più breve. È un pidocchio tra i capelli di un uomo, o un plasmodio della malaria nel suo fegato o nel suo sangue. Né predatori né parassiti, queste vespine sono invece dei parassitoidi – assassini a termine, vere bombe ad orologeria. Insuperabili, nell’arte di logorare con misura le loro vittime. All’inizio della vicenda, esse sono minuscoli nemici che consumano le parti meno vitali della loro vittima, consentendo a questa di crescere, quasi in modo normale. Intanto, però, dentro di lei si sviluppano anche gli insidiosi parassitoidi. Questi si preparano a completare il loro pasto, quanto basta a potersi trasformare in vespine adulte, proprio quando la vittima ha raggiunto, a sua volta, il massimo delle dimensioni e sta per iniziare una metamorfosi che la sorte, però, le ha ormai definitivamente negato. Quanto alle larve delle vespine, se avessero mangiato troppo in fretta, avrebbero ucciso la loro vittima eccessivamente presto, e sarebbero morte con essa. Se avessero mangiato troppo lentamente, il bruco si sarebbe potuto mutare in farfalla, magari malaticcia, e per loro la sorte sarebbe stata egualmente funesta. A spese di un povero bruco, questi parassitoidi insegnano che nella vita puoi anche far fuori la tua vittima ma, se non puoi contare su aiuti esterni, devi farlo con misura.

Paura. Terrore. Sono paralizzato dalla paura, qualcosa di nuovo, che non ho provato nei mesi passati. Prima ero programmato per questa fottitura, sapevo cosa fare, il mio corpo non mi tradiva, era sempre all’erta, teso, un vero soldato. Adesso sono un pover’uomo malato, contratto dall’impotenza, un sacco di stracci. Molti muoiono negli ultimi giorni di servizio perché si rilassano oppure si spaventano. Ho paura di morire di colpo, senza il tempo di accomiatarmi dalla luce, e un’altra paura peggiore, quella di morire lentamente. Isabel Allende, ‘Il piano infinito’, Feltrinelli, Milano 2004, p. 179 (trad. it. di E. Cicogna). 10

© Ulderica Da Pozzo

Tre ricordi, dagli anni dell’adolescenza.

© Ulderica Da Pozzo

Ti farò fuori, ma con misura


Massimo Bernardi

massimo.bernardi@mtsn.tn.it

Ossimori evolutivi: quando il tempo non invecchia Nella prima metà dell’Ottocento diviene chiaro che ogni strato roccioso, sovrapposto a innumerevoli altri a costituire la successione geologica, contiene fossili unici. Si inizia così a distinguere e ordinare le rocce, e i fossili assumono il ruolo di ‘orologio del passato’, strumento di misura (relativa) del tempo profondo. Tuttavia, il modificarsi delle forme degli organismi nel tempo, ovvero l’evoluzione biologica, segna spesso un passo irregolare. © Centro Studi Nediža / Študijski center Nediža. Ritratti di Tin Piernu (Valentino Trinco)

Il ritmo dell’evoluzione Charles Darwin se l’era immaginato lento e costante. Non aveva del tutto escluso la possibilità che potesse variare, ma pensava che le nuove specie si formassero a piccoli passi, generazione dopo generazione. Se così fosse, dovremmo essere in grado di misurare, nelle successioni fossili, continui e graduali cambiamenti di forma degli organismi: serie insensibilmente graduate, avrebbe detto Darwin. Le rocce, invece, lo delusero. I fossili dimostravano che il cambiamento evolutivo è la condizione prevalente, spesso però con una distribuzione molto irregolare delle forme nel tempo. Nuove specie comparivano improvvisamente, altre – delle vere anomalie, ai suoi occhi – sembravano non modificarsi affatto. Darwin iniziò a considerare i fossili come un ‘intralcio’ per la sua teoria e nell’Origin of Species relegò la loro trattazione nella sezione relativa ai problemi e alle critiche. Per superare l’ostacolo, Darwin propose l’argomento dell’incompletezza: la documentazione fossile ci racconta una «storia di cui possediamo solo l’ultimo volume […]. Di questo volume si è conservato solo qua e là un breve capitolo; e di ogni pagina solo qualche riga ogni tanto». Misure, pur precise, di successioni ingannevoli non possono che restituire dati discontinui. Se l’incompletezza giustificava, almeno prima facie, la scarsità delle forme di transizione attese, non poteva spiegare la presenza e la distribuzione di quelle che, come ossimori evolutivi, sembravano rimanere immutate strato dopo strato. Com’era possibile che una specie si presentasse per milioni di anni sotto le stesse forme? Come poteva sfuggire all’evoluzione, azzerando la misura del tempo? Il quesito si sarebbe rivelato ostico non solo per Darwin. Solo nella seconda metà del Novecento la persistenza delle forme inizia ad acquistare significato, alla luce di un nuovo paradigma: piuttosto che un errore, la ‘misura zero’ poteva forse costituire un dato oggettivo da interpretare. La biologia evoluzionistica è una scienza narrativa. Da essa ci attendiamo storie che raccontino, scena dopo scena, di modificazioni continue, nel più classico stile del romanzo. Così i paleontologi hanno spesso studiato il cambiamento delle forme attraverso il tempo alla ricerca di successioni lineari di eventi. Linee di discendenza stabili, storie dalle misure cristallizzate, sono state inizialmente

notate solo nei casi più estremi, come quello dei ‘fossili viventi’: il celacanto dell’Oceano Indiano, ad esempio, un modello di pesce a lungo considerato estinto e invece riapparso, come un ossimoro, una negazione del tempo, quasi identico a fossili vecchi di duecento milioni di anni. A uno sguardo più attento, tuttavia, ‘anomalie’ darwiniane sono rispuntate in ogni momento della storia evolutiva e su ogni ramo dell’albero della vita. Dalla loro misura si è sviluppato un nuovo modo di guardare alla documentazione fossile e ai passaggi scanditi dal percorso evolutivo. Il caso non è ancora risolto. Ma oggi sappiamo che il ritmo del processo evolutivo su scala generale – la cosiddetta ‘macroevoluzione’ – rivela spesso lunghi periodi di stasi, interrotti da accelerazioni che si accompagnano alla nascita di nuove specie: piccole popolazioni isolate, che hanno scarse probabilità di lasciarci testimonianze fossili, sono i centri di sperimentazione di nuove forme, misure e strategie. Proprio come un individuo, una volta nata, ogni nuova specie vive attraverso il tempo bilanciando le pressioni esterne in costante trasformazione; può accumulare variabilità in nuovi ambienti e con nuove mutazioni ma, sino a quando le sue diverse popolazioni rimarranno in contatto tra loro, la riproduzione tenderà a omogeneizzare, quindi a mediare, le forme. Solo nel momento in cui sorgerà una barriera capace di interrompere il flusso riproduttivo, e i figli e poi i nipoti di qua e di là da essa diverranno sempre più indipendenti tra loro, dalla specie originaria prenderanno la propria autonomia due specie figlie, due nuove forme che, se vincenti, dureranno nel tempo. Non ci attenderemo quindi di dover riconoscere una nuova specie fossile all’interno di una serie pressoché infinita di modificazioni impercettibili nell’aspetto degli organismi nel tempo. Piuttosto, la repentina apparizione di una forma sarà per noi la prova tangibile del cambiamento evolutivo, come un ‘punto di rottura in un mare di stabilità’. Se la definizione di una ‘anomalia’ dipende dal sistema di riferimento prescelto, la storia della vita ci insegna che lo zero, l’assenza di cambiamento, è una misura tutt’altro che anomala. Nell’evoluzione biologica, esso ricorda piuttosto lo zero posizionale della matematica: qua, un mattone per costruire la molteplicità; là, un mattone per costruire la vita.

Giovanni Percolla aveva quarant’anni, e viveva da dieci anni in compagnia di tre sorelle, la più giovane delle quali diceva di esser ‘vedova di guerra’. Non si sa come, nel momento in cui pronunciava questa frase, si trovava con una matita e un foglio in mano, e subito si poneva a scrivere dei numeri, accompagnandosi con queste parole: «Quando io ero in età da marito, scoppiò la grande guerra. Ci furono seicentomila morti e trecentomila invalidi. Alle ragazze di quel tempo, venne a mancare un milione di probabilità per sposarsi. Eh, un milione è un milione! Non credo di ragionare da folle se penso che uno di quei morti avrebbe potuto essere mio marito!». Vitaliano Brancati, ‘Don Giovanni in Sicilia’, Bompiani, Milano 1999, p. 3.

Il ‘taglio’ imposto da Zeus ha trasformato l’uno in due (ex henos dyo), conferendo alla vita intera il carattere di un esodo incessante e doloroso, di una sorta di tormentoso pellegrinaggio alla ricerca senza soste della propria ‘metà’. La separatezza, l’essere in-dividui, coincide dunque con la malattia, tanto quanto il ripristino della salute si identifica con il processo che conduce a ripristinare la forma piena originaria – dal due, l’uno (ex dyoin hen). Umberto Curi, ‘Straniero’, Raffaello Cortina, Milano 2010, p. 95.

11


Guglielmo Weber

guglielmo.weber@unipd.it

La statistica e il buon senso Ci è capitato, di recente, di scrivere un libriccino su come la società italiana sta cambiando. Se il volumetto, dal titolo Cose da non credere. Il senso comune alla prova dei numeri sia utile o gradevole ai suoi (venticinque?) lettori, non sta agli autori (Gianpiero Dalla Zuanna e chi scrive queste righe) dirlo. Ma certamente si è rivelato utile e gradevole a chi l’ha appunto scritto. Il libriccino ha due fili conduttori. Da un lato, tratta di argomenti tutti riconducibili al modo in cui la società e gli individui sono stati influenzati dai grandi cambiamenti demografici che hanno caratterizzato l’ultima parte del secolo scorso e questo primo scorcio del nuovo secolo, e che vanno sotto il nome di ‘nuova rivoluzione demografica’ (new vital revolution): aumento della longevità, calo della fecondità, migrazioni, per citare solo i più eclatanti. Dall’altro lato, mette in evidenza come senso comune e buon senso spesso differiscano, il primo essendo basato (almeno nella nostra definizione – che si ispira, ma non necessariamente coincide con quella di Alessandro Manzoni) su impressioni e pregiudizi, il secondo sull’analisi attenta della realtà, così come rappresentata dai dati. Il senso comune si nutre di miti, il buon senso di fatti. La distanza fra miti e fatti dipende in parte dalla nostra ignoranza e pigrizia. In (piccola) parte è dovuta alla mancanza di dati attendibili. In parte dipende però dal modo in cui i fatti sono misurati e rappresentati: insomma, da dati raccolti male e analizzati peggio. Per illustrare questo fenomeno, affrontiamo un argomento che non manca mai di incuriosire: il sesso. La maggior parte dei dati sul comportamento sessuale che appaiono sui media sono spazzatura, numeri che non hanno alcun significato, se non quello di dare un po’ di notorietà a chi li mette in giro. Per lo più, essi sono raccolti su campioni non casuali, caratterizzati da comportamenti sessuali diversi da quelli della media della popolazione, come gli utenti di consultori familiari, i frequentatori di un sito internet, ragazzi intervistati all’uscita di una discoteca. Ma non è sufficiente che i campioni siano statisticamente corretti. Anche in questo caso, molte delle persone sorteggiate possono rifiutarsi di rispondere, e se il comportamento sessuale dei rispondenti è diverso da quello dei non rispondenti, i risultati finali possono essere distorti. Ad esempio, in quasi tutte le indagini campionarie svolte in Italia molte fra le persone poco istruite si rifiutano di rispondere. Poiché i meno istruiti hanno un comportamento più ‘tradizionale’ dei coetanei più istruiti, se i dati non vengono corretti a posteriori, il comportamento sessuale della media degli italiani risulta più ‘moderno’ rispetto alla realtà. Inoltre, chi studia i dati sulla sessualità dimostra spesso una singolare ingenuità statistica. Può accadere che chi raccoglie dati su campioni di sedicenni (ad esempio mediante interviste nelle scuole, ossia con una metodologia campionaria spesso adeguata) proclami urbi et orbi che l’età media al primo rapporto sessuale dei giovani si è ormai abbassata a 14-15 anni. Peccato che il calcolo venga fatto

solo sul gruppo di chi ha già avuto rapporti sessuali, ignorando il 70-80% che ancora non li ha ancora avuti e che certamente – se vivrà questa esperienza – lo farà in età successive. Se lo stesso gruppo fosse stato intervistato attorno al diciottesimo compleanno, l’età media sarebbe stata di 16-17 anni; mentre se l’intervista fosse stata fatta attorno al venticinquesimo compleanno, l’età media sarebbe risultata di 18-19 anni, questa volta calcolata sulla quasi totalità della coorte, perché ormai non più vergine. Quest’ultimo risultato sarebbe vicino alla misura corretta, utilizzata dagli specialisti di tutto il mondo, ossia all’età mediana al primo rapporto sessuale, cioè l’età in cui, fatto cento il numero di giovani nati in un certo anno, il cinquantesimo di loro vive il suo primo rapporto sessuale completo. A differenza dell’età media, l’età mediana ha il vantaggio di essere calcolabile quando il 50% della coorte non ha ancora avuto rapporti sessuali. Ad esempio, alla fine del 2010 sarebbe stato possibile calcolare l’età mediana ai primi rapporti della coorte dei ventenni, nati nel 1990, perché più di metà di loro ha avuto il primo rapporto sessuale prima del ventesimo compleanno, anche se buona parte di loro (ma meno del 50%) in quella data era ancora vergine. A volte, l’analisi dei dati richiede particolare attenzione, perché chi li analizza vuole comprendere delle relazioni causa-effetto a partire da situazioni non sperimentali. E questo non è sempre facile o possibile. In un esperimento medico, ad esempio, si sommini-

stra casualmente un farmaco ad un gruppo e un placebo ad un altro gruppo, facendo attenzione che i pazienti non sappiano a quale dei due appartengono. Se l’oggetto dello studio è la presenza di un certo sintomo, la diversa prevalenza di quest’ultimo fra i due gruppi misura l’efficacia del farmaco. Se non possiamo condurre un esperimento, e ci limitiamo a osservare la prevalenza del sintomo fra chi assume il farmaco e chi non lo assume, possiamo raggiungere conclusioni assurde. Se il farmaco viene somministrato solo ai malati più gravi, sarà associato più spesso alla presenza del sintomo in questione, dando l’impressione che l’assunzione del farmaco sia controproducente. La sperimentazione in ambito economico e sociale è ancora poco diffusa, e siamo per lo più costretti a usare dati tratti da indagini campionarie sulla popolazione. Con questi dati, cosa possiamo dire? Per illustrare la questione prendiamo un altro tema di grande attualità, viste le recenti riforme che innalzano l’età pensionabile in molti Paesi sviluppati: andare in pensione presto fa bene o male alla salute? Consideriamo in particolare la relazione fra salute mentale (depressione) e ritiro dal lavoro. È noto che ci sono più depressi fra i pensionati che fra i lavoratori, a parità di età, e questo potrebbe indurre a pensare che il ritiro dal lavoro aumenti la probabilità di entrare in tale stato mentale. Studi recenti hanno invece dimostrato che il pensionamento si accompagna ad una riduzione dei sintomi della depressione.

Era meglio se non prendevo il doppio espresso. Ora avrò i nervi tesi fino a stasera. Tutto per andar dietro a mio cugino. A lui non piacciono le mezze misure. Eccede sempre. Due caffè, tre brioche, un bicchierone di spremuta d’arancia. Anche quella l’ha voluta in dose doppia. E una sigaretta dopo l’altra. Mio cugino è uno smodato, un incontinente. Per non parlare delle donne. Continua ad averne parecchie, poveraccia la moglie. E sì che ormai non è più un ragazzo. Dovrebbe stare attento. Prima o poi gli salteranno le coronarie. Ma secondo lui la vita va vissuta così, azzannandola. Sebastiano Nata, ‘Mentre ero via’, Feltrinelli, Milano 2004, p. 78. 12

Evidentemente, è la depressione che induce il pensionamento, e non viceversa, tant’è vero che una volta in pensione i depressi stanno meglio. Questo è un esempio di causalità inversa, e chiarisce perché è difficile dare un’interpretazione causa-effetto alla correlazione fra pensionamento e depressione. In generale, il ritiro dal lavoro comporta inevitabilmente un cambiamento nello stile di vita. Per quei lavoratori che amano il proprio lavoro, che apprezzano le possibilità di socializzare che questo comporta e che percepiscono l’importanza di comunicare la propria esperienza ai colleghi più giovani, il ritiro dal lavoro può essere un fatto traumatico e stressante, che ha un effetto negativo sulla salute psichica e, indirettamente, anche fisica. Non solo, il ritiro dal lavoro fa venire meno l’esigenza di utilizzare appieno le proprie capacità mentali. In assenza di stimoli, il decadimento cognitivo legato all’età accelera, e con questo anche la salute fisica si deteriora più rapidamente. Il ritiro dal lavoro può essere invece un sollievo per quei lavoratori che trovavano faticoso e poco gratificante il proprio lavoro (e tra questi i depressi sono più numerosi). Se questi, andando in pensione, trovano altri mezzi per tenersi occupati, mentalmente e fisicamente, la loro salute psichica migliora. Se invece restano inattivi, dopo un breve miglioramento l’effetto di lungo termine può essere negativo. Per determinare quale sia l’effetto prevalente del ritiro dal lavoro – positivo o negativo – possiamo provare ad analizzare i dati. In particolare, useremo i dati raccolti per mezzo di indagini campionarie dove gli ultracinquantenni vengono intervistati con cadenza biennale, in modo da poter analizzare le dinamiche del processo d’invecchiamento: si tratta dei database ‘SHARE’ (Survey on Health, Ageing and Retirement in Europe) per l’Europa e ‘HRS’ (Health and Retirement Study) per gli Stati Uniti. Le diverse caratteristiche istituzionali fra i Paesi (sistema pensionistico, sanità, assistenza, ma anche reti familiari e sociali) permettono di valutare come gli individui reagiscono all’ambiente circostante, in un ambito tuttavia di comune livello di sviluppo socioeconomico, perché tutti i Paesi considerati sono economicamente sviluppati. Queste reazioni all’ambiente che li circonda possono essere usate per andare oltre alle semplici correlazioni, e tentare un’analisi dei rapporti

Il buon senso c’era; ma se ne stava nascosto, per paura del senso comune. Alessandro Manzoni, ‘I promessi sposi’, cap. XXXII.

di causa ed effetto. Due ricercatori americani, Susann Rohwedder e Robert Willis, si sono chiesti se il ritiro dal lavoro causi un’accelerazione del declino cognitivo tipico dell’età. Innanzitutto, questi due autori illustrano una regolarità empirica: nei Paesi in cui il tasso di occupazione cala più rapidamente con l’età, c’è un corrispondente maggior calo di capacità cognitive. Una spiegazione di questa regolarità empirica potrebbe essere che le persone il cui declino cognitivo è maggiore perdono il lavoro o vanno in pensione prima – difficile però credere che il declino cognitivo vari così tanto fra Paesi con un simile livello di istruzione e tenore di vita. Un’altra spiegazione, molto più convincente, di questa stessa regolarità empirica è che il tasso di occupazione risponda agli incentivi insiti nei diversi sistemi pensionistici, e che il declino cognitivo sia la conseguenza della decisione di andare in pensione. Sappiamo infatti che gli incentivi ad andare in pensione variano molto fra Paesi e che la risposta a questi incentivi è marcata. In altre parole, chi può andare in pensione da giovane e ha (o pensa di avere) interesse economico a farlo, non si lascia scappare l’occasione. Studi recenti suggeriscono che il declino cognitivo può essere la conseguenza della decisione di ritirarsi dal lavoro, in parte, per la mancanza di stimoli per chi è già in pensione e, in parte, per il ridotto interesse a mantenersi aggiornati e reattivi da parte di chi sta per andare in pensione. Dunque i dati delle ricerche sugli ultracinquantenni in Europa e negli Stati Uniti mostrano che il ritiro anticipato dal lavoro causa una sorta di ‘pensionamento mentale’. Questi due esempi ci fanno capire l’importanza dell’analisi attenta di buoni dati statistici. Potremmo concludere, con un tocco di (ingenuo?) ottimismo, che la statistica può contribuire a far prevalere il buon senso sul senso comune. E di buon senso le moderne democrazie hanno certamente sempre più bisogno!

Questo testo riprende alcune parti del volume Cose da non credere. Il senso comune alla prova dei numeri di Gianpiero Dalla Zuanna e Guglielmo Weber (Laterza, Roma-Bari 2011, ora disponibile anche in versione ebook).


© Danilo De Marco

Che c’entra con la lotta di classe nella vita quotidiana? C’entra nel senso che a ciascun individuo ‘ad alto valore netto’, pronto a pagare un prezzo elevatissimo per abitare in un quartiere ad alta reputazione, corrisponde un alto numero di individui ‘a scarso valore netto’, chiamandoli così, che sono costretti a cercare alloggio in quartieri a basso costo perché costruiti sin dall’inizio con pessimi criteri architettonici e materiali scadenti, o degradati gravemente col tempo. L’offerta economica senza limiti del primo rende via via più debole la domanda dei secondi, limitata com’è dal salario che percepiscono. Luciano Gallino, ‘La lotta di classe dopo la lotta di classe’, Laterza, Roma-Bari 2012, p. 177.

13


Pietro Greco

pietrogreco011@gmail.com

La misura: il problema irrisolto della meccanica quantistica Poco prima della sua scomparsa, del tutto prematura, nel 1990, il fisico teorico di origine irlandese, John Stewart Bell, ha pubblicato sulla rivista «Physics World» un articolo dal titolo Against ‘measurement’: contro la ‘misura’. Il saggio è dedicato a un tema, quello appunto della misura, considerato centrale nella ricerca sui fondamenti della meccanica quantistica. Bell non sapeva di dover lasciare di lì a poco questa Terra. Ma, per le questioni che ha affrontato, il suo articolo costituisce una sorta di testamento scientifico. Un impegno di lavoro per i fisici che restano: dobbiamo risolvere definitivamente il problema. Un problema che è fisico, perché assegna all’atto dell’osservare una funzione essenziale nella dinamica quantistica. Ma che è anche filosofico, perché modifica lo statuto ontologico della misura, elevandola da atto di verifica ad atto di generazione della realtà fisica. John Stewart Bell non è una persona qualsiasi. È l’autore di quella famosa relazione, nota come ‘diseguaglianza di Bell’, con cui, a detta di molti, il fisico irlandese si è guadagnato il diritto di sedere – forse unico, insieme a David Bohm, tra i fisici teorici che hanno iniziato la loro attività di ricerca nel dopoguerra – al tavolo della discussione sui fondamenti accanto ai padri fondatori della meccanica quantistica: Niels Bohr, Albert Einstein, Werner Heisenberg, Erwin Schrödinger, Max Born, Louis De Broglie, Wolfgang Pauli, Paul Dirac. Ed è proprio quest’ultimo, il fisico inglese (di origine francese) Paul Dirac, che John Stewart Bell evoca per riproporre ‘il’ tema centrale della misura. La fisica quantistica nasce nell’anno 1900, quando Max Planck scopre il ‘quanto elementare d’azione’ e l’egemonia del ‘discreto’ che sembra avere ragione su quella del ‘continuo’ nella fisica microscopica. La ‘nuova fisica’ ha un ulteriore formidabile sviluppo quando Albert Einstein spiega, nel 1905, l’effetto fotoelettrico e ‘scopre’ la natura duale, di onda e di corpuscolo, del ‘quanto di energia’, che sarà ribattezzato ‘fotone’. E si consolida nel 1913 quando Niels Bohr spazza via il modello classico ed elabora un modello ‘quantizzato’ dell’atomo e una distribuzione ‘discreta’ appunto degli elettroni nei dintorni del nucleo. Planck, Einstein e Bohr sono perciò considerati i padri fondatori della fisica dei quanti. Ma per tutto questo tempo e per qualche anno ancora – in pratica, un quarto di secolo – manca un modello teorico in grado di spiegare in maniera coerente tutti i fatti osservati a livello microscopico e tenere insieme i ‘lampi teorici’ da loro tre proposti. Questo modello compatto e coerente, ribattezzato con il nome di ‘teoria della meccanica quantistica’, sarà elaborato nella seconda parte degli anni ’20 e riuscirà a ‘salvare i fenomeni’ della realtà a livello del microcosmo con una precisione che non ha precedenti tra le teorie fisiche. Come peraltro riconosce anche Albert Einstein, che, pur essendo uno dei tre padri fondatori della fisica dei quanti, diventa uno dei più strenui (e acuti) critici della teoria della meccanica quantistica. Malgrado ne riconosca l’eccezionale capacità di previsione, Einstein ne mette in dubbio la completezza. I rilievi critici del fisico più noto del XX secolo e forse di ogni tempo, sostiene il suo amico e biografo, oltre che fisico, Abraham Pais («Sottile è il Signore…», 1986), nascono da considerazioni squisitamente filosofiche. O, come afferma lo stesso Einstein, da «pregiudizi metafisici». In primo luogo, quello del ‘realismo’ – l’esistenza di una realtà oggettiva, osservabile e indipendente dall’osservatore – messo in discussione proprio dal ‘problema della misura’. Nel corso di vari anni – anzi, dovremmo dire di vari decenni – quei dubbi metafisici sono stati espressi da Einstein in termini fisici così stringenti e rigorosi 14

da alimentare uno dei dibattiti più belli della storia della scienza e da aiutare il suo principale interlocutore, Niels Bohr, a ridefinire con maggior precisione la sua interpretazione del formalismo quantistico, nota come ‘interpretazione di Copenaghen della meccanica quantistica’, che da allora viene considerata l’ortodossia in materia di quanti. Per alcuni il termine ‘ortodossia’ ha assunto un significato letterale. Per cui l’‘interpretazione di Copenaghen della meccanica quantistica’ è diventata una verità indiscutibile. E soprattutto, lamenta Bell, indiscussa. Paul Dirac, pur essendo stato uno dei protagonisti della nascita e dello sviluppo della teoria, non fa parte della schiera degli ortodossi a oltranza. Secondo lui, l’attuale formulazione della meccanica quantistica può e deve essere discussa. Egli pensa, naturalmente, che la «formulazione di alcune parti serie della meccanica quantistica» sia «esatta». Nel senso, matematico e logico, di «rigorosamente fondata», non nel senso filosofico di «vera». Dirac e tutti i padri del formalismo sanno che i modelli teorici in fisica non sono una descrizione autentica della realtà, né tantomeno ‘verità’, ma sono il modo ‘più economico’ (dunque rigoroso) per ‘salvare i fenomeni’ noti. Il formalismo quantistico in molte delle sue parti fondamentali rappresenta dunque per Dirac il modo di gran lunga ‘più economico’, e più logicamente e matematicamente fondato per ‘salvare i fenomeni noti’ del mondo a livello microscopico. Tuttavia, egli non si nasconde che la meccanica quantistica, nonostante la sua precisione e la sua rigorosa formulazione matematica, abbia alcune difficoltà concettuali irrisolte. Anzi, come ricorda John Stewart Bell, Dirac individua due diverse classi di difficoltà della meccanica quantistica: quelle di prima e quelle di seconda classe. Le difficoltà di seconda classe sono, in buona sostanza, gli infiniti che compaiono quando si cerca di coniugare la meccanica quantistica all’altra grande teoria della fisica, la teoria della ‘relatività generale’ di Albert Einstein, e di elaborare una teoria quantistica relativistica dei campi. Dirac è profondamente disturbato da quegli infiniti. E non pensa che le procedure di ‘rinormalizzazione’ (una sorta di trucco matematico), pur efficaci, siano la soluzione ultima del problema. Deve esserci una soluzione più profonda sul piano concettuale, sostiene. Una soluzione da cercare subito, perché a portata di mano. Per questo egli si impegna a lungo, in prima persona, e sprona altri a lavorare per superare le difficoltà di seconda classe della meccanica quantistica. Le difficoltà di prima classe, dice Dirac, sono quelle relative al ruolo dell’‘osservatore’ e al concetto di ‘misura’, ovvero ai problemi che Einstein definiva di «oggettività» e di «realismo» della teoria quantistica. Come il fisico tedesco, Dirac pensa che siano queste le difficoltà di gran lunga più rilevanti e che per superarle la teoria dovrà assumere un aspetto molto diverso rispetto all’attuale formulazione della meccanica quantistica. Tuttavia, a differenza di Einstein, Dirac ritiene che questi problemi non siano ancora sufficientemente maturi per una soluzione. E che, nel program-

Rapporto dimensione-massa delle strutture dell’Universo.

ma di lavoro dei fisici teorici, vadano lasciati per ultimi. Tenuto conto che il tentativo di risolverli avrebbe disperso grandi quantità di energia intellettuale e che, malgrado queste difficoltà di fondo, il formalismo nella pratica quotidiana dei fisici sperimentali funzionava molto bene. Ora, la posizione di Paul Dirac rispetto ai fondamenti della meccanica quantistica può sembrare opportunista. E, forse, lo è. Ma una soluzione alle difficoltà concettuali e fondative di una teoria scientifica va cercata solo quando si pensa ci siano realistiche possibilità di trovarla? Questo approccio può essere discusso. E, magari, contrapposto alla generosità senza calcoli (che qualcuno definisce velleitaria) con cui, ad esempio, quelle difficoltà di prima classe della meccanica quantistica Einstein ha affrontato subito, e in un isolamento pressoché assoluto. Tuttavia, l’opportunismo di Dirac non è affatto cinico, tutt’altro. Lo scienziato anglo-francese dimostra una grande onestà intellettuale quando riconosce che i formidabili problemi dell’‘osservatore’ e della ‘misura’ esistono e che sono difficili da risolvere. In definitiva, vi sono almeno tre autorevoli fisici teorici – John Stewart Bell, Paul Dirac e Albert Einstein – che, sia pure da prospettive e con aspettative diverse, considerano quello della ‘misura’ il problema aperto più importante nella teoria principale della fisica contemporanea, la meccanica quantistica.

teoria, dunque, eleva lo statuto ontologico del ma la premessa. Noi non possiamo in linea concetto di misura dalla condizione di ‘inesdi principio conoscere il presente in ogni elesenziale’ rispetto alla realtà macroscopica (la mento determinante». Le ‘relazioni di indeterLuna è lì se nessuno ne misura la posizione) minazione’ di Heisenberg fanno compiere un alla condizione di ‘co-essenziale’ della realtà passo decisivo verso la formulazione definitiva microscopica (la Luna quantica è lì solo se del formalismo quantistico, ovvero verso la qualcuno ne misura la posizione). Nel mondo definizione di quella che oggi si chiama ‘teoria dei quanti la misura è un’operazione, per così della meccanica quantistica’. Cosicché quasi dire, reificatrice. È la misura che, addirittura, tutti i fisici, commenta Abraham Pais, sono genera la realtà. Per un realista convinto felici di pagare l’oneroso prezzo della rinunqual è Einstein – nel mondo dei quanti ‘deve’ cia alla causalità rigorosa pur di ottenere la esistere una realtà oggettiva indipendente formidabile capacità di comprendere la fisica dall’osservatore e dalle sue misure – l’idea dell’atomo. Quasi tutti. Ma non tutti. Sopratche ‘la Luna non sia lì’ quando nessuno la tutto, non Einstein. guarda (effettuando una misura) è fonte di «No, non posso credere che la Luna non sia irrimediabile disagio. Einstein considera la più lì, nel cielo, quando smetto di guardarla». nuova ontologia della misura un’idea semIl fisico tedesco inizia a scuotere, incredulo, la plicemente inaccettabile. E spenderà molti testa mentre vede allontanarsi lungo pericoanni della sua vita, spesso in un clamoroso lose strade filosofiche l’irrequieta figlioletta, isolamento, per cercare di completare la la fisica quantistica, di cui pure si sente uno meccanica dei quanti. In realtà, anche Paul dei padri. Ed è davvero difficile considerare la Dirac e John Stewart Bell, sia pure manifescettica ironia di Einstein, il suo bisogno di un stando un minore fastidio filosofico, ritengono quadro coerente del mondo, la sua strenua quella dello statuto ontologico della misura il difesa del realismo cosiddetto ‘locale’, come più grande problema aperto della meccanica la più grande e radicale eresia della fisica quantistica e, quindi, della fisica. Ma dove e contemporanea. A rigore, tuttavia, occorre quando nasce il problema? Il problema della dire che il problema del realismo o della misumisura nasce tra la Germania e la Danimarca, ra ha sì origine nella formulazione delle ‘relatra Göttingen e Copenaghen, nel marzo 1927, zioni di indeterminazione’ di Heisenberg, ma quando il giovane Werner Heisenberg, 26 diventa chiaro e pregnante solo dopo l’interanni appena, pubblica l’articolo sul Contenu- pretazione che il tedesco Max Born ha dato to visualizzabile della cinematica e meccadell’equazione fondamentale della meccanica nica quantistiche teoriche e propone le sue quantistica: la cosiddetta ‘equazione d’onda’ famose ‘relazioni di indeterminazione’, dimocon cui a partire dal 1926 uno dei padri del La Luna quantistica strando che non è possibile conoscere con formalismo, l’austriaco Erwin Schrödinger, ha In cosa consiste questo problema? Nulla precisione assoluta contemporaneamente la formalmente descritto il moto di una particella meglio dell’aneddoto raccontato dal fisico posizione e la quantità di moto di un elettrone quantistica attraverso, appunto, una funzione Abraham Pais ce lo può rivelare con parole o di qualsiasi altra particella quantistica. d’onda. Solo che l’austriaco, esponente delsemplici e immagini efficaci: In realtà, il risultato non inaugura solo il prol’‘ala realista’ della fisica quantistica, è conblema della misura in meccanica quantistica. vinto che la sua ‘equazione d’onda’, proprio Deve essere stato attorno al 1950. Camminavamo, io e Einstein, lungo la strada che dall’Institute for Ma sancisce in modo definitivo, almeno a come avviene in meccanica classica, descriva Advanced Study conduceva alla sua abitazione, quandetta di ‘quelli di Copenaghen’ (ovvero coloro il moto reale di una particella quantistica. do a un tratto egli si fermò. «Veramente è convinto che collaborano con Niels Bohr, fondatore E invece no, dimostra Born. A differenza delle – mi chiese – che la Luna esista solo se qualcuno la guarda?». dell’Istituto di fisica teorica nella capitale daequazioni tipiche della meccanica classica, nese), la fine del determinismo in fisica. Come l’equazione di Schrödinger non descrive Ecco, il ‘problema della misura’ in meccanica dirà lo stesso Heisenberg: «Mediante la mec- affatto il moto reale delle particelle quantiche, quantistica, tutto sommato, può essere ridotto canica quantistica viene stabilita definitivama definisce solo la densità di probabilità di alla questione: ‘dov’è la Luna quando non mente la non validità della legge di causalità». trovarle in un certo stato, ad esempio in un nessuno la osserva?’. Il perché è presto detto. «Nella formulazione certo luogo o dotate di una certa velocità, nel Ai non esperti del mondo dei quanti la netta della legge di causalità: ‘Se conomomento in cui i fisici effettuano una misura, domanda può sembrare bizzarra. Nessuno sciamo esattamente il presente, possiamo ovvero quando le particelle vengono osserdubita che la ‘nostra’ Luna, quella grossa e calcolare il futuro’ è falsa non la conclusione, vate. Torniamo al nostro esempio, la Luna di macroscopica che illumina la notte, sia lì, nel cielo, anche se né Einstein, né alcun fisico, né noi, né alcun altro la guarda. La Luna è lì, in una precisa posizione dello spazio, e si muove con una determinata velocità orbitando intorno alla Terra, anche se nessuno effettua una qualsivoglia misura. La ‘realtà’ della Luna, sembra persino pleonastico affermarlo, è indipendente dalla misura. Non è così nel mondo dei quanti: la ‘Luna quantica’ non è lì – in un punto preciso dello spazio e con una velocità definita – se qualcuno non la guarda. Se non c’è un osservatore che misura, ad esempio, la sua posizione e/o la velocità con cui si sposta. La realtà oggettiva della ‘Luna quantica’, sembra bizzarro affermarlo, dipende da una misura. Questo almeno ci dice la meccanica quantiPrimo Levi, ‘Se questo è un uomo’, Einaudi, Torino 1986, p. 155. stica. L’‘interpretazione di Copenaghen’ della

Per gli uomini vivi le unità del tempo hanno sempre un valore, il quale è tanto maggiore, quanto più elevate sono le risorse interne di chi le percorre; ma per noi, ore, giorni e mesi si riversavano torbidi dal futuro nel passato, sempre troppo lenti, materia vile e superflua di cui cercavamo di disfarci al più presto. Conchiuso il tempo in cui i giorni si inseguivano vivaci, preziosi e irreparabili, il futuro ci stava davanti grigio e inarticolato, come una barriera invincibile. Per noi, la storia si era fermata.


Einstein. Le equazioni della meccanica classica consentono di prevedere con assoluta certezza sia dove sarà il satellite naturale della Terra tra cinque minuti o tra cinque secoli, sia di seguirne la traiettoria, ammesso che se ne conoscano con sufficiente precisione la posizione e la velocità. Le equazioni della meccanica quantistica, invece, non consentono di dire con altrettanta certezza dove sarà, trascorsi cinque minuti o cinque secoli, l’elettrone dell’atomo di idrogeno che in questo momento sta viaggiando con la Luna, abbarbicato in cima a una delle alte montagne lunari. Tutto quello che riescono a dirmi è quanta probabilità c’è che, effettuando una misura, lo ritrovi su quella montagna, nel vicino cratere o persino nella mia tasca, qui sulla Terra. Solo quando, trascorsi i cinque minuti o i cinque secoli, andrò a cercarlo, l’elettrone apparirà: sulla montagna lunare, nel cratere o persino nella mia tasca, qui sulla Terra. Ma se ora, in questo preciso istante, può trovarsi (sia pure con diversa probabilità) in tanti posti così diversi e distanti l’uno dall’altro, un attimo prima della mia misura, l’elettrone, dove stava? Quale traiettoria ha seguito per spostarsi della montagna selenica alla mia tasca? La teoria dice che queste domande non hanno risposta. Non ha senso chiedersi dov’è l’elettrone prima (e dopo) una misura. Non ha senso chiedersi quale traiettoria abbia seguito, perché quella traiettoria semplicemente non c’è. Il formalismo della meccanica quantistica suggerisce che l’elettrone, prima della misura, si trovava in una superposizione (o sovrapposizione) di tutti gli stati possibili. Cioè, in qualche modo, si trovava contemporaneamente sulla montagna, giù nel cratere e anche nella mia tasca. Solo la misura rende attuale la sua posizione. Anzi, rende attuale una delle infinite posizioni possibili. Max Born vive e lavora a Göttingen, in Germania. Ma per una di quelle stranezze che costellano la storia, compresa quella delle idee, la sua passa come l’‘interpretazione di Copenaghen’ della meccanica quantistica. La ragione è che l’interpretazione di Born è fatta propria dal gruppo, maggioritario, di fisici teorici che aderiscono alla visione di Niels Bohr e della sua ‘scuola di Copenaghen’. Una visione del mondo quantistico che ha almeno tre punti critici. In primo luogo, essa comporta la revisione del concetto di ‘realtà oggettiva’. La fisica classica ha sempre riconosciuto una realtà oggettiva a ciascuna tra le infinite particelle dell’universo. Nella descrizione matematica della meccanica classica ogni particella è infatti caratterizzata a ogni istante da valori netti e distinti degli osservabili, cioè di ciascun parametro fisico. Invece, la fisica quantistica riconosce la realtà oggettiva solo di alcune proprietà statiche delle particelle (massa, carica elettrica), ma nega una realtà oggettiva, cioè caratterizzata in ogni istante da valori netti e distinti, alle proprietà dinamiche (posizione, velocità, energia). In secondo luogo, tale concezione implica la rinuncia alla descrizione dei parametri fisici nello spazio e nel tempo. Ovvero, rinuncia alla ‘località’ e propone la ‘non separabilità’ delle componenti di un sistema quantistico. Un nuovo esempio chiarirà il concetto. Consideriamo due particelle quantistiche immaginarie: due (micro)trottole che, in un dato istante, interagiscono tra di loro. Ammettiamo che per un principio fisico (diciamo quello di ‘esclusione’ di Pauli) una trottola ruoti su se stessa da destra verso sinistra e l’altra sia obbligata a girare nel verso opposto. Bene, questo sistema quantistico è descritto da un’unica funzione d’onda, ovvero da un’unica funzione di probabilità. Ora facciamo allontanare le due trottole. Una la teniamo qui sulla Terra, l’altra la mandiamo su un’altra galassia, a milioni di anni luce di distanza. Poi cerchiamo di verificare in quale dei due versi possibili sta ruotando quella sulla Terra. All’atto della misura la funzione d’onda, dicono i fisici quantistici, collassa. Una sola delle diverse potenzialità diventa attuale. Ogni trottola, che prima si trovava in una condizione di sovrapposizione di tutti gli stati possibili (ovvero ruotava contemporaneamente in ambedue i sensi), ora ruota in un verso solo, reciprocamente e rigidamente complementare al verso in cui ruota l’altra. La nostra trottola qui sulla Terra ruota da destra verso sinistra? Ebbene, dice la meccanica dei quanti, nel medesimo istante sarà possibile verificare che l’altra trottola, a milioni di anni luce di distanza, rispetta il ‘principio di esclusione’ e ruota nel verso contrario. Perché? Perché un unico sistema

quantistico non è separabile. Non riconosce la ‘località’. Si comporta, cioè, come se lo spazio non esistesse. O, se volete, ammette l’azione istantanea a distanza. Il guaio è che possiamo immaginare l’intero universo come un unico sistema quantistico la cui funzione d’onda, a rigore, non è separabile. Lo spazio e il tempo con cui quotidianamente abbiamo a che fare sono dunque illusioni? Tutto è implicato con tutto, in un ordine olistico imperturbabile? Un altro punto critico nella ‘interpretazione di Copenaghen’ della meccanica quantistica riguarda la misura e il problema micromacro. Abbiamo detto che un istante prima di effettuare la misura della posizione di un microscopico elettrone, che cinque minuti fa apparteneva a un atomo su una montagna lunare, la particella si trova in una sovrapposizione di stati e cioè, contemporaneamente, sulla montagna della Luna, in un cratere del satellite naturale e nella tasca della mia giacca. Mentre non c’è dubbio che la Luna, quella macroscopica, è lì in un’orbita a 400.000 chilometri di distanza dalla Terra. La fisica dei quanti ci dice, dunque, che la realtà macroscopica è definita e indipendente dall’atto della misura. Mentre quella microscopica è indefinita e dipende all’atto della misura. Abbiamo anche detto che i fisici ‘realisti’ non riescono ad accettare questa dicotomia tra il micro e il macro e questo sbriciolamento della realtà oggettiva. Ed è proprio nel tentativo di ridicolizzarla che Erwin Schrödinger propone un paradosso, quello del ‘gatto vivo e morto’, destinato a diventare la metafora forse più famosa della storia della meccanica quantistica. Mettiamo un gatto in una scatola nera, fuori dalla nostra possibilità di osservarlo, propone Schrödinger in un esperimento ideale. Colleghiamo la scatola a un sistema, quantistico, che, se attivo, è in grado di ucciderlo. Ad esempio, che il sistema sia legato in qualche modo a un atomo radioattivo, anch’esso chiuso nella scatola nera. Quando l’atomo decade, emette un fotone e libera il veleno contenuto in una boccetta. Io non so, né posso sapere, il momento preciso in cui l’atomo decadrà. Cosicché, sostiene la meccanica quantistica, il felino se ne sta chiuso nella scatola nera, invisibile ai vostri occhi, in una sovrapposizione dei due stati possibili di vita e di morte finché non effettuate una misura e lo osservate. Fino a quando nessuno lo osserva, il gatto è ‘vivo e morto’, nel medesimo tempo. Solo quando aprite la scatola nera e cercate di osservarlo, il gatto si ritroverà in uno solo degli stati possibili, e sarà o vivo o morto. Questa condizione è assurda, sostiene Schrödinger, sia perché il gatto detiene simultaneamente e per un tempo indefinito due ‘proprietà incompatibili’, come la vita e la morte, sia perché non solo lo stato quantico di un fotone, ma persino la vita del gatto macroscopico dipendono da un osservatore. Anzi, dall’atto stesso dell’osservazione. Dalla misura. E noi sappiamo che nel mondo reale un gatto morto non può tornare a vivere solo perché qualcuno inizia a rimirarlo. In conclusione, sostiene il fisico austriaco, se la meccanica quantistica porta a simili paradossi insostenibili c’è qualcosa che non funziona. Quindi la meccanica quantistica deve rivedere i fondamenti che la conducono in questi vicoli dell’assurdo. In particolare, deve rivedere il ruolo che assegna alla misurazione e all’osservatore. Ma non tutti i fisici si lasciano irretire da questa apparente e irrimediabile assurdità. John von Neumann, nel suo libro sui Fondamenti matematici della meccanica quantistica (1932), non ha difficoltà a indicare nell’operazione di misura l’atto centrale della vicenda quantistica. Per l’intera scuola di Copenaghen non è affatto assurdo che sia l’osservatore a detenere le chiavi della ‘realtà’, persino della vita e della morte, del mondo dei quanti. «La critica più forte che muovo a von Neumann – dirà il filosofo Karl Popper – riguarda proprio il ruolo che egli assegna all’osservatore. La teoria proposta nel suo libro, che ha influenzato non poco Niels Bohr, non è realistica. Secondo loro la realtà fisica è solo una costruzione mentale. Il risultato delle nostre misure. E questo non ha assolutamente senso. Chi ha vissuto la tragedia di Hiroshima e Nagasaki ha potuto constatare che le due città sono state davvero distrutte. La loro distruzione è stata il risultato di effetti quantistici. Non della loro misura». Di avviso opposto è Eugene Paul Wigner. Il

fisico ungherese si dice convinto che solo l’operazione di misura sia in grado di far collassare la funzione d’onda e di far ‘vivere o morire’ il gatto di Schrödinger. Ma è anche persuaso che quell’operazione di misura non sia affatto un’impresa banale, alla portata di tutti. La misura non può essere effettuata da qualsivoglia osservatore, ma solo da uno ‘speciale’. Un osservatore dotato di coscienza. Wigner sostiene in buona sostanza che la realtà cosmica esiste nella sua forma attuale non in assoluto, ma perché c’è un essere dotato di coscienza, l’uomo, a osservarlo. È l’uomo, con le sue misure coscienti, che crea la realtà. Certo, il gatto di Schrödinger e il suo ‘assurdo’ comportamento sono solo un paradosso. Uno dei tanti che accompagnano il dibattito sui fondamenti della meccanica quantistica. E l’idea di Wigner è soltanto un paradosso portato all’estremo. In realtà, un fisico riesce pure ad immaginare come un elettrone, un fotone, o un qualsiasi altro dei tanti corpuscoli-onda che popolano il microcosmo, possa avere nel medesimo tempo una serie di ‘proprietà incompatibili’ nel nostro mondo quotidiano. Ma neppure i più creduloni tra noi potranno mai accettare l’idea che il nostro gatto di casa si comporti come quello

dagli oggetti del mondo macroscopico. E poiché non c’è una soglia, né fisica né logica, che separa il micro dal macro, c’è bisogno di spiegare questa aporia. La situazione è certo confusa. E, per certi versi, ha ben ragione Karl Popper a parlare del «gran pasticcio dei quanti». Almeno fino a quando il fisico irlandese John Stewart Bell, a metà degli anni ’60, non porta un minimo di chiarezza. Con un teorema di impossibilità destinato a diventare famoso come la ‘diseguaglianza di Bell’ e ritenuto come uno dei più grandi contributi di ogni tempo alla teoria quantistica. John Stewart Bell è rimasto colpito, in senso favorevole, dalla teoria di Bohm. La teoria «rende conto completamente di tutti i fenomeni quantistici» ed è deterministica e «realista», nel senso che elimina del tutto il ruolo e la necessità dell’osservatore nel mondo dei quanti. «Allora – si chiede – cos’è che non va in essa?». Cosa non funzioni nella ‘teoria delle variabili nascoste’, Bell lo scopre nel 1963: è una teoria non-locale. O, detta in altri termini, annulla lo spazio. Perché eventi che si verificano in un certo punto dello spazio, ad esempio qui sulla Terra, possono avere conseguenze immediate nella più remota delle galassie. Insomma, reintroduce nella

Sapete chi ha inventato le misure? Certamente lo ignorate. Forse supponete perfino che le misure, come il fuoco e la ruota, siano di quelle scoperte collettive del genere umano di cui non si può individuare uno scopritore preciso. Ebbene, vi sbagliate. Una fonte illustre – di cui non oseremmo mettere in dubbio la veridicità – ci rivela il nome del vero inventore delle misure e dei pesi: fu Caino. Sì, proprio il malvagio fratello, figlio di Adamo ed Eva, che dopo aver ucciso Abele perpetrò molti altri delitti ancora più gravi, fra i quali – scrive Giuseppe Flavio – «l’invenzione delle misure e dei pesi, che mutò quell’innocente e nobile semplicità in cui erano vissuti gli uomini finché non li avevano conosciuti, in un’esistenza piena di inganni». Witold Kula, ‘Le misure e gli uomini dall’antichità a oggi’, Laterza, Roma-Bari 1987, p. 1 (trad. it. di A. Salmon Vivanti).

fisica quell’azione istantanea a distanza che la relatività di Einstein aveva escluso. In definitiva, Bell ritrova nella ‘teoria delle variabili nascoste’ di Bohm il medesimo carattere di non-località che nel 1935 Albert Einstein, Boris Podolsky e Nathan Rosen avevano ravvisato nella teoria probabilistica di Born e Bohr. A questo punto si chiede se la natura «non stia cercando di dire qualcosa». E se quello della località non sia il problema centrale della fisica quantistica. Così nel 1964 elabora (e nel 1971 aggiorna) il suo teorema. Egli dimostra che non è possibile, in linea di principio, spiegare i fenomeni quantistici in ambito locale. Detto in altro modo, che non è possibile elaborare una ‘teoria locale delle variabili nascoste’. L’unico tipo di ‘realismo’ compatibile col mondo dei quanti è quello che accetta la non-località e, quindi, l’azione a distanza. Qualcuno ha affermato che, col suo teorema, Bell ha definitivamente dimostrato che Einstein aveva torto. In realtà, Bell ha dimostrato solo che Einstein non poteva avere completamente ragione. Il La ‘diseguaglianza di Bell’ teorema di Bell, infatti, non esclude affatto Cerchiamo, ora, di riassumere il dibattito una descrizione deterministica e realistica del sui fondamenti della meccanica quantistica. mondo dei quanti. Richiede ‘solo’ che questa A partire dagli anni ’50 esistono due teorie descrizione sia ‘non-locale’. Non esiste un alternative per spiegare il mondo dei quanti. oggetto quantistico isolato con proprietà Una, probabilistica, è quella proposta dalla definite. Esistono soltanto sistemi quantistici ‘scuola di Copenaghen’. L’altra, determinidove i singoli oggetti hanno perduto complestica, è la ‘teoria delle variabili nascoste’ tamente la loro individualità. Solo il sistema proposta da David Bohm. La prima è la più possiede una proprietà. Ma anche accettare accettata dai fisici. Perché ha un enorme ‘solo’ gli entanglements, la correlazione, tra successo pratico: si è rivelata la teoria più gli oggetti quantistici e l’ordine olistico non è precisa della fisica. Tuttavia, è molto lontana facile, per un realista affezionato all’idea di sedal senso comune e, secondo alcuni, logica- parabilità. «Questo carattere della meccanica mente contraddittoria, perché spesso porta a quantistica – commenta Erwin Schrödinger paradossi logici. L’altra teoria, quella di David – è di una importanza sinistra». Il fatto è che il Bohm, è meno accettata dai fisici. Eppure modo normale con cui accadono le cose nel essa descrive con la medesima efficacia nostro mondo (macroscopico) è conforme dell’altra teoria il mondo dei quanti, recupeall’azione locale e del tutto contraria ai risultati rando la causalità rigorosa e, soprattutto, di Bell. «Prima di rinunciare a un principio ineliminando la necessità dell’osservatore per tuitivamente così soddisfacente come quello dare corpo alla realtà quantistica. La teoria di dell’azione locale bisogna riesaminare l’intera Bohm, tuttavia, deve essere ancora esplorata situazione in maniera molto più esauriente nelle sue conseguenze logiche. Entrambe le e approfondita di quanto non sia stato fatto teorie, quella probabilistica e quella determini- finora», scrive Karl Popper. Anche se, avverstica, hanno un problema da risolvere: l’aporia te, i due principi del realismo e della località micro-macro. Gli oggetti del mondo quantisti- sono del tutto diversi. Occorre attendere ulco, sia nella teoria di Copenaghen sia in quel- teriori conferme prima di accettare la fine del la di Bohm, hanno un comportamento diverso localismo. Ma, in ogni caso, sostiene Popper,

di Schrödinger e sia ‘vivo e morto’ quando nessuno lo osserva. Nel macrocosmo, nel mondo delle nostre esperienze quotidiane, qualsiasi gatto, anche quello di un fisico quantistico, ‘o è vivo o è morto’. Non è mai ‘vivo e morto’. Niente e nessuno, neppure un gatto, può avere simultaneamente due ‘proprietà incompatibili’. Dov’è allora l’errore? Perché c’è un salto logico tra micro e macro? È per rispondere a questi tre punti critici che l’‘ala realista’ reagisce e cerca di elaborare una spiegazione alternativa alla meccanica quantistica secondo l’‘interpretazione di Copenaghen’. Vi riesce David Bohm, che nel 1952 mette a punto un formalismo più deterministico – oggi noto come ‘interpretazione di Bohm’ della meccanica quantistica o ‘teoria delle variabili nascoste’ – sulla base della cosiddetta ‘onda pilota’ di Louis De Broglie. Nel nuovo formalismo di Bohm la questione della misura non è più così centrale. Nella ‘teoria delle variabili nascoste’ di Bohm la realtà quantistica è indipendente dalla misura.

il realismo e l’indipendenza della realtà dalla misura possono convivere benissimo anche con l’azione a distanza: «Penso, a differenza di Abner Shimony, che non ci sia la benché minima ragione che il realismo venga intaccato da questi nuovi esperimenti, anche se il loro risultato dovesse mostrare che la località è insostenibile». Ma, che lo si accetti o no, il teorema di Bell ha avuto una clamorosa conferma di natura sperimentale nel 1982, a opera del francese Alain Aspect. Il quale, misurando la polarizzazione dei fotoni in un sistema quantistico, ha rilevato la violazione delle diseguaglianze di Bell in pieno accordo con le previsioni della meccanica quantistica e ha mostrato la non separabilità, la correlazione o, se si vuole, un’azione a distanza tra i fotoni del sistema. Negli ultimi anni le osservazioni di Aspect sono state più volte ripetute e sempre confermate. Dopo John Stewart Bell (e Alain Aspect) diventa finalmente chiaro che la fisica quantistica pretende una modifica sostanziale della nostra visione del mondo: la non separabilità dei sistemi quantistici, la correlazione olistica, l’azione a distanza. Non è un prezzo da poco. Anzi, è un prezzo che, secondo alcuni (Karl Popper, ad esempio), mette in contraddizione la fisica quantistica con la relatività ristretta: l’azione a distanza viola il principio secondo cui nulla nel nostro mondo può superare la velocità della luce. In realtà, è possibile dimostrare che, anche in un sistema quantistico correlato, nessuno può trasmettere informazioni con una velocità superiore a quella della luce. E ciò, sostiene ad esempio Abner Shimony, rende almeno pacifica la coesistenza tra la struttura dello spazio-tempo della relatività ristretta e la non-località della meccanica quantistica. Il problema micro-macro Resta aperto il problema dell’aporia tra la realtà non-locale del mondo microscopico e la realtà locale del mondo macroscopico. Dove nasce questa aporia? Perché un vero gatto, fuori dalla metafora di Schrödinger, si trova sempre in un unico stato? Perché è sempre ‘o vivo o morto’? Perché è in un punto ben localizzato anche se non c’è nessuno a guardarlo? «Finora alla domanda tutti hanno sempre risposto: perché i gatti veri sono macroscopici», nota John Stewart Bell. Cioè in modo elusivo. La verità è che non sappiamo rispondere a questa cruciale domanda. Anche se ci sono molte ipotesi in campo. Una di queste ipotesi è il ‘modello di riduzione dinamica’ proposto nel 1985 dagli italiani Gian Carlo Ghirardi, Alberto Rimini e Tullio Weber. Il modello, matematico, si basa sull’idea che, per venire a capo della metafora di Schrödinger, occorra modificare la dinamica di Schrödinger. L’evoluzione della funzione d’onda, infatti, non è (non sarebbe) lineare, come prevede la nota equazione proposta dal fisico austriaco, ma è soggetta all’influenza di effetti di tipo statistico. In altri termini, la funzione d’onda è soggetta, in tempi del tutto casuali, «a processi spontanei che corrispondono alla localizzazione nello spazio dei microcostituenti di ogni sistema fisico». La frequenza di questi processi è molto piccola a livello atomico, per cui la localizzazione di una singola particella quantistica resta indefinita. Nulla cambia, cioè, nella sovrapposizione degli stati in cui si trova un singolo elettrone ‘non osservato’, cioè non perturbato. Se un gatto quantistico fosse composto da una particella, sarebbe davvero ‘vivo e morto’ contemporaneamente quando non c’è nessuno a osservarlo. La frequenza del meccanismo di localizzazione di Ghirardi, Rimini e Weber aumenta però col numero dei costituenti di un sistema fisico. Un gatto vero è costituito da un numero molto alto di particelle quantistiche. La loro frequenza di localizzazione è elevatissima. Cosicché la sovrapposizione degli stati quantistici del ‘sistema gatto’ è virtualmente soppressa anche quando l’animale non è perturbato, cioè osservato. O meglio, come nota Bell, il gatto di Schrödinger «non riesce ad essere simultaneamente vivo e morto che per una esilissima scheggia di secondo». Anche se per la nostra mente l’idea di quell’esilissimo attimo in cui vita e morte convivono e l’idea che la ‘capacità reificatrice della misura’ diventi solo altamente improbabile nei sistemi con un numero sufficientemente di particelle restano inafferrabili quanto l’universo infinito. 15


Antonio Gambaro

antonio.gambaro@unimi.it

Misurare il diritto ‘Misurare il diritto’ è formula riassuntiva per indicare il problema del ruolo e della funzione delle grandezze quantitative nel campo delle ricerche giuridiche. Questo problema sussiste in molte dimensioni nella riflessione giuridica contemporanea. Ad esempio, risorse pubbliche sono dedicate a ricerche e studi rivolti alla misurazione dell’effetto di provvedimenti legislativi: regionali, statali e comunitari. Ricordo, tra i tanti, la cosiddetta ‘Carta di Matera’ approvata il 25 giugno 2007 da dodici Consigli regionali (Abruzzo, Basilicata, Emilia Romagna, Friuli Venezia Giulia, Lazio, Liguria, Lombardia, Marche, Molise, Puglia, Trentino Alto Adige e Veneto), in cui le Assemblee regionali firmatarie si sono ufficialmente impegnate a promuovere l’uso di strumenti dedicati al controllo sulle leggi, nonché alla valutazione degli effetti delle leggi emanate dalle Assemblee stesse sulla vita quotidiana dei cittadini. La Commissione europea ha lanciato un programma di Impact Assessments dei provvedimenti normativi da essa predisposti. Tale programma si è per ora svolto ex ante mediante pareri resi da Panels indipendenti, ma la stessa Commissione, in sintonia con il Parlamento europeo, proclama di voler procedere a verifiche ex post che necessariamente richiedono la raccolta e valutazione di dati quantitativi. Per ora, nulla è accaduto e nulla può accadere perché non sono ancora a punto le tecniche mediante le quali si può avviare questo tipo di valutazione. Tuttavia, l’anelito a conoscere che cosa accade dopo il varo di un provvedimento lato sensu legislativo è comprensibilmente forte. Del resto, è quanto ha sempre tentato di fare la Scienza delle finanze in materia fiscale. È necessario anche richiamare l’attenzione sul declino della fiducia nelle capacità conoscitive delle scienze economiche. In realtà, tale fiducia era sicuramente mal riposta perché le basi epistemologiche del pensiero economico cosiddetto main stream sono piuttosto fragili, come indica il nome stesso, main stream, il quale significa che la larga parte degli adepti ad una data tradizione di ricerca prosegue nell’uso di un paradigma metodologico senza farsi carico di fornire risposte convincenti agli argomenti dei dissidenti e così fondare teoreticamente un metodo. In sintesi, al momento attuale vi è una domanda di conoscenza assai vasta, che però è insoddisfatta dalle prestazioni dei suoi fornitori abituali, i quali continuano a ‘rimanere’ sulla scienza perché nessun altro si è attrezzato per sostituirli. Va detto che il ruolo e la funzione delle grandezze quantitative nel mondo del diritto sono problemi ancora aperti, ma è dimostrabile che qualunque funzione dei dati quantitativi non è dissociabile dalla dimensione comparativa, perché senza il contesto comparativo i dati quantitativi riferiti a qualunque aspetto della realtà sociale, ma finalizzati ad agevolare scelte di tipo giuridico, perdono significato. Dall’altro lato, l’attrezzatura metodologica della comparazione giuridica moderna la abilita ad affrontare le sfide più complesse. ‘Misurare il diritto’ è pertanto formula denotativa di un’area problematica che tocca ai comparatisti e a pochi altri affrontare. Senza pretendere di offrire risposte risolutive, si possono tuttavia evidenziare i possibili punti di vista dai quali il problema deve essere affrontato. Primo tema. Sul piano della metodologia scientifica (ovvero di quello gnoseologico) il punto di partenza rimane ancorato alle teorizzazioni di Carl Gustav Hempel (1936) e poi di Rudolf Carnap (1966), vale a dire a quelle del Circolo di Vienna. Tale riflessione si è portata soprattutto sulla metodologia della ricerca nel campo della fisica e il suo grande merito è stato quello di inserire i concetti comparativi tra quelli classificatori e quelli quantitativi. Innovando, con ciò, il paradigma disponibile nella storiografia della fisica occidentale, il quale contem16

plava il passaggio dalla fisica di Aristotele – essenzialmente classificatoria – alla fisica galileiana – essenzialmente quantitativa, dato che si fonda su misurazioni accurate di dati sperimentali. I tre tipi di concetti classificatori, comparativi e quantitativi – è questo l’aspetto rilevante – sono in scala gerarchica relativamente alla pregnanza delle informazioni che si possono trasmettere facendo uso degli uni o degli altri. Di questa gerarchia, sotto il profilo della pregnanza informativa, si può dare un esempio banale: – il Nilo e il Volga sono grandi fiumi – categoria di cui il Po fa (o, non fa) parte [informazione classificatoria]; – Il Nilo è più lungo del Volga e il Volga è più lungo del Po [informazione comparativa]; – Il Nilo è lungo 6.671 km; il Volga è lungo 3.688 km; il Po è lungo 652 km [informazione quantitativa]. È lampante che il terzo messaggio fornisce più informazioni degli altri due perché ci dice di quanto il Volga è più lungo del Po ed è altrettanto chiaro che il secondo fornisce più informazioni del primo eliminando le incertezze circa il criterio di inserimento nella categoria ‘grandi fiumi’. Poiché Carnap aveva in mente il paradigma delle ricerche fisiche, trascurò gli aspetti cognitivi della comunicazione; aspetti che, invero, in fisica sono poco rilevanti posto che le scale di misurazione sono notissime e, comunque, facilmente convertibili le une nelle altre. Al contrario, nelle scienze sociali, ogni volta che un dato quantitativo è comunicato funzionalmente alla formazione di un giudizio nella mente del ricettore del messaggio, le grandezze quantitative assumono un valore informativo incerto perché non si può presumere che nella mente dello stesso esista la scala di riferimento completa. Ad esempio, personalmente faccio fatica a comprendere che cosa sia un podere di 5 ettari, ma capisco benissimo che cosa significhi un podere di 1.500 pertiche cremonesi. Da ciò consegue che molto più informativamente pregnante risulta la comunicazione in cui la grandezza quantitativa sia inserita in un contesto comparativo. Al riguardo basta riflettere sul fatto che tutte le cosiddette valutazioni (valutazione è altra nomenclatura per indicare il concetto di giudizio in senso kantiano) pongono capo a graduatorie comparative (ranking); sicché, poi, l’informazione che effettivamente circola e prepara la formazione di giudizi è il piazzamento nelle graduatorie, e tale piazzamento null’altro è che una grandezza comparativa; mentre la grandezza quantitativa che serve a giustificare il piazzamento in graduatoria scivola in secondo piano, quando non scompare del tutto dalla sfera dell’agire

non esistono e non possono esistere misurazioni quantitative dirette dei crittotipi. Tuttavia, proprio questa lacuna ha dato origine a non poche frustrazioni maggiormente avvertibili in ambienti culturali meno sensibili allo storicismo strutturalista. Un buon esempio è offerto dalle centinaia di studi e di ricerche giuscomparatistiche dedicate al tema della corporate governance, che non hanno consentito di guidare le scelte decisionali che si debbono compiere a livello di regolazione nazionale o sopranazionale. Scelte e decisioni che possono essere orientate solo dalla raccolta di dati quantitativi criticamente vagliati, compiuta a valle di ciascun modello.

Molte pratiche atroci non sono considerate violazioni fino a quando non sono nominalmente inserite nella cornice legale dei diritti umani […]. Poi ci sono i doppi ‘standard’: […] nell’Algeria degli anni Novanta, erano molte a fuggire dalla violenza dei fondamentalisti, scoprendo poi che, siccome non erano perseguitate dallo Stato, allora non potevano ottenere lo ‘status’ di rifugiate. Paradossalmente, invece, i fondamentalisti che le avevano assalite, quando furono loro a essere ricercati dallo Stato, fuggirono dall’Algeria ottenendo la condizione di rifugiati. Da un’intervista a Gita Sahgal in ‘Voci dalla rete’, a cura di M.G. Di Rienzo, Forum/Multiverso, Udine 2011, pp. 198-199.

malasanità; comunque 90.000 sono le vittime del cancro colo-rettale; infine, tra il 1970 e il 2005, sommando gli incidenti connessi con gli impianti a carbone, olio combustibile, gas naturale, GPL e idroelettrico si ottiene un totale di 90.419 morti. Il tropismo per il numero 90.000 è evidentemente endemico. Bisogna quindi attrezzarsi per verificare criticamente i dati partendo dalle loro fonti di rilevamento; ripulire i dati verificati estrapolando quelli correlati al fenomeno sociale oggetto di studio; scomporli al fine di renderli omogenei al confronto comparativo. Le tecniche di trattamento dati non possono rimanere estranee al bagaglio epistemologico del comparatista. A quest’ultimo riguardo si deve però puntualizzare che la pluralità di competenze speciTerzo tema. Ciò che la comparazione giufiche richieste per questa attività di politura ridica ha rinunziato a fare è stato tentato da suggerisce la necessità di condurre ricerche altri. In particolare, da economisti che hanno in équipe, modificando radicalmente il modus preso le mosse dalla corrente della New Institutional Economics (NIE). La relazione che operandi con cui vengono condotte le indagini giuscomparatistiche. Secondo tema. La comparazione giuridica unisce la NIE al cosiddetto movimento delle Come seconda osservazione, è doveroso moderna è stata refrattaria ai dati quantitativi Legal Origins è lineare. È probabile, date le perché ha praticato la comparazione struttusue manifeste aporie, che questo movimento sottolineare che ripulire i dati implica qualcorale (comparazione per modelli), che è rivolta declini. Però la testa di ponte sul terreno della sa di metodologicamente importante per noi giuristi: e ciò ci porta a esaminare un ulteriore a evidenziare, da un lato, le interconnessioni comparazione quantitativa è stata lanciata e tra elementi di un sistema, dall’altro, gli elebisogna sempre ricordare il monito di Carnap aspetto specifico del problema. È ovvio che i dati raccolti da qualsiasi appamenti latenti del sistema. circa la superiorità intrinseca delle informarato dedito a tale operazione debbono essere Gli elementi latenti (i crittotipi, le mentalità) si zioni veicolate mediante concetti quantitativi rilevano in due modi: attraverso l’esame criti- rispetto a quelle veicolate attraverso concetti inseriti in certe classi predefinite. Le classi sono insiemi e le procedure di reperimento co degli esiti fattuali del processo decisionale comparativi; perciò, nel lungo periodo, le (il celebre polo della law in action); attraverso informazioni veicolate da concetti quantitativi, dei dati dovrebbero garantire che ciascun membro dell’insieme vi sia stato inserito la ‘spia’ del linguaggio. È significativo che la debitamente contestualizzate comparativadopo aver verificato che esso possiede i lingua francese distingua tra il fleuve (fiume) mente, sono destinate a prevalere. Vale, poi, che si getta nel mare a la rivière che si getta al riguardo quanto detto sopra circa l’intensità tratti caratterizzanti richiesti. La predefinizione dell’insieme avviene tramite un concetto in altro corso d’acqua, ma abbia un solo vodella domanda di conoscenza sugli effetti classificatorio e quindi la formulazione della cabolo per indicare sia il legno che il bosco, delle leggi. definizione è arbitraria. Però la definizione che il legname, mentre la lingua danese abbia dell’insieme finalizzato alla raccolta dei dati quattro parole diverse per indicare un albero Quarto tema. Come coniugare la maggior deve possedere almeno due caratteristiche: (trae), il bosco (skov), il legname da costruprovvedutezza metodologica della comparaessere tale che la procedura di addizione di zione (tømmer), il legno da ardere (braende). zione critica con l’irresistibile prevalenza dei un nuovo membro all’insieme possa veniCome è altrettanto rivelatore il fatto che la lin- concetti quantitativi. re condotta da una pluralità di operatori in gua giuridica tedesca abbia quattro vocaboli Al riguardo propongo solo alcune osservadistinti per indicare il fatto, l’atto, il negozio e zioni. In primo luogo, si deve ricordare che la modo impersonale; essere sufficientemente precisa nella sua forma concettuale al fine di il contratto, mentre la lingua del common law messe di dati quantitativi attualmente dispotradizionale faccia riferimento alla sola espres- nibili è esponenzialmente crescente. In tutto il consentire una verifica altrettanto impersonale della coerenza tra i membri dell’insieme. sione contract. In tutti questi casi la lingua è mondo milioni di persone lavorano a racco‘Impersonalità’ qui significa irrilevanza degli sintomo esternamente percepibile del livello gliere dati, classificare dati, diffondere dati orientamenti personali del soggetto che esedi attenzione analitica portata da una comuni- espressi in forma numerica. Tuttavia, la gran tà di parlanti su un fenomeno. parte di quelli disponibili relativi alle condotte gue l’operazione di addizione di un membro all’insieme; ciò che rileva è che conosca ed La comparazione strutturale è comparazione sociali è falsa, fuorviante o non correlata al esegua correttamente le procedure richieste critica (non nel senso di critica decostruziosignificato ad essi attribuito. Si faccia attennistica, ma di critica comprendente), perché per l’inserimento nell’insieme. Tutti i sistemi zione che per ‘dati falsi’ non si intende solo rigetta l’idea semplicistica di un mondo giudiziari occidentali si fondano peraltro su raccolti in modo anomalo. Il punto è che le ordinato prima del pensiero umano e del tale presupposto basilare. La precisione della informazioni espresse in forma numerica linguaggio, e delle categorie ordinanti in cui definizione concettuale dell’insieme o classe possono essere oggetto di trasformazioni tale pensiero si esprime; non accetta il valore matematiche. Secondo quanto reperibile è, invece, caratteristica che richiede qualche semantico facciale delle dichiarazioni verbali, sulla rete, in Italia il tabacco farebbe 90.000 delucidazione. La funzione della precisione, specie quelle dei legislatori; ma questo salucome già chiarito, è di consentire una verifica morti all’anno; sempre 90.000 sarebbero i tare approccio critico è pagato con la rinunzia morti accertati da amianto; la stessa cifra ex post del corretto inserimento nell’insieme ad utilizzare dati quantitativi disponibili. Infatti corrisponderebbe ai decessi causati da di, e solo di, elementi che abbiano le caratte-

comunicativo. All’inaugurazione dell’anno giudiziario 2010, per fare un esempio, Vincenzo Carbone, presidente della Suprema corte di cassazione, ha richiamato le informazioni contenute nel rapporto Doing Business 2010, ma ciò che è apparso sulla stampa è stato il dato sul ranking dell’Italia che la vede al 156° posto nella graduatoria relativa al recupero crediti. In realtà, la posizione è la 157a ed è relativa all’indicatore enforcing contract che si compone di tre sub indicatori (numero atti procedurali: 41; giorni di durata del procedimento: 1.210; costo rispetto al valore della domanda: 29,9%). Nel mondo della comunicazione dei dati sociali il momento comparativo è in effetti immensamente più significativo della semplice comunicazione dei dati quantitativi, sicché ciò che è in questione è la sinergia tra i due tipi di informazione.


© Ulderica Da Pozzo

ristiche richieste. Ad esempio: in uno studio medico si faceva riferimento a dati quantitativi riferiti a ‘complications related to influenza’. Si è giustamente osservato come la definizione della categoria fosse imprecisa per due motivi: non chiariva se per ‘influenza’ si intendevano i casi patologici diagnosticati come tali in sede di primo tentativo diagnostico, normalmente nel certificato rilasciato dal medico di base, oppure i casi di influenza verificati come tali in sede di analisi di laboratorio; non chiariva che cosa si intendesse esattamente per complications. Simili imprecisioni classificatorie rendono inutili i dati raccolti. In tutti i settori scientifici non sempre è possibile dare definizioni sostanziali dei caratteri di un insieme classificatorio che siano assolutamente precise e inequivocabili. Ci si deve accontentare di definizioni il più possibile precise in un dato ambito. Ed è a questo proposito che appare opportuno esplicitare una breve considerazione sul contesto epistemico delle scienze giuridiche a fronte del problema della rilevazione delle grandezze quantitative. Gli insiemi che servono a classificare e raccogliere i dati quantitativi hanno la stessa sostanza logica delle categorie. Si tratta sempre di utilizzare concetti classificatori. È noto come la Scuola pandettista abbia rappresentato il massimo sforzo storicamente registrabile verso la definizione di categorie giuridiche il

più possibile precise. Tale tentativo si è svolto in funzione o, se si preferisce, in direzione, della costruzione di un processo decisionale dotato di meccanica precisione, ma è caduto in discredito: la satira di Rudolf von Jhering in cui si rappresenta il cosiddetto ‘paradiso dei concetti’ popolato da giuristi tutti abilissimi nello spaccare un capello in quattro ha sedotto quasi tutti gli esperti di diritto del XX secolo. Il favore dei moderni va alle categorie flessibili che conservino un certo valore ordinante, ma che non blocchino lo sviluppo del diritto giurisprudenziale cui sono state affidate le speranze del secolo passato. Deve essere chiaro che la rilevazione dei dati quantitativi esige il tipo di definizioni che sta nel ‘paradiso dei concetti’ di Jhering, ossia persegue l’ideale della massima precisione analitica e non già della accettabile flessibilità. Con ciò non si vuole ritornare alla metodologia pandettistica perché essa era funzionale alla cosiddetta ‘costruzione giuridica’, ossia alla conformazione di un procedimento valutativo; mentre, nel caso della raccolta dei dati giuridici, ci si rivolge solo alla classificazione dei dati di fatto e, grazie alla ontologica separatezza tra fatto e valore, è sicuro che, in primo luogo, non abbiamo bisogno di utilizzare lo stesso apparato metodologico in entrambi i campi e, in secondo luogo, sarebbe epistemologicamente ingiustificata anche

la semplice imitazione. Chiarito quest’ultimo aspetto, rimane tuttavia opportuno sottolineare che le ricerche giuridiche quantitative richiedono una inversione di mentalità rispetto all’approccio oggi dominante in materia di individuazione delle categorie di riferimento. La terza osservazione che vorrei proporre è che non tutti i settori di indagine si prestano ad analisi quantitative. La selezione è guidata da un criterio banale e dipende dall’abbondanza, o rarefazione, dei dati statistici disponibili. Il comparatista, a differenza dell’antropologo, non può eseguire raccolte di dati sul campo e, poiché deve selezionare i dati, deve anche essere sicuro di poter disporre in partenza di una messe di dati statistici considerevole. Settori come il processo civile, l’attività bancaria e assicurativa, la tutela dell’ambiente sono esempi di campi di indagine promettenti. Al riguardo, occorre aggiungere un ulteriore elemento. Si è già ricordato come risorse pubbliche siano state destinate a finanziare studi e ricerche dedicate alle misurazioni ex post dell’impatto delle leggi; benché tali ricerche si muovano forse nell’ambito dei pii desideri, appare tuttavia più che legittimo, anzi encomiabile, che i legislatori vogliano sapere quali effetti sociali producano i provvedimenti da essi emanati: si tratta quindi di un settore delle ricerche giuridiche che va incoraggiato. Probabilmente, però, indagini dedicate

all’effetto diretto dei provvedimenti legislativi sono troppo ambiziose e non misurano bene la distanza tra l’obiettivo e i mezzi tecnici per raggiungerlo. Le tecniche di misurazione degli effetti del diritto possono giovarsi delle previsioni implicite nella teoria dei ‘formanti’. Una delle implicazioni di tale teoria è che i cittadini regolino le loro condotte sull’esito del processo di applicazione-interpretazione delle norme ad essi più vicino. Ora, se ciò è vero, si deve assumere che tra la norma legale inderogabile in tema di portabilità dei mutui prima casa e la risposta che il cittadino ottiene allo sportello bancario, quando chiede l’avvio della procedura interbancaria in tema di portabilità, si estende una catena assai complessa di interpretazioni, trasposizioni di messaggi e nozioni, traduzioni da un gergo tecnico all’altro, di cui è molto difficile venire a capo. Al fine di addestrare i ricercatori a rilevare i dati quantitativi è più sensato partire dalla formulazione della regola più vicina alla posizione dei cittadini. Qualcuno osserverà che ciò conduce ad una situazione analoga a quella immortalata dal ‘principio di indeterminazione’ di Werner Karl Heisenberg, in quanto più una regula juris è vicina all’agire del singolo cittadino, più è comunicata ad esso in modo informale, frammentato, indocumentabile e, in definitiva, non identificabile con precisione; più la regola è

formalizzata in modo documentabile con precisione, più è distante dall’agire dei cittadini. Tale difficoltà sussiste, tuttavia è presto per dire che abbia la stessa ineluttabilità dell’impossibilità di misurare esattamente e assieme la velocità e la posizione di una particella, ed è vero, invece, che esistono regole giuridiche che si pongono in contatto diretto con il cittadino e sono abbastanza ben documentabili: si tratta delle decisioni giurisprudenziali. Anche in questo caso vi sono non pochi fattori di distorsione da tenere presente al fine della ripulitura dei dati, tuttavia il compito è meno impervio. Ricerche di misurazione degli effetti delle regole giuridiche potrebbero partire vantaggiosamente dalle regole giurisprudenziali. Il territorio per le indagini comparatistiche quantitative è quindi aperto, è accessibile in alcuni punti ed è immenso. I competitors sono al momento in ritirata, l’occasione è propizia; la strada è impervia, ma aperta a chi voglia cimentarsi in questo filone di ricerca.

Questo testo riprende parte della relazione tenuta al I Congresso nazionale della Società Italiana Ricerche Diritto Comparato (SIRDC), Milano, 5-7 maggio 2011.

Se ci interroghiamo sull’universalità del concetto dei diritti umani nelle diverse culture, si deve rispondere: no, questo concetto non è stato universale. Bisogna anche riconoscere che non si tratta ovunque degli stessi diritti, e che il bisogno che ne sentiamo non si esprime nello stesso modo – per lo più, del resto, esso si esprime attraverso una denuncia o rivolta nei confronti di una violenza, privazione, costrizione, menzogna, ingiustizia. E, tuttavia, c’è un’esigenza fondamentale che si percepisce ovunque. Qualcosa è dovuto all’essere umano per il solo fatto che è un essere umano: un rispetto, un riguardo; un comportamento che salvaguardi le sue occasioni di fare di se stesso l’essere che è in grado di divenire. Jeanne Hersh, ‘I diritti umani da un punto di vista filosofico’, Mondadori, Milano 2008, p. 71 (trad. it. di F. De Vecchi). 17


Aluisi Tosolini

aluisi.tosolini@tin.it

Misura e povertà

Il documento-manifesto della Commissione Europea intitolato EUROPA 2020. Una strategia per una crescita intelligente, sostenibile e inclusiva costituisce un ottimo esempio di come la povertà, in fin dei conti, sia ritenuta più o meno una calamità naturale contro la quale non si può fare molto. Gli obiettivi complessivi del documento sono infatti estremamente ambiziosi: entro quella data, il 75% delle persone di età compresa tra 20 e 64 anni deve avere un lavoro; il 3% del PIL dell’Unione Europea deve essere investito in ricerca e sviluppo; devono essere raggiunti i traguardi ‘20/20/20’ in materia di clima/energia; il tasso di abbandono scolastico deve essere inferiore al 10% e almeno il 40% dei giovani deve avere una laurea o un diploma; le persone a rischio a povertà devono diminuire di 20 milioni rispetto agli attuali quasi 100 milioni. La comunicazione della Commissione Europea, delineando lo scenario per i prossimi dieci anni, fissa tra gli obiettivi di inclusività e sostenibilità il ridurre «del 25% il numero di europei che vivono al di sotto delle soglie di povertà nazionali, facendo uscire dalla povertà più di 20 milioni di persone». Prima della crisi, per ammissione della stessa Commissione, «erano a rischio di povertà 80 milioni di persone, tra cui 19 milioni di bambini. L’8% della popolazione attiva non guadagna abbastanza e vive al di sotto della soglia di povertà». L’obiettivo, dunque, è tornare agli 80 milioni del 2008, dando così per scontato che con la povertà si possa coesistere e che non sia necessario sradicarla completamente perseguendo la zero poverty (cfr. http:// ec.europa.eu/italia/documents/attualita/futuro_ue/europa2020_it.pdf).

La multidimensionalità della povertà contemporanea, le sue cause e il suo legame con l’esclusione sociale vengono attualmente definiti e indagati attraverso un complesso sistema di misure. Seguendo le indicazioni dei Rapporti sullo sviluppo dello United Nations Development Programme (UNDP), reperibili on line anche in traduzione italiana sul sito www.undp.it, occorre in primo luogo prendere atto che «la povertà umana è più grave della povertà di reddito: è la negazione delle scelte e delle opportunità che consentono uno standard di vita accettabile» (VIII Rapporto UNDP, 1997). Sulla povertà, sostiene l’UNDP, si possono delineare tre diversi punti di vista, tre diverse prospettive, a seconda degli elementi che costituiscono il focus della definizione. Reddito Una persona è povera se, e solo se, il suo livello di reddito è inferiore alla soglia di povertà stabilita (che a sua volta si misura in termini di disponibilità di reddito sufficiente per comperare una certa quantità di cibo).

Bisogni umani Povertà è la deprivazione del necessario materiale per un soddisfacimento appena accettabile dei bisogni umani, incluso il cibo. Tra i bisogni: le cure sanitarie di base, l’istruzione e i servizi essenziali, l’occupazione, la partecipazione socio-politica. Tali bisogni devono essere garantiti dalla comunità. In caso contrario è facile che gli individui sprofondino nella povertà.

Capacità La povertà rappresenta l’assenza di qualche basilare capacità e quindi la perdita da parte di una persona dell’opportunità di acquisire livelli minimi di alcuni rilevanti funzionamenti quali, ad esempio, l’essere ben nutriti, l’essere adeguatamente vestiti e riparati, evitare le malattie più comuni, poter partecipare alla vita della comunità. Secondo l’UNDP questo approccio riconcilia la nozione di povertà assoluta con quella di povertà relativa, poiché la deprivazione relativa di reddito e di beni primari può condurre ad una deprivazione assoluta di capacità.

Per quanto riguarda gli indicatori – i ‘metri’ con i quali si misurano i diversi tipi e livelli di povertà – la pluralità di prospettive sopra delineata si traduce in un’altrettanto significativa differenziazione degli indicatori stessi. In Italia, ad esempio, l’ISTAT (La misura della povertà assoluta, ‘Metodi e Norme’, 39, 2009) utilizza i seguenti concetti: Soglia di povertà assoluta Rappresenta la spesa minima necessaria per acquisire i beni e servizi inseriti nel paniere di povertà assoluta. La soglia di povertà assoluta varia, per costruzione, in base alla dimensione della famiglia, alla sua composizione per età, alla ripartizione geografica e alla dimensione del comune di residenza.

Paniere di povertà assoluta Rappresenta l’insieme dei beni e servizi che, nel contesto italiano, vengono considerati essenziali per una determinata famiglia a conseguire uno standard di vita minimamente accettabile.

Incidenza della povertà assoluta Si ottiene dal rapporto tra il numero di famiglie con spesa mensile per consumi pari o al di sotto della soglia di povertà assoluta e il totale delle famiglie residenti.

Spesa per consumi per la stima della povertà assoluta È calcolata al netto delle spese per manutenzione straordinaria delle abitazioni, dei premi pagati per assicurazioni vita e rendite vitalizie, rate di mutui e restituzione di prestiti. È inoltre comprensiva degli affitti effettivamente pagati dalle famiglie e degli affitti figurativi, stimati sulla base della valutazione da parte della famiglia stessa.

Spesa media procapite Si ottiene dividendo la spesa della famiglia per il numero totale dei componenti.

Spesa equivalente Si ottiene applicando alla spesa familiare dei coefficienti di correzione che permettono il confronto diretto tra le spese sostenute da famiglie di ampiezza diversa (coefficienti relativi alla ‘scala di equivalenza Carbonaro’). Ad esempio, nel 2008, una famiglia con un solo componente è collocata sotto la linea della povertà se ha un reddito mensile inferiore a 599 euro.

Gli indici di povertà elaborati dall’UNDP (il Rapporto 2007/08, dedicato per la parte monografica ai mutamenti climatici, è disponibile integralmente in rete, in traduzione italiana, all’indirizzo http://hdr.undp.org/en/media/ HDR_20072008_IT_Complete.pdf) sono più complessi, tengono conto di una pluralità di fattori e vanno confrontati con l’Indice di Sviluppo Umano (ISU - HDI), che non è definito solo con parametri legati al reddito. È del tutto evidente, comunque, che vivere con uno o due dollari medi di reddito giornaliero costituisca la soglia di povertà assoluta (soglia al di sotto della quale oggi si trova almeno un miliardo di persone). UNDP - Indici di Povertà IPU-1 Indice di Povertà Umana per i Paesi in via di sviluppo Indice composito che misura le privazioni in relazione con i tre aspetti basilari considerati nell’Indice di Sviluppo Umano: una vita lunga e sana, la conoscenza e condizioni di vita dignitose. Nello specifico: • speranza di vita inferiore a 40 anni; • percentuale di adulti analfabeti; • deprivazione economica complessiva in termini di percentuale di popolazione senza accesso ai servizi sanitari e all’acqua potabile e la percentuale di bambini con età inferiore ai 5 anni sotto peso.

IPU-2 Indice di Povertà Umana per i Paesi OCSE ad alto reddito selezionati Indice composito (introdotto dall’UNDP nel 1998) che misura le privazioni in relazione con i tre aspetti basilari considerati nell’Indice di Sviluppo Umano – una vita lunga e sana, la conoscenza e condizioni di vita dignitose – e comprende anche l’esclusione sociale: • percentuale di persone con speranza di vita inferiore a 60 anni; • tasso di analfabetismo funzionale (inadeguata capacità di leggere e scrivere); • percentuale di persone che vivono sotto la soglia di povertà (50% del reddito medio disponibile); • tasso di disoccupazione di lungo periodo (12 mesi o più).

ISG Indice di Sviluppo di Genere Indice composito che misura i risultati medi relativi ai tre aspetti basilari considerati nell’Indice di Sviluppo Umano – una vita lunga e sana, la conoscenza e condizioni di vita dignitose – corretto in modo da tenere conto delle disparità tra donne e uomini.

MEG Misura dell’Empowerment di Genere Considera le opportunità delle donne e degli uomini e riflette la disuguaglianza in tre aree fondamentali: • partecipazione politica e il potere decisionale; • partecipazione economica e il potere decisionale; • potere sulle risorse economiche.

Tenendo comunque conto del fatto che, negli ultimi decenni, la ricchezza è andata sempre più concentrandosi nelle mani di pochissime persone (il quintile più ricco detiene a livello planetario oltre l’80% della ricchezza mondiale), la misura della povertà è anche sempre stima della ‘s-misurata’ ricchezza, e quindi anche della mancata redistribuzione e dell’assenza della politica come luogo di definizione delle norme e delle regole in base alle quali effettuare la redistribuzione stessa. Questa riflessione, tuttavia, non è completa se non si fa riferimento anche ad un altro significato del termine misura: essa va intesa pure come limite. E nel caso specifico come sobrietà. La miseria sarà infatti sconfitta solo quando la sobrietà e la cultura del limite saranno assunte come orizzonte di riferimento per l’esperienza umana e la valutazione della sua realizzazione e felicità. Quando la povertà-sobrietà diventerà la misura della pienezza dell’umanità. Che è tale solo se è capacità di rispettare l’alterità, e quindi il limite. Per vivere con misura.

Presto si troverà il ragionevole utilizzo dell’eccedenza; c’è il necessario per parecchi uomini in quella terra e quegli uomini non tarderanno ad averne bisogno, nello sconvolgimento che seguirà. Gliela si donerà. No, non diminuirete la vostra proprietà; per la prima volta al mondo, la renderete davvero fruttuosa. La dismisura vi uccideva, la misura nella quale vi sarete ridotti vi farà vivere nell’abbondanza e nella gioia. Jean Giono, ‘Lettera ai contadini sulla povertà e la pace’, Ponte alle Grazie, Milano 2004, p. 99.

18


Appena detta la bugia, il suo naso, che era già lungo, gli crebbe subito di due dita in più. […] A questa seconda bugia il naso seguitò a crescere. […] A questa terza bugia, il naso gli si allungò in un modo così straordinario, che il povero Pinocchio non poteva più girarsi da nessuna parte. […] – Perché ridete? – gli domandò il burattino, tutto confuso e impensierito di quel suo naso che cresceva a occhiate. – Rido della bugia che hai detto. – Come mai sapete che ho detto una bugia? – Le bugie, ragazzo mio, si riconoscono subito, perché ve ne sono di due specie: vi sono le bugie che hanno le gambe corte, e le bugie che hanno il naso lungo: la tua per l’appunto è di quelle che hanno il naso lungo. Carlo Collodi, ‘Le avventure di Pinocchio’, Giunti, Firenze 2002, pp. 72-74.

L’Italia non è come ce la raccontano: abbiamo creduto di crescere e stiamo declinando, la nostra presunta ‘modernizzazione’ è un piano inclinato verso la fragilità e l’arretratezza. E nello spazio sempre più ampio che si apre tra presunto benessere e fatica quotidiana del vivere crescono l’invidia, i rancori, le intolleranze. Marco Revelli, ‘Poveri, noi’, Einaudi, Torino 2010, testo di copertina.

19


Sabrina Tonutti

sabrina.tonutti@tin.it

Homo. ‘Misura di tutte le cose’? Parafrasando liberamente George Orwell, potremmo dire che ogni specie (animale) è unica, ma quella umana, comunque, lo è di più! A sostenere tale affermazione non è solo il senso comune, che con le sue pratiche quotidiane conferma una volontà di separazione dell’uomo da tutti gli altri animali, ma anche quella serie di teorie e metanarrative che esaltano la centralità della figura umana nella natura. Certe dichiarazioni, indifferenti alle più recenti evidenze scientifiche, presentano una visione talmente dicotomica della realtà da farci pensare, come modello di riferimento, a una tassonomia che segue il modello della scala naturae. Eppure, un secolo e mezzo è passato da quando Charles Darwin ebbe a sottolineare come le differenze fra l’uomo e gli altri animali fossero di grado e non di genere, e come «una differenza di grado, per quanto grande, non giustifichi il collocare l’uomo in un regno a sé stante», né la presunzione di attribuirsi il titolo di ‘orgoglio della creazione’. L’approccio continuista e gradualista, assieme al pensiero popolazionale, tuttavia, fatica ancora a scalfire il paradigma antropocentrico di aristoteliana memoria. Fu Aristotele, infatti, a cristallizzare la visione degli animali non umani come aloga zôa (‘senza ragione e senza parola’) e a segnare la loro differenza radicale rispetto all’uomo. Da tale teorizzazione dicotomica discende, già con Aristotele, l’esclusione degli animali (o, meglio, dei non portatori di logos) dalla sfera di considerazione morale. Sostiene il filosofo nella Politica che l’uomo ha per natura il diritto di sopraffare gli animali, e contro gli animali feroci esso conduce una ‘guerra’ che è tanto ‘naturale’ quanto quella contro gli ‘schiavi naturali’, nati per essere governati. Come pure tutte le donne, continua Aristotele, con parole che forse piacquero anche a Oscar Wilde, il quale ebbe a dire: «Le donne apprezzano la crudeltà più di qualunque altra cosa. Esse conservano meravigliosamente gli istinti primitivi. Noi le abbiamo emancipate, ma esse rimangono schiave, obbedienti egualmente al loro padrone. Esse amano essere dominate». Schiavi e padroni, differenze di specie, di classe, di genere, e subordinazione. Tornando all’antica Grecia, è qui che l’antropocentrismo si declina in androcentrismo classista: come gli animali diventano strumenti di un uomo ‘misura di tutte le cose’ (espressione che uso qui con licenza, rispetto all’accezione di Protagora), così anche altri esseri, gli schiavi e le donne, varianti difettive del paradigma, ricadono in una categoria di assoluta subalternità. Scrive Aristotele nell’Etica nicomachea che non c’è alcun legame di amicizia o giuridico tra uomo e animali, e neppure con lo schiavo, perché non hanno nulla in comune. Donne, animali e schiavi (ma anche il ‘barbaro’ e, transitoriamente, il bambino) si ritrovano nella stessa categoria di esclusione a esperire la condizione di non-normatività rispetto al paradigma-uomo, che è: maschio, adulto, greco e libero. Non a caso, esiste un legame storico che affratella i movimenti di liberazione dei nostri tempi: la lotta antisessista, antispecista e antischiavista. Alla teorizzazione della discriminazione tali movimenti oppongono una riflessione sui diritti dei ‘diversi’, dei ‘subalterni’. Si pensi alla sintesi elaborata dall’ecofemminismo antispecista di Carol J. Adams, o alle battaglie contro la schiavitù e insieme contro il maltrattamento degli animali avanzate da figure come William Wilberforce nell’Inghilterra degli inizi dell’Ottocento. Il logos, inteso nella sua caratterizzazione esclusivamente umana, è stato dunque uno dei primi elementi utilizzati come ‘misura’ per valutare chi includere nella/escludere dalla sfera del riconoscimento di certi diritti. Se Aristotele fu l’artefice di questa architettura dicotomica, non sono mancate le voci di dissenso. Si pensi a Teofrasto, a Plutarco, o a Porfirio, che contestano il riferimento al linguaggio umano come misura per valutare gli animali: sarebbe come se i corvi, afferma Porfirio, sostenessero di essere i soli a pos20

sedere un linguaggio e che noi uomini siamo privi di ragione perché pronunciamo parole inintelligibili. Tuttavia, rispetto a tali posizioni, il paradigma antropocentrico si è via via consolidato, portando con sé la negazione di rilevanza etica della vita animale, fino a trovare rielaborazione nella dottrina di Agostino e nella Scolastica di Tommaso d’Aquino (dove la differenza radicale fra uomini e animali è segnata da un potente e insondabile marcatore, il possesso dell’anima), come pure, più in generale, nell’umanesimo. Ancora oggi, dopo che alla riflessione sull’uomo hanno contribuito ricerche di zoosemiotica, etologia, neuroscienze e human-animal studies, mostrando l’esistenza di capacità cognitive e di linguaggio molto interessanti in altre specie animali, tuttavia la dicotomia ‘uomo/tutti-gli-altri-animali’ si arrocca attorno al paradigma separativo. Oltre alla ragione e al linguaggio (inteso come competenza grammaticale), storicamente altri elementi sono stati proposti a sostenere questa supposta radicale diversità. Si pensi all’uso di attrezzi, sbandierato, a sua volta, come la prova ultimativa della posizione privilegiata dell’uomo all’apice della scala evolutiva. Ebbene, anche in questo caso ci sono state confutazioni: il paleontologo Louis S.B. Leakey, quando Jane Goodall nei primi anni ’60 descrisse l’uso di attrezzi da parte degli scimpanzé del Parco Gombe in Kenya, sembra abbia replicato: «Ah, ora dobbiamo ridefinire il concetto di ‘attrezzo’ e ridefinire l’uomo – oppure accettare che gli scimpanzé siano considerati umani!». Ma il parossismo della distinzione e della separazione essenzialista si è anche esteso, riverberandosi all’interno della famiglia umana, e ha portato alla necessità di distinguere il modo di utilizzare attrezzi da parte dell’uomo moderno rispetto a quello dei suoi antenati, gli ominidi. Anche qui, recenti studi hanno dimostrato come nel Pleistocene venissero prodotte dagli ominidi sculture d’avorio, e come attrezzi di pietra fossero forgiati circa due milioni e mezzo di anni fa dai nostri avi. Fu allora che iniziò il percorso che ha condotto alla tecnologia e alle produzioni artistiche cui noi oggi ci riferiamo con l’iniziale maiuscola. L’uomo, come inteso oggi, sarebbe quindi anche ‘misura’ di discriminazione all’interno della propria storia evolutiva? Ominidi e primati non umani ricadrebbero nella stessa categoria, rispetto al paradigma dell’uomo moderno? La biologa Lynn Margulis, di fronte al dato della vicinanza genetica fra noi e le scimmie antropomorfe africane, suggerisce una ristrutturazione tassonomica in cui noi umani rientreremmo nella superfamiglia degli Hominoidea assieme a scimpanzé e gorilla, mentre orangutan e gibboni, dai quali ci separammo oltre dieci milioni di anni fa, ricadrebbero in altre due sottofamiglie. Ma la Margulis non è l’unica a invocare ravvedimenti nella classificazione paleoantropologica. Fra gli altri, la paleoantropologa Elizabeth E. Watson ha proposto di raggruppare uomo, scimpanzé e

gorilla all’interno non solo della stessa famiglia, ma anche dello stesso genere Homo. La denominazione che ne risulterebbe sarebbe la seguente: Homo sapiens, Homo niger e Homo gorilla. Se questa proposta provocatoria fosse accolta, commenta Telmo Pievani, «significherebbe che sulla Terra esistono tre specie del genere Homo, una delle quali ha l’abitudine di sterminare, di vivisezionare e di rinchiudere negli zoo le altre due». Delimitazioni dei diritti discendono infatti dall’istituzione di separazioni tassonomiche, come anche dalla reificazione di altri tipi di confini. Già limitandoci allo spunto datoci da Pievani (le azioni di sterminare, vivisezionare e rinchiudere negli zoo), potremmo stendere un lungo, triste elenco di sopraffazioni ritenute legittime in nome della superiorità di chi le ha perpetrate, e non solo nei confronti degli animali, vittime per elezione. Nel Rinascimento l’‘arte’ di sezionare esseri viventi valicò il confine di specie, coinvolgendo figure come gli eretici e i condannati a morte. Nel Cinquecento, Leonardo Fioravanti, medico dissidente di Bologna, confessò di aver praticato, durante i suoi viaggi, l’anatomia sui vivi, solo però su saraceni ‘infedeli’. Quanto invece all’esposizione di ‘esemplari’ viventi, la storia ci insegna che quegli stessi zoo che propongono oggi al pubblico finzioni naturali con animali ‘de-animalizzati’ hanno visto coinvolte altre categorie di esseri da mostrare nel catalogo delle diversità: si trattava di ‘esemplari’ di altre razze umane (si vedano, ad esempio, le esposizioni di tipi etnici ideate a fine Ottocento da Carl Hagenbeck, in cui apparivano specimen di inuit, indiani sioux, somali, samoiedi, aborigeni australiani, masai, ecc.). Umani per appartenenza di specie, ma animali per condizione. Una condizione segnata da un altro potente marcatore, il possesso di ‘cultura’, termine tanto vago e, per certi versi, indefinibile in via ultimativa, che si è prestato a un utilizzo quasi fideistico, partendo da una definizione del termine ristretta, specialistica e, soprattutto, antropocentrica. Il primatologo Craig Stanford dichiara che il vero problema non è se le scimmie, nostri parenti più prossimi, abbiano o meno cultura, ma se gli studiosi della cultura, che considerano la stessa una sorta di ‘proprietà privata’ dell’uomo, siano in realtà disposti ad accettare una definizione più estesa del concetto. Anche qui, il riferimento a una specializzazione tecnica e a capacità psicosociali molto avanzate ha posto anche dubbi, ad esempio, sull’estensione del concetto ai cosiddetti popoli ‘primitivi’, agli albori delle scienze dell’uomo. Confini disciplinari e tassonomici, questi, che sono nel contempo anche politici, sottolinea la filosofa statunitense Donna Haraway, in quanto sono costruiti in base all’istituzione di differenze (i vari dualismi: natura/cultura, uomo/animale, sesso/genere). Emerge come la verifica dei rapporti fra natura/cultura e fra specie umana e altre specie sia stata tradizionalmente condotta in base a

una rigida definizione di ‘cultura’ data a priori, cucita come un abito addosso all’uomo, e rispetto alla quale qualsiasi prestazione animale risulta appartenere a un ambito diverso. Proprio perché diversa è l’appartenenza di specie. Ed è questo il concetto attorno al quale si è articolata la più recente teorizzazione della superiorità dell’uomo rispetto agli altri animali. È innegabile che la specie umana sia ‘unica’, ma cosa significa questa affermazione? In realtà, come osserva il filosofo Michael Peters, ogni specie è ‘unica’. L’uomo, però, viene considerato tale in un senso molto più misterioso: la sua unicità sarebbe data dalla sua umanità e dalla sua non-animalità. «Questa osservazione – scrive Peters – è tanto profonda quanto l’affermazione che i gatti sono definiti non dalla loro animalità, ma dalla loro felinità». Per ricapitolare, alla nozione di ‘specie’ siamo giunti dopo una breve e non esaustiva rassegna che ha elencato la ragione, il linguaggio, l’uso di attrezzi, l’anima e la cultura come ‘misure’ di diversità. Con la nozione di ‘specie’ è l’appartenenza a un taxon a scavare lo spartiacque fra l’uomo e le altre specie animali, in quella prospettiva che è stata definita, appunto, ‘specista’ (prima dallo psicologo Richard Ryder e poi da Peter Singer, il filosofo di Animal Liberation). Con conseguenze etiche fondamentali. In molti discorsi attorno alla supremazia dell’uomo e all’etica, è l’appartenenza di specie, e non la capacità di soffrire (e neppure il possesso della ragione), a segnare la limitazione dei diritti alla vita e alla non sofferenza degli esseri viventi. La natura pregiudiziale di tale affermazione si dimostra nella valutazione della posizione, in questa architettura, dei cosiddetti ‘casi marginali’ (neonati, gravi disabili psichici, persone non in possesso di certe facoltà intellettive): tali esseri godrebbero dei diritti fondamentali non tanto perché possono soffrire, appunto, ma in nome della loro appartenenza a una categoria tassonomica, quella della specie Homo sapiens. A questo proposito, va rimarcato come la nozione di ‘specie’ non rispecchi una realtà naturale dai confini netti, quanto piuttosto i

nostri modi di classificare ciò che ci circonda, e le loro criticità. Ci rammenta il filosofo della scienza John Dupré che le specie non sono ‘unità dell’evoluzione’, bensì ‘unità della classificazione’, e che sulla stessa definizione del termine non esiste accordo fra gli studiosi. Con ‘specie’ si indica, solitamente, un gruppo di individui interfertili, isolato da altri individui. Ma l’isolamento riproduttivo della specie non coincide con quello dei singoli membri della specie. Inoltre, tale criterio di classificazione si rivela inutile per le specie asessuate, perché implicherebbe che ogni organismo asessuato debba essere considerato una specie a sé stante. Ci sono, poi, altri riscontri zoologici che incrinano la compattezza e la solidità di tale nozione, si pensi alle cosiddette ‘specie ad anello’. Esemplare è il caso del gabbiano reale e del più piccolo gabbiano dalla testa nera, i quali rappresentano due specie distinte in alcuni luoghi, ma non in altri. All’interno di questa specie si verifica infatti una graduale variazione di caratteristiche genetiche via via che ci si sposta geograficamente da una popolazione all’altra, tanto che fra gruppi contigui questi gabbiani sono simili tra di loro in misura sufficiente da risultare interfertili; mentre ai due capi del continuum della stessa specie (cioè in popolazioni distanti nello spazio) ciò non avviene, mettendo in crisi l’applicazione stessa del concetto di specie per questo gruppo di animali. Il biologo Richard Dawkins fa notare come nel caso di questa specie ad anello i passaggi intermedi esistono ancora, mentre per altre i passaggi intermedi devono essersi estinti in passato. Ebbene, cosa ci può suggerire la trasposizione di tale fenomeno alla specie umana? Dal momento che tutte le specie correlate sono potenziali specie ad anello, quanto complessa diventa la relazione fra l’uomo e i suoi parenti filogenetici più prossimi, viventi (le antropomorfe) o estinti (gli ominidi)? Quale approccio etico ne deriverebbe, se, anziché estinti, i precursori di Homo fossero oggi in vita? In quale categoria verrebbero collocati? E, soprattutto, quali ‘misure’ sarebbero invocate, per stabilire l’applicazione di certi diritti?

Eppure anche l’uomo grida. Non solo al momento della nascita, quando la sua apparizione fuori dal corpo materno è accompagnata da strilli di cui in seguito non serberà coscienza; o ancora quando da neonato piange per esprimere bisogni e desideri, piacere e disperazione. L’uomo grida in tutte quelle occasioni in cui la parola manca, le emozioni si fanno soverchie e il linguaggio mostra i suoi difetti e i suoi limiti. Michela Marzano, ‘La filosofia del corpo’, Il Melangolo, Genova 2010, p. 58.


© Ulderica Da Pozzo

Noi siamo uniti nella lingua, viviamo nelle parole. La lingua è anche un luogo di lotta. Avrei il coraggio di parlare all’oppresso e all’oppressore con la stessa voce? Avrei il coraggio di parlare a voi con un linguaggio che scavalchi i confini del dominio – un linguaggio che non vi costringa, che non vi vincoli, che non vi tenga in pugno? Il linguaggio è anche un luogo di lotta.

© Ulderica Da Pozzo

bell hooks, ‘Elogio del margine’, Feltrinelli, Milano 1998, p. 64 (trad. it. di M. Nadotti).

Purtroppo, la violenza sulle donne resta un problema in Italia, similmente a quanto accade in molti altri paesi del mondo. Con dati statistici che vanno dal 70 all’87% a seconda della fonte, la violenza domestica risulta essere la forma di violenza più pervasiva che continua a colpire le donne in tutto il paese. […] Gran parte delle manifestazioni della violenza non viene denunciata in un contesto caratterizzato da una società patriarcale e incentrato sulla famiglia; la violenza domestica, inoltre, non sempre viene percepita come reato; emerge poi il tema della dipendenza economica, come pure la percezione che la risposta dello Stato a tali denunce possa non risultare appropriata o utile. Rashida Manjoo, relatrice speciale dell’ONU per la violenza contro le donne, Ginevra, 26 gennaio 2012.

21


Luigi Gaudino intervista Ugo Mattei

gaudino@uniud.it matteiu@uchastings.edu

La grammatica dei beni comuni

Non giudicate, per non essere giudicati; perché col giudizio con cui giudicate sarete giudicati, e con la misura con la quale misurate sarete misurati. Vangelo secondo Matteo, 7, 1-2.

talismo estremista che ci governa. Serve un uso controegemonico tanto dell’estremismo quanto della moderazione.

collettiva agli atti dei poteri pubblici, che violino le libertà fondamentali e i diritti garantiti dalla presente Costituzione, è diritto e dovere di ogni cittadino». Ora, se la Costituzione di Gaudino. Giustizia/equità, merito/uguaun Paese può considerarsi l’unità di misura glianza, legalità/diritto. Sono termini ‘pesanti’, per la condivisione di un patto di convivenza storicamente carichi di significato − in diritto, tra le diverse componenti di una comunità, c’è in politica, in economia −, e che esprimono da chiedersi quali possano essere considerati valori e aspirazioni anche in contrasto fra loro. i casi in cui non è chiaro chi, tra quelle diverse Tutto ciò appare spesso ignorato dai protago- parti, stia o meno rispettando quanto è stato nisti del dibattito mediatico. Quale pericolo si preso come punto di riferimento comune. In Mattei. Il senso del limite è il grande assente nasconde dietro la banalizzazione dei concet- questa prospettiva, quando la disobbedienza può essere ritenuta non una rottura, ma un ti? E cosa si può fare per tornare a dare un nella grammatica della modernità. richiamo a quella cultura etica che sta alla senso a queste parole, e a ciò che dietro di L’ideologia della crescita è oggi il nemico base della cittadinanza democratica? Stando esse si nasconde? principale della misura. Credere nella possia queste regole, chi è il vero disobbediente? bilità della crescita infinita in un pianeta in cui E su quali criteri oggettivi si può legittimare Mattei. Purtroppo il dibattito mediatico è le risorse sono finite è una pura follia, che si una violazione della legge? Nella stabilità spiega soltanto come prodotto della rimozio- corrotto dal predominio dell’interesse privadi un sistema, che ruolo può quindi avere la to sull’etica pubblica. Oggi le corporations ne psicologica della morte, caratterizzante dominano la politica e, direttamente o per suo disobbedienza? la cultura occidentale del presente. Oggi si tramite, tutti i mass media. È lo ‘spettacolo ragiona soltanto sul ‘qui e ora’, si rimuove la Mattei. Dossetti, con gli standard reazionari storia e si costruisce un eterno presente, rin- integrato’ di cui parlava, da vero precursore, di oggi, non sarebbe per nulla un moderato, negando il passato e rinunciando a progetta- uno dei più grandi intellettuali che la Francia abbia prodotto nel Novecento, Gui Debord. né penso, francamente, che lo fosse al suo re un futuro più giusto, equilibrato, e sopratNello ‘spettacolo integrato’ nulla ha un senso tempo! Il pensiero cattolico sociale, allora tutto di vita e non di morte. Moderazione e come oggi, è all’avanguardia nella battaglia giusto mezzo sono idee intimamente connes- univoco e le parole plastiche, quelle vaghe e idonee a produrre ideologia dominante per i beni comuni e nella costruzione di un’alse alla questione della giusta distribuzione ternativa di cittadinanza attiva. Pensa a padre delle risorse, un tema che sottopone a critica si impongono. Le ‘coppie’ sopra indicate non sfuggono a questo destino. Per quanto Alex Zanotelli, don Andrea Gallo o don Luigi radicale proprio l’ideologia della crescita e concerne giustizia, equità, legalità e diritto Ciotti! E ve lo dice un materialista storico! In l’insieme degli apparati coercitivi e culturaho indagato questo aspetto, insieme a Laura ogni caso, anche se non entrato in Costituli che la sostengono. Solo con la giustizia

© Ulderica Da Pozzo

Gaudino. Quando abbiamo pensato al tema della misura, sentivamo l’esigenza di sottolineare l’importanza della moderazione, del giusto mezzo, del contenimento, in risposta a tutto quello di eccessivo e urlato che c’è stato e c’è ancora oggi in Italia. Non si può trascurare, d’altra parte, la potenza dell’eccesso, quando questo appare creativo e vitale. Di che tipo di eccesso e di che tipo di misura avremmo bisogno oggi?

perché in ballo c’è il futuro di tutti noi. Vi sono episodi e luoghi in cui si vedono già i tratti salienti di un conflitto destinato a generalizzarsi. La Val di Susa è luogo di resistenza eroica. I resistenti sono indicati come ‘violenti’ o terroristi dai dispositivi del potere costituito. Ogni fase costituente o ricostituente conosce, ovviamente in modo variabile a seconda dei contesti, questi passaggi.

occupato (e alle molte altre occupazioni che si ispirano a quella pratica costituente), fino al ripensamento politico della pratica sindacale portata avanti con coraggio dalla FIOM. Diamoci dieci punti comuni, chiari e non ambigui, un modello organizzativo aperto, e lasciamo che ciascuno concorra liberamente e con responsabilità all’obiettivo comune. Faremo da subito la differenza!

Gaudino. La rappresentanza politica è sempre stata la misura del rapporto fra elettori ed eletti. Ora assistiamo a una sua profonda crisi: è un problema di leggi elettorali, di fiducia nel sistema politico, o dobbiamo piuttosto pensare a nuove forme di partecipazione?

Gaudino. Si parla molto, in questi anni, di ‘beni comuni’: ma cos’è che rende un bene ‘comune’? Quali sono gli interessi in gioco? E che importanza essi rivestono sotto il profilo della riappropriazione del potere di controllo diretto delle risorse da parte dei cittadini?

Mattei. La rappresentanza è morta. Uccisa dal mutato rapporto di forza fra il settore privato controllato dalle grandi corporations globali e la sovranità dello Stato. In tutto l’Occidente, oggi il primo è incomparabilmente più forte del secondo, lo domina interamente. Il governo tecnico è l’‘epifania’ italiana di questa fine della rappresentanza politica liberale. La partecipazione deve conseguentemente rifondarsi. Come? Credo che sia essenziale considerare morti, insieme alla rappresentanza, anche i partiti. Ciò non ha nulla a che fare con l’antipolitica, perché la voglia di partecipazione alla politica nel Paese è molto forte e

Mattei. I beni comuni sono la più importante grammatica di un cambiamento possibile. Essi vanno difesi, innanzitutto, da quel saccheggio ostentatamente legale che discuto con Laura Nader nel libro. La pratica del ‘comune’, fondata sull’uguaglianza radicale nell’accesso e sulla decisione sempre condivisa, riduce ad unità teorica la grande e desiderabile varietà delle prassi. Tale riduzione ad unità teorica delle diverse prassi è la cifra della novità di percorso e di obiettivi. Sostenibilità, riproduzione, riconversione qualitativa dell’economia! Quante suggestioni e quanti obiettivi percorribili

È vitale che la tensione fra libertà ed eguaglianza rimanga: il conflitto politico non è evitabile. Non solo: è desiderabile, perché è attraverso il canale dell’antagonismo tra interessi diversi e opposti che i cittadini acquistano il senso della legge come bene comune. Bene comune perché condizione che consente alle varie voci politiche di aspirare a modellare la politica sociale, a fare dello Stato uno strumento per il bene generale. Nadia Urbinati e Corrado Ocone, ‘La libertà e i suoi limiti’, Laterza, Roma-Bari 2006, p. XV.

nell’accesso alle risorse potrà esserci futuro. Una buona politica deve mettere al centro la distribuzione, mentre la questione della produzione (che cosa produrre e come) deve essere resa funzionale proprio al raggiungimento di una tale società giusta e fondata su moderazione, sobrietà, senso del limite e responsabilità. Nell’attuale situazione sembra impossibile indirizzare i processi politici verso la via della salvezza. E qui sono necessarie due strategie: una consiste nello sviluppo di una cultura critica che spinga tutti, da subito, a vivere nell’equilibrio, nel rispetto e nel senso del limite (ad esempio, rifiutando la pratica di mangiare carne, o impegnando la propria vita a difendere i beni comuni). L’altra è la messa in campo di atti rivoluzionari, personali e collettivi, anche estremi, che facciano esplodere le contraddizioni del capi-

Nader, nel mio libro Il Saccheggio. Regime di legalità e trasformazioni globali (2010). Di nuovo, soltanto lo sviluppo sostenuto di una cultura critica militante che coniughi idee teoriche a pratiche politiche di liberazione può farci superare la trappola delle parole plastiche. Ma anche qui c’è un’azione diretta che mi sento di raccomandare di fare subito! Spegnere la televisione, non comprare i giornali borghesi, leggere e salvare «il manifesto»!

zione, il diritto di resistenza presenta caratteri pre-costituzionali, fondativi e costituenti, quindi fa parte di quegli aspetti profondi e strutturali della politica. Tracciarne i limiti non è perciò compito accademico, ma è la storia che lo fa. Se la Resistenza italiana fosse stata sconfitta, oggi i nostri eroi costituenti sarebbero morti in prigione come terroristi. Se la resistenza riesce a trasformarsi in politica, essa svolge in ogni caso un ruolo fondamentale nel mantenere vivo e genuino un ordine Gaudino. Tra i 556 deputati dell’Assemblea costituzionale, il quale, se vittoriosamente resistito, perde il suo carattere di ordine; se non costituente che, eletta nel 1946, diede poi vita alla Costituzione italiana, Giuseppe Dos- riesce, invece, essa altro non è che il comportamento antigiuridico di qualche individuo. setti può tranquillamente essere ricondotto Oggi la resistenza verso la violenza neoliberaalle personalità di ispirazione maggiormente le presenta sicuramente i tratti della politicità, moderata. Eppure, nei lavori di commissione preparatori, presentò una proposta per un ar- sicché mi pare stiamo entrando, anche grazie ticolo che si rifaceva al principio di resistenza, alla crisi, che sveglia le coscienze dal delirio che così recitava: «La resistenza individuale e di onnipotenza, in una fase di scontro finale

sostenuta. Occorre mettere in campo forme di organizzazione della soggettività politica che siano del tutto nuove, aperte, plurali, antiburocratiche, antiverticistiche, inclusive, non intrappolate nel leaderismo. Forme capaci di dare esito politico all’anelito di partecipazione tramite la valorizzazione di tutte le soggettività. Il movimento che ci ha portato alla vittoria referendaria dello scorso giugno costituisce una buona pratica, un esempio di come tale organizzazione aperta possa portare a esiti maggioritari in tutto il Paese. Oggi dobbiamo pensare a una rete di liste di cittadinanza politica attiva, non liste civiche ma politiche, raccolte intorno ad un metodo nuovo e ad alcuni obiettivi di trasformazione profonda e di lungo periodo della società. In campo esistono molte pratiche politiche plurali: dal movimento ‘No TAV’ all’esperienza di lotta per la cultura come bene comune del Teatro Valle

nell’immediato ci sono consegnati dalla consapevolezza dei beni comuni! Nel volume Beni comuni. Un manifesto (2011) traccio le grandi linee teoriche di questa rivoluzione. Che può vincere, a patto che si comprenda che i beni comuni non sono categorie merceologiche, ma esperienza di conflitto e di partecipazione attiva di tutta una comunità ecologica, che via via, in una grande rete tessuta dal basso, può trasformare la nostra intera esperienza globale. Per tessere questa tela dei beni comuni occorre difendere il senso e la radicalità di questo termine, che altrimenti rischia di essere usurpato dal discorso dominante. I beni comuni sono la nuova frontiera della rappresentanza e della democrazia. Vale la pena dedicare la vita alla loro difesa. Il bello e la qualità comincia per tutti qui e adesso.

Ci hanno fatti stendere pancia a terra, hanno rovesciato tutto, spaccato tutto, facevano volare per aria i computer che ti ricadevano accanto alla testa, e se ti muovevi, botte. Hanno picchiato fortissimo, con dei manganelli che parevano pieni di piombo, ci insultavano e picchiavano la gente stesa a terra fino a farla sanguinare, ho visto ragazzine svenire. C’era uno, in borghese, che diceva: attenti che non muoiano. Concita De Gregorio, ‘Non lavate questo sangue’, Sperling&Kupfer, Milano 2006, p. 74. 22


Quando il bene si dissecca riducendosi a norma, la cura del male richiede l’autonomia del cittadino comune di fronte al re, della donna di fronte all’uomo, dell’ispirazione di fronte alla rigida regola. Luigi Zoja, ‘Contro Ismene. Considerazioni sulla violenza’, Bollati Boringhieri, Torino 2009, pp. 115-116.

© Ralph Eugene Meatyard, ‘In prospettiva’, Art&, Udine 1995, p. 5.

23


Stefano Salis

stefano.salis@ilsole24ore.com

Fare le regole e poi disfarsene. Con misura Una sera di giugno del 1893, William Morris tenne una conferenza alla Bibliographical Society di Londra. Il titolo era semplice e accattivante: ‘The Ideal Book’. Il fatto che sia passato più di un secolo da quella sera ma che molte di quelle considerazioni siano ancora oggi perfettamente perspicue ci può suggerire molto su cosa debbano essere i libri e su come debbano essere fatti. Morris aveva le idee chiare su quello che c’era da fare per realizzare un libro che a suo parere rispettasse una serie di norme tali da renderlo perfetto o, addirittura, ideale. Non era, del resto, solamente teoria quella che andava raccontando quella sera. Tre anni prima dell’incontro londinese, Morris – che già aveva avviato imprese di decorazioni, mobili, arredi le quali avrebbero rivoluzionato o, se non altro, molto influenzato l’arte inglese di lì a qualche decennio, a partire dal movimento Arts & Crafts – aveva sentito l’esigenza di misurarsi con il mondo del libro. Il risultato di quel suo impegno era la Kelmscott Press, fondata nel 1891. Morris aveva 56 anni al momento dell’avvio della casa editrice. Nei sei anni di attività della Kelmscott, farà in tempo a stampare circa 50 opere rare, oggi ambita ghiottoneria per i collezionisti bibliofili. Tra queste, un volume di Geoffrey Chaucer che, a detta degli esperti, costituisce una delle più belle opere tipografiche di quell’epoca. ‘Una cattedrale di carta’, frutto di quattro anni di lavoro, che univa tutta la sapienza di Morris con le sue istanze estetiche. Morris ha ben presente, nel momento in cui fonda la Kelmscott, l’‘architettura’ – è proprio la parola da lui usata – che deve sorreggere i suoi libri. Tanto che nulla sfugge alla sua attenzione: spaziature, caratteri (preferiva un Jenson, ma ne disegnò egli stesso molti), miniature, ornamenti (fregi, capilettera, cordonature). Egli si ispira ai codici miniati quattro-

a

centeschi – il ritorno al design essenziale era stato parte della sua filosofia – ma con una freschezza e un sentore del tutto nuovi. Pieni e vuoti in armonia, ghirlande e rami che si intrecciano, grazie tipografiche e, più di tutto, grazia nello stile. Alcuni principi cui era giunto Morris e che quella sera raccontò ai suoi non molti uditori: «First, the pages must be clear and easy to read; which they can hardly be unless, Secondly, the type is well designed; and Thirdly, whether the margins be small or big, they must be in due proportion to the page of letter». E poco più sotto: «One thing should never be done in ideal printing, the spacing out of letters, that is, putting an extra white between them; except in such hurried and unimportant work as newspaper printing, it is inexcusable». Più avanti, Morris si occupa di proporzioni, caratteri, elogia ancora il Rinascimento tipografico. Anni dopo, un maestro come Jan Tschichold, ricorrendo ad esempio ai libri dell’epoca rinascimentale, l’epoca di sperimentazione e di fissazione delle regole editoriali, poteva scrivere: «Osserviamo la composizione tipografica mirabilmente regolare, strutturata in modo chiaro in paragrafi, piuttosto larghi allora, che iniziano sempre con un rientro pari alla misura del corpo: questo modo di segnalare le cesure fu in origine una scoperta accidentale, ma è di fatto l’unico metodo efficace ed è stato utilizzato

per centinaia di anni». Non è casuale l’accostamento tra Morris e Tschichold, il rivoluzionario (parola non eccessiva per lui) autore di Die neue Typographie (1928) e responsabile del design della più iconica casa editrice del Novecento, la Penguin. Ma si potrebbero fare ulteriori accostamenti, pescando nelle centinaia di scritti sulla tipografia di altri autori. Non lo è perché – appunto come altre decine di grafici, pensatori del design e designer – i due, nell’accingersi a provare una concezione nuova della pagina scritta, hanno sempre avuto ben chiaro che, prima di sperimentare, ci doveva essere una regola da conoscere e rispettare. Che novità! Si dirà. Eppure, non è così scontato. Nelle brevi righe citate di Tschichold, ad esempio, vediamo apparire la concezione del lavoro e della teoria in elementi testuali chiari: la ‘composizione regolare’, i ‘paragrafi larghi’ ma con rientranza ‘misurata’, il ‘metodo efficace’. L’autore non esplicita (lo fa in altri testi e con dovizia di particolari) cosa significhi la regolarità, la spaziatura, l’efficacia. Ma lo sa, lo avverte. Lo sperimenta. E lo cambia. Ciò che fa un grande graphic designer – ma ho il sospetto che si possa estendere la regoletta ad ogni forma di arte – non è l’oltrepassare la misura (cosa che può anche avvenire in maniera accidentale e non programmatica): è oltrepassarla dopo averla conosciuta alla perfezione. E quindi conoscerla per intravvedere i potenziali sviluppi.

Non è difficile creare, in editoria, pagine ad effetto, violente, notevoli, spiazzanti o disturbanti. I futuristi, per citare solo i primi cui viene da pensare, ne facevano addirittura un marchio di fabbrica: abolivano la misura tipografica e compositiva, volutamente, come principio, ma restavano confinati nel campo dell’arte. Proprio perché la loro non era una ‘nuova misura’ ma era un eccesso, e come tale era percepito e realizzato: da loro per primi, dal pubblico poi. Ma non è questa la misura con la quale ogni professionista della tipografia e della grafica si misura (perdonate il gioco di parole) nel lavoro quotidiano. Essa è generalmente fornita dalla presenza della regola: tanto che, per dire, si lavora per ‘gabbie’, parola che di per sé non indica certo libertà di movimento. Invece, il movimento c’è ed è forte. Gli esempi più virtuosi nel campo del design grafico sono tutti eredi di una concezione del libro (parlo qui dei libri ma sono considerazioni che si potrebbero estendere ad altri campi) che non è troppo distante da quella che è stata già imposta o proposta secoli fa. Eppure, la ricchezza di soluzioni escogitate ci fa sorprendere. E di soluzioni nuove se ne trovano continuamente. Anche The Vignelli Canon di Massimo Vignelli è un libro che, sotterraneamente o, a volte, più esplicitamente, invoca la presenza di un pattern, di una regolarità, di una norma. Lo scarto, voluto e cercato, solo dopo migliaia

di sperimentazioni, è quello che consente la riconoscibilità: da una parte l’inserirsi nella tradizione, dall’altra la capacità di rinnovare senza abbandonare completamente la via dalla quale si è partiti. Il campo grafico è teoricamente illimitato, eppure mi sembra assomigliare alla situazione degli scacchi. È praticamente impossibile eseguire tutte le combinazioni previste dalla scacchiera, ma ciò che rende affascinante il gioco è che esso sia severamente vincolato a precise norme. Le quali lasciano, però, tutta la libertà di produrre fantasia, bellezza, armonia. Se dovessi indicare in che cosa consista la misura nel campo della grafica contemporanea, direi che è la possibilità di generare bellezza riconoscibile e funzionale, all’interno di un sistema coerente internamente ed esternamente. Non dimentichiamoci che, al di là dell’aspetto artistico (che pure c’è), la grafica è quasi sempre arte servile. Non è un elemento umiliante. È un modo di pensare (e fare) che a me sembra le si confaccia. Così come penso che ‘chi fa’ design non sia un bravo designer, altro è essere designer. La differenza tra fare ed essere, ecco, sta nella misura. Un quid magari indefinibile. Ma agli occhi esperti di grafici e designer si distingue facilmente chi ci è da chi ci fa. O, almeno, lo si spera.

Per bellezza intendiamo la più alta perfezione. È quindi assolutamente escluso che una cosa poco pratica possa essere bella. La condizione fondamentale affinché un oggetto possa meritare la qualifica di ‘bello’ è che esso non contrasti con la praticità. Non è tuttavia sufficiente che un oggetto sia pratico perché sia bello. A tal fine occorre qualcosa di più. Un trattatista del Cinquecento si è espresso in proposito nel modo più preciso. Egli afferma: «Un oggetto al quale non sia possibile togliere o aggiungere nulla senza pregiudicarne la perfezione, è bello. Sarebbe questa la più perfetta, la più compiuta armonia». Adolf Loos, ‘Parole nel vuoto’, Adelphi, Milano 1982, p. 33 (trad. it. di S. Gessner).

b

L’armonia è determinata da rapporti di proporzione. Le proporzioni sono ovunque: nell’adeguatezza dei margini, nelle relazioni reciproche tra i quattro margini della pagina di un libro, nel rapporto tra interlinea del testo e margini, nella posizione dei numeri di pagina rispetto all’area del testo, nel modo in cui le lettere maiuscole sono spaziate diversamente rispetto al testo e, non ultimo, nella spaziatura delle stesse parole del testo. In breve, le affinità riguardano sia ogni singolo elemento sia l’insieme. Solo attraverso una pratica costante e l’autocritica più severa, solo attraverso l’apprendimento continuo possiamo acquisire la sensibilità necessaria al lavoro perfetto.

a

Jan Tschichold, ‘La forma del libro’, Sylvestre Bonnard, Milano 2003, p. 4.

b 24


Fabio Polidori

polidori@units.it

Il senso della misura «C’è sulla Terra una misura?», chiede inesorabile il poeta. «Non ce n’è alcuna», è subito costretto a rispondere. Asserzione del tutto in controtendenza rispetto a quanto proviene a ciascuno di noi attraverso l’esperienza, qualsiasi esperienza, ‘alta’ o ‘bassa’. Da dove, allora, una risposta così sorprendente? Giusto per non liquidare la faccenda rispedendola al mittente (male che vada alla bizzarria di un creativo oppure su su fino all’interna necessità del dire poetico), azzardiamo che questi potesse intendere semplicemente che la Terra in quanto ‘luogo di tutte le cose’ non contiene o non concede, di per sé, alcuna misura. Se una misura c’è, questa sarebbe l’uomo, da intendersi di conseguenza come creatura non del tutto terrestre, non completamente riconducibile alla terrestrità. Andare però ora alla ricerca di quale altro luogo, oltre alla Terra (e dunque necessariamente trascendente, per lo meno in senso tecnico), possa essere destinato all’uomo, comporterebbe una inesorabile perdita di contatto con la questione. Accontentiamoci dunque di ritenere che sulla Terra non c’è misura senza l’uomo e, a partire da qui, cerchiamo di capire un paio di cose. Innanzitutto, cosa possa voler dire che tutto sulla Terra ha, in qualche modo e sotto qualche rispetto, la possibilità di diventare oggetto per una misurazione. E, inoltre, se ci sia qualcosa di irriducibile a qualsiasi tentativo di misurazione. Le due questioni hanno portata radicalmente diversa, nonostante possano in prima istanza offrire qualche elemento di somiglianza, tale da trovarsi subito in una sorta di contraddizione (se tutto è misurabile non vale la seconda e se c’è qualcosa di non misurabile non vale la prima). Hanno portata diversa perché richiedono due modalità di indagine radicalmente distinte. L’una, infatti, chiede a partire dall’assunto che nulla, sulla Terra, nulla di terrestre insomma, possa sottrarsi alla misurazione. E qui il ‘qualcosa di terrestre’ diventa quasi un sinonimo di ‘oggetto’, tanto da indurre a ritenere che siamo di fronte a una sorta di tautologia: un oggetto non sarebbe infatti tale se non fosse anche in certo modo misurabile. Se dunque tutto, sulla Terra, ha la

possibilità di diventare oggetto di una misurazione (il che non significa che lo sia sempre e comunque), ciò implica che la misurabilità e la misura sono senz’altro modalità attraverso le quali chi misura – l’uomo, per farla breve – si rapporta alle cose, a tutte le cose. Tutte le cose, l’intera dimensione terrestre, può per qualche riguardo ritrovarsi a essere oggetto di misurazione, ossia, semplicemente, oggetto. Non ci vuole molto a capire dove può condurre questa breve considerazione: se tutto è riducibile a oggetto, è possibile in linea di principio che tutto ciò che è venga per così dire ‘inghiottito’ dall’oggettività. Questo dilagare dell’oggettività altro non sarebbe se non il riverbero dello strapotere di quella soggettività misurante che appartiene, a dare retta al poeta, esclusivamente all’uomo in quanto non completamente terrestre. Con questa considerazione dovremmo allora avere risposto in certo qual modo anche all’altra questione, se ci sia cioè qualcosa di irriducibile a qualsiasi tentativo di misurazione: sì, l’uomo appunto, nel suo non essere completamente terrestre. Ma tale risposta rischia di farci rimbalzare immediatamente su un piano di trascendenza, su un piano cioè sul quale si perde altrettanto immediatamente non solo la misura ma anche il suo senso. Se dunque non vogliamo accontentarci dell’ipotesi che la misura provenga dalla semplice non terrestri-

tà dell’uomo, dobbiamo cercare, su questa Terra, ossia all’interno della terrestrità stessa, qualcosa che non possa ridursi a oggetto di misura, a oggetto misurabile, a oggetto. In realtà, questo qualcosa lo abbiamo costantemente, non dico sotto gli occhi, ma accanto e intorno; è una dimensione che accompagna sempre qualunque azione e qualunque agire. Anzi, si potrebbe addirittura indicare questa dimensione come l’‘agire’. A condizione, però, di una precisazione decisiva: l’agire non va qui considerato come la dimensione astratta in cui collocare ogni azione dell’uomo, ma piuttosto come quel costante avere a che fare con ciò che ci sta intorno, come cioè il rapporto – continuo e mai interrotto – con le cose. Un rapporto, in tale senso, che non dipende esclusivamente dall’iniziativa dell’uomo (o di un individuo) in quanto soggetto (appunto agente) che manipola tutto ciò che di oggettivabile gli sta intorno, ma un rapporto in cui l’accessibilità alle cose, per l’uomo, risulti e derivi anche dalle cose stesse. Un rapporto in cui la misurabilità delle cose non dipenda esclusivamente dall’iniziativa di un soggetto, ma dove semmai il soggetto – a sua volta e preliminarmente – si trovi nella possibilità, concessa proprio dall’avere accesso alle cose, e quindi in certo modo concessa dalle cose, di modulare il rapporto stesso. E soprattutto: anche in termini di misura.

Stiamo sfiorando la tautologia? Solo in apparenza. Nel senso che il riconoscimento del sussistere delle cose non coincide affatto con il riconoscimento del rapportarsi ad esse. Nel primo caso il ‘soggetto’ ha infatti la possibilità di concepirsi in quanto isolato e in certo modo autosussistente e, di conseguenza, considerare il rapportarsi alle cose come un momento secondo, un gesto del tutto autonomo, volontario. Nel secondo caso, invece, riconoscere che il rapportarsi alle cose è la dimensione primaria entro la quale risulta possibile il costituirsi di una polarità soggettiva e di una polarità oggettiva, significa acquisire una sorta di consapevolezza del carattere finito, necessariamente limitato e costantemente arrischiato della dimensione soggettiva. Stare in rapporto con qualcosa, ancorché implichi la possibilità di un dominio, non necessariamente consente sempre e comunque la radicale sottomissione dell’altra polarità. Anche in un caso come quello della misurazione, dove sembrerebbe che a tutto, a ogni cosa, possa venire applicata una misura. «La misurabilità è una proprietà della cosa, appartiene ad essa o all’uomo che misura o a che altro?», si chiedeva Martin Heidegger nel corso di un seminario tenuto a Zollikon, in Svizzera, di fronte a una ristretta cerchia di medici e di uomini di scienza, insistendo sul fatto che non ce la caviamo se tentiamo

di dare una risposta in un senso o in un altro, nel senso della cosa o nel senso dell’uomo. Di lì a poco, infatti, la presunta prerogativa soggettivistica del misurare e del prendere misure viene messa radicalmente in discussione dalla tesi secondo la quale «il misurare in quanto misurare è essenzialmente qualcosa di non misurabile». Questa tesi dice che non c’è misura per la misura e che ogni misurare, nonostante il suo carattere necessario e forse ineluttabile, nonostante in esso si dia un’attribuzione di senso alle cose, proviene sempre anche da una preliminare – anche se non formulata – richiesta di senso, appunto, circa il senso non da dare alle cose, bensì del trovarsi in rapporto ad esse. Relativamente alla domanda intorno al misurare, allora, il punto è che dovremmo dare – o per lo meno tentare di dare – una ‘risposta’ non tanto a ‘cosa è una misura?’ o ‘cosa è misurare?’, quanto al senso del nostro rapporto con le cose che nel misurare è contenuto e si esprime: una risposta che, quanto meno, possa prendere le distanze dal precipitarsi da una parte o dall’altra, per mantenere invece aperta la questione, per ricordare quanto in tale questione è in gioco. E non tanto, direi, in attesa di trovare la soluzione del problema, ma proprio per non perdere il senso della misura.

Le fotografie che raffigurano la sofferenza non dovrebbero essere belle, così come le didascalie non dovrebbero essere moraleggianti. In quest’ottica, infatti, una bella fotografia sposta l’attenzione dalla gravità del soggetto rappresentato al medium in sé, compromettendo così il carattere documentario dell’immagine. Una fotografia del genere invia segnali contraddittori. «Fermate tutto ciò» ingiunge. Ma al tempo stesso esclama: «Che spettacolo!». Susan Sontag, ‘Davanti al dolore degli altri’, Mondadori, Milano 2003, p. 75 (trad. it. di P. Dilonardo).

© Robert Capa, ‘Robert Capa Fotografo 1932.1954’, Art&, Udine 1987, p. 73.

«Ah, voi persone ragionevoli!», esclamai sorridendo. «Passioni! Ebbrezza! Follia! Ve ne state lì tranquilli, indifferenti, voi uomini integri! Biasimate l’ubriaco, condannate il folle, predicate come un sacerdote e come un fariseo ringraziate Iddio perché non vi ha fatto simili a loro. Io mi sono ubriacato più di una volta, le mie passioni non sono mai state lontane dalla follia, e non me ne pento, perché nel mio piccolo ho imparato a capire che tutti gli uomini straordinari che hanno compiuto imprese grandi e quasi incredibili sono sempre stati considerati ebbri e folli. Johann Wolfgang Goethe, ‘I dolori del giovane Werther’, Giunti, Milano 2005, p. 64 (trad. it. di G. De Sanctis). 25


Paolo Cacciari

paolo.cacciari_49@libero.it

Sviluppo sostenibile, un ossimoro L’incommensurabilità delle forme della vita C’è un limite a ciò che possiamo fare con i numeri, così come ce n’è un altro a ciò che possiamo fare senza di essi. Nicholas Georgescu-Roegen, citato in Luca Mercalli e Chiara Sasso, ‘Le mucche non mangiano cemento’, SMS, Torino 2004, p. 184.

La debolezza di base di un sistema di difesa dell’ambiente che si basa interamente su motivazioni di natura economica è costituita dal fatto che la maggior parte dei membri della comunità terrestre non ha valore economico. I fiori selvatici e i passeracei ne sono un esempio. Dei ventiduemila tipi superiori di piante e animali nativi del Wisconsin, forse non più del cinque per cento può essere venduto, nutrito, mangiato o sfruttato economicamente in qualche modo. Eppure queste creature sono membri della comunità biotica e se, come credo, la stabilità di questa dipende dalla sua stessa integrità, essi hanno ogni diritto di continuare a esistere. Aldo Leopold, ‘Almanacco di un mondo semplice’, red edizioni, Como 1997, pp. 170-171 (trad. it. di G. Arca e M. Maglietti).

© Luca Laureati

surriscaldamento globale, squilibri sociali, basso costo fecero emergere la necessità guerre commerciali e guerreggiate per della loro preservazione. «L’uomo – si legge l’accaparramento delle materie prime, nei documenti di Stoccolma – soggiace ad prolungata ‘crisi sistemica’ del ‘primo mondo’. una solenne responsabilità di proteggere Né la più aggiornata formula della green l’ambiente sia per le generazioni presenti sia economy sembra avere migliore fortuna. per le generazioni future». Ma bisognerà attendere dieci anni, con il Rapporto Brundt- Forse perché, semplicemente, il benessere land del 1983, per leggere per la prima volta esistenziale di ogni individuo del genere in un documento ufficiale la formula «sviluppo umano così come dell’intera biosfera non è riconducibile alla sola dimensione economica. sostenibile». Concetto meglio esplicitato nel I ‘servizi ecosistemici’, così come i beni testo dell’ONU Nostro Comune Futuro del relazionali (pensiamo al lavoro domestico, agli 1987: «Sviluppo sostenibile è un processo scambi non mercantili, all’accesso ai beni nel quale l’uso delle risorse, la dimensione degli investimenti, la traiettoria del progresso comuni naturali e cognitivi) non sono quantificabili; per quante enclosures il diritto proprietecnologico e i cambiamenti istituzionali tario possa inventare e i governi decretare. concorrono tutti assieme ad accrescere la Non è vero che il valore di ogni cosa è pari a possibilità di rispondere ai bisogni della quanto un individuo è disposto a pagare, cioè umanità non solo oggi ma anche in futuro». pari al beneficio economico che ne ricava, C’è chi ne ha visto un generoso tentativo di come ci spiegano ogni giorno politici ed mettere in discussione l’egemonia culturale neoliberista trionfante – siamo negli anni della economisti secondo la teoria della preference satisfaction. Vi sono beni e servizi che hanno coppia Reagan-Thatcher. C’è chi, invece, ha pensato ad un mirabile quanto sterile tentati- un valore per la loro stessa esistenza, a vo di conciliare capre e cavoli, ovvero – come prescindere dal loro utilizzo. Con quali e quante unità di misura si stabiliripeterà più volte Serge Latouche – un sce il valore di un albero, ad esempio? ossimoro. Non basta ingentilire con qualche E sulla base di quali gerarchie di valori aggettivazione (durevole, armonico, equo… multicriteriali si dovrebbero ordinare le diverse sostenibile) il sostantivo ‘sviluppo’ per misure? Dalla quantità di frutti che produce, renderlo meno velenoso, aggressivo e dalla legna che se ne può ricavare, dall’anidridistruttivo. Possiamo ora affermare, senza de carbonica che assimila e dall’ossigeno che timore di smentite, che la formula dello sviluppo sostenibile non è riuscita ad inverare restituisce, dal numero di uccelli che nidificano e degli insetti che ospita, dall’ombra che nel contesto dell’economia di mercato le proietta e dall’humus che le sue foglie antiche virtù della temperanza, della misura, produce al suolo, dal vento che riduce, dal della moderazione e del senso del limite paesaggio che forma…? suggeriteci già dai filosofi greci, da Platone E se fosse l’ultimo albero della foresta o precisamente, sostenitore di ‘armonia e l’ultimo della sua specie? Come si vede, il compostezza’, per evitare che «le energie economiche potessero espandersi a dismisu- suo valore è di una grandezza indeterminabile ra, squilibrando la polis e generando contrac- e incommensurabile. Se invece, come oggi avviene, prevale il colpi pericolosi, così come è effettivamente avvenuto in Occidente, in nome di una visione riduzionismo economico, il denaro come L’introduzione del termine ‘sviluppo’ (e del gato monetario del valore delle merci (PIL), popoli che non lo faranno si condanneranno a unilaterale sviluppista, i cui riferimenti moderni equivalente universale, totalizzante, la mercifisuo corollario: ‘sottosviluppo’) nel linguaggio progresso tecnico nell’intensificazione delle rimanere nel ‘sottosviluppo’. Fin dall’inizio, furono autori come F. Bacone e R. Cartesio», cazione della vita, la cremistica, allora sarà politico corrente – come riconosciuto capacità trasformative della megamacchina quindi, sviluppo e crescita economica, nel semplicemente distruzione e morte. Infatti, come ci ricorda Paolo Scroccaro dell’Assounanimemente dagli storici – avviene ad industriale, espansione a macchia d’olio dei discorso politico corrente e nell’immaginario come afferma la scuola di economia ecologiciazione Eco-Filosofica nella relazione Dallo opera del presidente degli Stati Uniti Harry rapporti sociali di produzione e di consumo collettivo occidentali, sono legati a doppio sviluppo sostenibile alla decrescita, tenuta ad ca di Joan Martínez Alier (Ecologia dei poveri. Truman nel discorso inaugurale del Congres- capitalistici, benessere sociale, felicità filo. E così è effettivamente accaduto. Per i La lotta per la giustizia ambientale, 2009), Abano nel 2011. A vent’anni dal Summit di so il 20 gennaio 1949. Quindi, un’acquisizio- individuale, progresso generale. Le raffinate ‘trenta anni gloriosi’ (1945-1975) e oltre, nessuna compensazione reale è possibile Rio de Janeiro (1992), in cui lo sviluppo ne relativamente recente, ma tanto potente distinzioni tra growth e development verranno l’espansione dei sistemi produttivi industriali e sostenibile viene adottato ufficialmente quando si tratta di beni irriproducibili e da diventare un vero e proprio totem. Il «mito solo dopo. All’epoca di Truman con ‘sviluppo’ dei modelli di consumo di massa non ha insostituibili. nell’Agenda XXI, il fallimento è evidente: fondativo» della nostra società, secondo si vuole indicare un processo di espansione conosciuto limiti. In quarant’anni il PIL si è Gilbert Rist (Lo sviluppo. Storia di una lineare e illimitato, esponenziale, che avanza raddoppiato, la produttività del lavoro decuplicredenza occidentale, 1997). D’accordo è per imitazione, per contagio, e grazie agli aiuti cata. Ad un certo punto, però, il miracolo di Franco Cassano che individua nel «nucleo economici internazionali (Banca Mondiale, una crescita infinita in un mondo finito ha mitologico costitutivo della modernità occiFondo monetario, WTO, ecc.). Il termine è cominciato a vacillare, come hanno dimostradentale» l’individualismo proprietario, l’arricattinto dalla biologia (peraltro, a sproposito: in to i fondatori della bioeconomia: Nicholas chimento egoistico, la competitività, il produt- natura, infatti, solo le cellule cancerogene Georgescu-Roegen (autore di The Entropy tivismo, la brama del possesso, il dominio hanno una crescita esponenziale). Quasi a Law and the Economic Process, 1971; assoluto del denaro, del valore di scambio voler «naturalizzare la storia», come bene Energia e miti economici, 1998; Bioeconosull’utilità effettiva delle cose (L’umiltà del rileva Marco Aime nella prefazione al volume mia, 2003), Kenneth Boulding ed Herman male, 2011). Un po’ quello che pensava lo di Serge Latouche e Didier Harpagès Il Daly. Le diseconomie, le ‘esternalità negative’, stesso John Maynard Keynes: «Il progresso tempo della decrescita (2011), per conferire gli effetti controproduttivi hanno cominciato a economico si ottiene solo impegnando le all’ordine sociale capitalista una indiscutibile prevalere sui vantaggi della crescita. Si suole possenti spinte umane di egoismo. L’econoevoluzione sulle forme precedenti e su quelle affermare che il punto di svolta nella presa di mia moderna è guidata da una frenesia di concorrenti. È un modello che punta sulla coscienza dei problemi ambientali provocati avidità e indulge in una orgia di invidia; superiorità del sistema di mercato liberale dall’economia della crescita sia avvenuto con queste non sono caratteristiche casuali, ma le democratico nel creare e distribuire ricchezza. la pubblicazione del primo Rapporto del Club vere e proprie cause della sua espansione e Chi avesse voluto agganciarsi a questa di Roma, I limiti dello sviluppo, nel 1972. del suo successo», come riporta Ernst locomotiva (quante volte abbiamo sentito Erano gli anni della prima grande crisi Friedrich Schumacher in Piccolo è bello questa metafora!) avrebbe potuto farlo petrolifera e della Conferenza di Stoccolma, (2010; traduzione italiana di Small is Beauti- liberamente, uscendo tanto dalle dominazioni che diede i natali all’agenzia ONU per ful, 1972). Insomma, lo sviluppo concepito coloniali d’un tempo, quanto dal blocco l’ambiente (UNEP). La rarefazione e il come concatenazione di crescita dell’aggrecomunista incombente. Da qui la minaccia: i degrado delle risorse naturali prelevabili a Antonio Pascale, ‘Scienza e sentimento’, Einaudi, Torino 2010, p. 26.

Sono nato nel 1966 e già a quattro anni avevo messo al bando i giochi di legno e usavo la plastica a pieno regime […]. Mia mamma puliva la casa con prodotti chimici e dopo restava un minuto sulla soglia, soddisfatta della pulizia e dell’igiene. Il suo sguardo fisso sul pavimento pulito, in fondo, mi rassicurava. La consapevolezza di questo insieme di fattori ha creato in me una sorta di abitudine. Detta in breve: la chimica è parte della mia vita. Tendo ad accettarla, spesso pure a ignorarla nella misura in cui non provo, dopo essermene servito, vertigini, malesseri e senso di spossatezza. Con le parole del buon vecchio Paracelso: è la dose che fa il veleno.

26


Giovanna Cosenza

giovanna.cosenza@unibo.it

Misurare le parole

Questa consapevolezza è ormai talmente diffusa da essere entrata nel senso comune: capita a tutti di sentir ripetere nei contesti più disparati, dai talk shows ai supermercati, frasi come «Le parole sono pietre», che era il titolo di un romanzo di Carlo Levi, o «Le parole sono importanti», che fu urlata da Nanni Moretti nel film Palombella Rossa, per dar voce alla rabbia che il personaggio Michele Apicella provava contro i luoghi comuni sciorinati dalla giornalista che lo stava intervistando. Le parole siamo noi insomma, e lo sappiamo. Inoltre sono pietre, nel senso che possono fare male, e molto. Se non si scelgono con ponderazione e non si usano con tatto. Anche di questa ponderazione ci riempiamo la bocca da anni, con il linguaggio politically correct: non diciamo più ‘handicappati’ ma ‘disabili’, non più ‘spazzini’ ma ‘operatori ecologici’, non più ‘negri’ ma ‘neri’ o ‘persone di colore’. Per non parlare delle acrobazie linguisticosimboliche con cui cerchiamo di consolare le donne della loro discriminazione sociale ed economica, particolarmente più grave in Italia che in altri Paesi sviluppati: ‘care colleghe e cari colleghi’, ‘care/i colleghe/i’, ‘car* collegh*’ e via dicendo. Ma se da un lato ci esercitiamo in circonlocuzioni ‘politicamente corrette’, dall’altro siamo pronti, oggi più di ieri, a usare la lingua in modo sbracato: turpiloquio, espressioni colorite, colloquiali e gergali hanno ormai invaso anche gli ambienti più colti ed elitari – dall’università all’azienda, dalla politica alle istituzioni – nell’idea che ‘parlare come si mangia’ implichi maggiore autenticità ed efficacia del parlar forbito. Un’idea confermata tutti i giorni dai media, specie dalla televisione, dove l’aggressività linguistica è diventata per molti (giornalisti, star, ospiti) un vezzo, un fatto di stile. E in quanto tale fa tendenza. Non è facile trovare un equilibrio fra questi due poli: da

una parte, infatti, le formule politicamente corrette non bastano a costruire il rispetto che pretenderebbero di esprimere, ma restano spesso una semplice facciata, dietro alla quale si possono camuffare le peggiori tendenze razziste, omofobe e sessiste; dall’altra parte è vero anche che la sciatteria linguistica può implicare sciatteria esistenziale e relazionale: «Chi parla male pensa male e vive male», diceva ancora Nanni Moretti/Michele Apicella. Ma se gli eccessi eufemistici possono cadere nell’ipocrisia, pure la posizione di Moretti corre i suoi rischi, che sono quelli dello snobismo: il mondo è pieno di persone che non hanno potuto dotarsi degli strumenti culturali necessari a raffinare il modo in cui parlano, ma sono ugualmente capaci di pensare e vivere benissimo, vale a dire con autenticità e rispetto per gli altri. Molto più di quanto non facciano certi sapientoni, la cui arroganza – verbale e non – vediamo all’opera tutti i giorni. E allora, come se ne esce? Come si trova la misura giusta? Purtroppo non c’è una soluzione generale, perché l’attenzione, il senso di opportunità, il rispetto sono sempre relativi al contesto e al momento in cui si esercitano, ma soprattutto alla persona (o persone) a cui sono indirizzati. E, oltre che con le parole, possono essere trasmessi con l’espressione del volto, il tono della voce e gli atteggiamenti del corpo, con i quali si può confermare ciò che abbiamo detto, ma anche sconfessarlo. Perciò bisogna cercare la misura caso per caso, sempre ricordando che siamo ciò che diciamo e diciamo quel che siamo, ma lo diciamo con un mare di segni, sintomi e indizi ben più vasto delle parole, e lo diciamo anche con l’insieme dei nostri comportamenti e il tessuto delle nostre relazioni. Lo diciamo con tutta la nostra vita.

Più tardi, mentre percorrevamo prima dell’alba l’ultima tappa verso Teheran, il Sayyid ha ripreso a parlare: «Sa qual è l’errore che commettono tutte le potenze europee nei confronti della Persia? Glielo dico io. Loro si occupano solo dei grandi personaggi. Non si rendono conto che c’è anche la piccola gente, come me, medici, mullah, piccoli mercanti, e che persino i contadini parlano di politik nelle case da tè lungo la strada. Sanno di poter corrompere e minacciare i grandi personaggi e sono convinti di tenere il paese in pugno. Ma a noi, la piccola gente, non potranno corromperci perché siamo troppi.

Dimentica di me stessa, ho superato i miei limiti. Ma se vi parrà che io abbia detto alcunché di troppo petulante e vuoto, considerate che io sono la Follia, e donna per giunta. Erasmo da Rotterdam, ‘Elogio della follia’, Mursia, Milano 1986, p. 145 (trad. it. di E. Linder e N. Petruzzellis).

© Paolo Comuzzi

Che il linguaggio contribuisca a forgiare ciò che pensiamo, sentiamo e addirittura percepiamo è qualcosa che la ricerca scientifica sa da molto tempo: schiere di psicologi, filosofi, sociologi e semiologi hanno ripetuto per tutto il Novecento che gli esseri umani sono fatti di parole e segni, oltre che di carne e ossa. È con le parole che costruiamo la nostra capacità di pensare, è di parole che sono fatti gran parte dei nostri pensieri, ed è dalle parole che dipende pure il mondo esterno, o almeno quella fetta che rientra nei limiti della nostra comprensione.

Per essere grande, sii intero: non esagerare E non escludere niente di te. Sii tutto in ogni cosa. Metti tanto quanto sei Nel minimo che fai, Come la luna in ogni lago tutta Risplende, perché in alto vive. Fernardo Pessoa, ‘Ode’, in ‘Nei giorni di luce perfetta’, RCS, Milano 2011, p. 179 (trad. it. di L. Naldini).

John Dos Passos, ‘Orient Express’, Donzelli, Roma 2011, p. 96 (trad. it. di M. Bartocci).

27


Giorgio Osti

ostig@sp.units.it

Consumo solidale e lavoro Due misure per ora disgiunte di benessere Nell’ultimo decennio sono fiorite interessanti iniziative di commercio alternative ai circuiti tradizionali: si tratta dei Gruppi di Acquisto Solidale (GAS). Partite in maniera informale, si stanno ora consolidando. Questo fenomeno conferma, da un lato, il bisogno di modificare una situazione economica ritenuta insoddisfacente e, dall’altro, la convinzione che cambiare si può, che il cambiamento è alla portata di semplici cittadini.

Gli elementi distintivi dei Gruppi di Acquisto Solidale I Gruppi di Acquisto sono un fenomeno che ha ormai una decina di anni. Si differenziano dalle vecchie cooperative di consumo forse solo per ragioni contingenti: sono appunto nuovi, sono piccoli, sono collocati in contesti urbani; sono quindi diversi, per intenderci, dalla Coop o dalle esperienze di consumo cooperativo che si trovano in aree rurali e montane (il Sait in Trentino, ad esempio). Li distingue la storia dunque, e un po’ la geografia nel senso che la cooperazione al consumo esiste da oltre un secolo e si è mantenuta maggiormente in certe aree del Paese (le ex aree ‘bianche’ e ‘rosse’). Essi nascono solitamente in ambiente urbano, generati da una richiesta di moralizzare l’economia che si intreccia idealmente con l’affermarsi della cooperazione sociale a partire dagli anni ’90 del secolo scorso. Il richiamo alla storia fa capire che non siamo di fronte ad una novità assoluta. I tentativi di mitigare gli effetti dirompenti dell’economia capitalistica erano cominciati già a fine Ottocento. Da quella storia abbiamo molto da imparare. Una ricognizione della cooperazione al consumo ‘storica’, fatta senza toni apologetici, sarebbe molto utile per capire i destini degli odierni GAS. Questi gruppi sono quasi sempre svincolati da grandi organizzazioni nazionali, con qualche eccezione (ad esempio, le ACLI hanno una propria rete); nascono spontaneamente e si danno come proprio compito la ricerca di produttori di beni di base con i quali stabilire un rapporto fiduciario per la consegna e il pagamento. La gamma dei beni oggetto di un simile patto non è molto ampia; si tratta soprattutto di generi alimentari, anche se vi sono GAS specializzati su altri beni, come il vestiario, per arrivare ai servizi più sofisticati come la telefonia e le assicurazioni. Quello della gamma dei prodotti e del livello di sofisticazione del bene/servizio sarà un ulteriore elemento dirimente nell’analisi. Gli obiettivi di queste aggregazioni spontanee di consumatori sono molteplici. Possiamo raggrupparli in quattro tipi: quelli relativi al benessere individuale/familiare del consu28

© Ulderica Da Pozzo

L’affermazione di queste esperienze ci spinge a interrogarci sulla loro progressione sia in termini quantitativi che qualitativi, ovvero a ‘misurarle’ sotto diversi parametri con un triplice obiettivo: cogliere la loro evoluzione nel tempo e nello spazio per monitorarne il cambiamento; cogliere i nessi e le relazioni fra ambiti diversi, in particolare fra consumo e lavoro; cogliere la loro portata politica, in quello strano gioco semantico per cui ‘misura’ è sinonimo di policy. Se i GAS e le istituzioni che li sostengono sbagliano una o tutte queste valutazioni, vi è il forte rischio che si trasformino in una nicchia isolata che non contamina il commercio nel suo complesso e non intacca un problema ulteriore, molto connesso al consumo, quello del lavoro e della sua scarsità cronica nell’economia capitalistica. La soluzione, o meglio, la ‘misura’ che intendiamo indagare è quella della crescita di scala delle esperienze dei GAS, senza la quale appare velleitaria quella voglia di cambiamento prima citata. Per arrivare a tale meta è necessario analizzare: in primo luogo, le principali caratteristiche di base dei Gruppi di Acquisto Solidale; quindi, i loro punti di forza e di debolezza; infine, come viene incluso il lavoro in essi.

Per soddisfare quest’inesausto appetito l’industria di fast food aumenta le sue porzioni. Negli ultimi decenni il Big Mac della McDonald’s è passato da 3,7 a 7,5 once (da 104 a 212 grammi). Gli hot dog sono diventati lunghi più di 30 centimetri e la pizza a tripla copertura (Triple Deck Pizza) di Pizza Hut straripa di sei formaggi fusi differenti. […] Non si sa chi abbia ragione, sicuro è che, se pure non si muore prima, con l’obesità si vive certo peggio. E non si pensi che questo destino sia riservato ai soli statunitensi. Anche dalla taglia delle mutande si misura l’americanizzazione del mondo. La globalizzazione la si può valutare in chili. Marco D’Eramo, ‘Lo sciamano in elicottero: per una storia del presente’, Feltrinelli, Milano 1999, p. 14.

matore, ovvero risparmiare sui costi e avere prodotti salutari; quelli relativi all’ambiente, ossia reindirizzare e ridurre i consumi al fine di salvaguardare i beni comuni; quelli di carattere economico che riguardano la possibilità di condizionare produttori e intermediari affinché riducano i cartelli, le produzioni moralmente dubbie e i trattamenti iniqui dei lavoratori; infine, quelli di natura squisitamente sociale, ossia la possibilità di solidarizzare fra consumatori e con i produttori. Mancherebbero, a rigor di logica, gli obiettivi di natura politica. Essi, in effetti, appaiono conseguenze secondarie dell’azione dei GAS, nel senso che diventano ex post obiettivi inseriti nell’agenda di talune istituzioni pubbliche. In primis, i GAS sono esperienze economiche e nascono nel libero mercato. La politica, se vogliamo, appare come un meta-obiettivo. Un elemento che nasce dopo un deliberato percorso di sviluppo dei GAS stessi o di organismi politici, siano questi i partiti o le amministrazioni locali.

I GAS hanno un’accentuata natura pulviscolare. Non mancano però forme di coordinamento. In genere, sono di due tipi: la forma locale, che può prevedere anche una qualche divisione dei compiti interna; vi sono, ad esempio, località in cui esiste un ‘meta-GAS’ che provvede ad alcuni acquisti comuni, magari attraverso persone che ricevono una remunerazione per il lavoro di raccordo/trasporto. Vi è poi il coordinamento nazionale, che consiste in una più blanda raccolta in convegni o momenti di formazione, senza una formalizzazione ufficiale della comune appartenenza in un’associazione o altra forma giuridica. Fanno eccezione rispetto a questo quadro, da un lato, i tentativi di creare un’associazione formalmente riconosciuta che provveda a regolare l’acquisto collettivo di energia elettrica verde, dall’altro, il coordinamento assicurato dal sito web www.retegas.org. Entrambe le eccezioni, però, confermano la tendenza a mantenere una fisionomia pulviscolare. L’associazione su scala nazionale per l’ac-

quisto di energia verde per ben due volte ha dovuto registrare il fallimento di accordi con ditte per la fornitura di tale servizio. Dal canto suo, l’integrazione via web ha caratteri di forte informalità, la registrazione o partecipazione alla Rete nazionale dei GAS, come ad altri network, non vincola alcuno ad agire in senso convergente né implica un’autorità centrale. Vi sono, in genere, degli ‘amministratori’ che aggiornano i siti e vigilano sul rispetto di alcune elementari regole di comunicazione. Alcuni di questi siti si propongono anche come reti di vendita dedicata, una sorta di e-commerce equo e solidale. La loro rilevanza e fortuna non appaiono elevate.

to una rete di persone dotate di grande senso civico; avvicinano molti all’impegno. Insomma, si può parlare di un bilancio educativo estremamente positivo. Le persone – vedendo appunto che riescono a modificare lo status quo – assumono atteggiamenti e comportamenti virtuosi rispetto a diversi commons. In qualche caso, vi è anche un impatto economico, nel senso che alcune aziende si sostengono fornendo ai soli GAS i propri beni. Imprese insediate in aree problematiche (povere o controllate dalla criminalità organizzata) possono avere un sostegno vitale proprio dai GAS. In fondo, è lo stesso meccanismo del commercio equo e solidale: aziende meritorie site in aree disagiate possono contare su un canale privilegiato di diffusione dei loro Punti di forza e di debolezza prodotti e così sopravvivere economicamente. Vi sono nei GAS molti elementi di forza. I prin- I motivi di debolezza derivano dal fatto che i cipali, come detto, paiono essere la volontà e GAS operano in un’economia di mercato, il la possibilità di cambiare la propria vita in un cui carattere saliente è la libertà di produrre senso più rispettoso per sé e per gli altri. e di comprare da chi si desidera. Un primo I gruppi poi alimentano in modo assai concre- punto riguarda pertanto la cosiddetta esclusi-


© Paolo Jacob

C’era una volta nel distretto di Zlotogrod un verificatore dei pesi e delle misure che si chiamava Anselm Eibenschütz. Egli aveva l’incarico di controllare i pesi e le misure dei negozianti in tutta quella regione. A determinati intervalli Eibenschütz andava dunque da una bottega all’altra a esaminare i metri, le bilance, i pesi. Lo accompagnava un sergente dei gendarmi fieramente armato. Così lo Stato dava a conoscere che all’occorrenza avrebbe punito a mano armata i falsari, fedele al detto della Sacra Scrittura, secondo il quale chi è falsario è ladro... Joseph Roth, ‘Il peso falso’, Mondadori, Milano 1979, p. 3 (trad. it. di E. Pocar).

va: i singoli membri dei GAS non sono tenuti a comprare sempre e solo da quel fornitore, messo a disposizione dal gruppo. Un altro aspetto problematico è quello della standardizzazione. Il GAS deve conciliare i desiderata dei consumatori e le capacità di soddisfarli da parte dei produttori. Dato che le esigenze dei consumatori sono molto varie per gusti e quantità, non è facile farle combaciare con un produttore rispetto al quale vi sono molte restrizioni: spesso lo si vuole biologico e vicino (‘km zero’). In genere, si riesce a soddisfare la varietà attraverso un’ampia domanda e un’ampia offerta. In altre parole, se si creano economie di scala; quindi con imprese di grandi dimensioni che movimentano grandi quantità di beni. Il problema diventa poi molto concreto. Ad esempio, se si desidera avere un’arancia biologica, varietà ‘moro’, è preferibile avere un buon numero di acquirenti e anche un produttore che ne garantisca elevate quantità; in tal caso, lo scambio può consentire costi contenuti di trasporto e consegna. Se invece il consumatore accetta un prodotto molto standardizzato e il produttore ha un solo tipo di arancia, la questione non si pone. L’elevata capacità discriminatoria del consumatore e la sua volubilità rendono pertanto lo scambio su piccoli numeri e con pochi produttori piuttosto problematico. Il bene non è sempre all’altezza, non arriva quando lo si vuole. Per questa ragione i GAS in genere operano su pochi prodotti e chi partecipa rinuncia, almeno in parte, ai suoi diritti di scelta. Il problema dell’elevata standardizzazione dei beni scambiati nei GAS fa anche capire perché sia nato il commerciante professionista e come in molti casi ‘comandi’ su produttori e consumatori. Il mediatore, piccolo o grande che sia, è in grado di accontentare ora il produttore (smerciandogli il bene), ora il consumatore (offrendogli proprio ciò che vuole nel momento in cui egli lo desidera). Questa sua capacità di cogliere esigenze disparate richiede per un verso una certa competenza, per un altro una grande quantità di tempo.

Da ciò si forma il commercio professionale che, in molti casi e sempre più di frequente, è incarnato da grandi strutture addirittura multinazionali. La cosiddetta Grande Distribuzione Organizzata (GDO), infatti, ha per lo più soppiantato i vecchi mediatori che giravano per le campagne o che albergavano nei magazzini generali. La mediazione, ormai in grande stile, assorbe poi molte risorse, diventa poco trasparente, agisce con logiche dettate dalla finanza. Assume, insomma, tutti i difetti di mercati capitalistici degenerati, dominati cioè da forze che hanno poco a che spartire con una sana opera di mediazione commerciale. Anche per questi motivi sono nati i GAS; è importante però saper distinguere fra una mediazione basata su competenza, dedizione di tempo e passione da una mediazione ormai ipertrofica, opaca, dominata dalla finanza. La professionalizzazione del commercio emerge anche nei GAS, allorquando decidono di incaricare qualcuno e di remunerarlo, perché il tempo da dedicare alla raccolta e alla distribuzione dei beni di consumo è superiore alle disponibilità del gruppo dei volontari. Inoltre, serve una conoscenza dei processi e dei produttori che il volontario può acquisire o meno. Dipende molto dalle qualità personali, dalla condizione lavorativa dei volontari e dall’orientamento culturale del GAS. Un GAS può riscontrare che esiste un problema di professionalità al proprio interno, ma decidere di ‘accontentarsi’ di una semplice autogestione. È difficile stabilire una regola generale, pur sapendo che i GAS con personale remunerato sono un’esigua minoranza. Il fatto di avere del personale, o comunque di pagare la mediazione, implica un diverso equilibrio nella distribuzione dei compiti all’interno del GAS. In quelli gestiti completamente in modo volontario il lavoro di mediazione viene in genere eseguito da pochi membri più attivi. Questo, a lungo andare, può anche logorare il GAS, soprattutto quando lo sbilanciamento non viene esplicitato in nessun modo. L’assunzione di un lavoratore può servire a superare tali tensioni. Il commercio

professionale e ancor più la Grande Distribuzione Organizzata hanno esasperato questo aspetto, provocando una netta separazione fra il lavoratore e il consumatore. La GDO ha accentuato anche la distanza fra lavoratori e manager, creando una forte gerarchia interna, cui si affianca la dotazione di mezzi di trasporto ad alta capacità e di ampie superfici di vendita: un sistema che si regge grazie alla disponibilità di grandi masse di capitali o il facile accesso ad essi. Non è un caso che, tradizionalmente, la piccola cooperazione di consumo avesse una elevata sottocapitalizzazione delle proprie società: pochi mezzi, pochi uomini, poca liquidità.

acquista attraverso il gruppo un bene. La sua fonte di reddito, che gli permette di accedere a quel bene, è fuori dall’orizzonte tematico del consumo critico. È possibile che, in taluni GAS più evoluti, quell’iniziale ‘S’ che sta per ‘Solidale’ indichi una compartecipazione reciproca, la presenza di una cassa comune da rimpinguare a seconda delle proprie possibilità. Questo andrebbe verificato sul campo. A intuito, appaiono pochi i GAS con un regime, diremo, ‘comunitario’. L’acquisto collettivo lascia totalmente fuori ogni condivisione del reddito e della sua fonte. Escludendo come fonte la rendita, resta il lavoro, il quale ha una spiccata dimensione individuale. In altri termini, ognuno lo svolge per sé, per una propria remunerazione individualizzata. Il lavoro Il trait d’union consumo-lavoro autonomo, quello del libero professionista ma La storia dei GAS ci racconta, in ultima anaanche del dipendente, procura un beneficio lisi, di un mondo che richiede in misura quasi di proprietà del singolo individuo. Ovviamente esclusiva lavoro volontario. Esiste il lavoro esiste una condivisione familiare del reddito remunerato in moneta, ma appartiene ad un da lavoro che si esercita in genere nei consualtro regime, quello del contratto. Mentre mi. Questa è rigorosamente limitata alle pareti quello volontario viene regolato dal principio familiari. I GAS esercitano una pressione didella reciprocità. Il nodo che ha contrasseretta sulla GDO e una pressione meno diretta gnato tutto il Novecento, ossia il rapporto fra e meno forte sull’organizzazione del lavoro. La capitale e lavoro, viene quasi completamente prima è evidente e forse anche temuta, quindi eluso nell’organizzazione dei GAS. Infatti, an- efficace. Diventa una protesta contro la bassa che il mondo dei fornitori è in genere formato remunerazione dei produttori, i costi parassida coltivatori diretti, cooperative o piccole tari dell’intermediazione, l’invadenza di mezzi imprese con pochi dipendenti. Si tratta, in altri di persuasione all’acquisto ritenuti subdoli. termini, di lavoro autogestito e quasi semIl lavoro resta sullo sfondo, riguarda solo il pre autoremunerato. Dobbiamo dire, inoltre, lavoro dei fornitori; mentre quello dei consuche i GAS più attenti hanno tenuto in forte matori non viene neppure sfiorato. Eppure, considerazione il tema della qualità del lavoro vi sarebbero diversi motivi per farlo. Il primo dei propri fornitori. Una certa propensione a è che appare sempre più una risorsa scarsa, escludere aziende che praticano il lavoro in tanta è la sproporzione fra chi lo domanda e nero, o che sfruttano indebitamente immigrati chi lo offre. I tradizionali lavori nel pubblico o minori, è chiaramente presente nel DNA impiego sono rari e anch’essi sono condiziodei ‘gasisti’. Le simpatie vanno sicuramente nati dalla brevità del contratto. a quei fornitori organizzati in cooperativa che Esistono forme di lavoro collettivo, quello fanno del rispetto dei lavoratori un punto delle cooperative più volte menzionato, e qualificante.Tuttavia, il centro dell’attenzione quello del lavoro associato. Entrambi sono resta pur sempre il prodotto e non il lavoracriticati per diversi aspetti, non ultimo il fatto tore. Nessun ‘gasista’ mette in discussione che si tratta spesso di una condivisione solo il proprio ruolo di percettore di un reddito apparente. In realtà, o le gerarchie interne attraverso un lavoro nel momento in cui sono molto consolidate o il rapporto socio-

dipendente è solo un modo per rendere più flessibile il lavoro (rapporti di sfruttamento mascherati). Vi sono poi delle forme indirette di controllo dei lavoratori sulle aziende, come avviene nel sistema tedesco o in certe grandi organizzazioni (ad esempio, ciò accadeva nella Banca Popolare di Milano). In questo caso, la critica si rivolge alla capacità delle rappresentanze dei lavoratori di garantire il benessere di tutti gli stakeholders dell’impresa, non ultimi i clienti e i cittadini. In conclusione, l’azione dei GAS dà un segnale forte all’intermediazione commerciale, un segnale di media intensità al sistema di produzione (non abbiamo parlato della sostenibilità ambientale) e un segnale molto debole sulla condivisione dei consumi, prima, e della loro fonte, dopo (il lavoro). Esso, assieme all’ambiente, appare una risorsa sempre più scarsa. Una qualche via di condivisione dovrà essere cercata andando oltre le forme storiche di cooperazione. Se il lavoro (di qualità, si intende) è scarso, è probabile lo si debba ridistribuire, abbassando i picchi di remunerazione e di ore-lavoro che conosciamo. Ciò avrebbe un impatto anche sui consumi, anch’essi bisognosi di essere ridistribuiti e ridotti allo stesso tempo. Non dimentichiamo che una maggiore condivisione delle risorse passa anche necessariamente per un loro uso più oculato, in fin dei conti più ridotto. È possibile che a breve assisteremo alla nascita dei GLAS, Gruppi di Lavoro e Acquisto Solidali, aggregazioni spontanee di persone che condividono non solo i principali acquisti, ma anche parte del tempo e alcune mansioni lavorative. Le forme storiche (ad esempio, le cooperative di produzione e lavoro o le stesse cooperative sociali di tipo B) verranno affiancate da gruppi polifunzionali e flessibili, ma soprattutto agganciate ai consumatori. È questo, in fin dei conti, ciò che c’è bisogno: una misura, una consapevolezza di quanto siano fra loro legati i destini dei produttori e dei consumatori. Su tale misura vi è ancora molto da pensare, ma soprattutto molto da fare.

Ciò che contribuisce a stimolare la produttività e riduce la pena e lo sforzo è utile. In altre parole la vera unità di misura non è l’utilità né l’uso, ma la ‘soddisfazione’, cioè la quantità di pena e di piacere provati nella produzione o nel consumo delle cose. Hannah Arendt, ‘Vita Activa’, RCS, Milano 2010, p. 239 (trad. it. di S. Finzi).

29


Guido Nassimbeni

nassimbeni@uniud.it

Il risveglio del gigante Oggi le navi portacontainer che salpano dai porti della Cina sono riempite dalla più grande industria manifatturiera del globo. Nelle stive custodiscono riserve monetarie per diversi trilioni di dollari, accumulate in decenni di avanzi commerciali e utilizzate per concedere credito ai clienti d’oltreoceano. La chiave dello sviluppo economico è stata quella di riaprire le porte della Grande Muraglia ai capitali e alla tecnologia provenienti dall’Occidente, con l’offerta immediata di forza lavoro a basso costo e con la prospettiva futura di un mercato di sbocco senza uguali. Si è così realizzata un’imponente ri-localizzazione della produzione che ha fatto della Cina, oltre che la ‘fabbrica del mondo’, il principale Paese esportatore. Le dimensioni della sua economia sono seconde solo agli Stati Uniti, ma se pensiamo alla sua forza finanziaria, corteggiata da tanti debiti sovrani, e al modo con cui il Beijing Consensus ha gradualmente sostituito quello di Washington in Africa e in altri Paesi, ci accorgiamo di come questo ‘secondo posto’ non racconti appieno il ruolo della Cina. Il gigante si è ripreso perentoriamente la posizione che ricopriva nella storia, spostando dall’Atlantico al Pacifico il baricentro geo-politico del globo. Le contraddizioni Questo prodigioso balzo in avanti ha generato o accentuato molte contraddizioni. Le disparità sociali e territoriali sono enormi. La disoccupazione o la sotto-occupazione sono aumentate, prima come conseguenza del processo di ristrutturazione delle società statali, in seguito per effetto della riconfigurazione di un sistema produttivo che ha dovuto anch’esso trasferire all’estero attività a forte intensità di lavoro. L’inflazione costituisce una preoccupazione, insieme al connesso abnorme sviluppo del settore immobiliare. In un Paese non nuovo alle rivoluzioni, la lievitazione dei prezzi si è dimostrata più volte un fattore di innesco del disagio sociale. Tra le cause dell’inflazione vi è anche l’incremento della domanda interna, che tuttavia non è ancora sufficiente per affrancare la Cina da un modello economico ancora largamente basato sulle esportazioni. Altri problemi rilevanti riguardano il sistema giuridico e quello bancario, l’irrigazione e potabilizzazione idrica, la corruzione. Pro30

babilmente l’emergenza più critica è però quella ambientale: l’inquinamento dell’aria, della terra e dell’acqua, la desertificazione e la deforestazione hanno raggiunto livelli letali. L’apertura della Grande Muraglia ha sovvertito equilibri sedimentati nei secoli. Una crescita sostenibile? La locomotiva cinese corre quindi lungo un crinale impervio, pressato da una parte dalle moltitudini di persone che ancora chiedono di partecipare alla nuova ricchezza, dall’altra dai vincoli di spazio e di risorse. Quanto sostenibile potrà essere questa corsa? Alla corsa, ovvero alla crescita, è legata la stabilità sociale. L’establishment ha saputo finora governare la nuova grande marcia del popolo cinese grazie alla promessa di un benessere generalizzato. È questa promessa che ha mantenuto salda l’attuale inedita combinazione di autoritarismo politico e libero mercato, nonostante i fremiti sociali e la volontà di partecipazione che sono affiorati in questi anni e che non sorprendono in un popolo che ha cominciato a conoscere la libertà di intrapresa e la proprietà privata. Ma sulla crescita incombono dubbi legati alla tenuta dei mercati di sbocco e alla disponibilità di risorse in ingresso. Sulla domanda estera soffiano venti di crisi e il serbatoio mondiale di acciaio, carbone, alluminio, rame, nickel, cereali – per indicare solo alcune delle risorse nelle quali la Cina detiene il primato del consumo – non è illimitato. L’impronta ecologica della Cina non ha eguali. Pressoché tutti questi problemi hanno espressione locale ma rilevanza globale: scavalcata la Grande Muraglia, il peso della pedina cinese ha incrinato lo scacchiere internazionale. E a questo punto l’interrogativo sulla sostenibilità della corsa cinese diventa una questione planetaria. Il progetto di sviluppo C’è un aspetto della crescita cinese sul quale è opportuno riflettere. Se guardiamo alla sequenza di riforme che hanno scandito la trasformazione del Paese, non possiamo non riconoscere le tracce di un disegno lungimirante. Inaugurata nel 1979 la politica delle ‘porte aperte’, lo Stato cinese ha previsto incentivi all’investimento estero, ponendo comunque condizioni di reciprocità per favorire l’industria locale. Ha sviluppato moderne piattaforme logistiche per facilitare i trasporti intercontinentali. Ha creato delle zone economiche speciali per sperimentare la transizione verso il libero mercato. Ha strappato a interlocutori esteri condizioni privilegiate all’ingresso nell’organizzazione per il commercio internazionale. Ha ancorato il tasso di cambio prima al dollaro e poi a un paniere di valute per mantenere competitività nelle esportazioni. Lo Stato cinese ha preparato con rigore lo sviluppo, regolandone velocità e traiettoria attraverso i piani quinquennali. La priorità delle prime decadi è stata quella di non ostacolare la crescita tumultuosa del sistema industriale. Ad essa sono stati sacrificati welfare e ambiente per non indebolire il principale vantaggio localizzativo: il basso costo delle produzioni. Su entrambi questi fronti il pianificatore cinese sta cambiando registro. L’attuale piano configura una Cina meno basata sulla manifattura e sulle esportazioni, e interviene sull’assistenza sanitaria e previdenziale per spostare il risparmio verso il consumo. Recupera forme di tutela ambientale, promuove l’efficienza energetica e potenzia il ricorso alle energie rinnovabili sulle quali la Cina è già il primo investitore al mondo. Inietta ulteriore linfa nel sistema universitario che, grazie anche ad un reticolo di collaborazioni con le più prestigiose istituzioni estere, forma ogni anno centinaia di migliaia di tecnici e scienziati.

© Eugenio Novajra

L’antico primato 8.852 chilometri, 215 avanti Cristo: la lunghezza della Grande Muraglia e la data in cui viene collocato l’inizio della sua edificazione danno un’idea della scala spaziale e temporale necessaria per misurare la Cina. Un gigante geografico e demografico dove si è sviluppata probabilmente la più continua civiltà della storia. Intorno all’anno mille l’alta tecnologia comprendeva la carta e la stampa, la balestra e la polvere da sparo, l’aquilone e la bussola. Innovazioni ben conosciute in Cina e praticamente ignote altrove. Furono i cinesi a raggiungere per la prima volta le coste americane con una flotta composta da almeno cento navi, capolavoro di tecnica ad incastro, di molto più grandi delle caravelle che, qualche decennio più tardi, avrebbero raggiunto l’altra sponda del continente. Quel momento segnava la fase di massima prosperità dell’Impero Celeste: un’epoca di riforme, di aperture commerciali, di straordinarie realizzazioni civili. Accadde poi che la Grande Muraglia, incapace di fermare le invasioni straniere, assistette al declino di un popolo dilaniato da guerre e rivolte interne, e sempre più arroccato sotto i suoi pilastri millenari. Solo verso la fine del XX secolo, in uno di quei cambiamenti repentini che ne hanno caratterizzato la storia, il gigante asiatico decide di ritornare sulle rotte abbandonate tanto tempo prima.

© Eugenio Novajra

Crescita in Cina: misura o dismisura?

La nuova frontiera Pur tra molte ombre, la Cina ha un timone e una rotta. In questa capacità progettuale sta probabilmente la maggiore distanza tra questo Oriente e un Occidente che, con ipocrisia, denuncia l’impronta ecologica del Dragone ma aspetta che il suo mercato possa trainare le proprie economie stagnanti. Se la sostenibilità è un problema planetario, questo Oriente ha maggiore probabilità di trovare una risposta. Dinanzi a un mondo che cerca un modello di sviluppo diverso, non è un azzardo ipotizzare che il Paese che per primo ha inventato la bussola magnetica indichi in futuro le coordinate di un percorso sostenibile. Qui si addensano le contraddizioni della crescita ma anche le più innovative sperimentazioni. Qui si va concentrando la frontiera della ricerca sulle energie rinnovabili. Erede di una civiltà millenaria, il popolo cinese sa di dover consegnare integra al futuro la Grande Muraglia.

Io temo tanto la parola degli uomini. Dicono sempre tutto così chiaro: questo si chiama cane e quello casa, e qui è l’inizio e là è la fine! E mi spaura il modo, lo schernire per gioco, che sappian tutto ciò che fu e che sarà; non c’è montagna che li meravigli; le loro terre e giardini confinano con Dio! Vorrei ammonirli, fermarli; state lontani! A Me piace sentire le cose cantare! Voi le toccate: diventano rigide e mute! Voi mi uccidete le cose! Rainer Maria Rilke, ‘Poesie. 1895-1908’, a cura di G. Baioni, Einaudi-Gallimard, Torino 1994, p. 93 (trad. it. di A.M. Carpi, C. Lievi e G. Cacciapaglia).


Roland Psenner, Elena Ilyashuk e Karin Koinig

roland.psenner@uibk.ac.at elena.ilyashuk@uibk.ac.at karin.koinig@uibk.ac.at

L’ex commilitone era organizzatissimo. Aveva preparato una bilancia che spacciava novecento grammi per un chilo. Con quella bilancia sua mamma andava a vendere di tutto nel Borgo Sant’Antonio Abate. Lì la vecchia batteva la concorrenza imbrogliando sul peso ma abbassando i prezzi: per esempio la carne la metteva a 1600 lire al chilo, in concorrenza coi macellai del posto che la vendevano a 1800.

La misura dell’ambiente: dall’Antropocene all’Olocene

Domenico Starnone, ‘Via Gemito’, Feltrinelli, Milano 2002, p. 87.

Il ‘periodo strumentale’ Nel 2000 il premio Nobel Paul Crutzen cominciò a parlare dell’‘Antropocene’ – concetto coniato nel 1873 dal geologo italiano Antonio Stoppani – per indicare l’epoca in cui il genere umano ha iniziato a influenzare l’ambiente globale attraverso il cambiamento d’uso e lo sfruttamento intensivo del suolo, le deforestazioni, il consumo di combustibili fossili e l’emissione di sostanze chimiche nocive nell’atmosfera. L’inizio dell’Antropocene viene individuato attorno al 1769, anno in cui James Watt brevettò il suo motore a vapore (il primo fu inventato nel 1698, ma era molto meno efficiente). Ciò che sappiamo sui cambiamenti attuali dell’atmosfera si basa sulle analisi delle ‘carote di ghiaccio’, che mostrano la composizione dei gas atmosferici e la distribuzione dell’ossigeno (¹8O) e dell’idrogeno (deuterio) nella pioggia e nella neve. È interessante osservare che in Austria il 1780 fu anche l’anno in cui si effettuarono le prime misurazioni meteorologiche attendibili (il cosiddetto ‘periodo strumentale’); pertanto in relazione a quel periodo disponiamo di osservazioni dirette e continuative sulla temperatura dell’aria, sulla pressione atmosferica, sulle deposizioni atmosferiche e su altre variabili climatiche. Mediante la creazione di una vasta rete di ricercatori e la raccolta delle serie di dati provenienti dalle stazioni meteorologiche della ‘Greater Alpine Region’, siamo ora in grado di ricostruire la temperatura dell’aria nelle Alpi in diversi luoghi e a differenti altitudini. Un esempio di questo tipo di ricostruzione si può osservare nella figura 1. Viene rappresentata la temperatura media dell’aria nel mese di luglio dal 1780 al 2010 presso lo Schwarzsee ob Sölden, un lago alpino della valle di Ötz, situato a 2796 metri sul livello del mare a pochi chilometri dal sito in cui fu trovato, nel 1991, Ötzi, ‘l’uomo venuto dal ghiaccio’. Dal 1780 fino agli inizi del XX secolo le temperature nel mese di luglio oscillarono in media tra i 3° e i 5°C, raggiungendo livelli minimi tra il 1910 e il 1920. Sono poi rimaste stabili intorno ai 4°C o poco più e, successivamente, hanno ripreso a salire rapidamente dopo il 1980. Ora la temperatura media dell’aria nel mese di luglio si aggira attorno ai 6°C, ovvero è di 3°C superiore a cento anni fa e di 2°C più elevata rispetto alla media di tutto il periodo precedente. Spazio e tempo La maggior parte dei nostri modelli climatici, delle nostre previsioni e delle ipotesi sugli scenari futuri si basano (o sono sottoposti

a verifica) su serie di dati che risalgono fino al 1850 circa, ovvero il lasso di tempo in relazione al quale possediamo misurazioni meteorologiche globali attendibili. Se si vuole sapere com’era la situazione nelle epoche precedenti, ad esempio a partire dall’arrivo dell’uomo sulle Alpi dopo la fine dell’ultima glaciazione, si deve ricorrere ai cosiddetti proxy, cioè indicatori che attraverso variabili indirette tentano di misurare le condizioni ambientali passate. Le carote di ghiaccio provenienti dalla Groenlandia e dall’Antartide forniscono prove sulla temperatura dell’aria e sulla composizione dell’atmosfera fino a circa 850.000 anni fa, ma per quanto riguarda l’Europa e, più in particolare le Alpi, ci si deve affidare a ricostruzioni basate sugli anelli degli alberi, sugli speleotemi (stalagmiti-stalattiti), sulle analisi dei pollini o sui sedimenti dei laghi. Tutti questi indicatori – al di là dei possibili errori – possiedono vantaggi e svantaggi; infatti non segnalano solamente le temperature ma anche situazioni specifiche (umido-secco), le stagioni (primavera, estate, autunno) o l’azione dell’uomo (pascoli, agricoltura). Mentre noi abbiamo a disposizione un buon numero di indicatori per le aree meno elevate, è molto più difficile trovare habitat e indicatori adatti per le zone più in quota, dove l’influenza della temperatura sugli organismi e sul funzionamento degli ecosistemi è ancora maggiore. L’unico modo per ricostruire le temperature di ambienti molto elevati consiste nello studio dei carotaggi dei sedimenti provenienti da laghi che si trovano ad una altitudine al di sopra del limite della vegetazione arborea. Schwarzsee ob Sölden ne è un esempio: infatti attualmente, è il lago più elevato (2.796 m) del quale si sono analizzati i sedimenti per ricostruire le condizioni ambientali delle Alpi nel passato. Per ottenere tali risultati è stata recuperata una carota di sedimento integra lunga 159 cm tale da coprire l’intera storia del lago, più di 10.000 anni. La carota è stata poi tagliata in strati di 1 centimetro di spessore, che sono stati sottoposti ad analisi in base a numerosi parametri di tipo fisico, chimico e biologico. Il nodo cruciale, tuttavia, è la datazione del sedimento. Ciò implica infatti che è essenziale conoscere l’età di ciascuno dei 159 campioni: in altre parole, è necessario un modello spaziotemporale dei diversi strati di sedimento. L’approccio metodologico usato consiste nella misurazione del contenuto di radiocarbonio (14C) all’interno del materiale organico che si trova nel sedimento: foglie, frammenti di legno, aghi di pino, ecc. Poiché il radio-

carbonio ha un tempo di dimezzamento di circa 5.730 anni, non è adatto per datare l’Antropocene. Perciò è necessario utilizzare un altro sistema per la datazione del passato recente, e cioè il tempo di decadimento del piombo 210 (210Pb), che ha un tempo di dimezzamento di 22,3 anni. Il piombo 210, un prodotto del decadimento del radon (226Ra) emesso dalle rocce, viene depositato dall’atmosfera ad un tasso abbastanza regolare. Di conseguenza, più lo strato di sedimento è antico, più basso è il contenuto di piombo 210 depositato dall’atmosfera. Ovviamente, dopo circa 6-8 tempi di dimezzamento (100150 anni), questo sistema di misurazione non è più attendibile e diventa necessario colmare la lacuna tra la datazione con il piombo 210 e con il radiocarbonio (figura 2) mediante l’utilizzo di modelli. Indicatori di tipo antropogenico (l’inizio dei test atomici nell’atmosfera nel 1960 circa; Cernobyl, 1986) e naturale (strati di tefrite provenienti da eruzioni vulcaniche di cui si conosce l’epoca) possono aiutare a definire meglio la datazione. Alla fine è possibile datare (entro certi limiti) ogni strato di sedimento, dalle parti più in profondità (>10.000 anni) a quelle più in superficie, dove i centimetri che si trovano più in alto rappresentano approssimativamente gli ultimi cinque anni. Indicatori di cambiamento Concentriamoci ora su una singola famiglia di moscerini che non pungono, i chironomidi (Diptera: Chironomidae), molto diffusi nel mondo. Di questa vasta famiglia fanno parte oltre 1.200 diverse specie solo in Europa. I chironomidi sono insetti olometaboli, cioè attraversano quattro diversi stadi (uovo, larva, pupa e imago). Le larve e le pupe vivono in quasi tutti gli ambienti acquatici, ma sono molto più comuni nei laghi. Dal momento che molte specie di chironomidi possiedono requisiti ecologici peculiari legati, ad esempio, allo status dei nutrienti o alla disponibilità di ossigeno, vengono utilizzati da molto tempo come indicatori biologici della qualità dell’acqua. Recentemente i paleoclimatologi hanno dimostrato un interesse crescente per i chironomidi. La fecondità, la crescita e lo sviluppo di questi insetti dipendono infatti dalla temperatura e molte specie di questi insetti si trovano solo in laghi che presentano una determinata escursione termica. La temperatura non solo influenza direttamente i processi fisiologici e biochimici dei chironomidi, ma modifica anche indirettamente una serie di variabili limnologiche, come ad esempio lo status dei nutrienti o la concentrazione di os-

sigeno nelle acque profonde, condizioni che a loro volta influiscono sulla sopravvivenza e sulla riproduzione del biota acquatico. Le capsule craniali fortemente sclerotizzate delle larve di chironomidi vissute in un lago si accumulano nei sedimenti e si conservano inalterate per migliaia di anni. Pertanto le analisi paleoecologiche dei depositi di chironomidi fossili nei carotaggi dei sedimenti lacustri possono essere utilizzate per ricostruire i cambiamenti passati nella fauna di questi insetti e, indirettamente, per fornire stime quantitative sulle temperature del passato. Sin dai primi anni ’90 del secolo scorso studi condotti in diverse regioni dell’emisfero settentrionale hanno mostrato forti correlazioni statistiche tra i depositi di chironomidi nei laghi d’acqua dolce, da un lato, e le temperature estive dell’aria e dell’acqua dall’altro. Modelli numerici d’inferenza (detti anche ‘funzioni di conversione’) basati sui chironomidi si rifanno a gruppi di dati sulla taratura della temperatura, che descrivono la distribuzione e la diffusione delle unità sistematiche (taxa) di questi insetti nei campioni di sedimenti superficiali provenienti da numerosi laghi siti a differenti latitudini e altitudini. Questi modelli d’inferenza permettono la stima delle temperature estive dell’aria e dell’acqua con un errore di predizione che solitamente si aggira tra 1-2 °C. La ricostruzione quantitativa delle paleotemperature attraverso l’utilizzo dei chironomidi è diventata uno strumento prezioso per comprovare le grandi e piccole oscillazioni climatiche avvenute durante l’ultima Era glaciale e l’Olocene. L’ambiente che cambia La figura 3 presenta una ricostruzione, attraverso lo studio dei chironomidi, delle temperature medie dell’aria in luglio durante l’Olocene a Schwarzsee ob Sölden. L’evento climatico più significativo presso il lago fu il picco termico durante il primo Olocene, con temperature dell’aria in luglio fino a circa 4,5 °C superiori rispetto ad oggi. La ricostruzione inoltre ha rilevato il cosiddetto ‘evento di 8.2 ka’, verificatosi circa tra 8250-8000 cal BP, con temperature intorno a 3°C al disotto del picco termico del primo Olocene. Questo evento venne innescato dal riversamento nell’Oceano Atlantico dell’enorme massa di acque del lago Agassiz, nel Nord America, quando l’ultima barriera di ghiaccio che lo delimitava si sciolse circa intorno a 8.200 cal BP. Tale fenomeno causò un indebolimento della Corrente del Golfo con conseguenze osservabili in tutto l’emisfero settentrionale. Durante gli anni 7900-4500 cal BP prevalse-

ro condizioni climatiche piuttosto calde. Dal 4500 circa fino al 2500 circa è evidente una chiara tendenza al raffreddamento. In seguito, nel sito oggetto di studio si raggiunsero le temperature più rigide (intorno ai 4°C o al di sotto) per tutto il resto dell’Olocene, fatta eccezione per una tendenza all’innalzamento alla fine del XX secolo. Il riscaldamento climatico senza l’uomo La figura 3 suggerisce che il riscaldamento climatico, con temperature più elevate di quelle osservate negli ultimi dieci anni, potrebbe essere un fenomeno naturale, a sostegno delle teorie di alcuni ‘scettici’ del riscaldamento globale che vorrebbero escludere gli effetti dell’anidride carbonica come gas serra. Tuttavia, il fenomeno di riscaldamento durante il primo Olocene avvenne in modo più lento rispetto a quello odierno e non è comparabile alla situazione attuale. Allora, ad esempio, il livello del mare era più basso di oltre 50 m rispetto a quello odierno; i venti e gli andamenti meteorologici erano quindi molto diversi da quelli che osserviamo oggi. Sappiamo per certo che quando i primi coloni arrivarono sulle Alpi i ghiacciai erano ben più piccoli di oggi e molti erano scomparsi completamente; pertanto le loro migrazioni dai versanti sud a quelli nord delle Alpi furono assai più facili che nel XIX e XX secolo. È interessante osservare che, durante l’epoca di Ötzi (che morì circa 5.300 anni fa), la specie di chironomide amante del freddo del tipo Pseudodiamesa nivosa riapparve nei sedimenti dopo un’assenza di 3.000 anni. Si può perciò sostenere che il clima delle Alpi sia stato piuttosto freddo a partire da circa 4.500 anni fa, un periodo che coincide con il prosciugamento della zona del Sahel. Quindi l’innalzamento delle temperature degli ultimi trent’anni non è eccezionale, considerando soltanto il livello dell’innalzamento ma è un fenomeno che sta accadendo in maniera più veloce di quanto osservato in precedenza, ed è stato causato, al di là di alcune oscillazioni naturali, dall’azione dell’uomo. Pertanto, anche se le cause di fondo e le forze direttrici dell’attuale fenomeno di riscaldamento climatico sono diverse rispetto a quelle di 10.000 anni fa, una conoscenza più profonda delle condizioni ambientali della prima metà dell’Olocene potrà aiutarci a comprendere ciò che accadrà nel futuro dell’Antropocene.

[Traduzione di Nicola Viglino]

Figura 1. Temperatura dell’aria nel mese di luglio presso lo Schwarzsee ob Sölden (2.796 m) dal 1780 al 2010. Valori annuali (linea punteggiata), media corrente (linea sottile nera) e valori trasformati linearmente (curva rossa). Dati forniti da Reinhard Böhm, ZAMG, Vienna.

Microspectra radialis-type

Pseudodiamesa nivosa-type

Figura 2. Modello per la datazione degli strati di sedimento. La datazione è basata sul tasso di decadimento del piombo 210 per gli ultimi 200 anni e del radiocarbonio (14C) per gli ultimi 10.000 anni, supportati da marker addizionali derivanti, ad esempio, dall’incidente di Cernobyl e dai test delle bombe atomiche in atmosfera. Figura 3. Ricostruzione della temperatura dell’aria in luglio presso lo Schwarzsee ob Sölden (2.796 m), basata sulla distribuzione di capsule craniali di chironomidi. In basso è presentata la percentuale delle due specie dominanti, del tipo Micropsectra radialis e Pseudodiamesa nivosa.

31


© Ulderica Da Pozzo

Ci fu bisogno di duecento sarte per farmi le camicie e la biancheria da letto e da tavola, con la stoffa più resistente e rozza che riuscirono a trovare; dovettero cucirne insieme diversi strati, poiché anche la più pesante era sottile come la nostra tela batista. Le loro pezze sono alte otto centimetri e lunghe circa un metro. Le sarte mi presero le misure in questo modo: mentre stavo sdraiato per terra, una mi salì sul collo, un’altra a metà gamba, ciascuna tenendo il capo d’una robusta corda tesa, e una terza misurò la lunghezza con un righello che non arrivava a tre centimetri. Poi misurarono il pollice della mia mano destra, e non ebbero più bisogno di nulla, perché in base ai loro calcoli la circonferenza del pollice è metà di quella del polso, e così si ottiene anche la misura del collo e del torace. Jonathan Swift, ‘I viaggi di Gulliver’, Mondadori, Milano 2003, p. 61 (trad. it. di C. Formichi).

32


Massimo Rossi

massimo.rossi@fbsr.it

I can calculate the motion of the heavenly bodies, but not the madness of people (‘Posso misurare il moto dei corpi celesti, non l’umana follia’).

La misura dei luoghi Il Mappamondo di fra’ Mauro, metà del XV sec., Venezia, Biblioteca Nazionale Marciana: il tassello mostra un particolare ingrandito.

Michel de Certeau vent’anni fa ci ricordava che in Atene i trasporti pubblici si chiamano metaphorai; quindi per andare a casa o al lavoro si prende una metafora. Anche le cartografie potrebbero adottare questo nome, perché sono figure retoriche, persuasive, una narrazione sociale per immagini e, come l’etimo di metaphora, trasportano, attraversano, congiungono luoghi. Ogni carta è un viaggio, una rappresentazione, una modalità di accesso agli oggetti naturali e artificiali del mondo. Per secoli vi è stata una doppia e coesistente modalità di descrivere i luoghi, sostanzialmente attraverso due diversi punti di vista: l’‘icnografico’ e lo ‘scenografico’. Il primo è lo sguardo dall’alto, quello della divinità che dal cielo guarda la Terra attraverso le nuvole, ben esemplificato dal Typus orbis terrarum del geografo di Anversa Abramo Ortelio, pubblicato nel primo atlante corografico europeo (Theatrum orbis terrarum, Anversa 1570). Il secondo è un punto di vista umano, orizzontale, piano-prospettico e rimanda alla rappresentazione teatrale, alla visione frontale e coinvolta da parte dello spettatore, una modalità che ha fatto a lungo parte della descrizione cartografica dei luoghi, perché derivante dalla loro frequentazione diretta o simbolica. La summa delle conoscenze geo-umanistiche medievali può essere rappresentata dal mappamondo del monaco camaldolese fra’ Mauro, che unì sincreticamente i due sguardi geografici, l’icnografico e lo scenografico, realizzando a metà del XV secolo il grande planisfero che porta il suo nome: esso mostrava l’orbe terracqueo nella sua interezza e, al contempo, dettagliava i luoghi con centinaia di vignette prospettiche e li narrava in altrettante centinaia di cartigli. Sempre a titolo esemplificativo, possiamo evocare almeno altri due straordinari fenomeni editoriali che contribuirono enormemente alla formazione dell’immaginario collettivo europeo in rapporto ai luoghi. Vale a dire, il Liber Chronicarum del medico umanista Hartmann Schedel, stampato a Norimberga da Anton Koberger nel 1493 con circa ottanta riproduzioni scenografiche di insiemi urbani, simbolici o verosimili; e le Civitates orbis terrarum di Georg Braun e Frans Hogenberg, edite a partire dal 1572, che rappresentarono la continuazione, in scala di dettaglio, dell’operazione umanistica orteliana codificando in una sorta di canone l’immagine della città. Gli oggetti sono stati dunque a lungo rappresentati sia planimetricamente, sia prospetticamente nella medesima cartografia, comprendendo nell’unità documentale anche il racconto di quanto raffigurato con un testo sul verso del disegno, oppure in una memoria allegata o ancora in cartigli, legende, riquadri. Questa modalità grafico-testuale di restituire i luoghi includeva la categoria del tempo, mitico o quotidiano, a seconda che si trattasse dell’illustrazione di luoghi biblici, fantastici, oppure di città o interi territori con le proprie storie fondative, usi e costumi, o ancora per affrontare problematiche particolari di gestione territoriale amministrativa, militare, idraulica, ecc. Tra la seconda metà del XVIII secolo e il primo decennio del XIX il pensiero dell’età dei Lumi influenzò la riforma della cartografia, vista ora in termini prettamente scientifici e da intendersi come ritratto fedele dei luoghi reali. Nel giugno del 1792 gli astronomi Jean-Baptiste-Joseph Delambre e Pierre-François-André Méchain partirono da Parigi con il compito

di misurare l’arco di meridiano compreso tra Dunkerque e Barcellona: l’intento era di fissare una nuova unità di misura, il metro, applicando concretamente il principio rivoluzionario dell’uguaglianza per consegnare all’umanità un sistema universale e naturale di determinazione della grandezza, ricavato dalla Terra stessa. Nella voce ‘Carte’ dell’Encyclopédie di Diderot e D’Alembert, pubblicata nel primo tomo del 1751, si avverte l’illuministica fiducia nella scienza con la quale l’estensore del testo chiarisce e puntualizza le procedure necessarie alla costruzione di «une bonne carte», resa alfine «parfaite» se conformata geodeticamente alle coordinate geografiche. Ma il radicale processo di revisione della topografia raggiunse il culmine nel 1802 con l’iniziativa del Dépôt de la Guerre di Parigi, massimo riferimento istituzionale per i vari uffici cartografici sparsi nell’Europa controllata dalle armate francesi, presso il quale operavano i tecnici savantes, tra cui gli ingegneri geografi. Dal 15 settembre al 15 novembre del 1802, il generale Nicolas-Antoine Sanson, direttore del Dépôt, riunì nella sede di Parigi una Commission di ventuno esperti per codificare e rifondare la scienza topografica, in piena sintonia con lo spirito illuminista e rivoluzionario, esprimendo una forte volontà politica orientata a «radunare le menti ai frutti della Ri-

voluzione francese per un’universale fede nel progresso dello spirito umano e per costruire uno schema normativo della natura». Le decisioni derivate dai lavori della commissione furono pubblicate sull’organo del Dépôt, il «Mémorial topographique et militaire» (V tomo, 1803) e riguardarono la riduzione delle carte a scale predeterminate, l’uniformazione dei segni convenzionali, l’adozione del sistema metrico decimale e delle curve di livello, e la sparizione di qualsiasi altro tipo di rappresentazione diversa da quella planimetrica. La cartografia, nelle parole di Louis-Albert Guislaine Bacler D’Albe, autorevole membro della commissione, diveniva «un’arte d’imitazione, un nuovo genere di pittura geometrica». Dunque i luoghi dovevano essere codificati, misurati e saldamente imbrigliati all’interno del reticolo geografico. Ci sembra pertinente, a questo punto, evocare Martin Heidegger a proposito del rapporto tra luogo e spazio, categorie emblematiche anche per la cartografia. Nella conferenza Tempo e essere del 1962 il filosofo tedesco precisava: «Non si dà tempo senza l’uomo»; e in Costruire abitare pensare affermava: «Non ci sono uomini e inoltre spazio». Per il filosofo tedesco lo spazio non contiene luoghi e dunque nemmeno uomini; al contrario, lo spazio può esistere solo se inteso come estensione, intervallo misurabile tra i luoghi.

Proseguendo nel ragionamento e applicandolo alla redazione cartografica, possiamo argomentare che quando il luogo diventa spazio, quando la carta finisce per esprimere graficamente solo lo spazio, allora essa si smaterializza e perde vita. Ancora, nel 1801, nella Descrizione militare che accompagna una sezione della Kriegskarte del Ducato di Venezia, il topografo austriaco primo tenente Birnstiel precisava: «Il Bosco di Montello ha otto ore di estensione». A seguito dei lavori della Commission francese, i manuali per i topografi codificheranno le nuove modalità per trascrivere gli oggetti del mondo sulle carte con specifiche norme operative; ad esempio, nelle Istruzioni (1811) per i geometri censuari che dovevano redigere le mappe catastali, al capitolo 38 si legge: «Nelle mappe tanto delle città che dei villaggi il geometra ometterà di delineare le parti dell’interna architettura dei palazzi, delle chiese, dei teatri, ed altri edifici»; e nella Raccolta metodica delle leggi, decreti […] concernenti il catasto della Francia (1831), adottato in vari Stati preunitari italiani, troviamo: «Il geometra non è obbligato a levare, o disegnare nella sua pianta i dettagli dei archi e giardini circondati da siepi, muri o fossi». Dopo essere stati fedelmente ritratti nelle carte pregeodetiche, Ancien Régime, i ‘dettagli’ iniziano ad essere sistematicamente sostituiti da simboli, i luoghi perdono i loro

Sull’Atlantico un minimo barometrico avanzava in direzione orientale incontro a un massimo incombente sulla Russia, e non mostrava per il momento alcuna tendenza a schivarlo spostandosi verso nord. Le isoterme e le isòtere si comportavano a dovere. La temperatura dell’aria era in rapporto normale con la temperatura media annua, con la temperatura del mese più caldo come con quella del mese più freddo, e con l’oscillazione mensile aperiodica. Il sorgere e il tramontare del sole e della luna, le fasi della luna, di Venere, dell’anello di Saturno e molti altri importanti fenomeni si succedevano conforme alle previsioni degli annuari astronomici. Il vapore acqueo nell’aria aveva la tensione massima, e l’umidità atmosferica era scarsa. Insomma, con una frase che quantunque un po’ antiquata riassume benissimo i fatti: era una bella giornata d’agosto dell’anno 1913.

Isaac Newton (attribuito a), «The Church of England Quarterly Review», XXVII (1850), p. 142.

legami temporali e non vengono più narrati, il topografo cede la responsabilità del rilievo prima all’Istituzione militare e poi a quella civile, e gradualmente il colore lascia il posto al bianco e nero. I luoghi subiscono un processo di geometrizzazione e, già da trent’anni, le Carte Tecniche Regionali non fanno altro che stenografare e ‘balbettare’ la presenza degli oggetti geografici all’interno di uno spazio ormai totalmente geometrico, procedendo in piena sintonia con la mutata percezione collettiva nei confronti del territorio raffigurato. Ma, per definizione, i luoghi non sono riducibili a spazio, pena la loro irrimediabile scomparsa, come ci ricordava Heidegger. In Voglia di comunità il sociologo Zygmunt Baumann lega il concetto di luogo a quello di comunità dimostrandone la mutua interdipendenza. La perdita di identità dei luoghi è direttamente conseguente al loro processo di smaterializzazione ben visibile nel documento cartografico, in quanto ‘esito grafico’ del pensiero sociale collettivo in rapporto al territorio. I luoghi generati dalle comunità nel tempo non sono più visibili nelle carte attuali perché queste non sono più in grado di restituire una lettura complessa dei legami storici territoriali; e ancor meno lo sono le ortofotocarte realizzate a intervalli sempre più brevi per cogliere le trasformazioni in tempo reale: una sorta di instant movie, un eterno presente, per tentare di realizzare il paradosso del mondo in scala 1:1 evocato dal celebre racconto di Jorge Luis Borges. Il tempo è uscito dalle carte e con esso la presenza umana: «Non si vive in uno spazio neutro e bianco; non si vive, non si muore, non si ama in un rettangolo di un foglio di carta», ci ricordava Michel Foucault. Per ritrovare la dimensione temporale occorre riconnettere la cartografia dello spazio, disumanizzante, alla percezione sociale dei luoghi e riannodare i punti di vista icnografico e scenografico. Occorre studiare le carte storiche perché conservano la memoria delle nostre cognizioni territoriali precedenti, ed è necessario che il topografo, colui che disegna i luoghi, torni ad essere il ‘biografo dei territori’, il loro narratore insider. Abbiamo ancora bisogno, infatti, di comprendere i segni del mondo, magari esercitando l’unica geografia possibile, quella dei punti di vista, dei luoghi intesi come soggetti culturali irriducibili a qualsiasi forma di globalizzazione e geometrizzazione perché esito di una inesausta dinamica storica e sociale.

Letture consigliate K. Alder, La misura di tutte le cose, Rizzoli, Milano 2002. Z. Baumann, Voglia di comunità, Laterza, Roma-Bari 2001. M. de Certeau, L’invenzione del quotidiano, Edizioni Lavoro, Roma 2001. P. Falchetta, Fra Mauro’s world map, with a commentary and translations of the inscriptions, Brepols, Turnhout 2006. F. Farinelli, Il globo, la mappa, le metafore, Relazione al seminario presso la Scuola Superiore di Studi umanistici dell’Università di Bologna, «Golem l’indispensabile», 6, giugno 2002. M. Foucault, Utopie. Eterotopie, Cronopio, Napoli 2006. A. Magnaghi, Il progetto locale. Verso la coscienza di luogo, Bollati Boringhieri, Torino 2010. M. Rossi, L’officina della Kriegskarte. Cartografie degli Stati veneti dalle campagne d’Italia al trattato di Presburgo (1796-1805), Fondazione Benetton Studi Ricerche/Grafiche V. Bernardi, Pieve di Soligo 2007.

Stanco dell’infinitamente piccolo e dell’infinitamente grande, lo scienziato si dedicò all’infinitamente medio. Ennio Flaiano, ‘Diario notturno’, Adelphi, Milano 1994, p. 136.

Robert Musil, ‘L’uomo senza qualità’, Einaudi, Torino 1972, p. 5 (trad. it. di A. Rho). 33


furio.honsell@uniud.it

L’inafferrabile ‘pi greco’ Innanzitutto sgomberiamo il campo da un pregiudizio frequente: ciò che è misurabile è comprensibile, mentre l’incommensurabile è inafferrabile. Pregiudizio che sembra risalire ai pitagorici e all’orrore con cui accolsero la scoperta che la diagonale di un quadrato non è commensurabile al lato. Si narra che fosse addirittura la morte la pena per chi avesse svelato la dimostrazione che √2 non è un numero esprimibile con una frazione. L’irrazionalità numerico distruggeva irreparabilmente l’illusione che il mondo fosse retto da un’armonia razionale. La commensurabilità, ossia la proprietà che due quantità siano multiplo intero di una stessa unità di misura, sembra concetto elementarissimo. Ad esempio, due bastoni di lunghezza, rispettivamente, 1/4 e 1/503 di una qualche unità sono tra loro commensurabili perché entrambi sono lunghi un multiplo intero di un bastoncino di lunghezza 1/2012. A guardare più a fondo la cosa, invece, la commensurabilità è un concetto di complessità illimitata. Un punto segnato su un bastone può condensare l’informazione di tutte le biblioteche del mondo e molto di più, pur dividendo il bastone in due segmenti tra loro commensurabili. Basta che il minimo comune multiplo delle misure dei due pezzi del bastone sia un numero sufficientemente grande. Che un numero possa codificare qualsiasi informazione, compresa quella espressa a parole, penso sia ovvio per tutti, essendo proprio ciò che ha reso possibile quella ‘rivoluzione digitale’ che oggi non ci dà scampo. La diagonale del quadrato è invece solo apparentemente diabolica! La sequenza di cifre decimali della sua rappresentazione numerica non si ripete, d’accordo, ma da un punto di vista geometrico è assolutamente addomesticabile. Platone stesso, nel Menone (82b86c), dovendo scegliere un problema da far risolvere a uno schiavo umile e ignorante per stupire gli astanti con la sua capacità maieutica nel risvegliarne la memoria, gli pone un problema che coinvolge, guarda caso, proprio la diagonale. ‘Come costruire un quadrato di area doppia di quella di un quadrato dato?’ E rapidissimamente lo schiavo, sapientemente guidato da Socrate, costruisce un siffatto quadrato scegliendo come lato del nuovo quadrato proprio la diagonale di quello di partenza. Nulla di più semplice! Vi chiederete, incidentalmente, perché mai i greci, come del resto anche gli antichi indiani vedici, lontani migliaia di chilometri, avessero queste esigenze di duplicare con esattezza quadrati e cubi? La risposta sta nella comune origine rituale della matematica. Affinché un sacrificio sia efficace, il simulacro deve essere esattamente analogo in tutte le proporzioni a ciò che rappresenta. Arriviamo dunque a π liberi da pregiudizi. È naturale concepire π geometricamente, ovvero esteticamente, ma ancor oggi, per tanti aspetti, π è sfuggente da afferrare numericamente. π è la lunghezza della circonferenza, che è il perimetro (da cui la lettera π) di un cerchio di diametro 1. È anche l’area di un cerchio di raggio 1. Ed è la superficie di una sfera di diametro 1 (fu Archimede il primo a dimostrare che si può scegliere come π una qualsiasi di queste definizioni, seppur così diverse tra loro, e ottenere sempre la stessa quantità). Ma la semplicità di π emerge anche in geometrie più ardite. Dante Alighieri, convinto assertore della sfericità della Terra, volle immaginare di forma ipersferica anche la cosmologia della sua Commedia. La concepì come la superficie di una 3-sfera, ossia lo spazio tridimensionale ottenuto incollando lungo la superficie esterna due sfere tridimensionali: quella che ha la Terra al centro, avvolta dai nove cieli attraverso i quali Beatrice accompagna Dante; e quella che ha il «punto fisso che li tiene all’ubi» (Par. XXVIII, 95) al centro ed è circondata dai nove cori angelici, illustrata a Dante da Bernardo. Le due sfere sono ‘incollate’ tra loro lungo la superficie esterna, che è comune a ciascuna di esse e che Dante chiamò ‘Empireo’. Ovviamente l’opera34

zione di ‘incollamento’ si può fare solo nella quarta dimensione. Ma anche se l’occhio della mente fa un po’ fatica ad immaginare il ‘multiverso’ dantesco con naturalezza, il buon π ci permette di esprimerne facilmente il volume che è 2π2. In verità, il matematico russo Grigori Perelman ha recentemente dimostrato che l’universo dantesco non sarebbe potuto essere diverso non avendo ‘buchi’. π compare naturalmente in tante situazioni inaspettate. Ne citerò una per tutte. Il conte Buffon, nel XVIII secolo, calcolò π dalla frequenza con la quale uno stuzzicadenti, cadendo a caso sul pavimento, incrociava la linea di separazione tra due tessere del parquet nel suo studio. Cosa vi è di più semplice o di più prosaico? Basta un po’ di maleducazione nello sbarazzarsi di uno stuzzicadenti per definire π! Salomone, in questo caso forse più sbrigativo che saggio (ma certe volte anche questa è saggezza), usò come valore di π il numero 3 (1 Re 7, 23). I babilonesi utilizzavano un’approssimazione razionale per π data dalla frazione 25/8 (a me, da bambino, insegnarono 22/7, che è un’approssimazione migliore). Archimede capì che π era difficile da cogliere con esattezza ed escogitò il metodo di racchiudere il cerchio tra poligoni regolari inscritti e circoscritti, con numeri di lati via via crescenti. Si stufò nel ripetere l’operazione quando giunse a concludere che il valore di π è compreso tra 3 + 10/71 e 3 + 10/70. Nel 480 Zu Chongzhi trovò un’approssimazione razionale di π sorprendente: 355/113. Bel colpo! Fornisce ben 6 cifre decimali corrette ed è memonicamente accattivante: 113355! Ma fu il matematico indiano Ma¯ dhava di Sañgama¯ grama che, mille anni dopo, comprese come fosse possibile esprimere molto naturalmente π come somma limite di una serie infinita: 1 - 1/3 + 1/5 - 1/7 +… (immagino che abbiate capito come proseguire). E questa fu la prima di tantissime e regolarissime sequenze infinite e relazioni notevoli che si dimostra π soddisfi, senza che ci si debba sporcare le mani con le sue cifre. Si deve al proverbiale ottimismo di Gottfried Wilhelm Leibniz, nel Seicento, l’aver scoperto un gran numero di queste formule, alcune delle quali permettono efficienti procedure per il calcolo delle cifre decimali di π. Nel XII secolo Maimonide fu il primo a convincersi che π non è un numero razionale, ovvero che la sequenza delle sue cifre decimali non si ripete mai. Ma solamente nel 1761 Johann Heinrich Lambert riuscì a dare una dimostrazione di questo fatto. Quasi un secolo dopo, Ferdinand von Lindemann si spinse oltre dimostrando che π è un numero ancora più sfuggente, ovvero è trascendente, non essendo nemmeno soluzione di un’equazione algebrica a coefficienti interi. Sulla sequenza delle cifre decimali di π sappiamo ancora pochissimo, anche se ne conosciamo a tutt’oggi ben 5 miliardi. Per affermare che π è davvero diabolico si dovrebbe dimostrare che non vi è nessuna regolarità nel susseguirsi delle sue cifre, che queste sono casuali. Un primo passo consisterebbe nel dimostrare che non ve ne sono alcune che ricorrono più frequentemente di altre. Ebbene qui non sappiamo ancora nulla. La congettura è che π sia un numero cosiddetto normale, ossia che nella sua coda decimale tutti i numeri interi occorrono con la giusta frequenza, ovvero un decimo per i numeri di una cifra, un centesimo per quelli di due cifre, e così via. In attesa che qualcuno riesca nell’impresa di dare una dimostrazione di questo fatto, non ci rimane che pensare alle cifre di π come ci suggerisce con straordinaria efficacia la poetessa polacca Wisława Szymborska, premio Nobel nel 1996. Nella sua poesia Pi greco, per l’appunto, legge nelle cifre decimali una sciarada di numeri: […] due tre quindici trecento diciannove il mio numero di telefono il tuo numero di camicia l’anno mille novecento settanta tre sesto piano numero di abitanti sessanta cinque centesimi giro dei fianchi due dita […]

Ho cercato di capire se davvero compaiono questi numeri tra le cifre decimali di π. Ebbene, nel primo milione di cifre di π, ci sono davvero, e precisamente nella sequenza della poesia, ancorché non tutti di seguito. Giunti qui, piuttosto delle cifre di π, vale la pena di inseguire i numerosissimi luoghi matematici nella poesia della Szymborska. La poesia Pi greco è apparsa nella raccolta Grande Numero (2006) che è pure il titolo di un’altra poesia che inizia così: Quattro miliardi di uomini su questa terra ma la mia immaginazione è uguale a prima. Se la cava male con i grandi numeri. Continua a commuoverla la singolarità.

© Ralph Eugene Meatyard, ‘In prospettiva’, Art&, Udine 1995, p. 25.

Furio Honsell

«Hai un’ombra, il tuo corpo sembra avere peso, sei viva in questa terra di morti, da dove vieni e chi ti ha portata qui?», le domandai, arreso. E, alla domanda, l’indulgenza e la compassione segnarono il suo volto di un sorriso che mi avvolse. «Vengo da una distanza che non si può commensurare. L’esponente si accartoccerebbe sotto il peso del numero espresso e poiché la tua mente è piccola e la distanza è grande non pensarla mai, dovresti farti così vasto da scomparire se la pensassi». Il cielo era sotto di noi quando me lo disse. «Egli si sentì svanire». Pierluigi Cappello, ‘Mandate a dire all’imperatore’, Crocetti, Milano 2010, p. 74.

Nel suo Contributo alla statistica, dalla raccolta Attimo (2004), dirà: Su cento persone […] degni di compassione - novantanove; mortali - cento su cento. Numero al momento invariato.

E veniamo, infine, a quanti problemi ci ha procurato la natura numericamente irripetibile di π. Non mi riferisco qui al rompicapo-luogo comune, ovvero alla ‘quadratura del cerchio’, che da Euclide fino a Lindemann ha sempre sedotto matematici e non. Ed è stato pure causa di grande vergogna per la filosofia, vista l’insistenza con la quale il grande filosofo Thomas Hobbes si ostinò nell’affermare di esservi riuscito, finendo invece solamente per litigare a morte con un vero matematico, John Wallis, e per dimostrare che è più facile scoprire gli errori in matematica che in filosofia (e credo che non ci dispiacerebbe, però, dimostrare che avesse torto anche in quel campo, viste le sue tesi). π è complice di uno dei più grandi grattacapi dell’umanità, che non è solamente questione accademica, ma assolutamente pratica, ovvero il problema dello ‘spiaccicamento della sfera’. Espresso in modo più forbito, si tratta del problema di come triangolare la superficie terrestre in modo da realizzare delle carte geografiche fedeli, che si possano stendere sulla tavola. L’amara verità è che nessuna triangolazione è mai esatta e quindi nelle nostre carte sfugge sempre qualcosa. Se si riescono a conservare le aree, non si riescono a conservare gli angoli tra le rette e viceversa. Se si tiene conto degli angoli, le distanze scappano all’infinito oppure le linee rette diventano curve o non si conservano le direzioni. Intanto, π è però diventato il simbolo della matematica per antonomasia. Da alcuni anni, in tutto il mondo, si festeggia la matematica il 14 marzo poco dopo le 15 di pomeriggio (…guardate attentamente le cifre!). Non è solamente il compleanno di Einstein, è il ‘Pi greco day’. A Udine, ad esempio, lo celebriamo nelle piazze organizzando giochi a sfondo matematico. Uno di questi consiste nel recitare a memoria il maggior numero di cifre decimali di π, ovviamente nell’ordine esatto: l’ingegnere Nicola Pascolo, recentemente, ha voluto tentare il primato italiano ed è riuscito a ripetere senza errori ben 6.935 cifre esatte! Esiste poi anche un ramo della letteratura a contrainte, la ‘Pifilologia’, che promuove la composizione di filastrocche, poesie, racconti che nella sequenza delle lunghezze delle parole ricalchino π… A noi non rimane, come dice la Szymborska, che ammirare come le cifre di π si susseguano «stimolando, oh sì, stimolando la pigra eternità a durare».

Ironia, sarcasmo, inesistente senso delle proporzioni, chissà: ecco Ghibli, bianco e nero, breve di gambe, eterno di schiena, muso d’altra statura, immobile sul marciapiede attende il rombo noto, Romano e il suo taxi, poiché questa è l’ora. Il tempo di assaporare un istante di gloria sul sedile di fianco, poi, insieme a casa, la lunga coda sbagliata che sventola allegra contro i calzoni. Gianni Siviero, ‘Vita a sei zampe’, Giulio Editore, Milano 2003, p. 17.


© Luca Laureati

Nell’attesa di una barca, abbiamo fatto tutti il bagno nel fiume. Ho nuotato con i pantaloni lunghi e ho cercato di lavare via la resina dell’albero. Quella pianta gigantesca, per abbracciare la quale credo ci vogliano almeno dodici uomini con le braccia tese, aggredita da asce e motoseghe aveva fatto stillare un succo bianco, appiccicoso e latteo. El Tigre mi ha fatto una grande impressione per il modo in cui ha camminato a lungo intorno al gigantesco albero, ha misurato i rami, valutato il peso, per il modo in cui ha inciso alcune radici con precisa premeditazione togliendogli l’appoggio. Sembrava la demolizione di una cattedrale gotica. Werner Herzog ‘La conquista dell’inutile’, Mondadori, Milano 2007, pp. 194-195 (trad. it. di M. Pesetti e A. Ruchat).

35


Toni Zogno

tonizogno@tin.it

Misurare lo spazio con la musica

Nei primi anni ’20 Le Corbusier scriveva che «bisogna tendere alla creazione dello standard per affrontare il problema della perfezione»; e ancora: «gli standards sono prodotti della logica, dell’analisi, dello studio scrupoloso; si basano su un problema ben impostato» (Occhi che non vedono, in «L’esprit Nouveau», 1920, e Vers une Architecture, 1923). Nel 1949, introducendo la sua ricerca su Le Modulor (1974), Le Corbusier spiegava la necessità di trovare «una misura comune capace di ordinare le dimensioni dei contenenti e dei contenuti» portando ad esempio la scrittura del suono: si trattava di trovare un sistema di rappresentazione attraverso «elementi afferrabili […] traendone una serie di progressioni» che «costituiranno i gradini di una scala – una scala artificiale – del suono […] secondo una regola accettabile da tutti, ma soprattutto capace di flessibilità, diversità, sfumature e ricchezza». L’architetto francosvizzero rilevava dunque che «tutto ciò che è edificato, costruito, distribuito in lunghezze, larghezze o volumi non ha beneficiato di una misura equivalente a quella di cui gode la musica – strumento di lavoro al servizio del pensiero musicale». Da allora, il sistema di unificazione delle misure e delle proporzioni elaborato da Le Corbusier si è universalmente diffuso, condizionando inevitabilmente il pensiero architettonico, la manualistica edilizia (ma non solo quella), la definizione degli standard (urbanistici, edilizi, produttivi), e razionalizzando una serie di variabili. Iannis Xenakis, ingegnere, architetto e compositore, fu suo assistente nel 1953-54, periodo in cui compose la partitura delle Metastasis utilizzando regole e processi matematici. Scriveva Xenakis: «Goethe diceva che l’architettura è una musica pietrificata. Dal punto di vista del compositore di musica si potrebbe invertire la proposizione e dire che la musica è un’architettura mobile […]. Nella composizione Les Metastasis […] l’intervento dell’architettura è diretto e fondamentale grazie al Modulor. Il Modulor ha trovato un’appli-

cazione nell’essenza dello sviluppo musicale […], ha creato uno stretto legame di struttura tra il tempo e i suoni». Nel lavoro di Xenakis si tocca con mano come uno strumento di ‘misura visuale’, se usato in maniera dinamica, possa diventare generatore di ‘variabili sonore’. Per certi versi anche la scrittura architettonica di Carlo Scarpa segue percorsi analoghi. Nel suo modo di procedere, l’architetto veneziano fissava alcuni punti fermi, una sorta di costellazione attorno alla quale egli sviluppava, attraverso un’incessante trasformazione del progetto, una serie di elementi compositivi in continua mutazione. Nella maggior parte dei suoi progetti Scarpa utilizzava un’unità dimensionale modulare basata sul numero 11, la cui lettura in chiave cifrata coincide con l’identità numerica dell’architetto: il suo nome è composto di 11 lettere. L’artista Alighiero Boetti (1940-1994) assegnava al numero 11 un posto particolare: «è il numero che ha già superato il 10 e non è ancora arrivato al 12. Il 10 rappresenta una certa completezza superficiale della cosa, uno splendore superficiale, molto limpido, secco; poi c’è l’11 che è molto instabile, è fatto di una coppia di numeri, come due gemelli; il 12 invece è un numero che ha un peso storico pazzesco» (cfr. K.W. Forster, Mappe d’invenzione: edifici e allestimenti di Carlo Scarpa, in Carlo Scarpa. Mostre e musei 1944/1976. Case e paesaggi 1972/1978, 2000). Queste speculazioni numerologiche si traducono in un amalgama di cifre e figure che può essere ordinato attraverso un procedimento molto simile a quello della prassi scarpiana. In una conferenza tenuta a Madrid nell’estate del 1978, parlando della tomba Brion a San Vito di Altivole (Treviso), Scarpa spiegava:

«Avevo bisogno di una certa luce e ho pensato tutto secondo un modulo di 5,5 centimetri. Questo motivo che pare una sciocchezza è invece molto ricco di possibilità espressive e di movimento… Ho misurato tutto con i numeri 11 e 5,5. Siccome tutto nasce da una moltiplicazione, tutto torna e ogni misura risulta esatta. Qualcuno potrebbe obiettare che le misure tornano esatte anche usando un modulo di 1 centimetro – non è vero, perché 50 per 2 fa 100, mentre 55 per 2 fa 110, e con un altro 55 fa 165, non più 150, e raddoppiando si fa 220 e poi 330, 440. In tal modo posso frazionare le parti, e non avrò mai 150 ma 154. Molti usano i tracciati regolatori o la sezione aurea; il mio è un modulo molto semplice che può permettere dei movimenti – il centimetro è arido, mentre nel mio caso si ottengono dei rapporti» (Carlo Scarpa. Opera completa, a cura di F. Dal Co e G. Mazzariol, 1984). Diversamente da Le Corbusier, che

con il Modulor cercava uno strumento in grado di fornire certezze, Scarpa «metteva in discussione il suo linguaggio, spezzandone le frasi e i motivi, frangendone i termini, anzi, le sillabe» (cfr. K.W. Forster, Mappe d’invenzione…), lasciando – per dirla con Boetti – «il certo per l’incerto». Questo modo di procedere tra ragione e intuizione – dove il processo speculativo diventa prassi creativa/progettuale – conduce ad una serie infinita di soluzioni possibili, prodotte dalla complessità del pensiero, che tendono a pre-ordinare il caos. Luigi Nono nel 1984 dedica all’amico scomparso il brano orchestrale A Carlo Scarpa, architetto, ai suoi infiniti possibili, segnato «dall’assoluta libertà formale, da un tessuto musicale fatto di lancinanti frammenti e importantissimi silenzi, di varie sfumature, di anticipi e tensioni a quello che ancora manca o a quello che a fatica si ode», come scrive

Da quando ho sentito Glenn, non mi è più possibile presentarmi davanti al pubblico, diceva spesso, benché io gli facessi capire continuamente che lui suonava meglio di tutti gli altri, anche se non bene come Glenn, quest’ultima cosa a lui non la dicevo ma era possibile arguirla da tutte le altre che gli dicevo. […] L’artista del pianoforte, dicevo dunque, non deve lasciarsi a tal punto impressionare da un genio da esserne paralizzato, perché il fatto è proprio questo, dicevo, tu ti sei fatto impressionare da Glenn in maniera tale che ora sei paralizzato, tu, il talento più straordinario che mai abbia frequentato il Mozarteum, dicevo, e con questo dicevo la verità, perché Wertheimer era davvero un talento straordinario, al Mozarteum non l’hanno più visto un simile talento, benché Wertheimer, come già si è detto, non fosse un genio come Glenn. Thomas Bernhard, ‘Il soccombente’, Adelphi, Milano 1985, p. 118 (trad. it. R. Colorni).

36

Luciana Galliano in una recensione dell’opera. Nono e Scarpa sono accomunati dall’utopica ricerca degli ‘infiniti possibili’: il primo, come osserva il musicologo Martin Kaltenecker in L’oeuvre du XX siècle (1989), «modula lo spazio sonoro partendo da una specie di invenzione su due note ma declinata in variazioni microtonali»; il secondo compone lo spazio visivo utilizzando elementi formali e materici, apparentemente frammentari, ordinati secondo una delle tante mappe possibili (o impossibili). Se Le Corbusier sottotitola la sua ricerca sul Modulor Saggio su una misura armonica su scala umana universalmente applicabile all’architettura e alla meccanica prefigurando una mappa ordinata del mondo, per Scarpa (e Nono) si potrebbe parlare dell’incessante ricerca di una via che – per quanto incerta – tracci una possibile mappa per la liberazione del mondo. O, come dice lo stesso Nono, per «non dire addio alla speranza».


Mauro Pascolini

mauro.pascolini@uniud.it

Il valore dei luoghi: una misura per nuove carte

Essere responsabili di un altro non vuol dire affatto agire per suo conto – e meno che mai sostituire l’altro nella sua libertà – ma, al contrario, prendere la libertà dell’altro a misura della propria azione e del proprio limite. Questo sentirsi reciprocamente responsabili apre la strada al divenire vicendevolmente disponibili. Salvatore Natoli, ‘Parole della filosofia o dell’arte di meditare’, Feltrinelli, Milano 2004, p. 139.

d’acqua, della struttura insediativa, degli opifici, dei mulini e delle fabbriche. Oggi questo corpus, nato per permettere una tassazione che si basava non solo sulla proprietà ma anche sul valore produttivo delle singole particelle, ci consente di conoscere anche il paesaggio che caratterizzava gli spazi geografici. Una misura della terra nata per il fisco che si trasforma in misura di conoscenza; una conoscenza che dà sostanza e spessore storico al territorio trasformandolo in paesaggio culturale e valoriale. Misurare per conoscere, conoscere per valutare.

© Eugenio Novajra

e si lavora, ma che conserva anche la storia degli uomini che lo hanno abitato e trasformato, e dei segni che lo hanno caratterizzato. Vi è la consapevolezza che il territorio, qualunque esso sia, contenga un patrimonio diffuso, ricco di dettagli e soprattutto di una fittissima rete di rapporti e interrelazioni tra i tanti elementi che lo contraddistinguono. Memoria, appartenenza e senso dei luoghi si mescolano per dare vita a una dimensione valoriale che necessita di essere indagata e misurata sia per una condivisione delle percezioni individuali in funzione di una memoria collettiva, sia per diventare strumento Il valore e il senso dei luoghi di governance delle azioni di pianificazione e Il rapporto che la società moderna o meglio trasformazione. post moderna ha con il territorio è forteNell’attualità, facendo riferimento alle vicende mente segnato da alcune questioni di fondo delle grandi infrastrutture – dalla TAV al Corcome quella ambientale, quella dei modelli di ridoio 5, dagli elettrodotti ai grandi impianti sviluppo e di governo del territorio e, più in energetici o viari – è necessario porre sul generale, quella della relazione tra l’uomo e i tavolo dei complessi progetti e degli studi luoghi, segnata da profonde fratture rispetto d’impatto anche nuove carte e mappe che alla continuità che per secoli aveva consentito tengano conto, nello specifico, del valore dei sposte da un lato a esigenze concrete di con- equilibrio e certezze. luoghi e di altri ‘punti di vista’, come quelli più Misurare ‘Terra e terra’ Il legame profondo con la terra e la conotrollo, di costruzione e di gestione e, dall’altro, profondamente emozionali e legati all’aspetto «Prima di compilare una carta della Terra era scenza che la civiltà rurale, comune a tutto alla creazione di un corpus di conoscenze visuale del paesaggio. necessario conoscerla, ma la conoscenza utili sia alla mobilità e agli spostamenti, che al il continente europeo, aveva stretto con i Valori che una volta misurati, con strumenti venne piano piano, indirettamente dapprima, luoghi, di fatto si sono dapprima incrinati e bisogno di imago mundi. di tipo qualitativo, vanno a costituire nuove e solo dopo che la mente umana era riuscita poi frantumati con la rivoluzione industriale a tipologie di rappresentazione: le ‘carte dei a prescindere dal mito e ad ampliare l’orizzon- Gli aspetti qualitativi si fondono a quelli valori’ e le ‘mappe di comunità’. In particolate dell’esperienza. Oggi che l’uomo è arrivato quantitativi e pratici originando le prime carte fronte delle mutate esigenze di una società sempre più divoratrice di suolo e di spazio, e mappe geografiche e nautiche, le piante di re queste ultime, nate in Inghilterra già agli a vedere la Terra dall’alto e si è accorto che generando una sorta di schizofrenia tra i luo- inizi del secolo scorso e note come Parish è una piccola sfera lucente roteante nel mare villaggi e città, le rappresentazioni dei mondi conosciuti e della Terra nella sua dimensione ghi e il paesaggio del passato, l’età dell’oro, Maps, si sono affermate ultimamente non nero dello spazio, deve fare con l’immaginae il presente, figlio illegittimo della società astronomica. Il bisogno di misurare il mondo solo come complessa rappresentazione da zione un lungo volo retrospettivo per capire attuale, e per questo non accettato. nasce pertanto dalla necessità di creare dei parte delle comunità dei luoghi che abitano, l’importanza delle prime percezioni del piaÈ un aspetto particolare questo che merita sistemi di riferimento metrici per le distanze, ma pure come strumento per ripristinare il neta, in cui si mescolavano stupore e mito, e una breve riflessione: il paesaggio è figlio del rapporto spezzato tra l’uomo e lo spazio del che spesso erano meravigliosamente sbaglia- per il lontano come per il vicino, per potersi tempo, delle scelte politiche, ideologiche, muovere con certezza, per viaggiare in mare vissuto personale e collettivo, e per dare una te». Con queste parole John Noble Wilford e in terraferma, ma anche per dare risposta ai inizia il suo racconto dedicato ai Cartografi grandi interrogativi che l’accresciuta conoe alla storia della cartografia, alla rapprescenza geografica e astronomica portava sentazione e alla misurazione della Terra e inevitabilmente con sé: quale la forma della delle terre. L’uomo, fin dai tempi più remoti, Terra? quali i suoi limiti? quali i suoi spostaha sentito il bisogno di comunicare il senso menti nell’Universo? Tempo e spazio si fondodel dove, del luogo, del vicino, spinto dalla voglia di raccontare e rappresentare il proprio no così in una sola affascinante dimensione spazio vissuto; uno spazio mai individuale, ma che condurrà ben presto, nell’ambito della feconda matrice culturale greca e mediterrasempre comunitario e collettivo. Così, dopo nea, alla prima misura della Terra ad opera del aver impresso 40.000 anni fa nelle caverne bibliotecario alessandrino Eratostene. dapprima le impronte delle mani e poi figure Da allora la misurazione della Terra ha conoantropomorfe e di animali, si dedicò semsciuto uno sviluppo inarrestabile pur tra diffipre più diffusamente alle ‘rappresentazioni coltà ed errori, cadenzato dalle tappe evolutispaziali’ graffiate o tracciate sulle pareti e sulle volte dei ripari neolitici, sui massi erratici, ve delle scienze esatte e dal progredire delle tecnologie legate alla precisione dei calcoli lungo le balze rupestri con l’intento non solo e delle rappresentazioni, fino ai nostri giorni, di topografare con punti di vista diversi i quando le reti geodetiche e i sistemi di poluoghi della quotidianità, ma pure di rappresizionamento e navigazione satellitari hanno sentare quella immensa volta celeste che reso di uso comune complicate misurazioni e lo sovrastava, spingendosi anche alle prime Dal trattato cabalistico ‘Ši‘ur qomah’ (‘La misura della statura’), citato in ‘Mistica facilitato, fin troppo, spostamenti e controlli. elaborazioni cosmogoniche. L’uomo nomade ebraica’, a cura di G. Busi ed E. Loewenthal, Einaudi, Torino 1995, p. 79. Ma l’uomo, più concretamente, ha avuto che nel frattempo si era fatto sedentario e una necessità parallela, quella di misurare da raccoglitore e cacciatore era diventato anche la ‘terra’, di colonizzare nuove regioni, agricoltore e allevatore aveva, di pari passo, economiche ed anche valoriali della società di bonificare terreni insalubri, di porre sisteprospettiva futura ai territori delle comunità cominciato a sviluppare un primitivo radicache lo esprime, ma stranamente non viene maticamente a coltura i suoli che potevano stesse. La mappa di comunità è uno strumento nello spazio che da semplice trama riconosciuto come valore, anche se contisoddisfare i crescenti bisogni di una umanità mento con cui gli abitanti di un determinato dove dar vita alle proprie funzioni elementari nuamente alimentato. Ogni giorno, infatti, in costante crescita. luogo hanno la possibilità di rappresentare (il vivere, l’approvvigionarsi, l’abitare, ecc.) si attiviamo scelte, gesti, comportamenti che, il patrimonio, il paesaggio, i saperi in cui si era fatto, col tempo, più complesso, diventan- Gli antichi agrimensori romani, che per primi avevano tracciato con geometrica precisione più o meno inconsapevolmente, producono riconoscono e che desiderano trasmettere do spazio sociale e relazionale sia per il clan cambiamenti nel paesaggio; al tempo stesso, la centuriatio, la griglia che divideva in lotti i alle nuove generazioni. Evidenzia il modo di riferimento che per l’esterno. territori conquistati, furono via via sostituiti da però, ne rifiutiamo gli effetti sulla base di mo- con cui la comunità locale vede, percepisce, Ed ecco prendere corpo non solo le rappreattribuisce valore al proprio territorio, alle sentazioni del villaggio, dello spazio familiare, pubblici periti che, con i loro compassi, squa- delli che risalgono ad una società rurale che non è più dominante nella contemporaneità. dri, teodoliti, astrolabi, tavolette pretoriane, sue memorie, alle sue trasformazioni, alla sua ma attraverso processi di astrazione e geneIn questa situazione le cose si complicano pertiche e catene, rilevarono il territorio per realtà attuale e a come vorrebbe che fosse ralizzazione, sviluppando mappe cognitive, in quanto il territorio ed il paesaggio di oggi costruire carte sempre più precise e dettain futuro. Consiste in una rappresentazione anche quelle di territori sempre più gliate, sia per scopi militari che di governo, e sono ancora profondamente intrisi dei segni cartografica, o in un qualsiasi altro prodotto o vasti, fortemente correlati a concetti quali della storia e delle civiltà che si sono succein parallelo diedero vita a quel monumentale elaborato, in cui essa si può identificare. vicino/lontano; dentro/fuori; aperto/chiuso; dute, sollecitandoci continuamente al ricordo patrimonio costituito dai catasti di intere Predisporre una mappa di comunità significa alto/basso; direzione/verso, ecc. del passato. È evidente che questo rapporregioni e stati e dai catastici delle proprietà avviare un percorso finalizzato ad ottenere Matura così la necessità di conoscere i to con le ‘radici’, o meglio con la memoria pubbliche e private. un ‘archivio’ permanente, e sempre aggiorluoghi, di rappresentarli, di organizzarli in un dello spazio vissuto, porta inevitabilmente a nabile, delle persone e dei siti di un territorio, sistema di riferimento, di misurarli, di renderli Strumento fondamentalmente fiscale, la micaricare di ‘senso’ e di significato i luoghi, sia sura della terra era funzionale all’imposizione evitando la perdita delle conoscenze puntuali patrimonio riconosciuto e riconoscibile in quelli vicini che quelli lontani, nell’ambito di di tasse fondiarie e il dettagliato rilevamento dei luoghi, quelle che sono espressione di codici confinari. La trasformazione e la maniunità più vaste e complesse. Prende vita così, saggezze sedimentate, raggiunte con il conpolazione del territorio, la sua organizzazione, effettuato ci ha restituito una fotografia puntalvolta faticosamente, un concetto ‘nuovo’ di tributo di generazioni e generazioni: un luogo tuale dei territori, del puzzle delle proprietà, obbligano a sviluppare forme di astrazione delle coltivazioni, della vegetazione, dei corsi territorio, che non è solo il luogo in cui si vive include memorie, spesso collettive, azioni e che, partendo dall’esperienza reale, diano ri-

Dice Rabbi Yšma‘e’l: Quali sono le misure del Santo, sia Egli benedetto, che vive e sussiste in perpetua eternità, sia Benedetto il suo Nome ed esaltata la sua memoria? Le piante dei suoi piedi riempiono il mondo intero, come è detto: Il cielo è il mio trono e la terra lo sgabello dei miei piedi (Is. 66. I). Le piante dei piedi sono alte tre migliaia di miriadi di parasanghe e portano il nome di Parmesin; dai piedi alle anche vi sono millecinquecento miriadi di parasanghe; l’anca di destra porta il nome di ’T.rqm e quella di sinistra ’W’ T.rqm ; dalle anche alle ginocchia ci sono diciannove migliaia di miriadi di parasanghe…

relazioni, valori e fatti numerosi e complessi molto più vicini alla gente di quanto si possa credere. Le nuove tecnologie facilitano la costruzione di queste mappe che sono dei veri processi di ricostruzione della dimensione spaziale della comunità. La mappa è un momento di raccolta, di elaborazione, di riflessione, di interiorizzazione, di patrimonializzazione dello spazio di riferimento in una visione multidimensionale ed in continuo cambiamento e arricchimento. Carte che propongono una prospettiva diversa dove è possibile dare voce sia alle visioni e percezioni personali, che a quelle collettive, della storia, ma anche della contemporaneità, recuperando così l’unità della trama territoriale. Carte dove convivono i luoghi della memoria individuale, frutto della conoscenza e della frequentazione, la porzione di campo o di bosco, i percorsi per raggiungere i fondi, i ‘posti’ del fiume, gli alberi, i prati, la fabbrica, la casa, ecc., accompagnati dai loro nomi, patrimonio immateriale di rara valenza; della memoria emozionale, che valorizza i luoghi delle vicende personali, dell’amore, della vita, ma anche della morte; della stratificazione storica collettiva che riporta alla luce vicende, mestieri, testimonianze di un passato lontano, ma anche recente (le carbonaie, i mulini, gli edifici storici, i monumenti, ecc.); della memoria popolare dove la storia si intreccia alla leggenda e alla tradizione. Ed ecco materializzarsi e prendere corpo, come nella mappa di comunità di Raggiolo, nell’Appennino Tosco-Emiliano, il Lastrone delle fate, lo Scoglio del gallo, il Fosso del colera, la Fonte della Diavolina, la Palaia degli impiccati, il Camposanto vecchio… Mappe dei luoghi, ma anche mappe dei racconti dei luoghi. Carte necessarie per individuare gli scenari futuri, i modelli di sviluppo, le potenzialità, i punti di forza e di debolezza di un territorio, assolutamente necessari quando, ad esempio, si devono ricostruire comunità e luoghi distrutti da eventi traumatici naturali o provocati dall’uomo. E allora sul tavolo della politica vanno messe queste carte e va con forza rivendicato e difeso il valore del senso dei luoghi non in nome di una civiltà del passato o di una natura sempre e comunque bella, ma in quanto parte integrante del patrimonio valoriale della comunità che lo ha espresso e che lo esprime; un patrimonio irrinunciabile che può essere messo a disposizione con percorsi e processi di condivisione e partecipazione. E qui il discorso si potrebbe aprire alle nuove prospettive e ai nuovi scenari della democrazia partecipativa e deliberativa… Ritornando alle nostre mappe di comunità vorrei sottolinearne, in conclusione, la dimensione pedagogica in quanto la loro costruzione prevede un percorso di conoscenza, di recupero valoriale, di presa d’atto dell’importanza della dimensionale spaziale dell’uomo. Processi non facili, ma fondamentali nel tentativo di riportare a normalità la gestione di un territorio sempre più articolato e complesso, facendoli rientrare in quelle che possono essere chiamate ‘buone pratiche’. Le vicende del passato, il bel paesaggio che non c’è più, la civiltà contadina non devono essere mitizzati e relegati in un mondo astratto e fine a se stesso, ma devono insegnare il metodo affinché nella quotidianità delle nostre azioni spaziali il buon governare diventi pratica di normalità. E per fare ciò, la domanda che ci deve guidare è certamente questa: «Che cosa ha valore nel mio luogo?». E la risposta che dobbiamo dare ci rende tutti degli esperti cartografi che misurano nuovamente la terra per conoscerla e viverla da buoni abitanti di questo meraviglioso e strano pianeta, che ha una buona reputazione…

37


Enrico Gori

enrico.gori@uniud.it

La misura nell’ambito delle scienze sociali Dopo il linguaggio, la più grande invenzione dell’umanità è rappresentata dalla possibilità di misurare, attraverso i numeri, entità importanti per la nostra vita, valutarne l’evoluzione nel tempo e studiare la relazione che esiste tra di loro, in modo da consentirci di capire dove siamo, ciò che abbiamo e quanto vale la pena di investire per raggiungere determinati obiettivi. La scienza è impossibile senza una batteria, in continua evoluzione, di misure stabili. La storia della misura, tuttavia, non ha inizio nell’ambito della matematica o della scienza, ma in quelli del commercio e delle costruzioni. Molto prima che la scienza emergesse come una professione, nel commercio, nell’architettura, nella politica e anche nel pensiero filosofico-morale, era ben nota l’esigenza di unità intercambiabili di valore immutabile. insegnanti o dalle commissioni d’esame, e il curriculum e le prove degli insegnanti, a loro volta, dai commissari delle commissioni di concorso. In ambito finanziario, le società di rating esprimono giudizi nei confronti del grado di rischiosità delle aziende ai fini dell’accesso al credito, in base alla documentazione contabile e ad altri indicatori economici. Nella ricerca, i progetti e l’attività dei ricercatori vengono sottoposti alla valutazione dei loro pari (peer review) sulla base di criteri relativi al progetto stesso e alla produzione scientifica. Nell’istruzione professionale, i progetti formativi vengono sottoposti al giudizio di esperti nell’ambito di bandi di concorso per l’accesso ai finanziamenti sulla base dei criteri previsti dal bando. Ai ristoranti, infine, vengono assegnate ‘stelle’ e ‘forchette’ da parte di giudici che ne degustano pietanze e vini. Come ottenere delle misure ‘adeguate’ e ‘moralmente forti’ di questi tratti latenti? Una soluzione parziale è stata introdotta da tempo attraverso l’impiego di test, ovvero batterie di domande (o prove) connesse all’entità latente da misurare: test psicologici, attitudinali, di conoscenza, ecc. L’idea è semplice: valutare il livello raggiunto da un individuo attraverso le risposte date, o le performance osservate nelle prove. Le quantità che si ottengono attraverso questi test sono tipicamente dei punteggi (numero di risposte esatte, numero di prove superate, eventualmente pesate rispetto al grado di completezza raggiunto). Il problema fondamentale di questi punteggi (o score) è che si tratta di misure di tipo ordinale e non vere La misura dei fenomeni ritenuti ‘non e proprie come il peso, o la temperatura. In misurabili’ e le graduatorie un settore come, ad esempio, la psicologia, La storia dell’umanità è stata dunque segnata il punteggio raggiunto da un individuo viene dalla ricerca di metodi ‘oggettivi’ per quantiassociato ad un certo livello di patologia attraficare le varie entità con cui costantemente verso la comparazione tra il punteggio stesso si ha a che fare nella vita di tutti i giorni. Una e le diverse patologie, ben note agli esperti visione ristretta del problema potrebbe indur- del settore; anche nel campo della misura dei re ad affermare che esistono entità misurabili livelli di apprendimento il punteggio raggiunto attraverso numeri (peso, lunghezza, tempera- viene spesso associato ad una descrizione tura, ecc.) ed entità non misurabili (motivazio- delle conoscenze dimostrate. Tuttavia, nella ne, livello di apprendimento della matematica, maggior parte dei casi, i punteggi vengono grado di depressione, ecc.). Una banale rifles- utilizzati per stilare delle graduatorie tra gli sione sulle probabili difficoltà incontrate dagli individui, e in molte situazioni ciò può bauomini primitivi nella determinazione del peso stare: ad esempio, in una gara di corsa, si fa subito comprendere, tuttavia, che ciò che può anche fare a meno di misurare i tempi di oggi appare non misurabile forse lo è solo a percorrenza e ci si può limitare a osservare causa di una carenza di adeguati strumenti. l’ordine di arrivo; ma se si volesse studiare La sfida che oggi si presenta agli scienziati come nel corso degli anni siano migliorate sociali è proprio quella dell’individuazione di le performance degli atleti, l’ordine di arrivo metodi ‘oggettivi’ nell’ambito di fenomeni, a sarebbe di ben poco aiuto e sarebbe necestorto, definiti ‘non misurabili’. In molte attività sario ricorrere a vere misure come il tempo umane – sport, istruzione, finanza, ricerca, for- di percorrenza. Inoltre, a fini di ricerca, le mazione professionale, psicologia – gli attori graduatorie hanno un senso solo se viste in e/o le entità in gioco vengono sottoposti al rapporto ad una popolazione rappresentativa giudizio di esperti riguardo ad aspetti difficildell’intero universo di potenziali individui da mente misurabili, detti ‘tratti latenti’, di impormisurare: così, sapere che ci si colloca nel tanza determinante per l’attività medesima. decimo o nel novantesimo percentile nell’amNello sport, ad esempio, le gare di tuffo o di bito delle conoscenze di matematica rilevate ginnastica prevedono l’intervento di apposite nelle indagini OCSE-PISA è senz’altro di giurie al fine di valutare caratteristiche come qualche ausilio per comprendere la situazione lo ‘stile’ e la ‘perfezione’: questi rappresenta- di un Paese. Tuttavia, trasferendo l’esempio al no tratti latenti e si fa ricorso a giurie proprio problema della misura del peso corporeo, utiperché non esistono strumenti di misura per lizzare il metodo delle graduatorie, in rapporto valutarli, come invece il cronometro o il metro ad una popolazione rappresentativa, significonsentono di fare nelle gare di corsa o di cherebbe che al mattino si andrebbe sulla bilancio del peso. Nel campo dell’istruzione, le lancia, poi si registrerebbe il peso; dopodiché prove degli studenti vengono valutate dagli si dovrebbe attendere una dispendiosa indaCominciamo col ricordare due punti di drammatica svolta nella storia politica che mettono in evidenza la forza morale del nostro bisogno di misure stabili. Un’entità di 7/10 costituiva un dogma di fede tra i musulmani del VII secolo. Alcuni leader musulmani furono aspramente censurati per l’utilizzo di standard non ‘giusti’. Nel 723 d.C., nella città di Damasco, il califfo ‘Umar b. ‘Abd al-‘Aziz così decise: «La gente di al-Kufa è stata colpita da […] pratiche malvagie imposte loro da esattori delle tasse. La legge più giusta è […] la giustizia e la buona condotta […] ti ordino di prendere delle imposte solo in base a 7/10» (S.D. Sears, A Monetary History of Iraq and Iran, 1997). La Magna Carta concessa nel 1215 da Giovanni, re d’Inghilterra, stabilì che: «Ci deve essere una misura per il vino in tutto il nostro regno, una per la birra, una misura per il grano, e una per l’ampiezza della stoffa…» (ibidem). Questi eventi ci ricordano che il commercio e la politica sono la fonte di unità stabili per lunghezza, area, volume e peso. È stato poi lo sviluppo del motore a vapore che ha determinato l’individuazione delle nostre moderne misure di temperatura e pressione. Il successo di tutta la scienza poggia su questi risultati commerciali e di ingegneria. Sebbene la matematica non abbia avviato queste pratiche, scopriremo che è la matematica della misurazione a fornire il fondamento ultimo per l’applicazione pratica e la validità teorica delle misure veramente ‘utili’, ovvero quelle unanimemente riconosciute come universali.

38

gine nazionale o internazionale, su un campione indicativo, per sapere in quale percentile ci si collochi: sapere, invece, che il proprio peso supera gli 80 chili fornisce una informazione immediata che consente di prendere tempestivi provvedimenti (una dieta, ad esempio). Qui si capisce anche che la costanza nel tempo della popolazione di riferimento può essere un grosso problema: in un mondo di obesità crescente, sapere che ci si colloca sotto la media può non costituire un risultato desiderabile ai fini del mantenimento del peso forma. Come ulteriore esempio dei rischi delle graduatorie in rapporto ad una popolazione rappresentativa, si può fare riferimento al grave errore di giudizio in cui è stata per anni (e ancora continua ad essere) intrappolata la ricerca educativa nel nostro Paese: l’Italia partecipa da molti anni alle indagini internazionali sui livelli di conoscenza degli scolari di 4 e 8 anni (TIMSS) e dei quindicenni (OCSEPISA). Orbene, nell’indagine TIMSS l’Italia si colloca sopra la media internazionale, mentre in quella OCSE-PISA si trova al di sotto: la conclusione comune ai ricercatori in questo ambito è stata che «la scuola elementare italiana sarebbe molto buona», mentre, visto il calo di conoscenze a 15 anni, con molta probabilità, «la scuola media italiana potrebbe presentare dei problemi di efficacia educativa». Ciò che questi ricercatori dimenticano è che gli universi delle due indagini sono completamente diversi: nella prima (TIMSS), sono presenti Paesi con grossi problemi come il Bangladesh; alla seconda (OCSE-PISA), invece, partecipano tutti i Paesi più sviluppati. Se si fa un piccolo sforzo di elaborazione, selezionando i soli Paesi coinvolti in entrambe le indagini (purtroppo circa cinque compreso il nostro), quello che si scopre è che l’Italia si colloca sotto i livelli medi sia nei primi anni (4 e 8) che a 15 anni: evidentemente la conoscenza è qualcosa che cresce e si accumula nel tempo e lo studio di tale fenomeno richiede strumenti ben più sofisticati che non le semplici graduatorie. Se si vuole quindi affrontare in maniera scientifica lo studio di questi fenomeni, l’unica soluzione è quella di darsi regole rigorose per la costruzione di misure oggettive, al pari di quanto l’umanità ha fatto per il peso e la temperatura.

La matematica e la misura Le misure concrete che ci aiutano a rendere migliore la vita sono così familiari che raramente si pensa ‘come’ o ‘perché’ funzionano. Una storia matematica della misura, tuttavia, ci porta a riflettere sui requisiti teorici che rendono possibile e pratico il successo di quest’ultima. - Le misure sono sempre inferenze, - ottenute per approssimazione statistica, - di una quantità unidimensionale, - conteggiate in unità astratte, di dimensione fissa, le quali sono - indipendenti da fattori esterni. Più formalmente, in ogni azione di misura è sempre possibile individuare tre insiemi: l’insieme A dei soggetti per i quali si vuole valutare il ‘tratto latente’, l’insieme B delle prove in grado di fornire informazioni utili alla misurazione del ‘tratto latente’, l’insieme C dei

giudici che osservano il comportamento dei soggetti nelle prove ed esprimono un giudizio. Il giudizio su un particolare soggetto a ∈ A in una certa prova b ∈ B sottoposta alla valutazione del giudice c ∈ C può essere visto come il risultato dell’incontro tra a, b, c ossia r = r(a,b,c). L’insieme di tutti i possibili risultati costituisce l’insieme R. Da un punto di vista matematico la collezione di questi quattro insiemi F = {A,B,C,R} viene definita sistema di riferimento (a tre fattori) per la misura del ‘tratto latente’ (G. Rasch, On Specific Objectivity, 1977, www.rasch.org/memo18.htm). Poiché tali valutazioni possono influenzare, in maniera decisiva, carriera, successo e reddito degli individui o degli enti sottoposti ad esame, è necessario eliminare, o ridurre al minimo, il grado di soggettività nella misura dei tratti latenti. Una via che intuitivamente si è seguita, in questo senso, è costituita dalla fissazione di prove comuni a tutti i soggetti da valutare, che non richiedano l’intervento di giudici (come nella valutazione delle abilità matematiche – ‘tratto latente’ – che spesso vengono accertate attraverso test a risposta multipla). In questo caso il sistema di riferimento si riduce a due fattori F = {A,B,R} e il risultato r diventa la funzione r = r(a,b) (nel caso più semplice, se b è una domanda e il soggetto a sbaglia la risposta, allora r = 0, mentre se la risposta è giusta r = 1); si parla allora di un sistema di riferimento a due fattori. Tuttavia, è spesso impossibile fare a meno dei giudici per la valutazione di prove che si ritengono fondamentali per la misura del ‘tratto latente’, e si cerca di ridurre il grado di soggettività istruendo i valutatori in merito ai giudizi da assegnare, in relazione al comportamento manifestato dai soggetti nelle diverse prove: concorsi e valutazioni di progetti, come pure la correzione di un tema o di un problema, o la verifica di una prova orale prevedono criteri (elementi su cui esprimere il giudizio, che vengono a far parte dell’insieme B) e punteggi (modo in cui esprimere il giudizio) ben definiti; nella valutazione dell’indipendenza psico-fisica alcune prove fisiche e psicologiche (scala FIM, http://scalafim.com) guidano il personale specializzato nell’assegnazione di punteggi relativamente a ciascun test per ogni paziente. Purtroppo, anche se sottoposti a formazione specifica, è impossibile che una molteplicità di giudici si comporti all’unisono, e pure un livello di concordanza elevato è difficilmente raggiungibile: come riferisce J.M. Linacre (www.rasch.org/memo61. htm), in uno studio volto a stabilire quanto fosse grande la concordanza tra giudici in una situazione ottimale (attraverso l’uso di valutatori esperti, di criteri di valutazione ben strutturati, e la registrazione di comportamenti di individui di livello chiaramente differente), questa raggiunse solo l’80% e le valutazioni espresse dai giudici risultarono alquanto imperfette sulla base dei criteri stabiliti (cfr. E.F. Gruenfeld, Performance Appraisal, 1981). Pertanto, anziché ritenere di poter rimuovere le differenze tra i giudici attraverso strategie di formazione, o fare finta che queste differenze non esistano ‘per decreto ministeriale’, sarebbe molto meglio cercare di misurare quanto grandi esse siano, provvedendo a rimuoverle attraverso sistemi di riferimento a

tre fattori che ne contemplino esplicitamente l’esistenza. Tale modello deve realisticamente partire dal riconoscimento del fatto che la valutazione delle prove o delle attività, di un individuo o di un ente, da parte di giudici, è influenzata da tre fattori fondamentali: l’abilità del soggetto, la difficoltà delle diverse prove, la severità del giudice.

L’oggettività specifica La base di partenza per la costruzione di un simile modello è costituita dalla ricerca del matematico danese Georg Rasch (Probabilistic Models for Some Intelligence and Attainment Tests, 1960) il quale, nel porsi il problema di individuare ciò che caratterizza la superiorità delle scienze naturali rispetto a quelle umane, giunse alla conclusione che il concetto di ‘scienza’ è legato alla possibilità di sviluppare metodi per trasformare osservazioni in misure, secondo regole che soddisfano il principio dell’oggettività specifica (cfr. anche E. Gori, G. Plazzi e M. Sanarico, La valutazione e la misurazione nelle scienze sociali: oggettività specifica, statistiche sufficienti e modello di Rasch; E. Gori e G. Vittadini, Sussidiarietà, Valutazione e Capitale Umano, entrambi in «Non Profit», 3, 2005). In termini intuitivi tale principio si riferisce al fatto che i metodi di stima delle scienze naturali consentono di misurare caratteristiche specifiche di un soggetto senza che il processo di misurazione risulti influenzato da peculiarità del soggetto diverse da quella di interesse, da altri soggetti, e da particolarità dello strumento utilizzato a tale scopo. Ad esempio, quando si calcola il peso di un individuo, il risultato non è condizionato dalla sua altezza (anche se questa è correlata con il peso), dal colore dei suoi occhi o dalla bellezza del suo sorriso, né dal peso di altri soggetti (come già sottolineato, nella valutazione dell’abilità o della competenza di uno studente, la maggior parte dei metodi oggi vigenti fornisce solo il percentile in cui si colloca lo studente – rispetto ad una popolazione di riferimento –, per cui tale misura viene a dipendere dagli altri soggetti!); e, a meno di errori casuali, esso non cambia al variare del tipo di bilancia utilizzato, né l’uso di una bilancia che misura in chili può – a parte una trasformazione monotòna – dare una rappresentazione dell’entità di interesse (il peso del soggetto) diversa da una che lo fa in libbre. Rasch chiarisce ulteriormente il concetto di oggettività specifica osservando che ogni procedimento di misura scaturisce sempre da un ‘confronto’ tra gli elementi dell’insieme A – cioè i soggetti (ad esempio gli individui di cui si desidera determinare il peso) – e gli elementi dell’insieme B – ossia le prove (i pezzi di piombo che si mettono su uno dei piatti della bilancia). Quando gli elementi di A entrano in contatto con gli elementi di B, dalle coppie (a,b) scaturiscono i risultati che costituiscono l’insieme R. In alcuni casi questi possono essere dicotomici (la bilancia pende a destra o a sinistra, la risposta è giusta o sbagliata), in altri politomici (come il grado di soddisfazione, o il giudizio espresso su una scala da 1 a 4), ma in altri ancora possono essere di tipo discreto, come quando si


© Paolo Comuzzi

Bevete con misura; e per rendere chiaro il consiglio, un metro da muratore si avvinghia a una bottiglia. Ennio Flaiano, ‘Diario degli errori’, Adelphi, Milano 2002, p. 48.

misura l’altezza di una persona con un metro che contiene solo l’indicazione dei centimetri, o come quando si conta il numero di errori in una composizione scritta. Se il contatto tra il soggetto e la prova produce un risultato ben determinato r = r(a,b), detto ‘reazione’, si dice allora che F = {A,B,R} costituisce un sistema di riferimento (bifattoriale) di tipo deterministico. In altre situazioni, che sono tipiche delle scienze umane, ma anche della fisica quantistica, la reazione è influenzata da errori e fattori casuali per cui r è una variabile aleatoria con una certa distribuzione P(R = r) = f(a,b) che dipende dal soggetto e dalla prova: in questo caso si parla allora di sistemi di riferimento di tipo probabilistico. Orbene, nel caso di sistemi deterministici il principio di oggettività specifica, come spiega Rasch (On Specific Objectivity cit.), è legato al fatto che quando si confrontano le reazioni r1 = r(a1,b) e r2 = r(a2,b) di due soggetti a1 e a2, conseguenti al contatto con una medesima prova b, tale confronto u(r1,r2) può dipendere dalla particolare prova b prescelta: ossia u(r1,r2) = u(r(a1,b),r(a2,b)) (l’insieme dei possibili risultati u del confronto costituisce l’insieme U che non necessariamente è costituito da numeri). Rasch afferma che un sistema di riferimento (di tipo deterministico) è caratterizzato dalla proprietà dell’oggettività specifica se la funzione u(r1,r2) = u(r(a1,b),r(a2,b)) = v(a1,a2) non

dipende da b per qualsiasi coppia di soggetti e per qualsiasi prova. L’oggettività si riferisce appunto al fatto che il risultato del confronto tra due soggetti dell’insieme A è indipendente dalla scelta dalla prova b con cui i due soggetti entrano in contatto e da qualsiasi altro elemento dell’insieme A. Il concetto di specificità si riferisce al fatto che l’oggettività di questi confronti è ristretta al sistema di riferimento F. Il concetto di oggettività specifica viene esteso al caso di sistemi di riferimento multifattoriali in cui la reazione deriva dal contatto fra tre o più fattori. Quindi, non solo due fattori come nel caso del soggetto e della prova ma, ad esempio, tre fattori: soggetti, prove e giudici. Il lettore interessato potrà trovare definizione formale del concetto di oggettività specifica nel lavoro di Rasch (ibidem).

Oggettività specifica e sufficienza Ovviamente ogni processo di misurazione è soggetto ad errore, per cui è necessario ricorrere agli strumenti di calcolo delle probabilità per gestire i problemi inferenziali che ne derivano. Da un sistema di riferimento deterministico è dunque necessario passare ad un sistema di riferimento probabilistico, dove la reazione xni è una variabile casuale Xni caratterizzata da un distribuzione di probabi-

lità P(Xni) che, in generale, potrà dipendere dai parametri θn e δi . Tali parametri in questo nuovo contesto – caratterizzato anche dall’errore e dal caso, come nella meccanica quantistica – diventano l’oggetto principale dell’inferenza, attraverso l’evidenza empirica costituita dalle reazioni osservate xni. I lavori di Rasch (Probabilistic Models… cit.; On General Laws and the Meaning of Measurement in Psychology, 1961; Mathematical Theory of Objectivity and its Consequences for Model Construction, 1968; On Specific Objectivity cit.) favoriscono la scoperta della stretta connessione tra l’oggettività specifica, da un lato, e le statistiche sufficienti, dall’altro, fino a giungere al risultato di E.B. Andersen (Sufficient Statistics and Latent Trait Models, in «Psychometrika», 42, 1977), il quale dimostra che i sistemi di riferimento deterministici caratterizzati dalla proprietà dell’oggettività specifica sono i soli che ammettono l’esistenza di statistiche sufficienti per i parametri, una volta trasposti in chiave probabilistica. Da questo consegue che sistemi di riferimento probabilistici caratterizzati da modelli P(Xni) che ammettono statistiche sufficienti costituiscono la condizione necessaria e sufficiente per l’oggettività specifica del sistema di riferimento deterministico corrispondente. Il lavoro di Rasch, e successivamente quello di altri ricercatori (B.D. Wright, Sample-free

Test Calibration and Person Measurement, 1968, Solving Measurement Problems with the Rasch Model, 1977; D. Andrich, A Rating Scale Formulation for Ordered Response Categories, 1978, Scaling Attitude Items Constructed and Scored in the Likert Tradition, 1978, Application of a Psychometric Rating Model to Ordered Categories Which Are Scored with Successive Integers, 1978; J.M. Linacre, Many-facet Rasch Measurement, 1989), porta ad individuare una classe di modelli per la distribuzione di probabilità P(Xni) che, ammettendo l’esistenza di statistiche sufficienti, sono in grado di assicurare la proprietà dell’oggettività specifica. Ma a questo punto viene in primo piano la questione relativa al fatto che gli elementi del sistema di riferimento deterministico F = {A,B,R}, sottostante il sistema di riferimento probabilistico, non devono contraddire il modello, affinché sia possibile che il processo inferenziale basato sulla osservazione delle reazioni xni (realizzazione di una variabile casuale Xni) porti a stime di θn e δi che costituiscano vere ‘misure’ (nel senso dell’oggettività specifica). In questo senso i modelli probabilistici di Rasch non sono, al contrario di quanto usualmente si può credere, solo strumenti statistici per la rappresentazione e la sintesi della realtà osservata, ma piuttosto una guida nella ‘scoperta’ di sistemi di riferimento utili per

misurare entità latenti nell’ambito di fenomeni di interesse che, come nella meccanica quantistica, sono dipendenti dal contesto di osservazione e dal caso. Si noti che l’esistenza di statistiche sufficienti per questi modelli, oltre la proprietà dell’oggettività specifica, garantisce anche la possibilità di ottenere stimatori con proprietà desiderabili come la correttezza e la consistenza, a patto di utilizzare metodi di stima adeguati (cfr. R.K. Hambleton e H. Swaminathan, Item Response Theory, 1985). Tali proprietà di correttezza e consistenza non sono invece garantite per altri modelli della classe IRT che nel ‘generalizzare’ il modello di Rasch perdono la proprietà della sufficienza portando la ricerca di misure su strade improduttive e prive di oggettività, oltre a presentare problemi di stima non facilmente risolvibili. Visti questi risultati teorici (oltre che pratici, come mostra l’ormai nutrita letteratura sulle applicazioni dei modelli di Rasch), si può ritenere che, ai fini della costruzione di misure oggettive, ci sia una sola strada possibile: l’impiego dei modelli di Rasch. Quanto prima la comunità scientifica giungerà al riconoscimento di questo, tanto prima le scienze sociali riusciranno a dare quel contributo di conoscenza che ancora stenta ad emergere.

Di solito la ‘liquidità’ è considerata solo un concetto finanziario, ma in realtà si applica a ogni sistema di parti interconnesse. Nella tecnologia si parla di ‘scala’, cioè in ultima analisi dell’idea che di più è diverso. Se solo l’un per cento dei cento alunni di una classe di seconda media si offre volontario per realizzare l’annuario scolastico, l’annuario non viene realizzato; ma se solo l’un per cento dei visitatori di Wikipedia decide di creare una voce, otterremo il più grande crogiolo di informazioni che il mondo abbia mai visto. Chris Anderson, ‘Gratis’, Rizzoli, Milano 2009, p. 144 (trad. it. di I. Katerinov).

C’è bisogno di descriverla, l’infelicità araba? Basterebbero pochi dati per mettere in evidenza la gravità dell’impasse in cui sono bloccate le società arabe: tasso d’analfabetismo, forbice tra i più ricchi, immensamente ricchi, e i più poveri, disperatamente poveri, sovraffollamento delle città, desertificazione della aree rurali […]. L’infelicità araba ha questo di particolare: la provano quelli che altrove parrebbero risparmiati. E ha a che fare, più che con i dati, con le percezioni e i sentimenti.

Ognuno ha la faccia che ha, ma qualche volta si esagera. Totò, ‘I tartassati’, 1959.

Samir Kassir, ‘L’infelicità araba’, Einaudi, Torino 2006, p. 3 (trad. it. di P. Lagossi). 39


2

Giovanni Boniolo A proposito di misura e proprietà Giovanni Boniolo insegna Filosofia della scienza e Medical humanities all’Università di Milano e collabora con l’Istituto Europeo di Oncologia (IEO) di Milano. Dirige il dottorato in ‘Foundations of the Life Sciences and Their Ethical Consequences’ alla Scuola Europea di Medicina Molecolare (SEMM) di Milano. Si occupa di filosofia della conoscenza, etica applicata, bioetica ed epistemologia. Di recente, ha pubblicato Il pulpito e la piazza. Democrazia, deliberazione e scienze della vita (Raffaello Cortina, Milano 2011).

5

Arnaldo Cecchini La questione della misura Arnaldo Cecchini, docente di Tecniche urbanistiche, è direttore del Dipartimento di Architettura Design e Urbanistica di Alghero (Università di Sassari). Presidente della Società Italiana dei Giochi di Simulazione (SIGIS), si occupa di giochi, partecipazione, modelli urbani.

6

Leopoldo Benacchio Confrontare per conoscere, la sfida senza fine della misura Leopoldo Benacchio è docente all’Istituto Nazionale di Astrofisica dell’Osservatorio di Padova e insegna all’Università di Padova. Accanto all’attività di ricerca, sulle tecnologie di calcolo, rete e Grid per l’astrofisica, dal 1995 si dedica alla comunicazione della scienza al grande pubblico e in ambiente didattico. Fra le sue pubblicazioni, Il grande atlante dell’universo (Fabbri, Milano 2003) e Alla scoperta del cielo (con A. Turricchia, Editoriale scienza, Trieste 2006-2009).

8

14 Pietro Greco La misura: il problema irrisolto della meccanica quantistica Pietro Greco, giornalista scientifico e scrittore, dirige il Master in Comunicazione scientifica della Scuola Internazionale Superiore di Studi Avanzati (SISSA) di Trieste. Ha diretto le riviste «JCOM. Journal of Science Communication» e «Scienza&Società». È conduttore del programma ‘Radio3Scienza’ e collabora, fra gli altri, con il quotidiano «L’Unità». Tra le sue ultime pubblicazioni, I nipoti di Galileo. Chi prepara il futuro della scienza e dell’Italia nell’«era della conoscenza» (Dalai, Milano 2011) e La febbre del pianeta (Cittadella, Assisi 2012).

Paolo Cacciari, giornalista, ha collaborato con numerose testate, tra cui «L’Unità». È stato assessore e vicesindaco del Comune di Venezia, consigliere della Regione Veneto e deputato. Fa parte dell’Associazione per la Decrescita e si occupa soprattutto di economia sociale e sostenibilità. Tra i suoi libri, Pensare la decrescita. Sostenibilità ed equità (Carta/ Intra Moenia, Roma/Napoli 2006), La società dei beni comuni (cura, Ediesse, Roma 2010), Viaggio nell’Italia dei beni comuni (cura, con N. Carestiato e D. Passeri, Cafiero & Marotta, Napoli 2012).

16 Antonio Gambaro Misurare il diritto Antonio Gambaro è docente di Diritto civile all’Università di Milano. Ha insegnato presso varie istituzioni accademiche italiane e straniere. Accademico dei Lincei, è stato Direttore scientifico dell’International Association of Legal Sciences (UNESCO) e presidente dell’Associazione Italiana di Diritto Comparato. Si è dedicato soprattutto allo studio comparato dei sistemi giuridici, della storia del diritto, della proprietà.

27 Giovanna Cosenza Misurare le parole Giovanna Cosenza è docente di Semiotica, Semiotica dei nuovi media e Semiotica dei consumi presso l’Università di Bologna. Si occupa di comunicazione politica, nuove tecnologie, scrittura professionale. Tra le sue pubblicazioni recenti, Semiotica dei nuovi media (Laterza, Roma-Bari 2008) e Spotpolitik. Perché la «casta» non sa comunicare (Laterza, Roma-Bari 2012). È autrice del blog sulla comunicazione DIS.AMB.IG.UANDO: www.giovannacosenza.it.

18 Aluisi Tosolini Misura e povertà Aluisi Tosolini, filosofo e pedagogista, è dirigente scolastico del Liceo Scientifico di Parma. Ha insegnato Didattica presso l’Università Cattolica di Piacenza e la SSIS dell’Università di Parma. Si è dedicato, in particolare, alla ricerca teorica sui rapporti tra dimensione interculturale, cultura postmoderna e new media. Di recente ha curato la guida Zero poverty (con G. Caligaris, Città Nuova, Roma 2010).

20 Sabrina Tonutti Homo. ‘Misura di tutte le cose’? Sabrina Tonutti, dottore di ricerca in Antropologia culturale all’Università di Udine, si occupa di human-animal studies. È fellow dell’Oxford Centre for Animal Ethics.

22 Ugo Mattei La grammatica dei beni comuni 10 Alessandro Minelli Ti farò fuori, ma con misura Alessandro Minelli insegna Zoologia all’Università di Padova. Membro di accademie e organizzazioni italiane ed internazionali, è autore di numerosi libri e articoli di divulgazione scientifica. Tra le sue ultime pubblicazioni, Forme del divenire (Einaudi, Torino 2007) e Perspectives in Animal Phylogeny and Evolution (Oxford University Press, Oxford 2009).

11 Massimo Bernardi Ossimori evolutivi: quando il tempo non invecchia Massimo Bernardi, paleontologo, è collaboratore di ricerca presso il Museo delle Scienze di Trento e dottorando all’Università di Bristol (Regno Unito). È membro del team di progettazione del nuovo Museo delle Scienze di Trento (MUSE). Coniuga all’attività di ricerca scientifica quella di mediazione culturale, con particolare attenzione alla divulgazione delle tematiche relative alla storia della vita.

Ugo Mattei insegna Diritto civile all’Università di Torino e Diritto comparato e internazionale alla University of California. È coordinatore accademico dell’International University College di Torino e collabora con il quotidiano «il manifesto». Segue come legale e militante le battaglie del Teatro valle e della TAV in Val di Susa. Di recente ha pubblicato L’acqua e i beni comuni (Manifestolibri, Roma 2011) e Beni comuni. Un manifesto (Laterza, Roma-Bari 2011).

24 Stefano Salis Fare le regole e poi disfarsene. Con misura Stefano Salis, responsabile delle pagine letterarie del supplemento Domenica de «Il Sole 24ore», collabora con l’annuario Tirature (il Saggiatore) e si occupa di editoria, letteratura, musica. Negli ultimi anni ha curato, fra l’altro, il volume Nero su giallo. Leonardo Sciascia eretico del genere poliziesco (2006), e l’edizione italiana di Il controllo della parola di Andre Schiffrin (Bollati Boringhieri, Torino 2006) e di Fame di realtà di David Shields (Fazi, Roma 2010).

12 Guglielmo Weber La statistica e il buon senso Guglielmo Weber è docente di Econometria all’Università di Padova. Si occupa delle scelte di consumo, risparmio e investimento delle famiglie e di economia dell’invecchiamento. Dirige il gruppo italiano della ricerca ‘SHARE’, che cura la raccolta di dati sugli ultracinquantenni in vari Paesi europei.

33 Massimo Rossi La misura dei luoghi Massimo Rossi, geografo storico, laureato in Lettere all’Università di Ferrara nel 1986, è stato vincitore di una borsa di studio presso il centro cartografico della Newberry Library di Chicago nel 1989. Ha coordinato l’Archivio storico della cartografia estense per l’Istituto di Studi Rinascimentali di Ferrara e dal 1996 è responsabile della cartoteca della Fondazione Benetton Studi Ricerche. Per il Centro Italiano per gli Studi StoricoGeografici (CISGE) coordina la sezione di storia della cartografia.

34 Furio Honsell L’inafferrabile ‘pi greco’

28 Giorgio Osti Consumo solidale e lavoro. Due misure per ora disgiunte di benessere Giorgio Osti è docente di Sociologia dell’ambiente e del territorio presso l’Università di Trieste. La sua ultima pubblicazione è Sociologia del territorio (il Mulino, Bologna 2010).

Massimo Vignelli About Measure Massimo Vignelli, designer, dagli anni ’60 è stato uno dei principali artefici del rinnovamento della grafica italiana. Nel 1971, con la moglie Lella, ha costituito la Vignelli Associates, lavorando per industrie statunitensi ed europee. Ha realizzato progetti grafici nel campo dell’editoria, dell’architettura e dell’arredamento, ricevendo numerosi premi e riconoscimenti.

40

26 Paolo Cacciari Sviluppo sostenibile, un ossimoro. L’incommensurabilità delle forme della vita

25 Fabio Polidori Il senso della misura Fabio Polidori è docente di Filosofia teoretica all’Università di Trieste. Si occupa, in particolare, del rapporto tra la questione della soggettività e i linguaggi della filosofia. Redattore della rivista «aut aut», ha curato e tradotto dal francese opere di Bergson, Deleuze, Foucault, Ricœur. Tra i suoi libri, Necessità di una illusione. Lettura di Nietzsche e Passi indietro. Su verità, soggetto, altro (Bulzoni, Roma 2007, 2012).

30 Guido Nassimbeni Crescita in Cina: misura o dismisura? Guido Nassimbeni è docente di Ingegneria economico-gestionale all’Università di Udine. È autore di numerose pubblicazioni sui temi dell’internazionalizzazione delle operations aziendali, delle reti di fornitura e dei processi innovativi nelle piccole imprese, tra cui Approvvigionamenti in Cina (con M. Sartor, Il sole 24ore, Milano 2004) e Le dimensioni della crescita aziendale (con R. Grandinetti, Franco Angeli, Milano 2007).

31 Roland Psenner, Elena Ilyashuk & Karin Koinig La misura dell’ambiente: dall’Antropocene all’Olocene Roland Psenner è docente di Limnologia all’Università di Innsbruck. Dopo studi di biochimica e microbiologia acquatica, si è occupato dei problemi ambientali delle acque alpine. Attualmente si interessa di temi ecologici, socioeconomici e culturali in relazione alla montagna. Elena Ilyashuk ha conseguito il dottorato di ricerca all’Istituto di Zoologia di San Pietroburgo (Russia). È esperta di paleoecologia. La sua ricerca si concentra in particolare sulla ricostruzione del clima e dell’ambiente del tardo Quaternario nelle zone artiche e alpine. Karin Koinig è esperta di geochimica e di diatomologia, con specifico interesse sui laghi artici e d’alta quota. I suoi ambiti di ricerca comprendono la ricostruzione degli effetti antropogenici e delle oscillazioni naturali sugli ecosistemi acquatici.

Furio Honsell, docente di Informatica presso l’Università di Torino, la Stanford University in California e l’École Normale Supérieure di Parigi, è stato Rettore dell’Ateneo di Udine fino al 2008. Ha all’attivo oltre un centinaio di articoli scientifici su argomenti di informatica teorica e applicazioni della logica all’informatica. Tra i suoi libri, L’algoritmo del parcheggio (Mondadori, Milano 2007) e Curiosità e divertimenti con i numeri (con G.T. Bagni, Aboca, Sansepolcro 2009).

36 Toni Zogno Misurare lo spazio con la musica Toni Zogno, architetto libero professionista di scuola scarpiana, si occupa di restauro, spazi collettivi e residenze eco-sostenibili. La musica è la sua seconda passione. Vive e lavora tra Veneto e Friuli.

37 Mauro Pascolini Il valore dei luoghi: una misura per nuove carte Mauro Pascolini, docente di Geografia presso l’Università di Udine, si occupa di dinamiche evolutive del paesaggio culturale, di comunità alpine, di sviluppo locale e degli aspetti multidimensionali del territorio, con particolare attenzione ai percorsi partecipativi e alle nuove rappresentazioni dei luoghi e degli spazi di comunità. È autore di numerose pubblicazioni, tra cui il volume Le Alpi che cambiano (Forum, Udine 2008), segnalato al premio Gambrinus ‘Giuseppe Mazzotti’.

38 Enrico Gori La misura nell’ambito delle scienze sociali Enrico Gori è docente di Statistica metodologica all’Università di Udine. È stato coordinatore del comitato tecnicoscientifico dell’Istituto Nazionale per la Valutazione del Sistema dell’Istruzione (INValSI) e si occupa di valutazione dei servizi alla persona, con un interesse particolare per i settori dell’istruzione e della sanità.

Roberta Valtorta Gabriele Basilico fotografo misuratore Roberta Valtorta, critica e storica della fotografia, è direttrice scientifica del Museo di Fotografia Contemporanea (Villa Ghirlanda, Cinisello Balsamo). I suoi ultimi libri sono Il pensiero dei fotografi. Un percorso nella storia della fotografia dalle origini a oggi (Bruno Mondadori, Milano 2008) e Fotografia e committenza pubblica. Esperienze storiche e contemporanee (Lupetti, Milano 2009).


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.