Massimo Menichinelli
Reti collaborative. 1.1 (2007)
http://www.openp2pdesign.org
1
2
indice indice delle figure........................................................................................................................................7 indice delle tabelle....................................................................................................................................11 indice deli grafici.......................................................................................................................................13 abstract.....................................................................................................................................................15
prima parte: auto-organizzazione Open Peer-to-Peer.......................17 1. Emergenza delle comunità Open Peer-to-Peer......................................................................................19 1.1.Reti collaborative e contesto Open Peer-to-Peer.............................................................................19 1.2.Individualizzazione e attivazione....................................................................................................20 1.3.Governance: da provider ad enabler...............................................................................................24 1.4.Tecnologia, reti e informazionalismo..............................................................................................26 1.4.1.La network society..................................................................................................................26 1.4.2.Un nuovo paradigma tecno-economico...................................................................................28 1.4.3.L'economia dell'informazionalismo.........................................................................................30 1.4.4.Sistemi distribuiti....................................................................................................................31 1.4.4.1.Natura dei sistemi distribuiti...........................................................................................31 1.4.4.2.Economia distribuita.......................................................................................................32 1.4.4.3.Generazione energetica distribuita.................................................................................32 1.4.4.4.Creatività distribuita.......................................................................................................33 1.4.4.5.Communities of Practice.................................................................................................33 1.4.4.6.Comunità Creative..........................................................................................................35 1.4.4.7.Pro-Am............................................................................................................................37 1.4.4.8.Lead User e Innovation Communities..............................................................................38 2.Open Source...........................................................................................................................................43 2.1.Source code, Binary code, Hacker..................................................................................................43 2.2.Tre generazioni di hacker...............................................................................................................44 2.3.Free software..................................................................................................................................46 2.4.Linux e Open Source.......................................................................................................................47 2.5.Successo e prospettive future.........................................................................................................51 2.6.Estensione della filosofia Open Source...........................................................................................53 2.6.1.Caratteristiche fondamentali ..................................................................................................53 2.6.2.Open Publishing......................................................................................................................56 2.6.3.Open Content.........................................................................................................................56 2.6.4.Open Design...........................................................................................................................56 2.6.5.Open Source Biotechnology....................................................................................................59 2.6.6.Open Source Religion..............................................................................................................60 2.6.7.Open Drink..............................................................................................................................60 3. Peer-to-Peer..........................................................................................................................................63 3.1.Software Peer-to-Peer.....................................................................................................................63 3.2.Internet e World Wide Web: la infrastruttura degli scambi Peer-to-Peer.........................................63 3.2.1.Internet...................................................................................................................................63 3.2.2.Usenet....................................................................................................................................66 3.2.3.DNS........................................................................................................................................68 3.2.4.Il boom di Internet (1995-1999)..............................................................................................68 3.2.5.Il ritorno ad un ruolo attivo: Peer-to-Peer, Blog, Wiki...............................................................69 3.3.Prospettive future per il Peer-to-Peer..............................................................................................72 3.3.1.Peer-to-Peer a pagamento......................................................................................................73 3.3.2.Download a pagamento..........................................................................................................74 3.3.3.Street performer protocol, o mecenatismo distribuito.............................................................74 3.3.4.Produzione collaborativa attraverso la condivisione................................................................75 3.3.5.Il Peer-to-Peer oltre la produzione e la condivisione di opere creative....................................75 4. Reti collaborative come comunità multilocali.......................................................................................79 4.1.Comunità e organizzazione.............................................................................................................79 4.2.Definizioni sociologiche di comunità...............................................................................................80 4.2.1.La comunità come dimensione territoriale: la comunità locale................................................80 4.2.2.La comunità come interazione sociale: la comunità come gruppo..........................................81 4.2.3.La comunità come interazione sociale: la comunità come sistema sociale..............................81 4.2.4.La comunità come interazione sociale: una rete di interazioni................................................82 4.2.5.La comunità come unità pisco-culturale..................................................................................83 4.3.La comunità locale tradizionale come forma archetipa...................................................................83 4.4.La crisi della comunità locale tradizionale e le comunità elettive....................................................85 3
4.5.Comunità globali chiuse: élite cosmopolite.....................................................................................87 4.6.Comunità globali aperte: comunità virtuali.....................................................................................88 4.7.Comunità Open Peer-to-Peer come comunità multilocali................................................................91 4.8.Comunità, capitale sociale, sviluppo locale.....................................................................................96 4.8.1.Comunità e capitale sociale....................................................................................................96 4.8.2.Comunità e fiducia..................................................................................................................97 4.8.3.Comunità e relazioni che generano capitale sociale................................................................99 4.8.4.Capitale sociale e relazioni: analisi delle reti sociali..............................................................101 4.8.5.Analisi delle reti e legami deboli e forti.................................................................................105 4.8.6.Capitale sociale e sviluppo locale .........................................................................................107 4.8.6.1.Globalizzazione e sviluppo locale..................................................................................107 4.8.6.2.La produzione di beni collettivi locali............................................................................108 4.8.6.3.Generazione di capitale sociale a livello locale..............................................................111 5. Reti collaborative come sistemi adattativi complessi..........................................................................113 5.1.Il bazaar e la complessità.............................................................................................................113 5.2.Comunità Open Peer-to-Peer come sistemi complessi..................................................................115 5.3.Auto-organizzazione dei sistemi complessi ..................................................................................118 5.4.Emergenza dell'auto-organizzazione.............................................................................................122 5.5.Evoluzione dell'auto-organizzazione: sistemi complessi adattativi................................................123 5.6.Una evoluzione memetica.............................................................................................................125 5.7.Conservazione dell'auto-organizzazione: Autopoiesi.....................................................................128 5.8.Definire la complessità per affrontarla..........................................................................................130 5.9.Riduzione della complessità e valorizzazione della diversità.........................................................132 5.10.Monocolture e diversità .............................................................................................................134 5.11.Intelligenza collettiva..................................................................................................................137 6.Reti collaborative per lo svolgimento di attività....................................................................................141 6.1.Comunità attorno ad attività.........................................................................................................141 6.2.Azione situata e attività................................................................................................................141 6.3.Teoria dell'Attività.........................................................................................................................143 6.4.La struttura gerarchica dell'attività...............................................................................................144 6.5.Il Sistema di Attività come unità minima di analisi dell'attività umana..........................................145 6.6.Comunità Open Peer-to-Peer e Sistema di Attività........................................................................147 6.6.1.Soggetto...............................................................................................................................148 6.6.2.Oggetto ed artefatti per raggiungere gli obiettivi..................................................................152 6.6.3.Regole..................................................................................................................................152 6.6.3.1.L'etica Hacker del lavoro, del denaro e della rete.........................................................153 6.6.3.1.1.Hacker come appassionato...................................................................................153 6.6.3.1.2.Etica Hacker ed etica protestante.........................................................................153 6.6.3.1.3.Etica Hacker, tempo e denaro...............................................................................155 6.6.3.1.4.Etica Hacker ed Accademia...................................................................................158 6.6.3.1.5.I sette valori dell'etica Hacker...............................................................................159 6.6.3.1.6.Etica Hacker ed economia del dono......................................................................160 6.6.3.2.Le licenze......................................................................................................................161 6.6.3.2.1.La licenza come contratto sociale.........................................................................161 6.6.3.2.2.Copyleft................................................................................................................163 6.6.3.2.3.GPL.......................................................................................................................164 6.6.3.2.4.LGPL......................................................................................................................164 6.6.3.2.5.BSD.......................................................................................................................164 6.6.3.2.6.Mozilla...................................................................................................................165 6.6.3.2.7.Open Source.........................................................................................................166 6.6.3.2.8.Licenze per opere non software: Creative Commons.............................................167 6.6.4.Comunità..............................................................................................................................170 6.6.5.Divisione del lavoro..............................................................................................................173
seconda parte: facilitazione dell'auto-organizzazione Open Peer-toPeer ............................................................................................181 1. Il design per facilitare l'emergenza delle reti collaborative.................................................................183 1.1.Design e creatività distribuita.......................................................................................................183 1.2.Open Peer-to-Peer come opportunità di incontro tra design e sviluppo locale..............................185 1.2.1.Spark!...................................................................................................................................186 1.2.2.ME.Design.............................................................................................................................186 1.2.3.DOTT – Designs Of The Time.................................................................................................187 1.3.Design per comunità Open Peer-to-Peer e design per sviluppo locale...........................................188 1.3.1.Il capitale territoriale come oggetto della progettazione.......................................................190
4
1.4.Designer: da fornitore a facilitatore..............................................................................................193 2.Progetto e comunità: la piattaforma.....................................................................................................197 2.1.Architettura, urbanistica e comunità locali....................................................................................197 2.2.Web design e comunità virtuali.....................................................................................................205 2.3.Relazioni e progetto......................................................................................................................208 2.4.Complessità e progetto.................................................................................................................210 2.5.Supporto all'emergenza delle relazioni: Attività e piattaforme......................................................212 2.5.1.Piattaforma e attività............................................................................................................212 2.5.2.Piattaforma: caratteristiche ed evoluzione............................................................................215 3.Dagli strumenti di analisi agli strumenti progettuali.............................................................................221 3.1.Sistema di Attività e servizi...........................................................................................................221 3.1.1.Attività e servizio..................................................................................................................221 3.1.2.Progettazione del servizio/attività.........................................................................................225 3.2.Analisi delle reti sociali.................................................................................................................233 3.2.1.Legami e reti.........................................................................................................................233 3.2.2.Sociogrammi.........................................................................................................................234 3.2.3.Grafi e loro caratteristiche....................................................................................................235 3.2.4.La rappresentazione matriciale dei dati................................................................................238 3.3.Progetto e progettazione Open Peer-to-Peer.................................................................................242 4.Linee guida progettuali.........................................................................................................................253 4.1.Progettare reti collaborative come comunità Open Peer-to-Peer...................................................253 4.2.Fasi di vita delle comunità Open Peer-to-Peer...............................................................................254 4.3.Fasi dell'intervento progettuale....................................................................................................258 4.3.1.Analisi...................................................................................................................................258 4.3.2.Elaborazione del concept......................................................................................................260 4.3.3.Comunicazione del concept e co-progettazione / sperimentazione / realizzazione parallele. 262 4.3.4.Auto-organizzazione ............................................................................................................263
appendice: casi di auto-organizzazione Open Peer-to-Peer.............267 1.Casi di reti collaborative Open Peer-to-Peer..........................................................................................269 1.1.Comunità Open Peer-to-Peer e attività specifiche.........................................................................269 1.2.Comunità Open Peer-to-Peer e dimensione dell'attivita................................................................270 1.3.Comunità Open Peer-to-Peer e loro origine...................................................................................271 1.4.Comunità Open Peer-to-Peer e artefatti utilizzati..........................................................................272 1.5.Comunità Open Peer-to-Peer e caratteristiche promettenti sviluppate.........................................273 2.Reti collaborative per ricercare e scambiare conoscenze.....................................................................275 2.1.Freenet.........................................................................................................................................275 2.2.Keen.............................................................................................................................................276 2.3.Dipex............................................................................................................................................276 2.4.Friendster.....................................................................................................................................276 3.Reti collaborative per raggiungere una massa critica di partecipanti...................................................279 3.1.PledgeBank...................................................................................................................................279 3.2.Meetup.........................................................................................................................................281 3.3.Smart mobs..................................................................................................................................283 4.Reti collaborative per produrre informazioni.........................................................................................285 4.1.Indymedia.....................................................................................................................................285 4.2.The Global Ideas Bank..................................................................................................................286 4.3.Ohmynews....................................................................................................................................287 4.4.Kuro5hin, Slashdot........................................................................................................................289 4.5.OpenLaw .....................................................................................................................................290 4.6.Wikipedia......................................................................................................................................291 4.7.Connexions...................................................................................................................................293 4.8.Silver stringers..............................................................................................................................293 4.9.NASA Mars Clickworkers...............................................................................................................294 4.10.Distributed Proofreaders.............................................................................................................295 4.11.SETI@Home................................................................................................................................295 4.12.Grid.org .....................................................................................................................................296 5.Reti collaborative per svolgere ricerche................................................................................................297 5.1.The International HapMap Project.................................................................................................297 5.2.The Tropical Disease Initiative (TDI).............................................................................................297 5.3.The Drugs for Neglected Diseases Initiative (DNDi)......................................................................298 5.4.The SNP Consortium Ltd...............................................................................................................299 5.5.The CAMBIA BIOS .........................................................................................................................300 6.Reti collaborative per progettare..........................................................................................................303 6.1.Open Source Green Vehicle (OSGV)..............................................................................................303 5
6.2.OSCar - The Open Source Car Project...........................................................................................303 6.3.Episodi di innovazioni tecnologiche collettive...............................................................................306 6.4.Thinkcycle....................................................................................................................................307 6.5.iCompositions...............................................................................................................................309 6.6.Solar Roof.....................................................................................................................................311 6.7.instructables.................................................................................................................................317 6.8.Zeroprestige.org...........................................................................................................................320 7.Reti collaborative per organizzare attività economiche........................................................................321 7.1.Neubauten.org..............................................................................................................................321 7.2.Amul.............................................................................................................................................324 7.3.Dabbawalla...................................................................................................................................325 7.4.Napster.........................................................................................................................................326 7.5.GNUtella.......................................................................................................................................328 7.6.Amazon........................................................................................................................................328 7.7.eBay.............................................................................................................................................328 7.8.P-grid............................................................................................................................................329 7.9.The Sims.......................................................................................................................................332 8.Reti collaborative per migliorare la condizione locale...........................................................................335 8.1.Terra Madre / Slow Food...............................................................................................................335 8.2.Open Heatlh.................................................................................................................................338 8.2.1.Un approccio Open Peer-to-Peer per i servizi pubblici...........................................................338 8.2.2.Kent: Activmob.....................................................................................................................340 8.2.3.Bolton: Me2 Coach................................................................................................................341 8.3.Development Gateway.................................................................................................................341 8.4.BBC’s Neighbourhood Gardener ..................................................................................................342 8.5.The BBC iCan/Action Network.......................................................................................................342 8.6.Grameen Bank e Self-Help Groups ...............................................................................................349 8.6.1.Grameen Bank......................................................................................................................349 8.6.2.Self-Help Groups...................................................................................................................351 8.6.3.Differenze tra Grameen Bank e Self Help Groups..................................................................353 8.7.Honey Bee network......................................................................................................................354 8.8.Kiva..............................................................................................................................................356 9.Reti collaborative per sostenere altre comunità...................................................................................359 9.1.Sustainable Everyday Project / EMUDE.........................................................................................359 9.2.The New Earth Fund.....................................................................................................................360 9.3.mySociety.....................................................................................................................................362 9.4.The Launchpad (Young foundation)..............................................................................................363 Bibliografia..............................................................................................................................................365 Ringraziamenti........................................................................................................................................377 Creative Commons Deed.........................................................................................................................379
6
indice delle figure Fig. 1: Codice sorgente per l'individuazione di due punti giacenti sullo stesso piano (Fonte: Stallman 2003b)............................................................................................................................44 Fig. 2: Codice binario di un programma, aperto con un normale editor di testo.........................................44 Fig. 3: Codice binario per l'individuazione di due punti giacenti su un piano, in formato numerico ...........44 Fig. 4: Modello IBM 7094, operativo nel 1965 (Fonte: http://www.columbia.edu/acis/history/7094.html)...45 Fig. 5: Richard Stallman (Fonte: http://commons.wikimedia.org/wiki/Category:Richard_Stallman)............46 Fig. 6: Il logo di GNU's Not Unix (Fonte: http://en.wikipedia.org/wiki/GNU) ................................................47 Fig. 7: Il logo della Free Software Foundation (Fonte: http://en.wikipedia.org/wiki/Free_software_foundation).................................................................47 Fig. 8: Linus Torvalds (Fonte: http://en.wikipedia.org/wiki/Linux_Torvalds)................................................48 Fig. 9: Messaggio di proposta del progetto sistema operativo Linux (Fonte: http://groups.google.com/group/comp.os.minix/msg/b813d52cbc5a044b?hl=en).........................48 Fig. 10: Schermata di Linux, versione Ubuntu 6.10....................................................................................49 Fig. 11: Tux, il simbolo di Linux (Fonte: http://commons.wikimedia.org/wiki/Image:NewTux.svg)..............49 Fig. 12: Eric Raymond (Fonte: http://en.wikipedia.org/wiki/Eric_Raymond)................................................50 Fig. 13: Marchio di certifica Open Source Initiative (Fonte: http://www.opensource.org/)..........................50 Fig. 14: Martí Guixé, The Meta-territorial Kitchen Sytem-3 (Fonte: http://www.guixe.com/exhibitions/2003_mtks-lisboa/index.html) .................................................57 Fig. 15: Ronen Kadushin, disegno tecnico del progetto Man Holding Flower (Fonte: http://www.ronen-kadushin.com/Open_Design.asp)......................................................................58 Fig. 16: Ronen Kadushin, foto del progetto Man Holding Flower realizzato (Fonte: http://www.ronen-kadushin.com/Open_Design.asp)......................................................................58 Fig. 17: Etichetta per la birra Vores Øl (Fonte: http://www.voresoel.dk).....................................................61 Fig. 18: Sviluppo di ARPANET al dicembre 1969 (Fonte: Heart, F., McKenzie, A., McQuillian, J., and Walden, D., ARPANET Completion Report, Bolt, Beranek and Newman, Burlington, MA, January 4, 1978).........................................................................................64 Fig. 19: Sviluppo di ARPANET al settembre 1971 (Fonte: Heart, F., McKenzie, A., McQuillian, J., and Walden, D., ARPANET Completion Report, Bolt, Beranek and Newman, Burlington, MA, January 4, 1978).........................................................................................64 Fig. 20: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2).........................................................................64 Fig. 21: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2).........................................................................65 Fig. 22 Mappa di Internet, come realizzata dal progetto Opte nel novembre 2003 (Fonte: http://www.opte.org).....................................................................................................................66 Fig. 23: Rete di Usenet, al maggio 1993 (Fonte: http://mappa.mundi.net/maps/maps_021/).....................67 Fig. 24: Blog (Fonte: http://www.doorsofperception.com)..........................................................................70 Fig. 25: Analisi della rete degli scambi che avvengono tra utenti attraverso Gnutella (Fonte: http://www.cybergeography.org/atlas/gnucleus_graph_large.gif)..................................................71 Fig. 26: Gerarchia: il potere da forma alla rete sociale in modo top-down (Fonte: Chiesi 1999).................79 Fig. 27: Comunità Open Peer-to-Peer: la reputazione da forma alla rete sociale in modo bottom-up (Fonte: Chiesi 1999)..................................................................................................................................79 Fig. 28: Comunità locale preindustriale (Veduta del villaggio di Bochum , Matthäus Merian, "Topographia Germaniae" 1647)...............................84 Fig. 29: Gated community (Fonte: http://en.wikipedia.org/wiki/Gated_community)...................................88 Fig. 30: The well (Fonte: http://www.thewell.com).....................................................................................89 Fig. 31: Comunità Open Peer-to-Peer organizzate come comunità virtuali globali.....................................93 Fig. 32: Comunità Open-Peer-to-Peer organizzate come comunità locali...................................................94 Fig. 33: Comunità Open Peer-to-Peer organizzate come reti di comunità locali.........................................95 Fig. 34: Analisi delle reti sociali in comunità di sviluppo Open Source (Fonte: Madey, Freeh, Tynan 2002)........................................................................................................103 Fig. 35: Analisi delle reti sociali tra bloggers (Fonte: http://radio.weblogs.com/0104369/2003/01/08.html)..................................................................104 Fig. 36: Ponti sociali (Fonte: Buchanan 2003)..........................................................................................105 Fig. 37: Ciclo di retroazione (Fonte: von Bertalanffy 1971)......................................................................115 Fig. 38: Formazione di un anello di retroazione in un sistema i cui elementi hanno, l'uno con l'altro, interazioni di tipo solo lineare (Fonte: Capra 2001).................................................................................116 Fig. 39: Ciclo di retroazione tra eventi.....................................................................................................116 Fig. 40: Esempio di retroazione positiva in una comunità di software Open Source.................................118 Fig. 41: Esempio di retroazione negativa in una comunità di software Open Source...............................118 Fig. 42: Cicli di retroazione tra comunità Open Peer-to-Peer e società.....................................................119 Fig. 43: Diagramma di biforcazione (Fonte: Bertuglia, Staricco 2000).....................................................121
7
Fig. 44: Diagramma di biforcazione a più rami (Fonte: Bertuglia, Staricco 2000).....................................122 Fig. 45: Scomparsa delle alternative e riduzione della diversità con l'introduzione delle monocolture (Fonte: Shiva 1995).................................................................................................................................125 Fig. 46: Evoluzione dell'attività animale in attività umana (Fonte: Engeström 1987)...............................145 Fig. 47: Modello del Sistema di Attività (Fonte: Engeström 1987)............................................................146 Fig. 48: Due sistemi di attività interagenti (Fonte: Engeström 1987).......................................................147 Fig. 49: Sistema di Attività e contraddizioni (Fonte: Engeström 1987).....................................................148 Fig. 50: Copyleft......................................................................................................................................163 Fig. 51: Logo Creative Commons.............................................................................................................169 Fig. 52: Simboli Creative Commons.........................................................................................................170 Fig. 53: Creative Commons, some rights reserved...................................................................................170 Fig. 54: Livelli di reputazione e impegno in una comunità Open Peer-to-Peer..........................................172 Fig. 55: Evoluzione delle comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)....................................................................177 Fig. 56: Capitale territoriale (Fonte: Simonelli, Vignati 2004)...................................................................191 Fig. 57: Matrice dei livelli di partecipazione in un intervento progettuale (Fonte: Hamdi, Goethert 1997)................................................................................................................200 Fig. 58: Progettisti e comunità nella matrice della partecipazione (Fonte: Hamdi, Goethert 1997)................................................................................................................202 Fig. 59: Livelli di partecipazione in un processo progettuale convenzionale (Fonte: Hamdi, Goethert 1997)...............................................................................................................202 Fig. 60: Livelli di partecipazione in un processo progettuale basato sul lavoro a basso costo (Fonte: Hamdi, Goethert 1997)...............................................................................................................203 Fig. 61: Livelli di partecipazione in un processo progettuale svolto con l'obiettivo della rapidità (Fonte: Hamdi, Goethert 1997)...............................................................................................................203 Fig. 62: Livelli di partecipazione formali in un processo progettuale (Fonte: Hamdi, Goethert 1997)...............................................................................................................204 Fig. 63: Livelli di partecipazione in un processo progettuale di Action Planning con l'obiettivo della rapidità (Fonte: Hamdi, Goethert 1997)..................................................................................................204 Fig. 64: Schema comparativo rappresentante le differenze tra la relazioni “I-THOU” e l'esperienza “I-IT” (Fonte: Cipolla 2004)...............................................................................................................................209 Fig. 65: Open Health, Kent: relazione tra piattaforma, strumenti e ruoli (Fonte: Design Council 2006a).................................................................................................................213 Fig. 66: Comunità e piattaforma della comunità......................................................................................213 Fig. 67: Attività e piattaforma per l'attività come piattaforma per la comunità........................................214 Fig. 68: Piattaforma descritta con il Sistema di Attività............................................................................215 Fig. 69: La natura reticolare della piattaforma: condivisione delle caratteristiche nei nodi......................217 Fig. 70: Natura reticolare della piattaforma.............................................................................................218 Fig. 71: Piattaforma iniziale.....................................................................................................................219 Fig. 72: Piattaforma nelle prime fasi di discussione collettiva..................................................................219 Fig. 73: Piattaforma di una attività sviluppata.........................................................................................219 Fig. 75: Servuction (Fonte: Eiglier e Langeard 1988)...............................................................................222 Fig. 76: Struttura gerarchica dell'attività di servizio (Fonte: Sangiorgi 2004)...........................................224 Fig. 77: Modello dell'incontro (Fonte: Sangiorgi 2004).............................................................................227 Fig. 78: Percorso progettuale (Fonte: Sangiorgi 2004)............................................................................227 Fig. 79: Mappa del Sistema di Attività (Fonte: Sangiorgi 2004)................................................................228 Fig. 80: Esempio di mappa del Sistema di Servizio (Fonte: SEP)..............................................................228 Fig. 81: Mappa dell'offerta (Fonte: Sangiorgi 2004).................................................................................230 Fig. 82: Blueprint (Fonte: Zeithaml e Bitner 2000)...................................................................................230 Fig. 83: Caratteristiche che possono descrivere i legami fra i nodi (Fonte: Chiesi 1999)..........................234 Fig. 84: Grafi............................................................................................................................................237 Fig. 85: Grafo bipartito della matrice di affiliazione in tabella 20 (Fonte: Chiesi 1999).............................241 Fig. 86: Grafo della matrice di adiacenza di tabella 22 (Fonte: Chiesi 1999)............................................241 Fig. 87: Grafo della matrice di adiacenza di tabella 23 (Fonte: Chiesi 1999)............................................241 Fig. 88: Ipergrafo ricavato dalla matrice di affiliazione di tabella 20 (Fonte: Chiesi 1999)........................242 Fig. 89: Processo NPD tradizionale (Fonte: Siedlok 2002)........................................................................243 Fig. 90: Open Source-based Product Development Model (Fonte: Siedlok 2002).....................................244 Fig. 91: Percorso progettuale nel software proprietario e in quello Open Source.....................................247 Fig. 92: Esempio di mappa del sistema applicato ad una comunità Open Peer-to-Peer (Thinkcycle)........251 Fig. 93: Livelli di partecipazione nelle differenti fasi progettuali..............................................................255 Fig. 94: Fasi di vita di una comunità Open Peer-to-Peer e fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)..........................................................................256 Fig. 95: Fasi di vita di una comunità: particolare delle fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)..........................................................................257 Fig. 96: Costruzione di reti con agenti esterni durante le differenti fasi di vita........................................258 Fig. 97: Livelli di partecipazione nella fase di analisi................................................................................259 Fig. 98: Livello di partecipazione nella fase di elaborazione del concept..................................................260 8
Fig. 99: Livelli di partecipazione nella comunicazione del concept e nel suo sviluppo/test.......................262 Fig. 100: Cicli di retroazione nella fase di sviluppo del progetto..............................................................263 Fig. 101: Casi di comunità Open Peer-to-Peer, suddivisi in base alla loro principale attività....................269 Fig. 102: Casi di comunità Open Peer-to-Peer, suddivisi in base alla dimensione di azione......................270 Fig. 103: Casi di comunità Open Peer-to-Peer, suddivisi in base alla loro fonte di ispirazione..................271 Fig. 104: Casi di comunità Open Peer-to-Peer, suddivisi in base alla natura degli artefatti utilizzati per auto-organizzarsi.....................................................................................................................................272 Fig. 105: Casi di comunità Open Peer-to-Peer, suddivisi in base al tipo di attività che hanno maggiormente sviluppato e che può essere replicato......................................................................................................273 Fig. 106: Casi di comunità Open P2P rivolte alla ricerca e scambio di conoscenze..................................275 Fig. 107: Il logo di Freenet (Fonte: http://freenetproject.org)...................................................................275 Fig. 108: Keen: ricerca di consulenze nell'ambito della multimedialità (Fonte: http://www.keen.org)......277 Fig. 109: Dipex: ricerca di conoscenze ed informazioni su determinate malattie (Fonte: http://www.dipex.org) .................................................................................................................277 Fig. 110: Friendster: gestione dei gruppi (Fonte: http://www.friendster.com)..........................................278 Fig. 111: Casi di comunità Open P2P rivolte al raggiungimento di una massa critica di partecipanti.......279 Fig. 112: PledgeBank: possibilità di dare vita ad un pledge o di ricercarlo nella propria dimensione locale (Fonte: http://www.pledgebank.com).......................................................................................................279 Fig. 113: PledgeBank: come dare vita ad un pledge (Fonte: http://www.pledgebank.com)......................280 Fig. 114: PledgeBank: come ricercare i pledge che necessitano partecipanti (Fonte: http://www.pledgebank.com).......................................................................................................281 Fig. 115: Meetup (Fonte: http://www.meetup.com)..................................................................................282 Fig. 116: Meetup: lista dei gruppi per tema e località (Fonte: http://www.meetup.com)..........................282 Fig. 117: Casi di comunità Open Peer-to-Peer rivolte alla produzione di informazioni..............................285 Fig. 118: Il logo Indymedia (Fonte: http://www.indymedia.org)................................................................285 Fig. 119: Indymedia: sede locale di Edinburgo (Foto: David Monniaux)...................................................286 Fig. 120: Global Ideas Bank: lista di idee e grado di sviluppo (Fonte: http://www.globalideasbank.org)..286 Fig. 121: Global Ideas Bank: descrizione di una idea e spazio per la votazione (Fonte: http://www.globalideasbank.org)................................................................................................287 Fig. 122: Ohmynews: notizie (Fonte: http://www.ohmynews.com)..........................................................288 Fig. 123: Ohmynews: recensione delle notizie da parte degli stessi lettori (Fonte: http://www.ohmynews.com).......................................................................................................288 Fig. 124: Kuro5hin (Fonte: http://www.kuro5hin.org).............................................................................289 Fig. 125: Slashdot (Fonte: http://www.slashdot.org)................................................................................289 Fig. 126: Slashdot: peer review e karma (Fonte: http://www.slashdot.org)..............................................290 Fig. 127: Open Law (Fonte: http://cyber.law.harvard.edu/openlaw).........................................................291 Fig. 128: Wikipedia: un articolo (Fonte: en.wikipedia.org)........................................................................291 Fig. 129: Wikipedia: modifica dei contenuti (Fonte: en.wikipedia.org).....................................................292 Fig. 130: Wikipedia: correzione degli errori e ritorno alle versioni precedenti (Fonte: en.wikipedia.org). .292 Fig. 131: Connexions (Fonte: http://cnx.org)............................................................................................293 Fig. 132: Silver Stringers (Fonte: http://stringers.media.mit.edu)...........................................................293 Fig. 133: Colonna di sinistra, crateri delineati da Nadine Barlow, una geologa esperta; colonna di destra, fatto dai clickworkers (Fonte: Nasa 2001)................................................................................................294 Fig. 134: Distributed Proofreaders (Fonte: http://www.pgdp.net)............................................................295 Fig. 135: Distributed Proofreaders: libri controllati (Fonte: http://www.pgdp.net)...................................295 Fig. 136: Logo SETI@Home(Fonte: http://en.wikipedia.org/wiki/SETI%40home).......................................296 Fig. 137: Schermata di Seti@Home(Fonte: http://en.wikipedia.org/wiki/SETI%40home)..........................296 Fig. 138: Grid.org: United Devices Agent (Fonte: http://en.wikipedia.org/wiki/Grid.org)..........................296 Fig. 139: Comunità Open Peer-to-Peer per lo svolgimento di ricerche.....................................................297 Fig. 140: HapMap (Fonte: http://www.hapmap.org).................................................................................297 Fig. 141: HapMap: risultati liberamente accessibili (Fonte: http://www.hapmap.org)...............................298 Fig. 142: DNDi: progetti (Fonte: http://www.dndi.org)..............................................................................299 Fig. 143: SNP (Fonte: http://snp.cshl.org)................................................................................................300 Fig. 144: SNP: risultati liberamente accessibili (Fonte: http://snp.cshl.org)..............................................300 Fig. 145: CAMBIA Bios (Fonte: http://www.bios.net)................................................................................301 Fig. 146: BioForge (Fonte: http://www.bios.net)......................................................................................301 Fig. 147: BioForge: progetti (Fonte: http://www.bios.net).......................................................................301 Fig. 148: Comunità Open Peer-to-Peer che progettano collaborativamente.............................................303 Fig. 149: Open Source Green Vehicle (Fonte: http://www.osgv.org).........................................................303 Fig. 150: OSCar (Fonte: http://www.theoscarproject.org).........................................................................304 Fig. 151: OSCar: versione 0.1 (Fonte: http://www.theoscarproject.org) ..................................................305 Fig. 152: Thinkcycle (Fonte: http://www.thinkcycle.org)..........................................................................307 Fig. 153: Thinkcycle: esempio di dispositivo per la cura del colera progettato e messo in produzione (Fonte: http://www.thinkcycle.org) .........................................................................................................308 Fig. 154: iCompositions (Fonte: http://www.icompositions.com)..............................................................310 Fig. 155: Esempio di progetto con tecnologia Solar Roof (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................313 9
Fig. 156: Esempio di progetto con tecnologia Solar Roof : clima ed energia (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................314 Fig. 157: Esempio di progetto con tecnologia Solar Roof: isolamento (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................315 Fig. 158: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno estivo (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................316 Fig. 159: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno invernale (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................316 Fig. 160: Esempio di progetto con tecnologia Solar Roof: funzionamento notturno (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)...........................................................317 Fig. 161: instructables (Fonte: http://www.instructables.com).................................................................318 Fig. 162: instructables: progetto identificato da immagini e testi, con elenco dei componenti e strumenti necessari (Fonte: http://www.instructables.com).....................................................................................318 Fig. 163: instructables: fase di un percorso produttivo (Fonte: http://www.instructables.com)................319 Fig. 164: instructables: esempio di Howtoon (Fonte: http://www.instructables.com)...............................319 Fig. 165: Zeroprestige.org (Fonte: http://www.zeroprestige.org).............................................................320 Fig. 166: Zeroprestige.org: attrezzatura progettata e condivisa (Fonte: http://www.zeroprestige.org)....320 Fig. 167: Comunità Open Peer-to-Peer che organizzano e svolgono attività economiche.........................321 Fig. 168: Einstürzende Neubauten e supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vorktamp Fonte: http://www.flickr.com/photos/vortkamp/93302926/).. .322 Fig. 169: Ruolo attivo dei supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vortkamp Fonte: http://www.flickr.com/photos/vortkamp/93301933/)...................322 Fig. 170: Neubauten.org: proposta di partecipazione (Fonte: http://www.neubauten.org)......................323 Fig. 171: Amul: pubblicità murale in Rajastan (India) (Foto: Bartolomeo Mecánico Fonte: http://www.elve.net/padv/en/fiber.htm)...........................................323 Fig. 172: Dabbawalla (Fonte: http://www.mydabbawala.com).................................................................326 Fig. 173: Contenitori utilizzati dai dabbawalla (Fonte: http://www.typocity.com).....................................326 Fig. 174: Il logo di Napster (Fonte: http://en.wikipedia.org/wiki/Napster).................................................326 Fig. 175: Supply chain delle GCMMF (Fonte: Chandra 2002)....................................................................327 Fig. 176: Struttura della cooperativa nello Stato del Gujarat (Fonte: Chandra 2002)..............................327 Fig. 177: Il logo della comunità di Gnutella (Fonte: http://www.gnutella.com).........................................328 Fig. 178: Amazon: prodotti in offerta (Fonte: http://www.amazon.com)...................................................330 Fig. 179: Amzon: per ogni prodotto vengono associati gli acquisti simili effettuati da altri utenti (Fonte: http://www.amazon.com)............................................................................................................330 Fig. 180: Amazon: recensioni dei prodotti (Fonte: http://www.amazon.com)..........................................330 Fig. 181: eBay: asta di un bene (Fonte: http://www.ebay.it)....................................................................331 Fig. 182: eBay: profilo personale dei venditori e reputazione acquisita (Fonte: http://www.ebay.it)........331 Fig. 183: the Sims (Fonte: http://en.wikipedia.org/wiki/The_Sims)...........................................................333 Fig. 184: Esempi di arredi scaricabili e condivisibili (Fonte: http://www.simsinteriordesigns.net).............333 Fig. 185: Comunità Open Peer-to-Peer che cercano di migliorare la propria condizione locale................335 Fig. 186: Terra Madre: partecipante (Fonte: http://www.terramadre2004.org)........................................336 Fig. 187: Terra Madre: partecipanti (Fonte: http://www.terramadre2004.org).........................................337 Fig. 188: Terra Madre: la conferenza (Fonte: http://www.terramadre2004.org).......................................337 Fig. 189: Open Health, Kent: rivista e ricompense (Fonte: Design council 2006a)...................................344 Fig. 190: Open Health, Kent: monitoraggio della propria situazione........................................................344 Fig. 191: Open Health, Kent: monitoraggio della propria situazione (Fonte: Design council 2006a).........344 Fig. 192: Open Health, Bolton: Me2 coach (Fonte: Design council 2006b)...............................................345 Fig. 193: BBC Neighbourhood Gardener (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener)........................................................346 Fig. 194: BBC Neighbourhood Gardener: ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener)........................................................346 Fig. 195: BBC Action Network: homepage e ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/actionnetwork)..........................................................................................347 Fig. 196: BBC Action Network: esempio di campagna (Fonte: http://www.bbc.co.uk/actionnetwork).......347 Fig. 197: Broadcasting (Fonte: Coleman et al. 2005)...............................................................................348 Fig. 198: Networking (Fonte: Coleman et al. 2005)...................................................................................348 Fig. 199: BBC iCan (Action Network) (Fonte: Coleman et al. 2005)..........................................................348 Fig. 200: Gruppo di credito della Grameen Bank ( Yunus M. primo a sinistra) (Fonte: http://www.grameen-info.org/bank/gallery/borrowers.html)........................................................350 Fig. 201: Self-help Group (Fonte: http://www.ilo.org/public/english/dialogue/actrav/new/india04.htm)....353 Fig. 202: Honey Bee Network: database delle innovazioni raccolte (Fonte: http://www.sristi.org)...........355 Fig. 203: Kiva: presentazione dei creditori (Fonte: http://www.kiva.org)..................................................358 Fig. 204: Comunità Open Peer-to-Peer che sostengono altre comunità...................................................359 Fig. 205: Sustainable Everyday Project (Fonte: http://www.sustainable-everyday.net)............................360 Fig. 206: New Earth Fund (Fonte: http://www.newearth.info)...................................................................362 Fig. 207: mysociety (Fonte: http://www.mysociety.org)...........................................................................362 Fig. 208: Launchpad (Fonte: http://www.youngfoundation.org.uk)..........................................................363 10
indice delle tabelle Tabella 1: Corrispondenza alfabeto alfanumerico - alfabeto binario (Fonte: http://www.netlingo.com/more/binary.html, http://www.kerryr.net/pioneers/ascii3.htm)...............43 Tabella 2: Caratteristiche dei Media tradizionali rispetto ai blog (Fonte: Casaleggio Associati 2006).........71 Tabella 3: L'emergere della dinamica relazionale Peer-to-Peer e della sua gestione (Fonte: Bauwens 2005)..............................................................................................................................76 Tabella 4: Gerarchia e cooperazione nello sviluppo della società e nel concetto di Peer-to-Peer (Fonte: Bauwens 2005)..............................................................................................................................78 Tabella 5: Attività delle comunità Open Peer-to-Peer...............................................................................141 Tabella 6: Carateristiche delle principali licenze di Free e Open Source Software (Fonte: Aliprandi 2005)...........................................................................................................................167 Tabella 7: Principali licenze di Free e Open Source Software e spirito copyleft........................................168 Tabella 8: Tipi di comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)....................................................................177 Tabella 9: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Solar Roof e BBC Action Network......................................................................................................................178 Tabella 10: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Neubauten.org e Terra Madre..................................................................................................................179 Tabella 11: Scala della partecipazione (Fonte: Arrnstein 1969)...............................................................200 Tabella 12: Legame tra socievolezza e usabilità (Fonte: Preece, Krichmar 2003)....................................207 Tabella 13: Socievolezza, usabilità e progetto (Fonte: Preece, Krichmar 2003).......................................208 Tabella 14: La struttura gerarchica dell'attività (Fonte: Sangiorgi 2004).................................................214 Tabella 15: Fasi progettuali (Fonte: Sangiorgi 2004)...............................................................................232 Tabella 16: Tipi di grafo e legami corrispondenti (Fonte: Chiesi 1999).....................................................237 Tabella 17: Semplice matrice per l'analisi dei legami (Fonte: Chiesi 1999)..............................................238 Tabella 18: Matrice di affiliazione per sette soggetti e quattro eventi (Fonte: Chiesi 1999).....................239 Tabella 19: Esempio di matrice di incidenza per la tabella 18 (Fonte: Chiesi 1999).................................239 Tabella 20: Corrispondente matrice di adiacenza della tabella 18, considerando i soggetti (Fonte: Chiesi 1999)................................................................................................................................239 Tabella 21: Corrispondente matrice di adiacenza della tabella 18, considerando gli eventi (Fonte: Chiesi 1999)................................................................................................................................240 Tabella 22: Fasi di intervento progettuale rivolto a comunità Open Peer-to-Peer (Fonte: adattato da Sangiorgi 2004)........................................................................................................266
11
12
indice dei grafici Grafico 1: Vendite iPod 2003-2005 (fonte: http://en.wikipedia.org/wiki/IPod)............................................74 Grafico 2: Vendite iTunes 2005-2006 (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-song-purchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)........................................................................................................74 Grafico 3: Motivi per partecipare in una comunitĂ di software Open Source (Fonte: Kim 2003 )...................................................................................................................................151 Grafico 4: Benefici maggiori ricavati dalla partecipazione in una comunitĂ Open Source (Fonte: Kim 2003)....................................................................................................................................151
13
14
abstract Questa tesi rappresenta una ricerca ed analisi di casi esistenti di reti collaborative, per l'elaborazione di una serie di linee guida progettuali rivolte allla facilitazione dell'emergenza di tali reti. Sono stati ricercati ed analizzati quei casi che, direttamente o indirettamente, si auto-organizzano con principi organizzativi simili a quelli delle comunità Open Source e Peer-to-Peer. Sono quindi reti collaborative che formano comunità Open Peer-to-Peer, per l'attivazione nella risoluzione di un proprio problema, attraverso una collaborazione collettiva aperta a tutti (open) e paritaria (peer-to-peer). In questo modo si costituiscono reti orizzontali non gerarchiche, multilocali, che riescono a collegare reti brevi (ossia l'interesse per la dimensione locale) con reti lunghe (coinvolgendo un numero potenzialmente ampio di partecipanti). La loro caratteristica di comunità permette la creazione di capitale sociale, in grado di generare ulteriori processi di sviluppo locale. Data la loro capacità di auto-organizzazione, possono presentare comportamenti complessi che permettono di affrontare problemi complessi. In questo senso il designer assume un ruolo di facilitatore dell'emergenza di queste comunità, essendo coinvolto in un processo progettuale aperto e paritario (Open Peer-to-Peer). Questo processo di coprogettazione si rivolge alle caratteristiche progettabili che permettono interazione tra i partecipanti e lo sviluppo di una attività condivisa, ossia prodotti, servizi, artefatti comunicativi, che garantiscano ai partecipanti maggiori probabilità di auto-organizzazione. In particolare, l'attivita della comunità può essere co-progettata come un servizio. Le linee guida progettuali riprendono quindi processi elaborati in vari ambiti e soprattutto un processo progettuale tipico delle comunità Open Peer-to-Peer. Attraverso un processo progettuale Open Peer-to-Peer viene quindi co-progettata una organizzazione Open Peer-toPeer. In appendice vengono riportati i casi riscontrati di comunità Open Peer-to-Peer, in quanto rappresentano un esempio della loro possibile estensione in altri ambiti e la loro natura di giacimento di forme organizzative promettenti.
15
16
prima parte: auto-organizzazione Open Peer-to-Peer
17
18
1.
Emergenza delle comunità Open Peer-to-Peer
1.1. Reti collaborative e contesto Open Peer-to-Peer Le reti collaborative rappresentano l'espressione di una forma di organizzazione che si sta diffondendo con crescente velocità e successo, grazie alla sua capacità di affrontare problemi complessi e di coinvolgere un numero potenzialmente elevato di partecipanti. In generale, una rete collaborativa può essere vista come un sistema di connessione e di trattamento delle informazioni che permette a diverse persone di collegarsi tra loro e di organizzarsi per ottenere un risultato1. Nel loro sviluppo, le reti collaborative rappresentano un processo sociale di apprendimento, basato su forme di organizzazione il più possibile decentrate e flessibili; sono cioè sistemi capaci di riconoscere le specificità del contesto, di agire e soprattutto di apprendere dall'esperienza2. La rete è una metafora organizzativa che sta vedendo aumentare la propria diffusione, in quanto rappresenta meglio di altre metafore l'architettura della complessità, riconoscendo l'importanza della partecipazione di un numero potenzialmente elevato di persone. Le reti collaborative rappresentano, quindi, una modalità di cooperazione che, rispetto alle tradizionali forme di cooperazione, risulta amplificata nel numero dei partecipanti e quindi anche nei risultati ottenibili. Forme di cooperazione non sono certamente recenti ma sono sempre esistite; ciò che è interessante notare oggi, come queste forme siano state amplificate a tali livelli da poter essere considerate, in molti ambiti, più promettenti della semplice competizione. Ciò che ha portato all'amplificazione delle forme tradizionali di cooperazione è stata la nascita di due fenomeni nell'ambito dell'informatica e delle telecomunicazioni: da una parte, il movimento del Free Software prima e, in modo maggiore, del software Open Source poi; dall'altra parte l'introduzione di reti di telecomunicazione e soprattutto di software Peer-to-Peer (Peer-to-Peer) per la loro gestione. Questi due fenomeni rappresentano le due facce di una stessa medaglia: forme di organizzazione di reti collaborative in grado di coinvolgere un numero di partecipanti potenzialmente elevato. Sono due fenomeni che si basano principalmente sulla condivisione delle informazioni e dei risultati (open inteso come 'accessibile') con dinamiche relazionali di tipo paritario (Peer-to-Peer, nel senso 'da pari a pari'). Sono questi due concetti che negli ultimi decenni (in particolare, da metà degli anni '90 del secolo scorso) hanno dato luogo alla 1 2
costruzione di reti collaborative sotto forma di comunità, caratteristica questa che amplifica ulteriormente la loro importanza. Questi due concetti, e le forme di organizzazione che sottendono, hanno avuto un notevole successo, tale per cui i loro principi sono stati trasferiti anche in altri ambiti, rispetto al tradizionale ambito dell'informatica e delle telecomunicazioni. Si assiste quindi alla nascita di numerose comunità Open Peer-to-Peer, basate sugli stessi principi, replicabili ed adattabili secondo lo specifico contesto. Comprendere le modalità di organizzazione (o meglio: auto-organizzazione) di tali comunità è un primo passo per poter replicare i loro successi in altri ambiti, costruendo reti collaborative. L'emergenza delle comunità Open Peer-to-Peer è una diretta conseguenza di alcune condizioni presenti nella società attuale, e ricollegabili a tendenze di più lungo corso. Tendenze di innovazione tecnologica ma anche sociali ed economiche. Le comunità Open Peer-to-Peer rappresentano infatti un ottimo esempio di espressione del concetto di individualizzazione attraverso l'attivazione personale, una tendenza di lungo corso che ha inizio con l'Illuminismo. Ma sono anche una conseguenza dell'introduzione delle Information and Communication Technologies (ICT), che hanno rivoluzionato l'economia e la società negli ultimio decenni, con una intensità in continuo aumento. Open Source e Peer-to-Peer nascono proprio in ambito informatico, e il loro sviluppo è stato permesso dalla presenza di Internet. Sono quindi possibili in quanto vi sono dei sistemi distribuiti che le sostengono: la crescente diffusione di questi sistemi può preludere ad una ancor maggior diffusione delle modalità organizzative Open Peer-to-Peer. Infine, sono anche una espressione della presenza di creatività distribuita all'interno della società, ossia di una creatività presente anche al di fuori delle tradizionali discipline professionali creative. L'emergenza del fenomeno della creatività distribuita è stata riscontrata in differenti ambiti e discipline, e salutata generalmente come una possibile fonte di innovazione economica e sociale. Riconoscere la natura di fenomeno di creatività distribuita alle comunità Open Peer-to-Peer può permettere l'utilizzo delle loro modalità di organizzazione anche negli altri ambiti di creatività distribuita, in modo da poterne garantire una maggiore diffusione ed evoluzione.
Manzini, Jegou (2003) Ibidem 19
1.2. Individualizzazione e attivazione Da alcuni anni è venuta via via diminuendo, fino quasi a scomparire, la precedente convergenza della comunità scientifica attorno al termine con cui definire la società contemporanea. Per lungo tempo infatti è prevalso tra gli studiosi il ricorso al termine di società industriale, di società capitalistica o di capitalismo organizzato o anche di società salariata (o salariale), e altri ancora hanno parlato di società fordista o di modello fordista di regolazione sociale. Infine molti altri hanno accettato la definizione di società postindustriale o neoindustriale. Ma tutti, a ben vedere, anche coloro che si sono spinti più avanti nella elaborazione di una denominazione (come coloro che hanno parlato di società della conoscenza o dell'informazione) sono rimasti in realtà nell'alveo di una medesima visione industrialista o produttivista della società. Una concezione, questa, in cui lo sviluppo produttivo, umano e tecnologico, influenza direttamente la struttura della società. Ma, oggigiorno, i forti processi di cambiamento che avvengono intorno a noi rendono la società più fluida e più pragmatica. Per quanto possa sembrare discutibile, si può parlare di una società meno strutturata, o, più esattamente, di una società in via di continua e accelerata ristrutturazione. In questo passaggio si verifica un importante cambiamento di prospettiva: cambia il quadro di riferimento storico-teorico. Ad esempio, Massimo Paci3 effettua una analisi sui cambiamenti attuali del mondo del lavoro e del welfare state basandosi su una prospettiva differente, la tendenza costante all'individualizzazione: "usciamo da una visione della storia europea relativamente recente che ha al suo centro la fase cruciale della società industriale (essendo quelle che l'hanno preceduta e seguita definibili con riferimento ad essa), per entrare in una visione della modernizzazione occidentale di più ampio respiro. Più che alla rivoluzione industriale, come fase di rottura con la società tradizionale, si guarda adesso all'Illuminismo e alle Dichiarazioni, americana e francese, dei diritti dell'uomo. In secondo luogo, mentre nella visione centrata sulla società industriale l'elemento caratterizzante era la costituzione di forti identità e strutture collettive, spostando l'angolo visuale sulla modernizzazione in senso ampio, l'elemento caratterizzante diventa il processo di individualizzazione, come affrancamento dell'individuo dalle appartenenze obbligate"4. Un processo, quindi, di crescita della consapevolezza, autonomia e autodeterminazione universali, che costituisce l'epicentro della modernizzazione occidentale e si manifesta nel crescente grado di autonomia e riflessività della 3 4 20
Paci (2005) Ibidem p.40
popolazione nella società contemporanea. Un processo che sta alla base della diffusione di nuovi tipi di relazioni sociali in un'ampia serie di ambiti, e caratterizzate dalla ricerca di una maggiore libertà e progettualità personale, in un quadro generale di affrancamento da regole e appartenenze prefissate. Si può vedere come le comunità Open Peer-to-Peer rappresentino quindi casi di ricerca progettuale di nuove forme di organizzazione, nuove forme di relazione basate sulla propria autonomia ed auto-organizzazione. In una comunità Open Peer-to-Peer, infatti, vengono valorizzate le caratteristiche individuali, in base alla loro capacità di apportare un contributo alla collettività. L'individualizzazione è anzitutto il processo storico di affrancamento o di emancipazione dell'individuo dalle forme obbligate di appartenenza proprie della società tradizionale o dell'Antico Regime in Europa (la famiglia tradizionale, il lignaggio, il ceto, la denominazione religiosa, il villaggio, perfino l'arte o il mestiere), con i loro vincoli e i loro controlli. Da questo punto di vista, per Paci il principio di individualizzazione è "tuttora attuale e può costituire la chiave per comprendere le difficoltà che conoscono oggi il mondo del lavoro e i sistemi di protezione sociale. Si tratta infatti di chiedersi se l'assetto raggiunto, nella tutela del lavoro e del welfare dalle nostre moderne società industriali, pur avendo permesso il conseguimento di livelli mai raggiunti prima di sicurezza economica e sociale, non contenga elementi di compressione dell'individuo e della sua domanda di autonomia e realizzazione di sé”5. Paci constata infatti che il processo di individualizzazione non è ancora arrivato a conclusione, con il raggiungimento di tutte le persone, ma ha attraversato delle fasi di crescente successo. "È vero che le Dichiarazioni dei diritti miravano ad affermare in generale, i diritti inalienabili e sacri dell'individuo, entro i quali era collocato, senza alcuno status particolare il diritto di proprietà. Tuttavia, il diritto di proprietà ha svolto una funzione discriminatoria di fatto, perché solo alcuni cittadini (coloro che già disponevano della proprietà) potevano agirlo (o erano rispetto ad esso nelle condizione di un effettivo empowerment). Dunque, per tutta la fase di affermazione della società industriale, il processo di individualizzazione ha riguardato essenzialmente i ceti proprietari borghesi. Sono questi ceti che hanno potuto praticare i nuovi spazi di libertà, civili e politici, offerti dalle Costituzioni repubblicane. La proprietà di cui disponevano offriva loro una sicurezza di fondo in grado di prendere il posto delle forme di protezione sociale premoderne (di lignaggio, ceto e chiesa), che adesso erano entrate in crisi. Anche per la massa dei proletari, privi di proprietà, che andavano a formare l'esercito della forza lavoro industriale, le Dichiarazioni dei diritti 5
Ibidem p.14
permettevano, in linea di principio, la liberazione dalle appartenenze obbligate tradizionali (di famiglia, di chiesa, di villaggio, ecc.), ma questo li gettava di fatto in uno stato di insicurezza sociale permanente. [...] Sarà solo a seguito di un lungo e faticoso processo di conquista dei diritti sociali e del lavoro, reso possibile dalla aggregazione di classe o di categoria e dallo sviluppo del movimento sindacale e politico dei lavoratori, che si riuscirà a supplire alla mancanza originaria della proprietà privata da parte della grande massa dei cittadini"6. Con la nascita della società industriale, dunque, il progetto della modernità occidentale (ovvero dell'individualizzazione) si realizza solo a metà. La grande massa dei lavoratori dovrà passare per una lunga fase di lotte e di conquiste sociali prima di raggiungere un minimo di sicurezza, che permetta anche a loro di affacciarsi alle tematiche della libertà sostanziale e della realizzazione di sé: dalla conquista del diritto di associazione sindacale e dal mutualismo operaio allo sviluppo dei diritti sociali e del lavoro, fino alla costruzione del welfare state. L'avvento della grande fabbrica taylor-fordista e della sua organizzazione gerarchica ha comportato, per tutta una generazione di lavoratori, l'abbandono delle iniziali speranze di affermazione lavorativa personale. Le gerarchie fordiste rendevano estremamente difficile (se non impossibile) una libera evoluzione della propria professione, tendendo invece a mantenere fisse le occupazioni dei propri lavoratori (e avendo quindi un lato positivo non trascurabile). Ad ogni modo, questa fase centrale della società industriale, la realizzazione del welfare state e la situazione di (quasi) piena occupazione hanno permesso alle famiglie operaie di sperimentare una condizione di sicurezza sociale e di sviluppo dei consumi, mai conosciuta in precedenza. Nella fase fordista della modernità, quindi, la struttura rigidamente gerarchica della divisione del lavoro e un regime di consumo di massa (quindi massificato, senza una ampia libertà di scelta e personalizzazione), pur ampliando le possibilità individuali, tendono a chiuderne altre: "è come se il soggetto storico della modernizzazione, caduto nelle panie dei consumi, ne restasse momentaneamente assuefatto, dimenticando le sfide più alte, sul piano della autorealizzazione lavorativa e della effettiva capacità di controllo della propria vita"7. Anche la famiglia è stata interessata dal crescente processo di individualizzazione. La famiglia nucleare moderna è stata a lungo (è in molti paesi è ancora) arroccata attorno al modello del male breadwinner, nel quale le donne (mogli e madri) e i figli non sono padroni delle proprie vite: in cambio di una relativa sicurezza economica, essi hanno dovuto spesso rinunciare o ritardare la ricerca di una piena realizzazione di sé. Come appena detto, la grande azienda industriale, nonostante abbia 6 7
Ibidem p.42-43 Ibidem p.45
garantito ai capifamiglia adulti una (relativa) stabilità dal punto di vista economico e lavorativo, ha anche imposto loro di rinunciare, nella maggior parte dei casi, alla piena espressione delle loro attitudini e dei loro talenti personali, schiacciandoli all'interno della organizzazione taylor-fordista del lavoro. Quanto, infine, al welfare state delle grandi associazioni sociali obbligatorie, nato sulle ceneri delle forme ben più partecipate del mutualismo operaio, esso è stato (ed è ancora) caratterizzato da forti elementi di centralizzazione burocratica e di particolarismo categoriale, che hanno portato ad obliterare ogni residuo rapporto individuale diretto, di natura contrattuale, che pure esisteva in origine tra il lavoratore e il sistema delle assicurazioni sociali. Dopo, quindi, un lungo corso di tempo, con gli attuali cambiamenti, solo oggi il messaggio di libertà sostanziale contenuto nell'idea di individualizzazione può essere avviato a effettiva realizzazione per tutti i cittadini. Le comunità Open Peer-to-Peer rappresentano quindi non un semplice esempio di cosa sia il processo di individualizzazione, ma un momento fondamentale del suo sviluppo. Oggi nel mondo del lavoro si assiste ad intensi cambiamenti, il più evidente dei quali è l'emergere di un consistente settore di lavoratori “atipici”. Questo cambiamento deve essere ancora pienamente decifrato, ma esso comprende la possibilità di restituire al singolo lavoratore una maggiore capacità di autorealizzazione professionale. Certo, esso è strettamente connesso con la flessibilizzazione delle strutture produttive e, perciò stesso, è spesso più subito che scelto. E non vi sono dubbi che l'indebolimento delle precedenti forme di tutela del lavoro, sul piano legislativo e contrattuale, comporta per molti un aumento della precarietà e dell'incertezza. D'altra parte è anche vero che questo sentimento di insicurezza sembra costituire, oggi, un fenomeno generale o trasversale, che coinvolge ampie fasce di lavoratori, indipendentemente dalla precarietà del rapporto di lavoro in cui sono inseriti. Contemporaneamente, mentre all'interno del mondo del lavoro assistiamo a questa nuova partizione tra lavoro tipico e atipico, al suo esterno emergono nuove forme di attività fuori mercato socialmente riconosciute. Si tratta prevalentemente del lavoro familiare di cura e del lavoro volontario di impegno civile e sociale, tramite la concessione di una indennità economica, o il conferimento di provvidenze fiscali o previdenziali, o anche l'avvio di misure che ne favoriscano la conciliazione con lo svolgimento di un lavoro per il mercato. Questa crescita delle forme di lavoro non standard (cioè dei lavori atipici e delle attività socialmente riconosciute) è stata favorita grandemente dall'avvento della società dei servizi. È come se dal concetto generale di inattività della popolazione cominciasse a
21
districarsi un insieme di attività che, pur restando fuori dal mercato, acquistano una loro autonomia e una identità paralavorativa. Gran parte di queste attività, come molti dei lavori atipici, ricadono tuttora fuori del sistema vigente di protezione sociale e di tutela del lavoro. Ma ciò che a Paci importa sottolineare, forse, è che anche in questo sviluppo delle attività fuori mercato è possibile vedere aspetti conformi al processo di individualizzazione, nel senso che la legittimazione sociale di questa attività, prima misconosciute, aumenta i margini di libertà dell'individuo il quale desideri impegnarsi in esse. Siamo di fronte quindi alla scomparsa di un sistema in cui esisteva una netta cesura tra lavoro e attività (o inattività) della popolazione. Si sta delineando una via intermedia, di articolazione tra lavori tipici, lavori atipici, attività fuori mercato socialmente riconosciute ed altre attività lasciate alla sfera privata e personale. Questo esito, naturalmente, pone una sfida agli attuali sistemi di tutela del lavoro, che sono stati in larga misura ritagliati sulla figura del lavoro di mercato “tipico” (a tempo pieno e indeterminato). In questa situazione, in cui si espandono le forme non standard di lavoro, acquista concretezza l'ipotesi dello sviluppo di una società pluriattiva. Tramite la flessibilità dell'orario di lavoro, i congedi, il lavoro part-time, le politiche di conciliazione tra famiglia e lavoro, il pensionamento graduale e l'alternanza tra lavoro e altre attività nell'arco della vita (tutte misure, queste, in espansione in molti paesi europei), si creano le condizioni per un aumento dei margini di autonomia dell'individuo che voglia dedicare il suo impegno al lavoro e ad altre attività o sfere della vita. Paradigmatico di questo cambiamento è quanto accade, in alcuni paesi europei, in tema di pensionamento graduale (o “invecchiamento attivo”). In questi paesi, infatti, si assiste ad una graduale flessibilizzazione e individualizzazione del passaggio dal tempo di lavoro al tempo di pensionamento. La cesura tra l'essere lavoratori e l'essere pensionati si fa più labile, nell'ambito di un passaggio a un sistema che valorizza la riappropriazione da parte dell'individuo delle scelte relative alla durata della propria vita lavorativa e ai rapporti tra lavoro ed altre attività. Una società riattivateli, dunque, compatibile con le istanze del processo di individualizzazione, inizia lentamente a districarsi dai vincoli preesistenti e da norme rigide e costrittive, relative al tempo di lavoro, aprendo un campo di azione fino ad oggi limitato se non precluso. Ad ogni modo, non esiste una contraddizione, a livello motivazionale, tra l'impegno nelle attività socialmente utili, come il lavoro di cura o quello volontario resi al servizio degli altri, e il processo di individualizzazione come realizzazione di sé. Certo, queste forme di attività fuori mercato sono oggi socialmente riconosciute anche per le loro motivazioni altruistiche e per la fondamentale relazione simpatetica che si stabilisce tra il provider e il fruitore del servizio. 22
Ma è solo confondendo l'individualizzazione con l'individualismo egoistico di mercato che è possibile ritenere che esista una contraddizione, a livello motivazionale, tra queste attività e il processo di individualizzazione, il quale ricopre uno spazio sociale più ampio rispetto ai comportamenti competitivi di mercato, essendo connotato come processo di libera realizzazione di sé in ogni sfera della vita. Per quanto riguarda in particolare il lavoro volontario, di impegno civile e sociale, è proprio l'aspirazione diffusa di auto realizzazione personale che fornisce oggi una delle spinte motivazionali principali per entrare a far parte di iniziative di lavoro volontario, trovando gratificante aiutare il prossimo, sicché il fenomeno dell'individualizzazione contemporanea si rivela un terreno favorevole per la coltivazione di attività solidali. Si comprende, quindi, come la comunità Open Peer-to-Peer siano espressione di queste caratteristiche, dato che sono basate su una partecipazione volontaria, nella maggior parte non remunerata finanziariamente, dove i partecipanti apportano un contributo personale secondo le proprie capacità e risorse. “Dunque, ci troviamo di fronte alla nascita di una società attiva (o anche pluririattiva): una società cioè dei lavori di mercato e delle attività fuori mercato socialmente riconosciute. Essa è caratterizzata da una frantumazione tipologica del lavoro di mercato (che deve essere ancora pienamente decifrata nei suoi aspetti regressivi o progressivi) e dalla crescita di modalità di impegno fuori mercato, che reclamano un riconoscimento giuridico ed una valorizzazione economica e sociale. [...] In questa società attiva (o pluriattiva), si avvierebbe allora a superamento il paradosso delle società ricche [...] in cui alla crescita della ricchezza nazionale si accompagna quella dei bisogni sociali insoddisfatti a causa dei problemi che incontrano l'offerta privata e quella pubblica di servizi. In essa sarebbe possibile, in ipotesi, un nuovo tipo di piena occupazione: una piena occupazione a due settori, nel lavoro di mercato e nelle attività fuori mercato, che non sarebbe più limitata di fatto ai soli capifamiglia, ma potrebbe coinvolgere tutti i cittadini in età di lavoro. Alla famiglia nucleare ad un reddito (quello appunto del male breadwinner) si sostituirebbe quella a più redditi, a seconda dell'impegno dei coniugi (e degli altri membri adulti della famiglia), a tempo pieno o a tempo parziale, nel lavoro di mercato e/o nelle attività fuori mercato socialmente riconosciute. In un assetto societario di questo tipo, la libertà di scelta e di realizzazione di sé del cittadino attivo, troverebbe certo una più diffusa possibilità di attuazione”8. Una società attiva (o pluriattiva) rappresenta forse il contesto migliore per la nascita e lo sviluppo di comunità Open Peer-to-Peer, di cui può essere riconosciuto quindi lo status di attività. Ma la distruzione dei legami costrittivi della società tradizionale, effettuata dalla individualizzazione, porta anche alla distruzione del loro lato positivo, la funzione cioè di supporto tramite la sicurezza sociale. 8
Ibidem p.20-21
L'insicurezza economica e sociale e, più in generale, il sentimento di incertezza del futuro sono diventati quindi assai diffusi, se non endemici nella società contemporanea. Questo avviene sia a seguito dell'avvento di nuovi rischi, prima sconosciuti, come quelli legati all'inquinamento o alle catastrofi ambientali, sia a seguito della trasformazione dei rischi sociali tradizionali: questi ultimi infatti perdono la loro natura di rischi veri e propri (cioè la loro natura aleatoria e circoscritta) per diventare minacce diffuse, alle quali difficilmente ci si può sottrarre e che, una volta sopraggiunte, perdurano a lungo. Le malattie diventano degenerative; la disoccupazione e l'inoccupazione involontaria diventano di massa e di lunga durata; la vecchiaia è ormai una lunga fase della vita, accompagnata quasi certamente, oltre una certa età, dalla non autosufficienza. A riguardo Bauman afferma: "la storia della modernità può essere interpretata come una ricerca incessante del giusto equilibrio tra libertà e sicurezza, di un "punto di conciliazione", postulato ma sempre non ancora raggiunto tra queste due condizioni, tra questi due aspetti della condizione umana, che sono allo stesso tempo contraddittori e complementari"9. È quindi una visione di lungo periodo, nella quale assistiamo ad una sostanziale instabilità dei sistemi di protezione sociale, alla continua ricerca di un equilibrio tra l'esigenza di emancipazione dalle forme di protezione date e quella di una rinnovata sicurezza contro i rischi della vita. Il processo di individualizzazione innesca prima o poi un rinnovato bisogno di sicurezza, come afferma Paci: "esiste dunque un legame, un rapporto diretto tra la crescita della libertà individuale e l'esigenza di sicurezza sociale. Maggiore è la libertà, come libertà dai precedenti legami sicuritari, e maggiore è l'esigenza di nuova sicurezza. D'altra parte, più cresce la sicurezza, nelle sue nuove forme e istituzioni, e più essa sembra destinata, prima o poi, a fare i conti con il processo di individualizzazione e la sua ricerca di libertà. Da questo punto di vista si può parlare, in prima approssimazione, di una dialettica storica tra libertà e sicurezza"10. Le comunità Open Peer-toPeer rappresentano quindi una forma di riduzione dell'incertezza e del rischio, combinando l'individualizzazione con la creazione di nuove relazioni sociali. È per questo motivo che le reti collaborative Open Source e Peer-to-Peer tendono a costituire delle comunità: per garantire la libertà personale (open significa anche libertà di scelta riguardo a sè e come partecipare) e al contempo ricreare delle relazioni sociali. Questi cambiamenti nei rischi sociali mettono sotto stress il sistema di welfare: in particolare entra in difficoltà finanziaria il sistema dei trasferimenti istituito per fronteggiare i vecchi rischi e sorge l'esigenza di sviluppare un sistema di servizi sociali e personali più complesso e costoso. I nuovi rischi Bauman, Z. (2001), La società individualizzata. Come cambia la nostra esperienza, Il Mulino, Bologna, p.73 cit. in Paci (2005) p.48-49 10 Paci (2005) p.50 9
sociali, infatti, hanno un elemento idiosincratico e personale, che i vecchi rischi più standardizzati non avevano: oggi molte delle risposte necessarie per contrastare questi rischi reclamano una erogazione di servizi ad hoc, dotati della flessibilità necessaria per offrire prestazioni personalizzate. Paci parla in proposito di una "individualizzazione dei rischi sociali", effettuando comunque una precisione: "tuttavia, il rapporto tra il processo storico di individualizzazione e l'emergere di questi nuovi rischi non è diretto. Questi rischi infatti discendono innanzitutto da fattori d'ordine economico o demografico: così è, ad esempio, per la disoccupazione e la precarizzazione del lavoro o per l'invecchiamento e la non autosufficienza. Solo indirettamente essi possono essere ricollegati al processo storico di individualizzazione e cioè come conseguenza dell'indebolimento, che tale processo comporta, delle vecchie modalità di protezione sociale, dalle quali gradualmente l'individuo si affranca. Certamente, incrinandosi le vecchie forme di protezione sociale (come la famiglia del male breadwinner, la grande azienda industriale o il welfare state assicurativo), aumenta l'esposizione ai rischi e l'incertezza del futuro, come fenomeno generale che attraversa le nostre società. Ma è solo in connessione con i cambiamenti economici e demografici che abbiamo ricordato che prendono corpo i nuovi rischi sociali specifici.” La situazione nella quale siamo entrati, dunque, è caratterizzata da una inadeguata copertura sociale dell'attuale sistema di welfare. Questo si verifica, certo, per i cambiamenti economici e demografici in corso e per l'emergere di nuovi rischi che ricadono fuori delle tutele e dei programmi sociali esistenti. Ma questo accade anche, e forse soprattutto, perché la stessa società è in movimento, sospinta dalle esigenze di libertà sostanziale del cittadino connesse con il processo secolare di individualizzazione. Alcuni dei pezzi necessari a comporre il mosaico di un nuovo modello di welfare state sono oggi stati introdotti, sia pure in ordine sparso, in Europa e il concetto di active and dynamic welfare state ('stato sociale attivo') accolto nelle conclusioni del summit di Lisbona del 2003 è particolarmente suggestivo e risponde a questa domanda: alla nascita della società attiva può corrispondere quella di stato sociale attivo? Secondo Paci, per molti segni, la risposta a questa domanda è positiva: “l'idea di un active welfare state appare certamente interessante. Essa comporta innanzitutto una concezione promozionale o abilitante dell'intervento pubblico, che è diretto adesso a favorire una maggiore responsabilità e un maggior empowerment del cittadino. Secondo questo approccio, il cittadino non deve essere essenzialmente protetto nei momenti di difficoltà: egli deve essere messo in grado di costruirsi una propria vita, un proprio percorso di inserimento lavorativo e sociale. (E, da questo punto di vista, il principio informatore delle politiche di attivazione appare chiaramente congruente con le istanze provenienti dal processo di individualizzazione.)”11. 11 Ibidem p.24 23
“Ma il passaggio tendenziale verso il nuovo active welfare state si manifesta pienamente quando lasciamo il terreno tradizionale delle tutele del lavoro e dei trasferimenti a sostegno del reddito ed entriamo in quello dei servizi sociali, dell'inserimento sociale e lavorativo e della formazione. È su questo terreno che il sistema di protezione sociale è chiamato oggi a dare risposta, non solo ai nuovi rischi sociali indotti dai mutamenti economici e demografici, ma anche e soprattutto alla domanda di libertà sostanziale del cittadino, come possibilità di contare di più nel rapporto con l'amministrazione pubblica e di realizzare se stessi. Non a caso questo passaggio è accompagnato ovunque in Europa da un netto spostamento del baricentro del sistema di protezione sociale verso servizi decentrati sul territorio, a più diretto contatto con la domanda sociale e quindi con la possibilità di offrire risposte maggiormente personalizzate. È in questo quadro che hanno preso piede le misure di attivazione dei cittadini, come disoccupati o come beneficiari in genere di prestazioni sociali. Secondo questo approccio il cittadino non deve solo essere protetto nei momenti di difficoltà, ma deve anche essere messo nelle condizioni di inserirsi (o reinserirsi) nel lavoro e nella società, partecipando attivamente a questo processo”12. La nostra società si trova ora in una fase di transizione, su cui Paci, dopo un'attenta analisi delle proposte portate avanti anche da altri autori, formula tre ipotesi. "La prima è quella secondo cui siamo ancora nel pieno della fase di indebolimento delle istituzioni di protezione sociale preesistenti (la famiglia nucleare classica; la grande impresa fordista; il welfare state assicurativo-risarcitorio), con il conseguente diffondersi di sentimenti di rischio e di incertezza. La seconda ipotesi, invece, intravede la fine di questa fase di incertezze, ma in direzione di una vera e propria regressione storica, di un ritorno all'indietro, verso forme illiberali e costrittive di protezione proprie di società olistiche che pensavamo ormai superate. Anche per la terza ipotesi, infine, si intravedono oggi i segni di una uscita dalla attuale situazione, ma si tratta di una uscita progressiva, in direzione di un nuovo e più avanzato equilibrio tra le istanza di libertà individuale e di sicurezza collettiva"13. Le comunità Open Peer-to-Peer, rappresentando sia la piena espressione individuale che la costruzione di relazioni sociali in grado di ridurre il rischio, possono rappresentare un elemento fondamentale nel raggiungimento di questa terza ipotesi.
1.3. Governance: da provider ad enabler La tendenza costante all'attivazione e al desiderio di partecipazione può essere anche riscontrata nella gestione delle questioni urbane, dove un 12 Ibidem p.29 13 Ibidem p.51 24
numero sempre maggiore di persone, ricoprendo differenti ruoli e interessi, reclama un maggiore ascolto. Nel discorso comune, quando si parla di governo della città , si intende sia l'istituzione pubblica che ha l'autorità di governare una certa area, sia le attività poste in essere per implementare le decisioni di questa istituzione. In ogni Stato nazionale esistono istituzioni decentrate che permettono alle comunità locali e alle città di autogovernarsi, con gradi diversi di autonomia dal governo centrale. In inglese esistono due parole diverse, local government, con cui si intende il governo in quanto istituzione, e governance che viene usata quando ci si riferisce all'attività che tale istituzione pone in essere. Da un modello che vedeva al centro l'istituzione locale – in Italia, il Comune – come principale, se non esclusivo, attore dell'attività di governo, a un modello che comprende diversi attori, gruppi e sistemi di relazioni, e la cui capacità di governo deriva da meccanismi di negoziazione e di coordinamento tra diverse organizzazioni, pubbliche e private. La definizione di governance data nel Programma di Sviluppo delle Nazioni Unite è: "l'esercizio dell'autorità politica, economica ed amministrativa nella gestione degli affari di un paese ad ogni livello. Governance comprende i complessi meccanismi, processi ed istituzioni attraverso i quali i cittadini e i gruppi articolano i loro interessi, mediano le loro differenze ed esercitano i loro diritti ed obblighi legali [...] Governance include lo Stato, ma lo trascende includendo il settore privato e la società civile"14. In sintesi si trovano qui tutti gli elementi che caratterizzano i modelli di governance: "pluralità di attori e di interessi che entrano in gioco, forme di autoregolazione sociale sulla base delle quali si arriva al coordinamento e alla collaborazione tra gli attori, ridefinizione del ruolo dell'ente pubblico che diventa facilitatore, enabler, di tali forme, invece che provider, cioè fornitore di regole e di servizi"15. Tale stile di governo viene ritenuto preferibile ed auspicabile per alcune ragioni. In primo luogo si sostiene che il governo locale, come istituzione pubblica chiamata a decidere e implementare le politiche pubbliche, mostri crescenti difficoltà nell'affrontare da solo questi compiti in società che sono sempre più complesse e frammentate. Da qui la necessità di coinvolgere direttamente una molteplicità di soggetti e di interessi nei processi di negoziazione che determinano le politiche pubbliche. In secondo luogo si ritiene che assetti di governance costituiscano la risposta all'emergere e al consolidarsi di una domanda sempre più consistente e articolata di partecipazione ai processi decisionali da parte della società civile, cioè di organizzazioni di interessi, gruppi sociali e associazioni. Queste costituirebbero una risorsa in grado di aprire il processo decisionale a una 14 Vicari Haddock (2004) p.95 15 Ibidem p.96
maggiore democraticità, specialmente in presenza di una crescente disaffezione verso i partiti come forme di rappresentanza democratica e di mediazione degli interessi. In terzo luogo le politiche calate dall'alto, secondo un approccio topdown, si sarebbero rilevate scarsamente efficaci; di conseguenza avrebbe acquistato maggiore legittimità un approccio dal basso, bottom-up, basato sulla interazione tra gli attori interessati e la costruzione negoziale del consenso. Per comprendere maggiormente il passaggio dal government alla governance è necessario guardare alle recenti trasformazioni nell'economia, nella politica e nella società, che hanno portato a queste nuove configurazioni di governo. Le città occidentali hanno goduto di un lungo periodo di sviluppo a partire dalla fine della Seconda Guerra mondiale, dal 1945 al 1975, con una crescita intensa dell'economia, sulla base di uno specifico modo di regolazione dei rapporti tra società, economia e politica. Tale modo di regolazione viene chiamato "patto keynesiano-fordista", poiché trae i suoi principi strutturanti dall'organizzazione della produzione industriale su grande scala e dal ruolo dello Stato nella società. In quel periodo la grande industria manifatturiera caratterizzava il sistema economico locale, in una società organizzata attorno a due blocchi sociali ben distinti e relativamente omogenei al suo interno: da un lato la grande borghesia industriale e finanziaria e, dall'altro, la massa dei lavoratori della grande industria. Il governo locale svolgeva principalmente il ruolo di erogatore di servizi: istruzione, sanità, assistenza, trasporti, ecc., finanziati con trasferimenti dallo Stato centrale. Mentre lo Stato centrale provvedeva alle scelte più generali di politica economica e di infrastrutturazione che determinavano le condizioni per lo sviluppo industriale, il governo locale agiva nella sfera delle politiche sociali e si preoccupava di garantire, idealmente in modo universalistico ed egualitario, la soddisfazione dei bisogni di base, con maggiore o minore efficacia ed efficienza nei vari paesi europei. Con questa azione a livello locale, si tendeva, inoltre, a prevenire o a diluire il conflitto sociale, dando stabilità ai rapporti tra società, economia e politica. Con il passaggio da un'economia urbana di produzione industriale ad una economia dei servizi, si assiste al progressivo consolidarsi dell'intervento dello Stato sociale che risponde ai crescenti bisogni delle nuove classi medie con l'espansione delle politiche sociali, resa possibile dalle risorse fiscali di cui lo Stato dispone, grazie a ritmi intensi di crescita economica che hanno caratterizzato i decenni del dopoguerra. Attorno agli anni '70 questa configurazione dei rapporti tra società, politica ed economia viene messa in crisi dal rallentamento della crescita economica e dalla crescente internazionalizzazione delle imprese che rende sempre più difficile la tassazione dei profitti e delle rendite finanziarie, riducendo le risorse a disposizione dello Stato mentre, al contempo, si va ampliando la necessità dell'intervento pubblico.
Infatti, la competizione sempre più elevata sui mercati internazionali comporta un incremento dei costi per le imprese, per gli individui e per l'ambiente. Inoltre, la nuova economia dei servizi cresce senza creare sufficiente occupazione per assorbire la disoccupazione prodotta dalla deindustrializzazione e dalla ristrutturazione industriale. La società si va frammentando in gruppi sociali e ceti diversi e il sostegno al modello dello Stato sociale, basato su una forte pressione fiscale, si fa sempre più debole, particolarmente presso i ceti emergenti delle nuove professioni ad alta specializzazione. Il governo della città viene quindi messo sotto tensione poiché si trova a rispondere a domande crescenti della popolazione, pur disponendo di capacità di intervento sempre più limitate, in conseguenza della riduzione delle risorse di cui lo Stato centrale dispone. Si rende quindi necessario reperire risorse aggiuntive, attraverso politiche per la promozione dello sviluppo economico locale, che hanno lo scopo di attrarre nuovi investimenti, pubblici ma soprattutto privati. Con nuova determinazione, le città si muovono, ad esempio, per l'assegnazione di funzioni pregiate che creino occupazione altamente qualificata, quali centri di ricerca di prestigio o sedi di organizzazioni nazionali o internazionali, oppure di eventi quali Olimpiadi o manifestazioni culturali di alto livello, che fungano da enzimi all'attivazione di nuovi processi di economia locale, alimentando i consumi. Per queste risorse, le città si trovano a dover competere le une con le altre, in una economia sempre più internazionalizzata e contrassegnata da una grande mobilità dei capitali e delle persone. Inserirsi nella competizione diventa una necessità, nella misura in cui le dinamiche dell'economia, favorendo alcune città a discapito di altre, incrementano i divari di sviluppo, dopo diversi decenni in cui la crescita economica aveva determinato una riduzione delle disparità tra le diverse aree urbane. La messa in pratica e l'efficacia di politiche di promozione dello sviluppo economico dipendono dalla capacità del governo locale di coinvolgere altri attori e di mobilitare le risorse locali attorno a una strategia specifica di sviluppo. Dipendono quindi dal raggiungimento di accordi e dalla formazione di alleanze, con gradi diversi di formalizzazione, ma sufficiente stabilità per permettere agli attori pratiche di collaborazione ripetute nel tempo e resistenti alle difficoltà che la promozione delle sviluppo può via via incontrare. L'Unione Europea spinge a imboccare la via della collaborazione pubblico-privato con diversi programmi a sostegno dello sviluppo e per la promozione di politiche per l'integrazione e la coesione sociale che contrastino i nuovi processi di marginalizzazione e impoverimento delle fasce deboli della popolazione. A partire dagli anni '80, in molte città europee si rileva un nuovo orientamento di carattere imprenditoriale, denominato entrepeneurialism, da 25
parte delle élite locali, in particolare degli amministratori pubblici, che le porta a costruire alleanze per attrarre risorse extralocali e attivare risorse endogene. Gli amministratori locali si fanno imprenditori: i governi locali, soprattutto delle grandi città, ma anche di alcune città medie, si alleano con gruppi privati, principalmente banche, gruppi immobiliari, imprese di costruzione e associazioni di categoria, per formare società o agenzie miste per la trasformazione di parti rilevanti della città, aree industriali dismesse o periferie, oppure per la costruzione di infrastrutture o di grandi progetti. Nel quadro di questo nuovo orientamento imprenditoriale si rende necessario attivare politiche di marketing urbano, cioè attività di comunicazione e promozione della città, in quanto "prodotto" da vendere, rispetto a potenziali investitori, locali, nazionali o internazionali. Sempre più frequentemente avviene che il governo della città dipenda, oltre che dalle istituzioni formali, anche dal coinvolgimento di altri attori pubblici, quali rappresentanti dello Stato nelle sue varie articolazioni locali, e privati, quali grandi imprese, rappresentati degli interessi e delle categorie produttive, centri di ricerca, associazioni e gruppi attivi localmente. Sono quindi visibili, nelle città europee, meccanismi alternativi di negoziazione tra diversi gruppi, reti, sottosistemi che rendono possibile l'azione di governo, grazie ai quali si sviluppano forme di governance dalla varia configurazione. Queste forme sembrano però limitate, frammentate e ancora poco consolidate16. Gli attori pubblici, governo locale o centrale, tendono ancora ad avere un ruolo guida, all'interno di un quadro dove rimangono molto influenti sulla scena locale le scelte politiche nazionali. Inoltre, le élite economiche locali si mostrano poco inclini a entrare in forme istituzionalizzate di collaborazione e di alleanze stabili. Quando si sviluppano alleanze o parternariato, queste forme tendono a essere ristrette alla formulazione e implementazione della politica economica, mentre l'azione del governo locale continua a essere prevalentemente indirizzata verso la fornitura dei servizi, sia nelle forme tradizionali di gestione diretta, sia con modalità nuove. Si assiste quindi alla coesistenza e articolazione tra una forma tradizionale di government e forme ancora sperimentali di governance. Le città europee si trovano, oggi, a sperimentare limitate forme di governance all'interno di un quadro in cui il governo locale, il comune, mantiene ancora forti capacità di regolazione e potere di iniziativa. Il settore pubblico, locale e centrale, vi gioca ancora un ruolo centrale, soprattutto quando confrontiamo le città italiane ed europee con le esperienze delle città americane e le loro forme strutturate e stabili di governance, ove il coordinamento e la collaborazione tra gli attori pubblici e privati si mantiene nel tempo e si riflette in una aumentata capacità di azione di governo.
16 Ibidem 26
Il passaggio da una tradizione di government a una di governance è quindi presente in una fase di transizione all'interno della nascita di una società attiva, come descritto da Paci17. Una fase di transizione che testimonia la crescente tendenza delle persone ad impegnarsi attivamente, sia in ambito lavorativo che al di fuori di questo, reclamando dalle istituzioni una forte attenzione, attraverso un active welfare e una governance che le veda co-protagoniste. Le comunità Open Peer-toPeer rappresentano un modo promettente per reclamare un ruolo attivo nella società, che necessita quindi la presenza di enti che agiscano come facilitatori (enabler) e non come semplici (e castranti) regolatori e fornitori (provider).
1.4. Tecnologia, reti e informazionalismo L'avvento delle comunità Open Peer-to-Peer va contestualizzato anche nell'ambito della rivoluzione tecnologica del mondo delle comunicazioni degli ultimi trent'anni. I fenomeni del software Open Source e Peer-to-Peer, infatti, sono una diretta discendenza delle invenzioni e applicazioni delle nuove tecnologie di trasmissione e conservazione delle informazioni. E i casi Open Peer-to-Peer ante litteram o basati su tecnologie low tech, sono stati osservati con rinnovato interesse proprio in seguito al successo dei casi del software Open Source e Peer-to-Peer. Bisogna quindi analizzare, seppur brevemente, come le ICT influenzino la società attuale, rendendo ancora più importante la conoscenza come fattore economico, per poter poi capire in che modo le comunità Open Peer-to-Peer possano a loro volta influenzarla. In questo contesto risulta quindi fondamentale l'opera di Manuel Castells, che rappresenta forse l'analisi più importante sull'argomento.
1.4.1. La network society Descrivendo la società attuale, Castells parla di network society, ovvero di "una struttura sociale composta di network informazionali alimentati dalle tecnologie dell'informazione caratteristiche del paradigma informazionalista"18. Per struttura sociale Castells intende "dispositivi organizzativi di esseri umani in rapporto con la produzione, il consumo, l'esperienza e il potere, così come vengono espressi in un'interazione significativa nel contesto di una cultura"19. Castells registra quindi un cambiamento di paradigma tecno-economico, verso un nuovo paradigma informazionalista, dove emergono nuove forme di organizzazione a rete basate sulle nuove tecnologie di comunicazione. Senza l'informazionalismo la network society non potrebbe esistere, tuttavia questa nuova struttura sociale non è un prodotto dell'informazionalismo
17 Paci (2005) p.51 18 Castells (2001) p.124 19 Ibidem p.124
Come tendenza storica, le funzioni e i processi dominanti nell'epoca attuale (che Castells chiama "Età dell'informazione") sono sempre più organizzati intorno a reti. Le reti costituiscono la nuova morfologia sociale della società e la diffusione della logica di rete modifica in modo sostanziale l'operare e i risultati dei processi di produzione, esperienza, potere e cultura. Benché la forma di organizzazione sociale a rete sia esistita in altri tempi e in altri spazi, il nuovo paradigma della tecnologia dell'informazione fornisce la base materiale per la sua espansione pervasiva attraverso l'intera struttura sociale. Con l'informazionalismo le reti hanno acquisito una nuova vita, perché le recenti tecnologie aumentano la flessibilità e allo stesso tempo risolvono i problemi di coordinamento e guida che hanno ostacolato le reti nel corso della storia, nella loro competizione con le organizzazioni gerarchiche. L'operatività delle reti viene condivisa attraverso un processo decisionale che ha luogo lungo i nodi secondo uno schema interattivo. Quando i nodi diventano ridondanti, le reti tendono a riconfigurarsi da soli, eliminando alcuni nodi e aggiungendone di nuovi e produttivi. I nodi accrescono la loro importanza per la rete assorbendo più informazione ed elaborandola in modo più efficiente. L'importanza relativa di un nodo non deriva dalle sue caratteristiche specifiche, ma dalla capacità di contribuire alla rete con informazioni di valore. In questo senso, i nodi principali non sono centri ma commutatori e protocolli di comunicazione, nella cui prestazione seguono una logica di rete piuttosto che di dominio. Inoltre, secondo Castells, la logica di rete induce una determinazione sociale di livello superiore rispetto a quello degli interessi sociali specifici espressi nelle reti: "il potere dei flussi afferma la sua priorità sui flussi del potere"20La presenza o l'assenza all'interno di una rete e le dinamiche di ciascuna rete nei confronti delle altre rappresentano fonti critiche del dominio e del cambiamento nella nostra società: una società che, pertanto, può essere, a ragione, definita società in rete, caratterizzata dalla preminenza della morfologia sociale rispetto all'azione sociale. La network society si espande attraverso tutto il nostro pianeta come forma dominante di organizzazione sociale della nostra epoca. Da dove proviene questa network society? Essa è emersa, nell'ultimo quarto del XX secolo, dalla coincidenza accidentale di tre fenomeni indipendenti. Il primo è stato la rivoluzione dell'information technology, la cui componente chiave è arrivata come nuovo paradigma tecnologico negli anni '70. Castells richiama questi eventi: creazione di Arpanet, 1969; di Usenet News 1979; del circuito integrato, 1971; dei personal computer, 1974-76; dei software: i codici Unix progettati nei tardi anni '60, ma fatti uscire nel 1974; dei protocolli TCP/IP, progettati nel 1973-78; del DNA ricombinante, 1973. Le rivoluzioni tecnologiche hanno la caratteristica comune nella diffusione pervasiva, ossia nella capacità di penetrazione in tutti i campi 20 Castells (1996) p.535
dell'attività umana. In altri termini, oltre a generare nuovi prodotti, le rivoluzioni tecnologiche sono orientate al processo. A differenza di qualsiasi altra rivoluzione, però, il nucleo della trasformazione che la società sta vivendo con la rivoluzione attuale riguarda le tecnologie di elaborazione e comunicazione delle informazioni. Per Castells, "la tecnologia dell'informazione sta a questa rivoluzione come le nuove fonti di energia stavano alle rivoluzioni industriali che si sono susseguite, dalla macchina a vapore all'elettricità, ai combustibili fossili e persino all'energia nucleare, in quanto la generazione e la distribuzione dell'energia sono state l'elemento chiave alla base della società industriale"21. La peculiarità della rivoluzione tecnologica attuale consiste non nella centralità della conoscenza e dell'informazione, ma nell'applicazione della conoscenza e dell'informazione a dispositivi per la generazione della conoscenza e per l'elaborazione/comunicazione dell'informazione, in un ciclo di feedback cumulativo tra innovazione e usi dell'innovazione. La seconda tendenza è rappresentata dal processo di ristrutturazione socioeconomica dei due sistemi in competizione, il capitalismo e lo statalismo, che hanno dovuto far fronte a grosse crisi dovute alle loro contraddizioni interne nel periodo 1973-75 (capitalismo) e nel 1975-80 (statalismo). Entrambi hanno indirizzato le loro crisi varando nuove politiche governative e nuove strategie aziendali. La ristrutturazione capitalista ha funzionato, mentre nello statalismo è fallita a causa dei suoi limiti intrinseci nell'interiorizzare e usare la rivoluzione rappresentata dall'information technology. Secondo Castells, il capitalismo è stato capace di superare la propria tendenza strutturale verso l'inflazione incontrollata e distruttiva attraverso la produttività informazionale, la deregulation, la liberalizzazione, la privatizzazione, la globalizzazione e il networking, ponendo le basi economiche della network society22. La terza tendenza posta alle origini di questa nuova società è culturale e politica, e si riferisce ai valori progettati dai movimenti sociali alla fine degli anni '60 e dei primi '70 in Europa e in America, nonché da alcune manifestazioni similari in Giappone e Cina. Questi movimenti furono fondamentalmente libertari, anche se il movimento femminista e quello ambientalista hanno esteso il concetto di libertà fino a sfidare le fondamenta delle istituzioni e delle ideologie del patriarcato e del produttivismo. Questi movimenti furono culturali perché non si concentrarono sulla presa del potere statale o sulla redistribuzione della ricchezza. Invece essi hanno agito sulle categorie dell'esperienza respingendo le istituzioni ufficiali, alla ricerca di nuovi significati della vita e, conseguentemente, di una ridefinizione dei contratti sociali tra individuo e Stato, e tra individuo e mondo aziendale. 21 Ibidem p.31 22 Ibidem 27
Questi tre fenomeni sono comparsi indipendentemente l'uno dall'altro. Si è trattato di una coincidenza storica sostanzialmente casuale, così come la loro combinazione specifica in certe società. Ecco perché la velocità e la forma del processo di transizione verso la network society sono diverse negli Stati Uniti, nell'Europa occidentale e nel resto del mondo. Quanto più consolidate erano le istituzioni e le regole della società industriale, o delle società preindustriali, tanto più lento e difficile è stato il processo di trasformazione. Una delle componenti chiave di questa casualità storica è stata l'emersione di un nuovo paradigma tecnologico, l'informazionalismo.
1.4.2. Un nuovo paradigma tecnoeconomico Il tipo di tecnologia che si sviluppa e si diffonde in una certa società ne plasma in maniera decisiva la struttura materiale. I sistemi tecnologici si evolvono gradualmente, finché si verifica un importante cambiamento qualitativo: una rivoluzione tecnologica che introduce un nuovo paradigma tecnologico. Il concetto di paradigma è stato proposto dallo storico della scienza Thomas Kuhn per spiegare la trasformazione della conoscenza attraverso le rivoluzioni scientifiche: "un paradigma è una struttura concettuale che definisce degli standard per una certa performance"23. Esso integra le scoperte in un sistema coerente di rapporti caratterizzati da una sinergia – vale a dire, dal valore aggiunto posseduto da un sistema rispetto alle sue singole componenti. Un paradigma tecnologico organizza la gamma disponibile di tecnologie intorno a un nucleo che accresce la performance di ciascuna di esse. Per tecnologia di solito si intende "l'uso della conoscenza scientifica per stabilire delle procedure volte a conseguire un certo risultato (performance) in una forma riproducibile”24. Per Castells "un paradigma tecno-economico è un grappolo di innovazioni tecniche, organizzative e manageriali interrelate, i cui vantaggi vanno cercati, non solo in una nuova gamma di prodotti e sistemi, ma soprattutto nella dinamica della struttura dei costi relativi di tutti i possibili input di produzione. In ogni nuovo paradigma è possibile descrivere un particolare fattore produttivo o in insieme di input come il "fattore chiave" in tale paradigma da costi decrescenti e disponibilità universale. L'attuale cambiamento di paradigma può essere visto come il passaggio da una tecnologia basata principalmente su input di energia a buon mercato a una tecnologia prevalentemente basata su input di informazione a buon mercato derivanti dai progressi nella microelettronica e nella tecnologia delle telecomunicazioni. Come sappiamo che il paradigma dell'informazionalismo è dominante nei riguardi di 23 Cit. in Castells (2001) p.117 24 Castells (2001) p.117 28
altri paradigmi, per esempio, l'industrialismo? Per Castells il metro di giudizio è rappresentato dal "miglior risultato ottenuto nell'accumulazione di ricchezza e potere. [...] Noi non sappiamo veramente se il fatto di produrre in maniera sempre più efficiente incarni un valore superiore in termini di umanità. L'idea di progresso è una ideologia. Quanto possa essere buono, cattivo o indifferente un nuovo paradigma dipende dalla prospettiva, dai valori o dai punti di riferimento. Ma noi sappiamo che è dominante perché, nel momento in cui viene implementato, esso cancella la competizione per eliminazione. In questo senso, l'informazionalismo è il paradigma dominante delle nostre società, sostituisce e sussume l'industrialismo”25. Ciò che lo caratterizza non è il ruolo centrale della conoscenza e dell'informazione nella generazione di ricchezza, potere e significato. La conoscenza e l'informazione sono state centrali in molte, se non in tutte, le società storicamente conosciute. Ci sono senza dubbio stati parecchi casi di forme diverse di conoscenza, ma essa, compresa quella scientifica, è sempre storicamente relativa. Nel corso della storia la conoscenza e l'informazione, e i loro puntelli tecnologici, sono state strettamente associate alla dominazione politico-militare, alla prosperità economica e all'egemonia culturale. Quindi, in un certo senso, tutte le economie sono basate sulla conoscenza e tutte le società sono fondamentalmente società dell'informazione. Di sicuro negli ultimi due secoli si è verificata un'interazione più stretta, rispetto al passato, tra scienza, tecnologia, ricchezza, potere e comunicazione. Secondo Castells, ciò che contraddistingue il nostro periodo storico è un nuovo paradigma tecnologico introdotto dalla rivoluzione dell'information technology, incentrata su un gruppo di tecnologie dell'informazione. Ciò che vi è di nuovo è la tecnologia dell'elaborazione dell'informazione e il suo impatto sulla generazione e l'applicazione della conoscenza. Questo è il motivo per cui non usa i concetti di economia della conoscenza o di società dell'informazione, bensì l'idea di informazionalismo: un paradigma tecnologico basato sull'accrescimento della capacità umana di elaborazione delle informazioni. Castells fa rientrare nelle tecnologie dell'informazione l'insieme convergente di tecnologie della microelettronica, dell'elaborazione dati (macchine e software), delle telecomunicazioni/trasmissioni, nonché dell'optoelettronica. Inoltre, a differenza i alcuni analisti, include nel dominio delle tecnologie dell'informazione anche l'ingegneria genetica e l'insieme crescente dei suoi sviluppi e delle sue applicazioni. Ciò, non soltanto per il fatto che l'ingegneria genetica si incentra sulla decodificazione, manipolazione e riprogrammazione dei codici di informazione della materia vivente, ma anche perché la biologia, l'elettronica e l'informatica sembrano convergere e interagire nelle loro 25 Ibidem p.118-119
applicazioni, nei materiali e, in modo fondamentale, nel loro approccio concettuale.
più
Intorno a questo nucleo di tecnologie dell'informazione, ha avuto luogo negli ultimi due decenni del XX secolo una costellazione di conquiste tecnologiche riguardanti l'evoluzione dei materiali, le fonti energetiche, le applicazioni mediche, le tecniche di produzione (in corso o potenziali, quali la nanotecnologia), nonché la tecnologia dei trasporti. Inoltre, si assiste a una fase di espansione esponenziale del processo di trasformazione tecnologica in corso, a causa della sua capacità di creare un'interfaccia tra i diversi campi tecnologici attraverso il comune linguaggio digitale in cui l'informazione viene generata, archiviata, scaricata, elaborata e infine trasmessa. Gli impieghi delle nuove tecnologie delle telecomunicazioni negli ultimi due decenni hanno attraversato tre fasi distinte: l'automazione dei compiti, una sperimentazione degli utilizzi, una riconfigurazione delle applicazioni. Nei primi due stadi l'innovazione tecnologica è avanzata tramite il learning by using, nel terzo stadio i fruitori hanno acquisito la tecnologia tramite il learning by doing e hanno finito per riconfigurare le reti e scoprirne nuove applicazioni. Il ciclo di retroazione tra l'introduzione della nuova tecnologia, il suo uso e l'applicazione a nuove attività diventa molto più veloce con il nuovo paradigma tecnologico. La diffusione della tecnologia, di conseguenza, accresce senza fine il potere della tecnologia stessa, a mano a mano che i suoi fruitori se ne appropriano e provvedono alla sua ridefinizione. Le nuove tecnologie dell'informazione non sono semplicemente strumenti da applicare, ma processi da sviluppare. Inoltre, c'è un rapporto stretto tra i processi sociali di creazione e manipolazione dei simboli (la cultura della società) e la capacità di produrre ed erogare beni e servizi (le forze produttive). Per la prima volta nella storia, la mente umana è una diretta forza produttiva, non soltanto un elemento determinante del sistema produttivo. In tal modo, i computer, i sistemi di comunicazione e la decodificazione e programmazione generica rappresentano tutti amplificazioni ed estensioni della mente umana. Un'ulteriore caratteristica contraddistingue la rivoluzione della tecnologia dell'informazione dai suoi precedenti storici: fino ad ora, le rivoluzioni tecnologiche si sono verificate solo in poche società e si sono diffuse in un'area geografica relativamente limitata, spesso in uno spazio e in un tempo separati rispetto alle altre zone del pianeta. Il contatto tra civiltà dai diversi livelli tecnologici spesso si concludeva con la distruzione di quella meno sviluppata o di quella che aveva applicato la propria conoscenza prevalentemente a tecnologie non militari. Le nuove tecnologie dell'informazione, invece, si sono diffuse in tutto il mondo con velocità fulminea in meno di due decenni, tra la metà degli anni '70 e la metà dei '90, presentando una logica caratteristica di questa rivoluzione tecnologica: l'immediata applicazione al suo sviluppo delle
tecnologie da essa generate, collegando il mondo attraverso la tecnologia dell'informazione. In realtà, ampie aree del globo e parti consistenti della popolazione sono escluse dal nuovo sistema tecnologico, e la velocità di diffusione tecnologica, inoltre, è selettiva sotto il profilo sia sociale sia funzionale. Le differenze di accesso al potere della tecnologia di popoli, paesi e aree geografiche costituisce una causa decisiva dell'ineguaglianza della nostra società, creando una divisione, il digital divide, che rischia di ampliare la distanza tra ricchi e poveri. Il paradigma dell'informazionalismo quindi nasce da una rivoluzione tecnologica di notevole portata e si basa sulle tre importanti caratteristiche distintive delle nuove tecnologie, quali la loro capacità autoespansiva di elaborazione, nei termini di volume, complessità e velocità; la loro capacità ricombinante; la loro flessibilità distributiva. La prima caratteristica del nuovo paradigma è che l'informazione rappresenta la sua materia prima: queste tecnologie servono per agire sull'informazione, non solo per far sì che le informazioni agiscano sulla tecnologia, come è accaduto nelle rivoluzioni tecnologiche precedenti. Il secondo elemento tipico del nuovo paradigma fa riferimento alla diffusione pervasiva degli effetti delle nuove tecnologie. Poiché l'informazione è parte integrante dell'intera attività umana, il nuovo medium tecnologico incide profondamente su tutti i processi della nostra esistenza collettiva o individuale. La terza proprietà riguarda la logica a rete di qualsiasi sistema o insieme di relazioni che fanno uso delle nuove tecnologie dell'informazione. La morfologia della rete appare bene adatta alla complessità dell'interazione e agli imprevedibili modelli di sviluppo derivanti dalla forza creativa di tale interazione. Ora, attraverso le tecnologie dell'informazione di recente rese disponibili, è possibile l'implementazione di questa configurazione topologica, la rete, in tutti i tipi di processi e organizzazioni. Senza queste tecnologie, la logica a rete risulterebbe eccessivamente scomoda da applicare. La logica a rete è necessaria per strutturare ciò che appare destrutturato pur mantenendo la flessibilità, perché destrutturata è la forza motrice dell'innovazione nell'attività umana. Inoltre, quando le reti si diffondono, il loro sviluppo diviene esponenziale, in quanto crescono in modo esponenziale i benefici dello stare nella rete, grazie al più grande numero di connessioni, mentre il costo cresce in modo lineare. Gli svantaggi per chi si trova all'esterno della rete aumentano con lo sviluppo della rete stessa, a causa della diminuzione delle opportunità di raggiungere altri elementi esterni alla rete. Il creatore della tecnologia delle reti locali (LAN), Robert Metcalfe, ha proposto nel 1973 una semplice formula matematica che mostra come il valore di una rete cresca esponenzialmente all'aumentare del numero dei nodi nella rete. La 29
formula è V=n della rete26.
(n-1)
, dove n è il numero dei nodi
Il quarto punto, legato all'interconnessione, ma chiaramente distinto, fa riferimento alla flessibilità del paradigma della tecnologia dell'informazione. Non solo i processi sono reversibili, ma, mediante il riassetto delle loro componenti, è possibile modificare, e persino trasformare radicalmente, anche organizzazioni e istituzioni. Il segno distintivo della struttura del nuovo paradigma tecnologico risiede nella sua capacità di riconfigurazione, proprietà fondamentale in una società contraddistinta dal cambiamento costante e dalla fluidità organizzativa. Il capovolgimento delle regole senza distruggere l'organizzazione è diventato una possibilità, perché gli elementi fondamentali dell'organizzazione possono essere riprogrammati e ristrutturati. Ad ogni modo, la flessibilità potrebbe rivelarsi una forza di liberazione ma anche una tendenza repressiva, prova ne è la insicurezza determinata da una eccessiva precarietà dei nuovi lavori atipici. La quinta caratteristica di questa rivoluzione tecnologica è rappresentata dalla crescente convergenza di tecnologie specifiche in un sistema altamente integrato, entro cui traiettorie tecnologiche anteriori e distinte diventano letteralmente indistinguibili. Microelettronica, telecomunicazioni, optoelettronica e computer sono ormai tutti integrati in sistemi informativi. In sintesi, per Castells "il paradigma della tecnologia dell'informazione non si evolve verso la propria chiusura in quanto sistema, ma verso l'apertura in quanto rete multisfaccettata. Esso è potente e imponente nella propria struttura materiale, ma adattivo e aperto nello sviluppo storico. Comprensività, complessità e reticolarità costituiscono le sue qualità determinanti"27.
1.4.3. L'economia dell'informazionalismo Negli ultimi venticinque anni del XX secolo è nata una nuova economia su scala mondiale. Castells la definisce informazionale, globale e interconnessa per identificarne i tratti distintivi e per mettere in rilievo l'intreccio di tali elementi. È informazionale perché la produttività e la competitività di unità o agenti (che si tratti di aziende, regioni o nazioni) all'interno di questa economia dipendono in modo sostanziale dalla propria capacità di generare, elaborare e applicare con efficienza informazione basata sulla conoscenza. È globale in quanto le attività essenziali di produzione, consumo e circolazione, nonché le loro componenti (capitale, lavoro, materie prime, management, informazione, tecnologia, mercati) sono organizzate su scala globale, o in modo diretto oppure attraverso una rete di collegamenti tra agenti economici. È in rete poiché, nelle nuove circostanze storiche, la 26 Castells (1996) p.75 27 Ibidem p.81 30
concorrenza e la produttività hanno luogo in una ragnatela globale di interazione tra reti aziendali. La new economy è emersa negli ultimi venticinque anni del XX secolo perché la rivoluzione della tecnologia dell'informazione ha fornito l'indispensabile supporto materiale alla sua creazione. È proprio il collegamento storico tra la base di informazione-conoscenza dell'economia, con la sua portata globale e la sua forma organizzativa in reti, e la rivoluzione nella tecnologia dell'informazione ad aver dato vita a un sistema economico nuovo. Certamente, informazione e sapere sono sempre state componenti fondamentali della crescita economica e davvero l'evoluzione tecnologica ha ampiamente determinato la capacità produttiva e il tenore di vita, così come le forme sociali di organizzazione economica. Tuttavia, secondo Castells, siamo testimoni di una discontinuità storica: la comparsa di un nuovo paradigma tecnologico organizzato intorno a nuove tecnologie dell'informazione, più potenti e flessibili, permette all'informazione stessa di divenire il prodotto del processo di produzione. I prodotti delle nuove industrie dell'informazione sono dispositivi per l'elaborazione oppure l'elaborazione stessa di informazioni. Le nuove tecnologie dell'informazione, trasformando i processi di trattamento delle informazioni, intervengono in tutte le sfere dell'attività umana e consentono la creazione di infinite connessioni tra campi diversi, nonché tra elementi e agenti di tali attività. Sorge così un'economia interconnessa in rete, profondamente interdipendente, che sempre più acquisisce la capacità di applicare il proprio progresso in tecnologia, conoscenza e gestione a tecnologia, conoscenza e gestione stesse. Un simile circolo virtuoso dovrebbe condurre a più produttività ed efficienza, date le giuste condizioni in cambiamenti istituzionali e organizzativi di pari straordinarietà. L'economia informazionale costituisce un sistema socio-economico distintivo rispetto all'economia industriale, ma la differenza non sta nelle fonti di aumento della produttività. In entrambi i casi, la conoscenza e l'elaborazione di informazioni rappresentano fattori cruciali per la crescita economica. Per Castells "la peculiarità risiede nella comprensione del potenziale di produttività contenuto nell'economia industriale matura grazie allo spostamento verso un paradigma tecnologico fondato sulle tecnologie dell'informazione"28. Il nuovo paradigma tecnologico ha cambiato innanzitutto il campo d'azione e la dinamica dell'economia industriale, creando un'economia globale e promuovendo una nuova ondata di concorrenza tra gli agenti economici esistenti nonché tra questi e una moltitudine di nuovi arrivati. Anche se l'economia informazionale globale è distinta dall'economia industriale, l'una non contrasta la logica dell'altra; la sussume, piuttosto, 28 Ibidem p.106
attraverso l'approfondimento tecnologico, incorporando conoscenze e informazioni in tutti i processi di produzione e distribuzione materiale, sulla base di un gigantesco balzo in avanti in quanto a raggio d'azione e portata di diffusione. In altre parole, o l'economia industriale diventava informazionale o globale, oppure era destinata al crollo, come è successo nell'Unione Sovietica, incapace di inserirsi nel paradigma informazionale sia di perseguire la propria crescita in relativo isolamento rispetto all'economia internazionale. Il passaggio dall'industrialismo all'informazionalismo, quindi, non costituisce l'equivalente storico della transizione dalle economie agricole alle economie industriali, né è possibile equipararlo alla nascita dell'economia dei servizi. Esiste un'agricoltura informazionale, un'industria informazionale e un terziario informazionale, che producono e distribuiscono sulla base di informazioni e conoscenze incorporate nel processo di lavorazione grazie alla potenza sempre maggiore delle tecnologie dell'informazione. Ciò che è cambiato non è il tipo di attività che impegna l'umanità, ma "la sua abilità tecnologica nell'impiegare come forza produttiva diretta ciò che contraddistingue la nostra specie come eccezione biologica: la sua superiorità capace di elaborare simboli"29.
1.4.4. Sistemi distribuiti 1.4.4.1. Natura dei sistemi distribuiti Nelle ultime decadi l'aggettivo distributed ('distribuito') è stato utilizzato con una frequenza crescente in relazioni a differenti sistemi socio economici: information technologies e distributed computing (calcolo distribuito), sistema energetico e distributed generation (generazione distribuita), sistema produttivo e distributed manufacturing (produzione distribuita). Ma anche altri processi come distributed innovation, distributed creativity, distributed knowledge, ovvero la capacità di un numero elevato di agenti dispersi geograficamente di costituire dei sistemi complessi dedicati allo sviluppo di conoscenze e soluzioni a problemi. Infine, anche un nuovo modello economico, la distributed economy. Questi sistemi, pur condividendo gli stessi principi funzionali, sono emersi in differenti periodi e con differente successo e sviluppo, partendo dal distributed computing (il primo caso, ormai pienamente sviluppato) arrivando fino alla distributed economy (concetto di recente introduzione, in fase di sviluppo). Ad ogni modo, ciò che il termine distributed aggiunge al sostantivo è l'idea che questi debba essere considerato come una rete di elementi 29 Ibidem p.107
interconnessi, capaci di operare autonomamente. Quindi, ciò che l'aggettivo distributed indica è l'esistenza di una architettura sistemica orizzontale in cui attività complesse vengono svolte parallelamente da un numero elevato di elementi connessi, che possono essere sia artefatti (distributed computing, distributed generation) che esseri umani (distributed creativity). Le comunità Open Peer-to-Peer si sono formate grazie ad alcuni di questi sistemi, che permettono una azione locale ma al contempo collegata ad una dimensione maggiore, costruendo cioè delle reti. Inoltre, possono vedere aumentare la propria diffusione con l'aumentare della diffusione di questi sistemi: se ora si basano principalmente su ICT e distributed computing, in futuro potrebbero interessarsi di distributed economy o distributed generation. Ezio Manzini vede, nel complesso, l'emergenza di questa architettura distribuita come il risultato di due principali tendenze e di una nuova piattaforma tecnologica30. Le due tendenze sono di natura tecno-economica e socio-culturale: la prima riguarda la ricerca di flessibilità, efficacia, riduzione dei rifiuti, resistenza e sicurezza del sistema; la seconda riguarda la ricerca di creatività, autonomia e responsabilità come inclinazione umana di base, in crescente presenza all'interno della società attuale. La nuova piattaforma tecnologica, che svolge da supporto, è rappresentata dalle ICT e dall'alto grado di connettività e di possibilità di controllo sistemi altamenti complessi che permette. Secondo Manzini, le prospettive che possono svilupparsi dall'introduzione di sistemi distribuiti possono venire a costituire un modello di innovazione non solo socio-tecnica, ma anche ambientale, culturale e politica31: • implicazioni ambientali: attraverso la riduzione della scala dei propri elementi, i sistemi distribuiti permettono un uso più efficiente delle risorse locali e facilitano forme di simbiosi industriale, riducendo rifiuti e sprechi. Parallelamente, portando la fase di produzione più vicino alle risorse locale e agli utenti finali, questi sistemi distribuiti permettono di ridurre l'intensità dei trasporti necessari (riducendo così traffico e inquinamento); implicazioni sociali ed economiche: • portando una porzione importante dei processi di creazione di valore a scala locale, i sistemi distribuiti generano, e mantengono, una florida economia e un buon livello di occupazione a livello locale. Contemporaneamente, intensificando le attività e interazioni locali, rinforzano il tessuto sociale e preparano un punto di partenza per un utilizzo più efficiente e rigenerante delle risorse sociali esistenti; • implicazioni politiche: portando il potere decisionale più vicino agli utenti finali e 30 Manzini (2005b) p.2 31 Ibidem p.2 31
aumentando la visibilità dei sistemi su cui devono essere prese delle decisioni, i sitemi distribuiti facilitano discussioni democratiche, permettendo a singoli individui e comunità la piena responsabilità nell'effettuare le proprie scelte. Lo sviluppo delle ICT ha portato quindi all'emergenza di una vera e propria intelligenza distribuita, cioè una nuova forma di organizzazione orizzontale basata su forme distribuite di conoscenza e potere decisionale. Quindi tutti i casi di sistemi distribuiti possono essere visti come la declinazione di una intelligenza distribuita relativamente ad una data disciplina o ad un dato problema da risolvere. Due esempi promettenti di sistemi distribuiti sono la distributed economy e la distributed generation: analizzandole brevemente si può comprendere quali siano i cambiamenti che l'introduzione di sistemi distribuiti possono portare (e quindi che ruolo possano avere le comunità Open Peer-toPeer, che sono naturalmente in grado di utilizzare e valorizzare sistemi disttribuiti).
1.4.4.2. Economia distribuita La espressione distributed economy viene dalla messa in discussione dei correnti modelli di produzione, generalmente adottati, dove la visione dell'inseguimento di economie di scala viene sfidata dalla presenza di nuove esigenze di flessibilità e customizzazione, dall'importanza della dimensione locale e della sua identità, e dalle possibilità offerte dalla diffusione delle ICT. Prende così forma una nuova visione economica basata su nuove organizzazioni reticolari dei processi di produzione, uso e consumo, aperte ai flussi di persone e conoscenza ma integrate nella loro dimensione locale. Un esempio di distributed economy può essere visto nella riscoperta del prodotto "locale", legato all'identità del luogo di origine e ai suoi valori sociali e culturali specifici. Gli esempi più classici riguardano produzioni enogastronomiche, ma anche produzioni artigianali rinomate, come i vetri di Murano. Tutti questi prodotti sono caratterizzati da un valore aggiunto che è dato dalla identità locale che veicolano: sono l'espressione della storia di un luogo, da cui ne ricevono una garanzia di qualità e a cui contribuiscono. Infatti, se i prodotti portano con sé la qualità del luogo, questa deve esistere veramente, portando così i produttori a interessarsi ad essa. Vi è quindi un doppio legame tra la comunità locale e il prodotto: la qualità locale è motivo di successo del prodotto, e il prodotto, per avere successo, deve garantire la qualità locale o addirittura rigenerarla. Una economia distribuita significa anche che molte attività produttive possono produrre solamente per un mercato locale, con successo. In questo modo si ha un legame molto stretto tra produttori, prodotti e comunità locale: un esempio tipico è la crescente tendenza alla 32
vendita di prodotti enogastronomici locali e stagionali, slegati dalla grande distribuzione. Questa de-intermediazione permette un abbattimento dei costi e un utilizzo delle risorse locali. Un ulteriore aspetto, ancora in fase di sperimentazione, riguarda il concetto di distributed manufacturing, ovvero la produzione localizzata di prodotti progettati altrove. Questa tipologia produttiva si basa sulla diffusione delle ICT, che permettono una flessibilità produttiva.
1.4.4.3. Generazione energetica distribuita L'espressione distributed generation riguarda un sistema energetico costituito principalmente di generatori elettrici di dimensioni medio-piccole, in grado di produrre autonomamente energia e di scambiarla reciprocamente senza intermediazioni. Un sistema di questo tipo implica un cambiamento radicale nel sistema di generazione e distribuzione di energia elettrica, con la possibilità di dare luogo ad una nuova relazione tra le comunità e le loro dotazioni tecnologiche, attraverso una gestione più democratica. Anche se sono ancora pochi i casi funzionati di distributed generation, è diffusa ovunque l'idea che rappresentino una opportunità per il futuro. La possibilità di organizzazione di reti di distributed generation deriva dalla convergenza di alcuni fattori tra i quali l'esistenza di generatore elettrici efficienti di dimensioni medio-piccole e la esistenza di una rete di distribuzione elettrica basata su ICT. Una generazione energetica distribuita può essere effettuata con tecnologie convenzionali, come generatori elettrici a gas o diesel, ma anche da risorse rinnovabili attraverso celle fotovoltaiche. Negli ultimi venti anni la diminuzione di questi generatori, associata con una crescente affidabilità e una parziale deregulation del mercato elettrico in alcuni Stati, hanno reso la distributed generation un tema di ricerca e sperimentazione molto diffusa. La generazione e distribuzione di gas e di energia elettrica hanno seguito lo stesso percorso di centralizzazione e monopolizzazione. Un esempio è dato dal caso della Gran Bretagna, come raccontato da Mathew Lockwood e Robin Murray32. Alla fine del XIX secolo, le tecnologie di trasporto del gas e dell'energia elettrica cominciarono a poter supportare un consumo di massa in ogni casa, attraverso la costruzione di infrastrutture. Le imprese dedicate alla costruzione di questa infrastruttura costruirono centrali generatrici alla ricerca di economie di scala sempre maggiori. All'inizio del XX secolo nella sola Londra erano presenti 135 differenti imprese dedicate alla fornitura di energia elettrica, ognuna con differenti standard, fino a che le imprese di maggiori dimensioni non ebbero il permesso dallo Stato di occupare tutto il mercato. In seguito, alla fine della 32 Lockwood, Murray (2005)
Seconda Guerra Mondiale, il sistema elettrico venne nazionalizzato e accorpato in un unico sistema distributivo33. Domanda, fornitura e controllo dei flussi di energia erano centralizzati, e negli anni '60 la stessa sorte toccò al sistema di distribuzione del gas. Nemmeno le privatizzazioni e la deregulation degli anni '90 hanno intaccato questo sistema monopolistico e centralizzato di generazione e distribuzione di energia, ancora basata su grandi centrali, in grado di raggiungere economie di scala ma con perdite di energia34. I sistemi di distribuzione attuali sono stati progettati per un flusso di energia a senso unico, dalle centrali agli utenti, dall'alto voltaggio al basso voltaggio, dove gli utenti hanno un ruolo esclusivamente ricettivo, quindi passivo. Un tale sistema è caratterizzato da alcuni punti critici, come l'alta dipendenza da idrocarburi importati, un alto grado di inquinamento, perdite di energia durante la distribuzione e la necessità di una manutenzione continua delle strutture di distribuzione. Oggi, all'inizio del XXI secolo, stanno emergendo segnali di nuove possibili forme di organizzazione della generazione e distribuzione di energia, più flessibili e decentralizzate, in cui gli utenti diventano anche attivi come produttori di energia a livello locale e come rivenditori del surplus ad altri utenti. Già ora, molte fabbriche, uffici e soprattutto ospedali, che richiedono fonti di elettricità e riscaldamento affidabili, hanno installato impianti di co-generazione, spesso utilizzando rifiuti (come le acque utilizzate nelle lavorazioni dalle fabbriche) per la generazione di energia. L'utilizzo di generatori di energia elettrica di piccole dimensioni, prodotti in grandi serie, può riuscire a coprire il loro costo in un periodo di 4-5 anni35. Una generazione di energia localizzata, inoltre, riduce la necessità di imponenti linee e piloni di trasmissione, con gli sprechi che questi comportano. Una generazione decentralizzata significa che la rete di distribuzione cambia, dall'essere passiva, a senso unico, all'essere attiva, a doppio senso. Una rete di distribuzione energetica Peer-to-Peer, da pari a pari, senza (quasi) intermediazioni e controllo centrale.
1.4.4.4. Creatività distribuita Tra i sistemi emergenti di intelligenza distribuita, sta assumendo una notevole importanza la presenza di una creatività distribuita, diffusa, nel senso di una diffusione di comportamenti creativi all'interno della società. Questa diffusione deriva da differenti fenomeni: dalla diffusione di professioni creative (come sostiene Richard Florida36) alla crescente attivazione di singole persone o comunità che cercano soluzioni creative 33 34 35 36
Ibidem p.15 Idem Ibidem p.17 Florida, R., (2002), The Rise of the Creative Class. And How it is transforming work, leisure, community and everyday life, Basic Books, New York
ai problemi che incontrano. Il concetto di distributed creativity, relativamente recente, può essere visto come complementare ai concetti di distributed economy, distributed generation, ecc., come fonte di richiesta di sperimentazione e messa in pratica di questi concetti, che possono anche essere visti come infrastrutture per la diffusione di comportamenti creativi nella società. In questo senso: persone e comunità che si attivano e trovano soluzioni ai loro problemi, richiedono più risorse a livello locale, pur mantenendo ottimi legami a livello globale, e sistemi economici ed energetici distribuiti possono gestire le risorse in maniera più democratica. Allo stesso modo, la presenza di tali sistemi può favorire, rendendo più facile, l'insorgenza di comportamenti creativi autonomi. Gli episodi di creatività distribuita riguardano contesti e problemi molto differenti, e per questa ragione hanno attirato l'attenzione di studiosi di differenti campi: le persone e le comunità creative, hanno la particolare caratteristica di rappresentare dei laboratori di sperimentazione ed innovazione, in anticipo rispetto al mercato e alla società, riuscendo a risolvere problemi condivisi da molte persone. Sono state, quindi, segnalati episodi di creatività diffusa all'interno di organizzazioni aziendali (communities of practice), oppure nella risoluzione di problemi legati alla insostenibilità economica, sociale ed ambientale della propria dimensione locale (Comunità Creative), come modo di ricostituire legami sociali e sviluppare innovazioni radicali senza basarsi su un riconoscimento formale delle capacità (Pro-Am), oppure nello sviluppo di innovazioni di prodotto, servizio, processo (lead users e innovation communities). Le comunità Open Peer-to-Peer rappresentano anch'esse degli episodi di creatività distribuita, che hanno sviluppato delle particolari forme di organizzazione, che possono essere applicate anche agli altri episodi di creatività distribuita riscontrati e aumentare così le loro possibilità di successo.
1.4.4.5. Communities of Practice Il teorico dell'organizzazione Etienne Wenger ha coniato l'espressione communities of practice, ossia 'comunità di pratica', per indicare un certo tipo di comunità che si formano autonomamente dalla continua interazione di persone che condividono una stessa pratica37. Le comunità di pratica sono gruppi di persone che condividono una preoccupazione, un insieme di problemi, o l'interesse su di un tema, e che approfondiscono la propria conoscenza e capacità in questo tema attraverso una interazione continua. Gli ingegneri che progettano alcuni tipi di circuiti elettronici trovano utile comparare i progetti regolarmente e discutere le problematiche relazionate. 37 Wenger (1998), Wenger, McDermott, Snyder (2002) 33
I genitori di bambini che svolgono attività sportive spesso utilizzano i momenti di incontro a queste attività per discutere sui problemi legati ai figli. Tutte queste persone non lavorano assieme ogni giorno necessariamente, ma si incontrano perché riscontrano un valore nelle proprie interazioni. Dedicandosi assieme a un'impresa, nel corso del tempo, le persone vengono a sviluppare una pratica comune, ossia dei modi condivisi di agire e di relazionarsi l'una all'altra che permettono loro di raggiungere quello scopo che si sono prefissate. Col passare del tempo, la pratica che ne risulta diventa un legame riconoscibile che unisce coloro che sono coinvolti in questa impresa comune. Per Wenger, una comunità di pratica deve avere tre proprietà caratteristiche: la presenza di un legame reciproco fra i suoi membri, l'esistenza di una qualche impresa comune e lo sviluppo – col passare del tempo – di un insieme di routine, di regole di condotta (sia pur implicite) e di conoscenze che siano condivise da coloro che appartengono alla comunità stessa. La loro caratteristica che ne ha decretato un enorme interesse è la loro relazione con conoscenza ed apprendimento. L'apprendimento è il motore della pratica, e la pratica è la storia dell'apprendimento. Di conseguenza, le comunità di pratica hanno un ciclo di vita che riflette questo processo. Si formano, sviluppano, evolvono, disperdono in relazione ai propri tempi, logiche, ritmi, e all'energia sociale del loro apprendimento. A differenza delle strutture di organizzazione formali, non è mai chiaro dove inizino e finiscano, perché possono iniziare e finire in periodi differenti dalle loro attività principali. Basate sull'apprendimento reciproco e collettivo più che da operazioni formalizzate, le comunità di pratica necessitano di un certo tempo per svilupparsi, e possono continuare ad esistere anche quando il gruppo da cui si formano venga sciolto. Affermare che l'apprendimento è ciò che dà luogo alle comunità di pratica, è come affermare che l'apprendimento è una forma di struttura sociale, una struttura emergente. Infatti, la pratica viene prodotta dai membri attraverso la negoziazione del significato, un processo aperto, con il potenziale di accogliere in continuazione nuovi elementi ma anche di recuperare e ricordare elementi. Il risultato è che, come struttura emergente, la pratica è altamente perturbabile e altamente resiliente allo stesso tempo. Questa combinazione è una caratteristica dell'adattabilità. La continuità di una struttura emergente deriva non dalla stabilità ma dalla adattabilità38. Le comunità possono creare degli strumenti, standard, progetti generici, manuali e altri documenti oppure possono semplicemente sviluppare una comprensione tacita che condividono. Qualunque sia il modo in cui accumulano conoscenza, diventano legati informalmente dal valore che riscontrano 38 Wenger (1998) 34
nell'apprendere collettivamente. Valore non solo strumentale, visto che spesso si formano delle nuove relazioni o interazioni, fino ad arrivare a un senso di comunità condiviso. Le comunità di pratica sono quindi una forma di organizzazione autonoma che vivono grazie alla creazione di conoscenza attraverso l'apprendimento. È proprio questa capacità di gestione della conoscenza che le ha rese interessanti per la gestione di organizzazioni aziendali. La conoscenza è diventata la chiave del successo, e le organizzazioni aziendali devono capire con precisione e tempestività quale conoscenza darà loro un vantaggio competitivo sviluppandola e diffondendola al proprio interno. "Coltivare" le comunità di pratica in aree strategiche è un modo pratico di gestire la conoscenza come una risorsa sistematicamente come vengono gestite le altre risorse. Infatti le rivoluzioni attuali nelle scienze e nelle tecnologie creano un paradosso dalla difficile soluzione. Mentre l'aumento della complessità delle conoscenze richiede una maggiore specializzazione e collaborazione, le conoscenze stesse diventano obsolete molto più rapidamente. Senza la presenza di comunità orientate su aree critiche, è difficile seguire questo ritmo. Questi cambiamenti stanno avvenendo in un periodo in cui le organizzazioni aziendali stanno riformando molte relazioni internamente ed esternamente per rispondere ai cambiamenti del mercato. Internamente, le organizzazioni aziendali si stanno suddividendo in unità più piccole orientate ad opportunità di mercato ben definite, mentre esternamente stanno sviluppando partnership con altre organizzazioni. Entrambe le relazioni diffondono la produzione e la distribuzione di valore su molte entità distinte, e le comunità di pratica possono aiutare a connettere le persone di differenti organizzazioni e di differenti sottounità, rendendo unito tutto il sistema attorno ad un nucleo di specifiche conoscenze. All'interno di ogni organizzazione è possibile individuare varie comunità di pratica fra loro interconnesse. Quanto più le persone sono coinvolte in queste reti informali e quanto più le reti stesse risultano essere sviluppate ed elaborate, tanto migliori saranno le capacità, da parte dell'organizzazione, di imparare, di rispondere con creatività di fronte al presentarsi di nuove inaspettate circostanze, di cambiare e di evolversi. In una organizzazione c'è una continua azione reciproca fra le reti informali e le strutture formali. Le comunità di pratica sono ovunque, ma con forme diverse e a volte non riconosciute esplicitamente. Le Comunità di Pratica non sono quindi una novità in sé, ma il bisogno delle organizzazioni di sviluppare approcci più intenzionali e sistematici per la "gestione" della conoscenza, a dar quindi un ruolo centrale nelle organizzazioni aziendali a queste forme di comunità. Oltre a contribuire al successo delle organizzazioni nel mercato mondiale, queste comunità portano un altro vantaggio. Nella
continua globalizzazione di una economia basata sul paradigma dell'informazionalismo, le organizzazioni aziendali non competono solo per quote di mercato, ma anche per i talenti: persone con esperienze e capacità per generare e sviluppare idee innovative. Nonostante abbiano varie forme e sviluppi, tutte le comunità di pratica condividono la stessa struttura di base. Una comunità di pratica è una combinazione di tre elementi: un campo di conoscenze (che definisce un insieme di argomenti), una comunità di persone che sono interessate a questo campo, e la pratica condivisa che sviluppano per essere efficaci in questo campo. Il campo delle conoscenze crea una base comune e un senso di identità comune. Un campo ben definito da legittimità alla comunità affermando i suoi obiettivi e valori per i membri e i vari stakeholder. Il campo incoraggia la partecipazione dei membri, guida il loro apprendimento e dà senso alle loro azioni. Sapere quali sono i confini del campo e la frontiera più avanzata può permettere ai membri di effettuare decisioni su cosa sia importante condividere e quali attività si debbano intraprendere e riconoscere quali siano le idee promettenti. La comunità crea il tessuto sociale dell'apprendimento, incoraggiando le interazioni, le relazioni su una base di mutuo rispetto e fiducia, condivisione di conoscenze, supporto reciproco. La pratica è costituita da una serie di framework, idee, strumenti, informazioni, linguaggi, modalità di azione, esperienze e documenti che i membri della comunità condividono. Mentre il campo delle conoscenze stabilisce l'argomento su cui si basa l'interesse collettivo, la pratica definisce le conoscenze specifiche che la comunità condivide, sviluppa e mantiene. Per capire a fondo il ruolo delle Comunità di Pratica all'interno delle organizzazioni aziendali, possiamo identificare cosa non è: •
•
una Comunità di Pratica non è una sottounità dell'organizzazione: le unità delle organizzazioni sono responsabili per la gestione di obiettivi come il servire un determinato segmento di mercato, produrre un determinato prodotto o svolgere una determinata funzione amministrativa. Questa responsabilità include l'allocazione di risorse, la gestione di processi, l'assegnazione di ruoli, la gestione delle relazioni e responsabilità dei risultati. Le Comunità di Pratica principalmente sviluppano conoscenze e non sono quindi un buon veicolo per lo svolgimento di una determinata attività. Sono più lasche, informali, autoorganizzate delle unità, non sono basate sulla gestione delle relazioni ma sulla collegialità, sulla partecipazione e non sull'appartenenza all'organizzazione; una Comunità di Pratica non è un team:
•
l'essenza di un team è costituita da una serie di azioni che contribuiscono al raggiungimento di un obiettivo condiviso e predefinito. Il team si impegna verso questo obiettivo e si assicura che si impegnino anche tutti i suoi membri. Il team leader mantiene l'orientamento dei singoli membri in contributi coordinati verso l'obiettivo. In contrasto con ciò, l'essenza di una Comunità di Pratica è il coinvolgimento personale dei membri nel campo delle conoscenze, che è molto differente da una azione predefinita: i membri sono connessi grazie a conoscenze interdipendenti, non azioni interdipendenti. Un coordinatore di una Comunità di Pratica non guida la comunità nel senso tradizionale, ma raccoglie i partecipanti e facilita i processi che portano a direzioni comuni. Le azioni che intraprende non sono mai definite a priori ma si sviluppano in relazione al campo delle conoscenze; una Comunità di Pratica non è una comunità di interesse o una rete informale: tutte le organizzazioni hanno reti informali di persone che comunicano, condividono informazioni, costruiscono relazioni e reputazioni. Una Comunità di Pratica non è soltanto questo, ma è orientata da un argomento comune ai suoi membri che va ben oltre dando uno scopo preciso alle attività da intraprendere.
Allo stesso modo, un interesse comune non necessariamente porta alla formazione di una Comunità di Pratica, in quanto non sempre porta allo sviluppo di una pratica. Mentre in una Comunità di Pratica l'interesse per un argomento comune (il campo delle conoscenze) sviluppa una pratica condivisa che a sua volta influenza direttamente i comportamenti e le capacità dei membri. Ma ancora, la presenza di una pratica condivisa non costituisce una Comunità di Pratica. Molte organizzazioni professionali, ad esempio, agiscono più come lobby, sebbene possano includere sottogruppi specializzati che creano relazioni fra i membri al fine di sviluppare pratiche. Ovviamente, queste distinzioni esistono con differenti sfumature, per capire se un gruppo di persone forma una Comunità di Pratica bisogna analizzare le modalità con cui combina il campo delle conoscenze, la pratica e la comunità.
1.4.4.6. Comunità Creative La realizzazione dell'importanza di episodi di creatività distribuita avviene anche nel campo del design, più specificatamente nello studio del ruolo del design per lo sviluppo sostenibile. Oggi, il 20% della popolazione mondiale che vive seguendo il modello di benessere occidentale consuma l'80% delle risorse fisiche del nostro pianeta. Se nulla dovesse cambiare, il rimanente 80% della popolazione mondiale, che cerca di inseguire lo stesso modello di benessere, dovrà utilizzare il rimanente 20% delle risorse ambientali, 35
consumandole totalmente (un vero e proprio disastro ambientale) ed in ogni caso senza una speranza di giungere ai risultati promessi. In altre parole: il sogno di un benessere basato su consumo è basato su una promessa che ora riconosciamo come impossibile da mantenere. Per Manzini39 la transizione verso la sostenibilità richiede cambiamenti radicali nel modo in cui produciamo e consumiamo e, più in generale, nel modo in cui viviamo. Infatti, la società deve imparare come vivere meglio e, allo stesso tempo, riducendo la sua impronta ecologica e migliorando la qualità del tessuto sociale. La proposta di vivere bene consumando meno risorse e generando un senso di comunità si riferisce ad un'idea di prosperità, di benessere (e il suo corrispondente modello economico e produttivo) completamente opposto a quello che la società industriale ha generato e proposto finora a livello mondiale. Manzini sintetizza questo modello di prosperità come: più comfort / benessere è uguale a maggiori consumi e ad un minor senso di comunità. Questo profondo contrasto porta ad un'osservazione fondamentale: non è possibile intraprendere passi significativi verso la sostenibilità che se ci si limita a migliorare le idee e i metodi esistenti. Ogni passo verso la sostenibilità deve implicare una discontinuità sistemica in relazione alla situazione attuale. Il riconoscimento e l'osservazione di queste micro-trasformazioni può dare alcune anticipazioni su degli aspetti del nuovo sistema che, ad un certo punto, emergerà. In questo scenario il collegamento tra le dimensioni ambientali e sociali di questo problema appaiono chiaramente, mostrando la necessità di forme radicali di innovazione sociale nel raggiungimento di stili di vita più sostenibili. E con innovazioni sociali Manzini intende cambiamenti nel modo in cui individui o comunità agiscono per trovare un risultato (cioè risolvere un problema o generare nuove opportunità). Queste innovazioni sono guidate da cambiamenti nei comportamenti (più che dalla tecnologia o dal mercato) ed emergono da processi bottom-up (più che da processi topdown). Se il modo di trovare un risultato è totalmente nuovo (o se è lo stesso risultato ad essere totalmente nuovo), può essere denominato una innovazione sociale radicale. È quindi necessario un cambio di direzione radicale, dove le energie progettuali e il potenziale tecnologico siano concentrati sull'obiettivo di rendere gli individui e le comunità di tutto il mondo capaci, in misura maggiore, di lavorare insieme e trovare un modo di vivere meglio, in autonomia; o piuttosto, imparare a vivere meglio, consumando molte meno risorse ambientali. La natura radicale dell'obiettivo (imparando a vivere meglio lasciando un'impronta ecologica e leggera) richiede una sperimentazione enorme, una capacità enorme per ascoltare e un grande grado di flessibilità per cambiare quando diviene evidente che il percorso intrapreso non porta nella direzione desiderata.
39 Manzini (2005a) 36
La transizione verso una società sostenibile è quindi un processo sociale e culturale di notevole portata, un ampio processo di apprendimento collettivo (wide-reaching social learning process) in cui le forme più differenti di conoscenza e capacità organizzazionali devono essere valorizzate nel modo più aperto e flessibile. Dovranno essere utilizzate tutte le capacità possedute dagli individui e dalle comunità: dalle conoscenze tecniche e scientifiche a quelle pratiche, dalle riflessioni filosofiche alle esperienze artistiche, dalla logica deduttiva alla creatività individuale e collettiva. Un particolare ruolo lo avranno le iniziative locali, che possono essere viste come segnali di nuovi comportamenti e nuovi modi di pensare. Manzini, infatti, osserva che, nella complessità e nelle contraddizioni della società contemporanea, alcuni casi di innovazioni sociali stanno emergendo continuamente, sotto forma di nuovi comportamenti, nuovi modi di organizzazione, nuovi modi di vivere. Alcuni sono ancora più insostenibili dei modelli del passato, ma alcuni sembrano molto promettenti: esempi di iniziative dove, in differenti modalità e per differenti motivazioni, alcune persone hanno riorientato i loro comportamenti e le loro aspettative in una direzione che sembra coerente con i principi di sostenibilità sociale e ambientale. Questi esempi rappresentano comportamenti esterni a quelli dominanti nella società, presa nel suo insieme: sono esempi di comunità che, dovendo risolvere un proprio problema, si sono organizzate autonomamente in maniera tale da risolverlo direttamente personalmente. Gruppi di persone che riorganizzano il proprio modo di vivere nella loro casa (come nel movimento del cohousing) e nel proprio vicinato (ridandogli vita, creando le condizioni affiché i bambini possano andare a piedi a scuola, o affinché si svilupppi una maggiore mobilità basata sull'andare a piedi o in bicicletta). Comunità che organizzano nuovi servizi sociali per anziani e per genitori, basati sulla partecipazione (giovani ed anziani che vivono insieme e micro-asili nido per bambini organizzati dalle stesse mamme) e che organizzano nuove reti di distribuzione del cibo favorendo alimenti organici e tipici (come nel caso di Slow Food, dei Gruppi di Acquisto Solidale o di Commercio Equo e Solidale). Queste comunità creative hanno molti tratti in comune: sono profondamente radicate nella loro località, si basano su risorse locali e, direttamente o indirettamente, promuovono nuove forme di socializzazione. Allo stesso tempo, sono organizzati in reti di iniziative simili su una scala internazionale, dove condividono le proprie esperienze e i propri problemi (sono perciò entità locali ma anche cosmopolite). Infine, ciò che è più interessante, propongono soluzioni che riescono nel fare convergere l'interesse individuale con quello collettivo e ambientale (ed è per questo che sono iniziative che hanno una buona possibilità di essere davvero soluzioni sostenibili). Anche se, al momento, questi casi promettenti
sono l'espressione di alcune minoranze sociali, e a confronto coi modi di pensiero e di comportamento più mainstream tendono a scomparire, sono cruciali per promuovere ed orientare la transizione verso la sostenibilità. Infatti si presentano come esperimenti sociali e, nell'insieme, come un grande laboratorio di possibili scenari futuri. Un laboratorio differenti sentieri orientati verso la sostenibilità possono essere percorsi e valutati. Come in ogni laboratorio, anche in questo nessuno può dire a priori quale esperimento avrà successo: ogni tentativo diventa quindi importante. Queste comunità creative, e le loro iniziative promettenti, mostrano che è già possibile intraprendere dei passi verso la sostenibilità. Inoltre, anticipando esempi concreti di ciò che potrebbe essere considerato “normale “in una società sostenibile, alimentano una discussione collettiva e la generazione di visioni condivise su questo tema. Allo stesso tempo, esprimono, in un modo esplicito o implicito, domande di nuovi prodotti e servizi, generando delle nuove possibilità di mercato nello sviluppo di soluzioni sostenibili. La loro presenza dimostra che il processo di apprendimento verso la sostenibilità ambientale e sociale sta cominciando a costruire su un ampio insieme di esperimenti e conoscenze, che c'è un'inversione di tendenza dai processi disabilitanti del passato. Le comunità creative sono tali perché, nel loro contesto, hanno inventato modi diversi di comportarsi e pensare, emergendo in condizioni molto specifiche e, soprattutto, grazie all'impresa di persone molto speciali. Persone che sono state in grado di pensare ed agire in maniera creativa, progettuale; tuttavia questo aspetto, seppure rappresenti forse il lato più affascinante, rappresenta un limite alla loro diffusione e durata. I casi promettenti riscontrati sono scaturiti da problemi posti dalla vita quotidiana nella società contemporanea. Sia in una metropoli nel Nord, sia in un villaggio nel Sud del mondo, sono risposte a domande che emergono quando i problemi tipici della realtà contemporanea incontrano la vita di ogni giorno; domande alle quali il sistema dominante di produzione e consumo, nonostante la sua enorme offerta di prodotti e servizi, non è in grado di dare una risposta adeguata dal punto di vista della sostenibilità. Nel rispondere alle domande poste dalla vita quotidiana, le comunità creative hanno trovato collegamenti più o meno forti ed espliciti con modi di fare e pensare tipici delle culture pre-industriali. Questo collegamento non deve però condurci alla idea che siano dei movimenti nostalgici: riprendono comportamenti tradizionali attualizzandoli alle tecnologie e necessità attuali. Il “passato” emergente in questi casi è una risorsa straordinaria, assolutamente moderna, sociale e culturale: è il valore del senso di vicinato, del cibo stagionale e locale, ecc. Questi casi promettenti sono il risultato di una forma speciale di creatività. Una creatività sociale, diffusa, il cui sviluppo richiede condizioni ambientali favorevoli. La creatività a cui Manzini si
riferisce non è quella dei "creativi di professione", la cosiddetta "classe creativa". Piuttosto, è la creatività di persone e comunità che inventano modi nuovi di comportarsi perché ne hanno bisogno: persone che non sono creative per la professione che svolgono ma per le necessità che hanno. Da questo punto di vista, il numero delle comunità creative non dipende da una crescita delle professioni creative, ma si basa su una sensazione condivisa della necessità di migliorare le proprie vite nell'insicurezza “invidualizzata” della società contemporanea. Le comunità creative non emergeranno automaticamente, ma solo dove è diffusa la capacità di immaginare, organizzare e gestire modi nuovi di comportamento. Più grande è la capacità in termini di immaginazione ed iniziativa distribuita in tutta la società, più grande è la possibilità che si sviluppino comunità creative. Allo stesso modo, la nascita e sviluppo di tali imprese dipende anche dal livello di tolleranza del loro contesto, data la loro radicalità.
1.4.4.7. Pro-Am Charles Leadbeater e Paul Miller parlano di Pro-Am, Professional Amateurism: dilettantismo professionale, cioè persone che legano i due mondi svolgendo attività amatoriali per passione ma con standard e risultati a livello professionale40. Questo notevole impegno spiega i risultati ottenuti. Risultati a volte anche complessi, come la programmazione di un intero sistema operativo (Linux), o la gestione di una intera campagna di pressione pubblica (Jubilee Debt Campaign) o la diffusione di un nuovo stile musicale (musica rap). Questi sono tutti esempi di persone che, utilizzando le proprie conoscenze e in collaborazione con altre persone, sono riuscite ad ottenere risultati che prima solo organizzazioni professionali potevano ottenere. Proprio questo fatto li distanzia dalle persone che svolgono le classiche attività hobbystiche, basate su attività individuali e semplici. I Pro-Am non considerano il divertimento che deriva dall'utilizzo del proprio tempo libero come una forma passiva di consumismo, ma attivo e partecipatorio. I Pro-Am utilizzano il proprio tempo libero non per “rilassarsi” ma per migliorare le proprie capacità e conoscenze, creare qualcosa (spesso veri e propri prodotti e servizi), collaborare con altre persone che presentano gli stessi interessi. Tutte queste sono attività per le quali non vengono comandati dall'alto ma su cui hanno un controllo personale e vi possono rinunciare liberamente. Attraverso queste attività riescono a costruire il proprio capitale culturale (le proprie conoscenze e abilità) e il capitale sociale (i legami personali) delle comunità di Pro-Am, creando un senso di identità personale e collettivo. In una comunità di Pro-Am, le conoscenze sono distribuite tra i partecipanti che le condividono, considerandosi tutti di pari livello. Quando qualche partecipante aumenta la sua reputazione e la sua 40 Leadbeater, Miller (2004) 37
influenza all'interno della comunità, lo fa grazie alle sue conoscenze e capacità. Il capitale sociale che i Pro-Am sviluppano è molto importante nella situazione attuale di perdita del senso di comunità locale. Queste comunità si sono sempre formate e sviluppate in base alle caratteristiche della propria dimensione locale, ma anche in base a una visione, una cultura, delle regole e degli interessi comuni. Le comunità Pro-Am possono ricostituire il tessuto sociale locale. Inoltre, possedere delle capacità e conoscenze a livello professionale, ma al di fuori del proprio lavoro, fornisce una garanzia di sicurezza maggiore in caso di perdita del lavoro. Leadbeater e Miller41 credono che la presenza di questi Pro-Am in una società siano sintomo di democrazia, in quanto rappresentano la presenza attiva dei cittadini nella vita pubblica. Mentre da un lato la partecipazione politica classica, legata all'appartenenza a partiti politici, è in crisi, dall'altro la presenza di cittadini coinvolti in grandi campagne di pressione politica o in associazioni di volontariato e non profit è in aumento. Spesso queste campagne sono organizzate da poche persone che riescono a costruire, con delle semplici tecnologie di comunicazione, una rete di partecipanti estremamente estesa: queste organizzazioni sono più economiche, leggere ed efficaci nel coinvolgimento attivo dei cittadini. Per identificare con una precisione maggiore i ProAm, Leadbeater e Miller li posizionano all'interno di un una serie di tipologie di attività: professionisti, pre-professionisti (apprendisti e tirocinanti), semiprofessionisti (che guadagnano dalla loro attività una parte importante del loro reddito), postprofessionisti (pensionati che continuano a svolgere l'attività lavorativa), amatori (con un forte impegno nell'attività). I Pro-Am hanno anche un ruolo di crescente importanza nello sviluppo di innovazioni, soprattutto nei campi emergenti che sono troppo recenti oppure non sufficientemente ampi per essere soggetto di ricerche ben organizzate. In primo luogo, i Pro-Am possono sviluppare delle innovazioni dirompenti creando nuove opportunità e nuovi modi di operare attività economiche, nuovi prodotti e nuovi servizi, in maniera più economica. Queste innovazioni solitamente hanno luogo in mercati marginali e sperimentali, dove è difficile avere a disposizione ingenti fondi per lo sviluppo di nuove tecnologie o prodotti o servizi, per poterle poi diffondere in mercati più ampi. In questa situazione è cruciale la presenza di Pro-Am, che spesso sviluppano innovazioni anche senza ricercare un beneficio economico diretto. In secondo luogo, i Pro-Am guidano le innovazioni nell'utilizzo di prodotti e servizi. Più una innovazione è radicale dal punto di vista tecnologico, più difficile è capire in anticipo a cosa può portare. Ma utenti Pro-Am, appassionati 41 Ibidem 38
utilizzatori e sperimentatori, possono guidare nuovi utilizzi e quindi nuove direzioni dei mercati. Una cocreazione di valore tra utenti e imprese, basate su un'attività innovativa aperta e portata avanti da un numero elevato di partecipanti parallelamente. Di conseguenza, più capacità e conoscenze (quindi più Pro-Am) sono distribuite in una economia, migliore l'innovazione e la flessibilità di questa. Proprio per la loro capacità di creare capitale sociale e di sviluppare innovazioni, Charles Leadbeater e Paul Miller propongono anche che i Pro-Am vengano impiegati nella gestione di servizi pubblici. In questo modo produttori e utenti del servizio rivestiranno ruoli differenti da quelli attuali ma più complementari e innovativi. Dalla istituzione del welfare state, i servizi pubblici sono sempre stati definiti dai professionisti che li gestiscono ma, a causa del loro crescente costo del lavoro e decrescente produttività, l'apertura alla partecipazione di Pro-Am (quindi di tutti i cittadini in possesso di conoscenze e capacità) può essere una mossa strategica critica nello sviluppo di nuovi servizi sociali. Leadbeater e Miller concludono la loro riflessione sui Pro-Am affermando che in futuro le innovazioni verranno dalla collaborazione fra professionisti e Pro-Am in un nuovo tipo di organizzazione, collaborativa, a rete, flessibile e in gran parte autoregolante42. Le capacità dei Pro-Am sono comunque limitate dal fatto che non esercitano solamente l'attività preferita, a cui quindi non possono dedicare troppo tempo. Quindi difficilmente la loro attività può portare a teorie scientifiche, oppure a risultati in altri campi dove è richiesta una attenzione continua. Tuttavia sarà sempre più difficile capire, in una collaborazione professionistiPro-Am, il confine fra questi.
1.4.4.8. Lead User e Innovation Communities Negli ultimi venti anni è emersa lentamente la consapevolezza che semplici cittadini (e non professionisti) possono avere un'enorme influenza sugli aspetti culturali ed economici della società. L'interesse per la creatività diffusa tra i normali cittadini è tema di interesse anche di altri studiosi; nel campo degli studi economici e gestionali uno degli esponenti più importanti è forse Eric von Hippel, economista del Massachusetts Institute of Technology. Da molto tempo è ormai opinione comune che le innovazioni di prodotto siano solitamente sviluppate dalle imprese che li producono. Nel suo libro “The sources of innovation”43 Eric von Hippel presenta una serie di studi che dimostrano invece che le fonti di innovazione (sources of innovation) di cui si servono le imprese variano enormemente. In alcuni campi, sono gli utenti a sviluppare innovazioni, in altre sono i fornitori di materiali e 42 Ibidem p.71 43 Von Hippel (1988)
componenti relazionati con innovazioni, e in altri ancora sono i produttori stessi. Von Hippel esplora le cause della presenza di fonti di innovazione all'esterno delle imprese che le commercializzano, al fine di trovare strumenti per cercare di predirne l'esistenza e l'ubicazione. Infine, propone di sostituire il concetto di produttore come innovatore con una visione del processo innovativo distribuito tra utenti, produttori, fornitori ed altri agenti. Nell'analizzare le fonti di innovazione, von Hippel utilizza una variabile che definisce functional source of innovation ('fonte funzionale di innovazione'), che suddivide imprese ed individui in termini della relazione funzionale attraverso cui traggono beneficio da una certa innovazione di prodotto, di processo di servizio. Ne traggono beneficio usandola? Allora sono utenti. Ne traggono beneficio producendola? Allora sono produttori. Ne traggono beneficio fornendo componenti o materiali necessari per costruire o utilizzare l'innovazione? Allora sono fornitori. Ovviamente, il functional role ('ruolo funzionale') di un individuo o di una impresa non è fisso nel tempo, ma dipende invece dalla specifica innovazione esaminata. Inoltre, molte functional relationships ('relazioni funzionali') possono esistere tra innovatore e innovazione, oltre a quelle di utente, produttore e fornitore: ad esempio, imprese o individui possono trarre beneficio dalle innovazioni come distributori, assicuratori e così via. Il primo indizio che la functional source of innovation sia potenzialmente un metodo efficace per la suddivisione degli innovatori in categorie deriva dalla scoperta che la fonte di innovazione varia notevolmente tra le categorie di innovazione. In alcuni campi, come in quello degli strumenti scientifici, le innovazioni di prodotto più importanti vengono sviluppate solitamente dagli utenti. Ci sono molti fattori che influenzano la functional source of innovation. Hippel propone di analizzare i profitti provvisori (economic rents) aspettati da potenziali innovatori. Nei casi studiati da Hippel, è apparso che le imprese innovative potrebbero anticipare ragionevolmente profitti più alti delle imprese che non innovano. Le imprese organizzano e forniscono di personale le loro attività indirizzate alle innovazioni sulla base delle loro considerazioni riguardo alle fonti dell'innovazione. Hippel trova che le imprese organizzano le loro attività sulla base dell'assunto che nuovi prodotti sono - o dovrebbero essere sviluppati dalla impresa che li fabbricherà per la vendita. Questo conduce i fabbricanti a formare reparti R&D (ricerca e sviluppo) capaci di adempiere al compito di sviluppare nuovi prodotti all'interno dell'impresa e ad organizzare ricerche di mercato indirizzate a cercare necessità invece che innovazioni. Infatti, se un fabbricante dipende solamente dallo sviluppo interno di innovazioni per i propri prodotti, tale organizzazione risulta appropriata. Ma se le fonti di innovazione sono utenti, fornitori o altre
tipiche fonti di innovazioni esterne, questa organizzazione può risultare inappropriata. Ad esempio, il reparto R&D di una impresa non sarà molto interessato ai prototipi sviluppati da un utente, se i suoi ingegneri sono stati addestrati e motivati ad intraprendere lo sviluppo di prodotto in isolamento. Una volta che la fonte attuale dell'innovazione viene compresa, la natura delle modifiche necessarie alle organizzazioni delle imprese possono essere comprese a loro volta. Nuove fonti di innovazione richiedono nuovi strumenti di gestione e di organizzazione. I metodo tradizionali di ricerca del marketing devono essere modificati per lo svolgimento di ricerche effettive su possibili innovazioni da parte degli utenti. In molte categorie di prodotto, le esperienze degli utenti, limitate al proprio contesto personale, non impediscono alle ricerche di marketing di valutare bisogni per nuovi prodotti. Il "nuovo" è relativamente familiare, perciò anche l'utente tipico può avere un ruolo prezioso nello sviluppo di nuovi prodotti nuovi. In contrasto, nelle industrie ad alta tecnologia, il mondo si muove così rapidamente che le esperienze degli utenti sono rese spesso obsolete nel tempo in cui un prodotto viene sviluppato o durante la durata della sua vita commerciale. Per tali industrie Von Hippel propone che i lead users ('utenti pionieri' o 'utenti innovatori'), che hanno sviluppato esperienze reali con la necessità di nuovi prodotti e processi, siano essenziali per ricerche di marketing accurate. Sebbene le intuizioni dei lead users siano limitate alle loro esperienze personali, questi hanno una certa familiarità con condizioni del futuro prossimo, e sono quindi in una posizione di fornire dati accurati sulle necessità generate da tali condizioni. Von Hippel definisce i lead users di un nuovo prodotto, processo o servizio come quelli che mostrano due caratteristiche relativemente a questo44: 1. i lead users si trovano ad affrontare bisogni che, in futuro, saranno ampiamente diffusi nel mercato, ma lo fanno mesi o anni prima; 2. i lead users sono posizionati in modo da trarre un significante beneficio ottenendo una soluzione a questi bisogni. In questo modo, una impresa manifatturiera con un forte bisogno di un'innovazione di processo, di cui molti fabbricanti avranno bisogno nel giro di due anni, potrebbe essere definita come lead user relativamente a quel processo. Entrambe le caratteristiche dei lead users offrono un contributo indipendente al tipo di bisogno di nuovo prodotto nuovo e dati per la soluzione che tali utenti si pensa possiedano. Il primo specifica che un lead user possiederà la particolare esperienza che i produttori devono analizzare se vogliono capire le necessità del mercato con cui dovranno confrontarsi un domani. 44 Ibidem p.107 39
Questi utenti esistono semplicemente perché le nuove importanti tecnologie, i prodotti, le preferenze, e gli altri fattori relazionati alle opportunità di nuovi prodotti solitamente si diffondono nella società, spesso durante il corso di molti anni, piuttosto che con un impatto simultaneo su tutti i suoi membri. La seconda caratteristica dei lead user è una applicazione diretta dell'ipotesi sviluppata da Von Hippel: gli utenti che si aspettano profitti alti dalla soluzione ad un bisogno sotto studio devono essere stati spinti da queste aspettative nel tentativo di risolvere il loro bisogno. Questo lavoro in cambio avrà prodotto le intuizioni dei bisogni e forse delle soluzioni utili che saranno di valore per le ricerche di mercato. In conclusione, i lead user sono utenti le cui forti necessità attuali diverranno generali nel mercato nel giro di mesi o anni. Dato che i lead users hanno familiarità con le condizioni che si avranno nel futuro, Von Hippel ipotizza che possano servire come un laboratorio di ricerca per le ricerche di marketing. Inoltre, dato che i lead users spesso tentano di soddisfare i loro bisogni, al momento insoluti, V on Hippel ipotizza che possano offrire nuovi concept di prodotto e suggerimenti progettuali di estremo valore per i produttori. Eric von Hippel, proseguendo la sua ricerca, mostra nel suo libro “Democratizing innovation”45 come stia emergendo un processo di innovazione democrizzata, ruotante attorno all'utente (usercentric), che rappresenta un complemento necessario alle innovazioni sviluppate dai produttori. Quando von Hippel dice che la innovazione si trova in un processo di “democratizzazione”, intende il fatto che gli utenti di prodotti e servizi (sia imprese che singoli consumatori) sono sempre più capaci di sviluppare autonomamente delle innovazioni. Processi di innovazione user-centered offrono grandi vantaggi in più rispetto a sistemi di sviluppo di innovazioni quali quelli presenti, ormai da secoli, all'interno delle imprese. Gli utenti che innovano possono sviluppare esattamente ciò di cui hanno bisogno, invece che affidarsi esclusivamente ai produttori e alle loro offerte. Inoltre, non devono sviluppare da sé tutte le innovazioni di cui hanno bisogno: possono condividerle con altri utenti e trarne beneficio collettivamente. La tendenza verso una democratizzazione dell'innovazione può essere riscontrata sia in prodotti basati su informazioni (come il software) che in prodotti fisici (come nel caso delle attrezzature sportive per il windsurf, sviluppate da un gruppo informale di appassionati nelle isole Hawaii46). Il processo innovativo user-centered rappresenta un forte contrasto con il modello tradizionale, in cui prodotti e servizi sono sviluppati dai produttori in segreto, attraverso brevetti, 45 von Hippel (2005) 46 Shah (2000), Shah, Franke (2001) 40
copyright, e altre protezioni nel tentativo di prevenire che imitatori possano trarre vantaggio scorrettamente (free riding) dalle loro innovazioni. In questo modello tradizionale, l'unico ruolo dell'utente è quello di avere dei bisogni, che i produttori identificano e soddisfano progettando e producendo nuovi prodotti. Sebbene questo modello, manufacturer-centric, sia appropriato in alcuni casi, siamo in presenza di un sempre più alto numero di prodotti (sia industriali che commerciali) sviluppati da utenti. Inoltre, questa tendenza allo sviluppo di innovazioni autonomamente si sta rafforzando con l'ulteriore sviluppo e diffusione di computer e ICT. Gli utenti di cui parla Von Hippel sono imprese o singoli consumatori che si aspettano dei benefici dall'utilizzare un prodotto o un servizio. Invece, i produttori sono chi si aspetta dei benefici dalla vendita di un prodotto o di un servizio. Una stessa impresa o individuo può avere differenti relazioni a differenti prodotti ed innovazioni. Innovation user e innovation manufacturer sono quindi le due relazioni funzionali generalmente osservabili tra un innovatore e una innovazione. Tutte le altre (i produttori) devono prodotti o servizi derivanti dalle innovazioni agli utenti, direttamente o indirettamente, per ottenere un profitto dalle innovazioni. In questo modo, per ottenere dei profitti, gli inventori devono vendere o concedere sotto licenza le conoscenze relative alle innovazioni, e i produttori devono vendere prodotti o servizi che incorporano queste innovazioni. Allo stesso modo, i fornitori di materiali o servizi relazionati ad innovazioni (a meno che non ne abbiano un uso diretto) devono venderli per ottenere un profitto da queste innovazioni. Von Hippel riporta i risultati di studi empirici che mostrano come dal 10% al 40% degli utenti si impegni nella modifica di prodotti47. Egli riscontra come questa creatività diffusa rappresenti un esempio molto importante dei lead users riscontrati anni prima. Ciò che è avvenuto in questi anni è stato l'aumento di lead users e la crescente consapevolezza della presenza di lead users. Gli utenti possono innovare se desiderano qualcosa che non sia disponibile sul mercato e che possano essere disposti a pagare per il suo sviluppo. Le imprese che producono su grande scala tendono a seguire una strategia di sviluppo di prodotti indirizzata ad incontrare i bisogni di segmenti di mercato abbastanza grandi da indurre all'acquisto un grande numero di consumatori. Quando i bisogni dei consumatori sono eterogenei, questa strategia non è più appropriata. Inoltre, vi sono molti fattori che spingono gli utenti ad innovare anziché a comprare, come la presenza di costi ulteriori (agency costs) e la passione per il processo di innovazione. Quando un utente sviluppa un prodotto per sé, lo fa nel suo miglior interesse, mentre quando contatta un produttore per farlo, la situazione è molto più complessa. Se gli interessi di entrambi non sono gli stessi, 47 von Hippel (2005)
possono emergere dei costi ulteriori (agency costs), derivanti da: 1. costi per il monitoraggio del produttore, al fine di assicurarsi che stia seguendo gli interessi dell'utente; 2. costi derivanti dalla scelta di non agire contro gli interessi dell'utente; 3. costi derivanti dall'eventualità di un prodotto finale che non soddisfi a pieno l'utente. Nel caso specifico dello sviluppo di prodotti e servizi, spesso ci si trova in presenza di una divergenza di interessi tra il produttore e l'utente: quest'ultimo vuole ciò di cui ha precisamente bisogno, mentre il primo vuole abbassare i costi di sviluppo incorporando soluzioni di cui è già in possesso o che pensa che altri desidereranno in futuro. Una accurata esplorazione dei processi di base per lo sviluppo di prodotti e servizi porta Von Hippel a trarre la conclusione che utenti e produttori tendono a sviluppare differenti tipi di innovazione. Ciò è causato da asimmetrie delle informazioni: utenti e produttori sono in possesso di differenti informazioni. Gli sviluppatori di prodotto necessitano di due tipi di informazioni: i bisogni e il contesto d'uso (informazioni generate dall'utente) e informazioni generiche su possibili soluzioni (spesso inizialmente generate dai produttori specializzati in quella particolare soluzione. Unificare questi due tipi di informazioni non è semplice: acquisire queste informazioni è un processo costoso. Di conseguenza, gli utenti hanno informazioni più accurate riguardo alle proprie esigenze, mentre i produttori hanno informazioni più accurate riguardo alle soluzioni che sviluppano. Una conseguenza della asimmetria informativa è che gli utenti tendono a sviluppare innovazioni dal punto di vista funzionale, che richiedono una grande quantità di informazioni riguardanti i bisogni dell'utente e del suo contesto d'uso. Invece i produttori tendono a sviluppare innovazioni che riguardano miglioramenti su bisogni ben conosciuti e che richiedono una profonda comprensione delle soluzioni per il loro sviluppo. Procedendo su questa strada, Von Hippel nota come i costi delle informazioni hanno come conseguenza che le informazioni saranno differenti anche tra gli utenti e tra le imprese. Le informazioni di determinati utenti (o determinati produttori) saranno più adatte allo sviluppo di una determinata innovazione, e così il costo di sviluppare quell'innovazione sarà relativamente basso per quell'utente o produttore. Il risultato netto è che le attività di innovazione da parte di utenti saranno distribuite attraverso molti utenti secondo le loro dotazioni di informazioni. Relativamente all'innovazione, nessun utente è un sostituto perfetto di un altro utente. L'efficienza sociale di un sistema nel quale le innovazioni individuali sono sviluppate da utenti individuali aumenta se gli utenti diffondono, in qualsiasi modo, quello che loro hanno sviluppato, ad altri. I produttori innovatori realizzano ciò solo in
parte quando vendono un prodotto o un servizio sul libero mercato (parzialmente perché diffondono il prodotto che incorpora l'innovazione, ma spesso non tutte le informazioni di cui altre persone avrebbero bisogno per capirla pienamente e replicarla). Se gli utenti innovatori non diffondono i loro risultati, molti utenti con necessità molto simili dovranno sviluppare indipendentemente innovazioni molto simili, con uno scarso utilizzo delle risorse dal punto di vista sociale. Von Hippel, basandosi su ricerche empiriche, nota che gli utenti spesso raggiungono una diffusione di inaspettate dimensioni attraverso un sistema inaspettato: spesso "rivelano liberamente” ciò che hanno sviluppato, donando volontariamente ogni proprietà intellettuale e tutti gli agenti che ne sono interessati ne hanno libero accesso. L'informazione sviluppata diventa un bene pubblico. Le metodologie di sviluppo tipiche delle comunità di sviluppo di software Open Source sono state importanti nel portare questo fenomeno alla consapevolezza generale. Dal successo del software Open Source e della sua modalità di organizzazione collettiva ci si è quindi accorti degli altri esempi, in altri campi, che seguivano principi molto simili. Gli innovatori spesso rivelano liberamente le loro scoperte perché spesso è la migliore o la sola opzione pratica disponibile: nascondere una innovazione come segreto commerciale è una strategia che non può avere successo a lungo termine. Troppe persone possiedono conoscenze molto simili, e molti potrebbero rivelarle. La rivelazione delle informazioni viene fatta perchè, anche se può comportare rischi di perdite, porta anche dei vantaggi: altri utenti possono migliorare ulteriormente le innovazioni o dare consigli per farlo, a vantaggio collettivo. Altri vantaggi sono la costituzione di una forte reputazione personale e da effetti di network dovuti alla diffusione della propria innovazione. L'innovazione da parte di utenti tende ad essere distribuita in maniera estesa piuttosto che concentrata fra pochi utenti innovativi. Di conseguenza, è importante per gli utenti innovatori trovare modi di combinare i loro sforzi, attraverso molte forme di cooperazione: diretta, informale, cooperazione di utente-a-utente (assistendo altri utenti, rispondendo a domande e così via; in questo caso, gli utenti interagiscono in modo paritario, Peer-to-Peer). La formazione di comunità di innovazione può aumentare la velocità e l'efficacia con cui utenti ed anche produttori possono sviluppare, testare e distribuire innovazioni. Von Hippel definisce quindi le innovation communities (comunità di innovazione) come nodi che consistono di individui o imprese interconnessi da trasferimenti di informazioni che possono comportare comunicazioni faccia-a-faccia, elettroniche o altro ancora. Questi possono, ma non ne hanno necessità, esistere all'interno dei confini di un gruppo di appartenenza. Spesso, ma 41
non ne hanno bisogno, incorporare le qualità delle comunità di partecipanti, dove la “comunità” è definita come reti di legami interpersonali che forniscono socievolezza, appoggio, informazioni, un senso di appartenenza e identità sociale48.
48 Ibidem p.96 42
2. Open Source
macchina. Ogni programma deve quindi essere scritto in un linguaggio macchina, ovvero con un alfabeto binario.
2.1. Source code, Binary code, Hacker Il termine composto Open Source nasce dal mondo della programmazione informatica e sta ad indicare alcune caratteristiche tecniche del software: è quindi un concetto che necessita alcune conoscenze tecniche sui processi di progettazione dei programmi per calcolatore. Un programma informatico non è altro che un insieme di istruzioni per far sì che il computer svolga determinate funzioni. Il computer “ragiona” in un sistema binario in cui ogni informazione deve essere codificata in una serie composta da sole due cifre: lo zero e l'uno. A seconda di come 0 e 1 vengono disposti e raggruppati abbiamo dei dati che possono essere riconosciuti ed elaborati dalla
Questo alfabeto viene detto binario perché comprende due soli simboli, generalmente indicati con 0 e 1. Un simbolo di questo alfabeto viene detto bit1. Il linguaggio macchina si basa quindi su un sistema numerico binario2, utilizzato per la sua semplicità nel descrivere numeri, lettere, simboli, ma anche per la corrispondenza con i valori logici vero e falso. Ad ogni numero o lettera corrisponde una sequenza di 0 e 1, come si vede nella tabella 1.
a
01100001
A 01000001
0
00000000
! 00100001
b
01100010
B 01000010
1
00000001
" 00100010
c
01100011
C 01000011
2
00000010
# 00100011
d
01100100
D 01000100
3
00000011
$ 00100100
e
01100101
E 01000101
4
00000100
% 00100101
f
01100110
F 01000110
5
00000101
& 00100110
g
01100111
G 01000111
6
00000110
' 00100111
h
01101000
H 01001000
7
00000111
( 00101000
i
01101001
I 01001001
00001000
) 00101001
j
01101010
J 01001010
9
00001001
* 00101010
k
01101011
K 01001011
10
00001010
+ 00101011
l
01101100
L 01001100
11
00001011
, 00101100
m
01101101
M 01001101
12
00001100
- 00101101
n
01101110
N 01001110
13
00001101
. 00101110
o
01101111
O 01001111
14
00001110
/ 00101111
p
01110000
P 01010000
15
00001111
: 00111010
q
01110001
Q 01010001
16
00010000
; 00111011
r
01110010
R 01010010
17
00010001
< 00111100
s
01110011
S 01010011
18
00010010
= 00111101
t
01110100
T 01010100
19
00010011
> 00111110
u
01110101
U 01010101
20
00010100
? 00111111
v
01110110
V 1010110
21
00010101
@ 01000000
w
01110111
W 01010111
22
00010110
[ 01011011
x
01111000
X 01011000
23
00010111
\ 01011100
y
01111001
Y 01011001
24
00011000
] 01011101
z
01111010
Z 01011010
25
00011001
^ 1011110
8
Tabella 1: Corrispondenza alfabeto alfanumerico - alfabeto binario (Fonte: http://www.netlingo.com/more/binary.html, http://www.kerryr.net/pioneers/ascii3.htm) 1 2
http://it.wikipedia.org/wiki/Linguaggio_macchina http://it.wikipedia.org/wiki/Sistema_numerico_binario 43
La scienza informatica ha però creato diversi linguaggi, detti linguaggi di programmazione3, dotati di sintassi ed espressioni caratteristiche, che permettono di dialogare con la macchina senza dover inserire direttamente serie indeterminate e disorientanti di 0 e di 1. Perciò il programmatore scrive il programma in uno di questi linguaggi, dopo di che un altro programma (chiamato compilatore) trasformerà automaticamente le istruzioni in linguaggio binario rendendole così assimilabili da parte del computer. Nel gergo informatico si usa chiamare il codice binario come codice oggetto, mentre il codice con cui è stato sviluppato il software come codice sorgente, il quale è comprensibile e modificabile a qualunque programmatore che conosca il determinato linguaggio informatico usato. Un esempio pratico può essere quello del codice sorgente di un banale programma scritto nel linguaggio di programmazione denominato C (fig.1). Il semplice scopo del programma di esempio, e` quello di individuare due punti giacenti su uno stesso piano. float distance (p0 , p1 ) struct point p0 , p1 ; { float x dist= p1.x -p0.x; floatydist= p1.y -p0.y; return sq rt (x dist * x dist + y dist * y dist); } Fig. 1: Codice sorgente per l'individuazione di due punti giacenti sullo stesso piano (Fonte: Stallman 2003b) éà ÿÿÿ1Ã^‰áƒäðPTRhðƒ##hÆ’##QVhlÆ’# #e`¿ÿÿÿô??U‰ Ã¥Se`të#ƒÀ#£""##ÿo`¡""##‹#…o`uëÆ#Å ’•###ÉÉöU‰ Ã¥QQ‹#p•#ƒÀ#ƒÀ#à e`#à à #)ăìhx„##e`#ÿÿÿƒÄ#ÉÃ??????U‰ Ã¥WVSēe`¾þÿÿ?Æ’#ÿÿÿ?“#ÿÿÿ‰Eð )à 1öà ø#9Æs#‰×ÿ#²‹Mð) Fig. 2: Codice binario di un programma, aperto con un normale editor di testo 01100110 00001101 01110100 00100000 00101100 00101001 01110010 01110000 00100000 00100000 00001101 01100110 00100000 01110011
01101100 00001010 01100001 00101000 00100000 00001101 01110101 01101111 01110000 01110000 00001010 01101100 01111000
01101111 01100100 01101110 01110000 01110000 00001010 01100011 01101001 00110000 00110001 01111011 01101111 00100000
01100001 01101001 01100011 00110000 00110001 01110011 01110100 01101110 00100000 00100000 00001101 01100001 01100100
01110100 01110011 01100101 00100000 00100000 01110100 00100000 01110100 00101100 00111011 00001010 01110100 01101001
Si tratta del codice binario del programma, chiaramente incomprensibile. Inoltre, appare chiaro come neanche in questo modo si riescano a comprendere come siano disposti i vari 0 e 1, in quanto un normale lettore di testi non è in grado di decodificarli, in quanto li raggruppa in sequenze di 8 cifre e poi li tramuta in un carattere. È quindi difficile comprendere il codice binario nel linguaggio binario, ma è anche difficile riuscire a leggerlo in quel linguaggio. Occorrono programmi appositi che, per l'esempio di fig.1, si ottengono sequenze come quelle mostrate in fig.3, comunque incomprensibili. Sorgente in Inglese (la lingua madre dell'informatica) si traduce 'source' e sottintende in un'unica parola il sostantivo "codice": è per questo che, per trasposizione, nel gergo corrente italiano è più facile trovare "il sorgente", unendo un articolo maschile con un sostantivo femminile. Ogni volta che si legge "il sorgente" bisogna intendere "il codice sorgente". La traduzione letterale di Open Source diviene dunque 'sorgente aperto' (e non 'sorgente aperta'). L'aggettivo open sta a significare che il codice sorgente rimane accessibile a chiunque voglia intervenire sul programma, correggerne gli errori (detti in gergo bug) sorti durante la sua compilazione, aggiornarlo, perfezionare le sue funzioni, oppure semplicemente studiarne i meccanismi e prendere spunto per altri programmi. Il codice sorgente, contenente le istruzioni da eseguire e (spesso) alcuni dati noti e costanti, può essere poi eseguito passandolo ad un interprete4, che eseguirà le istruzioni in esso contenute, il che è la prassi normale per i linguaggi di scripting; oppure può venire compilato, cioè tradotto in istruzioni di linguaggio macchina da un programma compilatore: il risultato è un file binario eseguibile che non ha bisogno di altri programmi per andare in esecuzione, ed è anche molto più veloce di un programma interpretato. La compilazione è la norma per tutti i linguaggi di programmazione di uso generale; ma esistono le eccezioni, come il linguaggio Java, che applica un ibrido fra le due soluzioni, utilizzando un compilatore per produrre del codice intermedio che viene successivamente interpretato5.
2.2. Tre generazioni di hacker Bisogna inoltre precisare, sfatando una credenza diffusa, che i termini hacker e hacking, non 4
Fig. 3: Codice binario per l'individuazione di due punti giacenti su un piano, in formato numerico
Dopo la fase di compilazione lo stesso programma, in forma di codice eseguibile, se letto con un normale programma di lettura di testi, appare come in fig.2. 3
44
http://it.wikipedia.org/wiki/Linguaggio_di_programmaz ione
5
In informatica, un interprete è un programma che esegue altri programmi. Un linguaggio interpretato è un linguaggio di programmazione i cui programmi vengono eseguiti da un interprete. Tale approccio si distingue da quello dei linguaggi compilati: a differenza di un interprete, un compilatore non esegue il programma che riceve in ingresso, ma lo traduce in linguaggio macchina (memorizzando su file il codice oggetto pronto per l'esecuzione diretta da parte del processore). (Fonte: http://it.wikipedia.org/wiki/Interprete_%28informatica %29) http://it.wikipedia.org/wiki/Linguaggio_di_programmaz ione
derivano dalle pratiche di pirateria informatica. Si tratta infatti di un concetto che esula da qualsivoglia connotazione negativa e che nasce ancora prima della comparsa dei pirati informatici, a cui è poi stato collegato erroneamente e che dovrebbe essere sostituito con il più appropriato cracker. Infatti, i veri hacker non mantengono nascosta la propria identità, non avendo nulla da temere in quanto non infrangono alcuna legge. Un hacker, nell'accezione originaria di questo neologismo, è solo e semplicemente un esperto di informatica a cui piace programmare, che lo fa non con intenti di profitto ma per una sorta di irrefrenabile passione, quasi per vocazione. Il termine hacker può essere traslato a qualsiasi campo: un designer che con passione progetta, studia altri progetti e condivide le conoscenze acquisite con altre persone può essere considerato un hacker del design, e così via.
Fig. 4: Modello IBM 7094, operativo nel 1965 (Fonte: http://www.columbia.edu/acis/history/7094.html)
I primi calcolatori (a valvole e poi a transistor) comparvero nei primi anni '50; si trattava di congegni dalle enormi dimensioni (fig.4) con limitate funzioni, che rimasero operativi a livello di università e centri militari e rappresentavano ancora una fase semi-sperimentale della scienza informatica. La prima generazione di programmatori informatici (o hacker) si formò quindi attorno a questi centri, dove sviluppavano programmi indipendentemente. Nonostante le distanza fra gruppi impedissero una ampia collaborazione, all'interno dei gruppi tutti i programmatori condividevano i programmi sviluppati e le conoscenze acquisite, incoraggiando ulteriori modifiche. Queste abitudini vennero a formare una vera e propria etica, detta etica hacker. Nell'anno 1969 la prima ristretta comunità hacker venne costretta (dalla rivoluzione culturale in atto
in quel periodo) ad uscire dal suo originario isolamento nelle università e nei centri di ricerca e ad affacciarsi al mondo reale. In quell'anno infatti vide la luce il sistema operativo Unix, grazie al lavoro di uno sviluppatore dei laboratori Bell. Unix era il primo sistema operativo sviluppato in linguaggio C (un particolare linguaggio di programmazione) e non in linguaggio macchina (binario) ed era il primo a ricercare l'idea di portabilità e compatibilità. Prima di Unix, cioè, ogni computer necessitava un apposito sistema di software (sistema operativo e programmi vari); ogni volta che la macchina veniva aggiornata o sostituita era necessario riprogettare gran parte del sistema software. Il ruolo del software si fece più dinamico e più facilmente gestibile, indipendentemente dal supporto hardware su cui era installato; inoltre, le imprese produttrici di hardware concedevano il codice sorgente, considerandolo secondario rispetto all'hardware. Fu dunque possibile affacciarsi su un mercato dell'informatica decisamente più ampio ed elastico. Il 1969 è inoltre l'anno in cui vennero collegati per via telematica i nodi dei centri di ricerca informatici di quattro grandi università statunitensi (Los Angeles, Santa Barbara, Stanford, Utah): nacque così ARPANET, riconosciuta da tutti come l'effettivo embrione dell'attuale Internet. Si passa così, con l'inizio degli anni '70, ad una seconda generazione di hacker fedele ai principi etici originari, ma interessata più che altro alla diffusione del mezzo su cui amavano operare. Il loro obbiettivo era quello di fare uscire lo strumento "computer" dai grandi centri di ricerca, per renderlo più familiare alla grande massa degli utenti; si impegnavano affinché le apparecchiature fossero più piccole, maneggevoli ed economiche. Nacque nei primi anni '80 il personal computer, grazie all'impegno degli hacker nel “liberare l'hardware”, e in seguito anche per interessi economici da parte delle imprese come IBM e Atari. I primi personal computer vennero infatti progettati da semplici appassionati che si riunivano nell'associazione Homebrew Club, e da cui alcuni componenti fondarono l'impresa Apple e commercializzarono il primo personal computer da tavolo. IBM adottò inizialmente una politica aziendale piuttosto “illuminata”, cercando di incoraggiare la diffusione e lo sviluppo del software e stimolando la collaborazione di altre importanti imprese, come la Microsoft che realizzò il sistema operativo per i nuovi computer: il sistema MS-DOS, tuttora fondamentale per il funzionamento della gran parte PC. In questo mondo una utenza molto più ampia venne a contatto con il campo dell'informatica, con una conseguenza nel mondo dei programmatori: più gli utenti divenivano numerosi e più questa terza generazione di hacker risultava frazionata e composita. Non più solo gli studiosi di informatica e di tecnologia, ma anche una sempre più numerosa schiera di curiosi, ai quali era però difficile trasmettere in modo completo e autentico certi principi etici nati in una sorta di ristretta casta. Con molta rapidità l'informatica, da elitaria scienza 45
al servizio del progresso, si trasformò in un grande business al quale l'imprenditoria statunitense (prima, e poi anche mondiale) non ha saputo rinunciare. Gli investimenti divennero massicci e il margine di profitto potè solo aumentare vertiginosamente con gli anni; perciò le imprese che si affacciano su questo mercato diventano istintivamente gelose dei propri sforzi e ricorrono sempre più spesso alle tutele che il diritto industriale (copyright e brevetti) prevede. E ciò è ben possibile che avvenga senza che nessuno degli utenti comuni (quelli a cui quel mercato si rivolge) gridi allo scandalo per il soffocamento dei canoni di libertà e condivisione che aveva caratterizzato per gli scorsi decenni l'evoluzione del software. Nel pieno del boom degli anni '80, nessuno degli acquirenti dei primi PC si preoccupava di quanto lavoro di progettazione collettiva nel corso dei decenni precedenti ci fosse dietro il giochino e le applicazioni che maggiormente adoperava. Si verificò, come prevedibile, un progressivo sovvertimento di quanto ereditato dalla tradizione hacker: quantità invece di qualità, controllo invece di libertà, profitto invece di personale dedizione, divisione invece di cooperazione, segretezza invece di condivisione. Nasce quindi da una costola della figura dell'hacker autentico la figura del programmatore professionista il quale svolge le stesse funzioni tipiche dei suoi predecessori, ma inquadrato nella gerarchia aziendale e non più unico padrone delle proprie creazioni informatiche. La speranza che la diffusione dei computer avrebbe potuto portare ha una diffusione dell'etica hacker si incrinò.
"Gnu"s Not Unix" ('Gnu non è Unix') (fig.6) con un'espressa vena di antagonismo e di sfida. Ovviamente tutti i potenziali “adepti” avrebbero dovuto poter avere un punto di riferimento unico che si facesse portavoce e mecenate dell'impresa; nacque così, sempre per opera di Stallman e sotto la sua stretta supervisione, la Free Software Foundation (fig.7): un'organizzazione no-profit mirata alla raccolta di fondi, al coordinamento dei progetti e alla sensibilizzazione del popolo dell'informatica. Nei primi anni di vita entrambi i progetti (che si potrebbero considerare come due manifestazioni di un unico progetto) faticarono ad ingranare, a causa della già accennata situazione di frammentazione della comunità degli informatici. Le cose cambiarono invece con la raggiunta maturazione della rete telematica: quando infatti Internet verso la fine degli anni '80 iniziò a connettere stabilmente un numero cospicuo di utenti, il messaggio della Free Software Foundation (FSF) poté raggiungere gli hacker di vecchio stampo sparsi per il mondo, che erano rimasti anch'essi disorientati e isolati dal cambiamento. Si ricominciò così a recuperare lo spirito di condivisione tipico dell'etica hacker e ad applicarlo alla realizzazione del nuovo sistema operativo libero GNU.
2.3. Free software È proprio in questo periodo che si innesta l'opera di Richard M. Stallman (fig.5): abile ed esperto programmatore indipendente, appartiene a quella prima generazione di hacker, di cui ne rappresenta lo stereotipo integerrimo e incontaminato. Nel 1983 egli è il primo ad avvertire repulsione per quel nuovo modello d'informatica che andava a configurarsi; ed è il primo a muoversi concretamente e visibilmente nella direzione del risveglio delle coscienze di coloro che l'informatica l'avevano simbolicamente partorita. Il problema da affrontare non era la gratuità del programma ma l'accesso al codice sorgente: all'epoca i programma che egli poteva utilizzare al MIT erano forniti gratuitamente dalle imprese sviluppatrici, a scopo promozionale. Non un problema economico ma un problema etico, il declino dell'etica hacker6. Stallman si sentiva l'ultimo vero hacker sopravvissuto al cambiamento del suo habitat naturale. Nel 1983 decise dunque di abbandonare il MIT, per dedicarsi alla realizzazione di un sistema operativo di tipo Unix che fosse però libero dall'impostazione esclusiva del copyright e distribuibile liberamente. Nacque appunto il Progetto GNU, acronimo ricorsivo che sta per 6
46
Marleen Wynants, Free as in Freedom, not Gratis! An interview with Richard Stallman, p.74-75 in Wynants, Cornelis (2005)
Fig. 5: Richard Stallman (Fonte: http://commons.wikimedia.org/wiki/Category:Richard_S tallman)
Stallman escogitò un meccanismo atipico di copyright basato su particolari licenze, chiamato appunto copyleft, con il quale costringeva chiunque volesse apporre modifiche al software distribuito liberamente dalla FSF a ridistribuirle altrettanto liberamente. Ciò significava mantenere accessibile il codice sorgente. Il sito della FSF, quello del Progetto GNU e quello personale di Stallman iniziarono a riportare (e riportano tuttora) molto materiale di matrice ideologica, in cui si esternavano i cardini di tale filosofia. Stallman, nei suoi scritti e nelle sue (numerose quanto eccentriche) apparizioni a convegni e conferenze, amava parlare di “software libero” proprio per marcare la contrapposizione con il software proprietario e la distorsione di ideali che quest'ultimo aveva comportato.
Fig. 6: Il logo di GNU's Not Unix (Fonte: http://en.wikipedia.org/wiki/GNU)
Fig. 7: Il logo della Free Software Foundation (Fonte: http://en.wikipedia.org/wiki/Free_software_foundation)
Il software non libero mantiene i propri utenti divisi e senza aiuto: divisi, perché accettando la licenza hanno promesso di non condividere, e senza aiuto perché non possono capire ciò che il programma faccia realmente. Questa totale integrità morale, unita ad una personalità alquanto egocentrica e insofferente, hanno fatto di Stallman una sorta di ideologoquasi-profeta, idolatrato per certi versi, ma spesso osteggiato come interlocutore o nella messa in pratica dei progetti comuni e per molti destinato ad un inevitabile autoisolamento.
2.4. Linux e Open Source Nonostante il mercato del software proprietario in vertiginosa espansione provocasse un progressivo soffocamento di risorse e possibilità, il progetto proseguiva in modo anche piuttosto soddisfacente; ma presto avrebbe pagato lo scotto della sua congenita frammentarietà. Il repertorio di applicazioni prodotto con il metodo del copyleft era decisamente ampio e ben funzionante; ma non si poteva ancora parlare di un sistema operativo completo poiché non era ancora disponibile un vero e proprio kernel. Il kernel è il “nucleo” del sistema operativo, l'insieme di informazioni che permettono alla macchina di “fare girare” correttamente tutte le applicazioni che compongono l'intero sistema operativo. Senza di lui, il sistema operativo GNU non poteva far altro che appoggiarsi su una piattaforma di software proprietario, indebolendo così gli intenti ideologici e dimostrativi del progetto. Tale grossa pecca dipendeva proprio dalla difficoltà di amalgamare
un lavoro così composito e di coordinare una squadra tanto indefinita e mutevole di sviluppatori. Per un risultato completo e perfetto si pensava ci fosse bisogno di un certo grado di controllo e centralizzazione del lavoro; un lavoro di una certa solennità, simile all'opera di un geniale architetto nel realizzare una grande edificio. Tuttavia nel 1991 Linus Torvald (fig.11), un giovane studente di informatica dell'Università di Helsinki, sviluppò il kernel del sistema operativo GNU con un approccio opposto, basato sull'assenza di un progetto predefinito e l'apertura alla partecipazione di molti programmatori. Questo successo fu reso possibile dall'avvento dei primi accessi ad Internet, che permettevano la coordinazione di un ampio numero di programmatori. Tutto nacque infatti da un semplice messaggio postato da Torvalds in un newsgroup (fig.9). L'idea iniziale era quella di un passatempo, senza obiettivi specifici e senza la sicurezza di sviluppi futuri. Questo kernel venne in seguito migliorato e, dal nome del suo ideatore, venne denominato Linux, mentre l'intero sistema operativo fu descritto come GNU/Linux, anche se ormai normalmente conosciuto semplicemente come Linux. Nell'arco di pochi anni la stampa (non più solo settoriale) cominciò a puntare i suoi riflettori su questo fenomeno che si espandeva a macchia d'olio quanto più si diffondeva l'uso di Internet. L'imprenditoria (prima quella più piccola e indipendente, poi anche quella grande e di rilievo) iniziò a cogliere gli aspetti di business che potevano celarsi dietro questa rivoluzione. Bisogna ricordare che lavorare nell'ambito del software libero non significa fare del puro volontariato o rifiutare a priori ogni forma di commercializzazione: lo sottolinea tutta la saggistica di matrice economica che si occupa di marketing e distribuzione del software, e lo gridano a grande e unanime voce gli ideologi del software libero, primo fra tutti Stallman in persona. Il software libero come modello di business si presentava al mondo degli affari non solo come un pericoloso nemico da contrastare ma anche come un'allettante valvola di sfogo per un nuovo orizzonte di sviluppo. Anche se in quell'ambito non si poteva più fare affidamento sul profitto derivato dalla vendita dei pacchetti “chiusi” di software proprietario, si prospettava tutta una gamma di servizi collegati che comportavano guadagni sì meno massicci, ma anche più elastici, più duraturi e accompagnati da un taglio netto sulle spese di produzione e di distribuzione; garantendo inoltre un'alta qualità del prodotto. Tali servizi andavano dalla manutenzione del software, al suo periodico aggiornamento, ma soprattutto alla sua customizzazione: una “personalizzazione” delle funzionalità del software più adatte al singolo cliente. I produttori che non rendono Open Source i loro programmi trovano difficile competere con chi lo fa, dal momento che gli utenti imparano ad apprezzare quei diritti che avrebbero dovuto sempre essere loro. Nel 1998 la Netscape, importante impresa statunitense di 47
software, decise di diffondere il suo prodotto di punta, il browser Navigator, con il codice sorgente accessibile. Una mossa abbastanza inaspettata che fu un grande segnale che i tempi erano maturi. Era giunto quindi il momento di fare una mossa importante: uscire dal mercato pur ampio ma comunque sotterraneo della comunità hacker e affacciarsi sul vero mercato mondiale dell'informatica, sfidando le grandi imprese del software proprietario sul loro stesso campo.
Era un passo pieno di insidie, dato che, uscendo allo scoperto, era più difficile mantenere incontaminati i principi etici e tecnici che per decenni avevano accompagnato il movimento per la libertà nel software; diventava anche più facile che si formassero ingombranti interessi economici e inopportune divisioni all'interno di quell'immenso gruppo di lavoro. Per di più era necessario riuscire a far digerire il concetto di software libero alle imprese nuove possibili finanziatrici, rendendolo tangibilmente appetibile ed epurandolo da ogni scomoda componente ideologica e propagandistica. A ben vedere, il principio che Free Software potesse andare d'accordo con investimento proficuo circolava più facilmente nelle facoltà di economia piuttosto che nei consigli di amministrazione: questo per dire che il passaggio dalla teoria accademica/filosofica alla pratica delle effettive strategie di marketing non fu decisamente automatico. Ad incutere diffidenza nelle alte dirigenze era l'ancoraggio indissolubile (a volte anche solo subconscio) che sussisteva fra l'idea di software libero e l'idea di gratuità e non-commerciabilità del prodotto, con l'aggiunta di una certa riluttanza verso il mantenimento di tutto l'apparato etico che ne stava dietro. Non bisogna dimenticare che in inglese la parola free mantiene i due significati di libero e di gratuito.
Fig. 8: Linus Torvalds (Fonte: http://en.wikipedia.org/wiki/Linux_Torvalds)
Ma la scelta dell'aggettivo free non era stata compiuta per leggerezza; anzi, Stallman all'epoca dei primi progetti GNU voleva proprio sottolineare – con scopi appunto altamente propagandistici – la doppia implicazione di libertà e gratuità. Il software libero viene quindi spesso descritto co l'espressione “free speech, not free beer”, cioè libero come la libertà di parola ma non gratuito. Questo argomento viene trattato da Stallman con queste parole: “Molta gente crede che lo spirito del progetto GNU sia che non si debba far pagare per distribuire copie del software, o che si debba far pagare il meno possibile: solo il minimo per coprire le spese. In realtà noi incoraggiamo chi ridistribuisce il software libero a far pagare quanto vuole o può. […] I programmi liberi sono talvolta distribuiti gratuitamente, e talvolta ad un prezzo
Message-ID: 1991Aug25.205708.9541@klaava.helsinki.fi From: torvalds@klaava.helsinki.fi (Linus Benedict Torvalds) To: Newsgroups: comp.os.inix Subject: What would you like to see most in minix? Summary: small poll for my new operating system Hello everybody out there using minix-I’m doing a (free) operating system (just a hobby, won’t be big and professional like gnu) for 386 (486) AT clones. This has been brewing since april, and is starting to get ready. I’d like any feedback on things people like/dislike in minix, as my OS resembles it somewhat Any suggestions are welcome, but I won’t promise I’ll implement them :-) Linus Fig. 9: Messaggio di proposta del progetto sistema operativo Linux (Fonte: http://groups.google.com/group/comp.os.minix/msg/b813d52cbc5a044b?hl=en)
48
Fig. 10: Schermata di Linux, versione Ubuntu 6.10
consistente. Spesso lo stesso programma è disponibile in entrambe le modalità in posti diversi. Il programma è libero indipendentemente dal prezzo, perché gli utenti sono liberi di utilizzarlo. Programmi non-liberi vengono di solito venduti ad un alto prezzo, ma talvolta un negozio vi darà una copia senza farvela pagare. Questo non rende comunque il software libero”7.
Fig. 11: Tux, il simbolo di Linux (Fonte: http://commons.wikimedia.org/wiki/Image:NewTux.svg)
Alcuni esponenti della cultura hacker cercarono quindi una maniera per rendere più accettabile il concetto di accessibilità del codice sorgente alle imprese, sempre seguendo l'etica hacker ma non ponendola in primo piano come se fosse una sfida. I nomi che maggiormente destano attenzione sono quelli di Tim O'Reilly, editore di manuali informatici, e soprattutto Eric Raymond (fig.12), attento osservatore della cultura hacker e grande personalità all'interno della comunità. Entrambi avevano da poco collaborato, assieme a Linus Torvalds, al progetto di "liberazione del 7
sorgente" di Netscape Navigator, creando una famosissima licenza (la MPL, Mozilla Public License) alternativa a quella redatta da Stallman per la distribuzione dei prodotti GNU (la GPL, General Public License). La MPL era risultata più funzionale al caso Netscape (oltre che epurata da componenti ideologiche) e parsa subito ben accetta alla comunità hacker mondiale. Sull'onda di questo successo Raymond, O'Reilly e altri opinion leader crearono un gruppo di lavoro per riuscire ad escogitare la congeniale chiave con cui presentarsi alle imprese e accedere così sul mercato. L'avvento di Linux aveva rappresentato, d'altronde, l'emersione di una nuova generazione di hacker, che ormai erano cresciuti in un mondo in cui il software proprietario era la normalità. Ciò comportava che essi non sentissero il retaggio etico di coloro che avevano visto la scienza informatica negli anni d'oro della totale libertà; a questi nuovi hacker (o più semplicemente “programmatori indipendenti”) non premeva tanto l'aspetto ideologico della libertà, quanto quello funzionale e pratico . In altre parole, la massima libertà anche nelle scelte: libertà anche di scegliere un software proprietario o un software libero a seconda di ciò che più è congeniale, senza dover rendere conto ai dettami di associazioni o pensatori più o meno carismatici. Ad ogni modo, la prima “scelta di campo” di Raymond e colleghi fu proprio coniare un termine che identificasse in modo limpido, neutrale ed accattivante il tipo di prodotti che si offrivano. Ci voleva qualcosa che sottolineasse, piuttosto che gli aspetti etici e gestionali del software liberamente distribuito, le sue caratteristiche tecniche più interessanti: ovvero, la flessibilità, la adattabilità e la specificità, che rendevano i programmi decisamente più affidabili, meglio modificabili e personalizzabili e quindi più efficienti ed economici.
Stallman (2003a) 49
Fu Eric Raymond a pensare l'espressione Open Source. Open Source, ad un sguardo attento, mantiene in parte una sfumatura di matrice etica, per il riferimento al concetto di apertura (open) che appunto è col tempo uscito dal suo senso puramente tecnico (aperto nel senso di “codice disponibile e modificabile”), assumendo una connotazione più ampia (aperto nel senso di “privo di vincoli” tout court). Nel 1998 Raymond propose inoltre la creazione di una organizzazione che vigilasse sul corretto uso del termine Open Source e coordinasse i vari progetti: la Open Source Initiative (OSI) (fig.13). In pratica, con una immagine matematica, la OSI sta al concetto di Open Source come la FSF sta al concetto di Free Software. Due distinte e rilevanti strutture organizzative per progetti che nella maggior parte dei casi andavano verso la stessa direzione. Il canone dell'unità e della cooperazione poteva essere ormai depennato dalla lista dei punti cardine dell'etica hacker, e Stallman reagì allargando le distanze del Free Software dall'Open Source software. Ad ogni modo, con questa altalenante frattura (un giorno più ampia, un giorno più stretta), si è giunti alla situazione odierna, dove il Software Libero od Open Source, come lo si voglia chiamare, ha raccolto una generale approvazione e ha dato veramente un giro di vite al mercato del software. Oggi il sistema operativo Linux è entrato con successo nelle case di tutto il mondo, anche se non si può ancora dire che abbia scalzato Windows di Microsoft nell'uso più comune. Linux, d'altronde, è certamente più affidabile e stabile del concorrente, ma risulta anche meno intuitivo e meno indispensabile per l'utente medio, che non ha le grandi esigenze di un network o di un impresa. Tuttavia ormai le grandi compagnie di hardware o di software non mettono più nulla sul mercato che non sia almeno compatibile con Linux; e alcune (sempre più numerose) addirittura ne incoraggiano l'uso, in previsione di una miglior gestione dei servizi di manutenzione e aggiornamento. In generale, grazie alla risonanza mediatica che proprio Linux ha generato, anche gli utenti comuni (e non più solo i professionisti del campo) cominciano a cogliere le peculiarità e i vantaggi del software aperto e a capire che spesso, pur con le due diverse definizioni, si tratta dello stesso concetto. Attualmente, esistono almeno 129043 progetti di Software Libero e Open Source, ospitati nel sito Sourceforge.net8. L'iniziativa Open Source di Raymond ha finalmente fatto quel tanto atteso passo nel mercato. Stallman, dal canto suo, sembra aver raccolto i frutti della sua inattaccabile coerenza e, forse proprio grazie ad essa, ha mantenuto la sua credibilità e il suo carisma. Può anche darsi che Stallman non possa più considerarsi leader incontrastato del movimento software libero, ma rimane comunque la calamita dell'intera comunità. Ad ogni modo, nella comunità di programmatori e soprattutto utenti non viene percepita una forte 8
50
Ultimo accesso effettuato il 09/02/2006, http://sourceforge.net/softwaremap/trove_list.php
dicotomia tra Free Software e Open Source software. Molto spesso infatti non viene fatta distinzione fra le due tipologie/filosofie, indicando con il termine Open Source anche Free Software. In questo testo si farà d'ora in poi riferimento solamente al termine Open Source, includendo al suo interno anche le caratteristiche tipiche del movimento Free Software.
Fig. 12: Eric Raymond (Fonte: http://en.wikipedia.org/wiki/Eric_Raymond)
Fig. 13: Marchio di certifica Open Source Initiative (Fonte: http://www.opensource.org/)
Come notato da Marianne van den Boomen e Mirko Tobias Schäfer9 i tre hacker Richard Stallman, Linus Torvalds e Eric Raymond rappresentano tre aspetti complementari del movimento Free Software/Open Source: una nuova etica, l'etica hacker; una nuova economia, hacker; una nuova concezione di comunità di hacker. Stallman rappresenta l'hacker con una missione etica, mentre Eric Raymond l'hacker on una nuova strategia di business. Linus Torvalds rappresenta l'hacker "con una famiglia". Torvalds scrisse una autobiografia10 della sua esperienza di hacker, in cui non parlava di missioni etiche né di strategie commerciali, ma solo della sua vita personale e della sua famiglia. Linus Torvalds rappresenta quindi l'hacker con uno stretto legame con la dimensione di comunità.
9 van den Boomen, Schäfer (2005) 10 Linus Torvalds, David Diamond, Just for Fun: The Story of an Accidental Revolutionary, Harper Business, 2001
2.5. Successo e prospettive future La nascita e l'esplosione della filosofia Open Source sono fenomeni recenti, e quindi non si è ancora giunti ad una visione comune e stabile sulle sue implicazioni e sul suo futuro. Certamente, il concetto di Free Software risale ai primi anni '80 e, negli anni precedenti, a partire dalla nascita della programmazione, qualsiasi software era un Free Software od Open Source software ante litteram. E i principi di condivisione e collaborazione non sono certamente una scoperta recente ma hanno accompagnato da sempre la storia dell'umanità. Ma la definizione di Open Source risale al 1998, la descrizione di Manuel Castells del paradigma dell'informazionalismo risale al 1996 11, la stessa apertura di Internet ai privati dalla prima metà degli anni '90, e la constatazione della diffusione della filosofia Open Source in altri ambiti risale al 200312. Si capisce come sia ancora presto per poter trarre delle conclusioni: molti ricercatori stanno studiando le implicazione della filosofia Open Source, da diverse discipline e da diverse prospettive. È comunque chiaro come sia importante però studiare ora il fenomeno, per capire come questa "rivoluzione" possa cambiare la società nel futuro. Possiamo quindi presentare alcuni contributi, tra i più importanti, che cercano di spiegare le cause del successo e le sue prospettive future dal punto di vista informatico. Secondo Marleen Wynants e Jan Cornelis13, sono due le ragioni principali del successo del software Open Source: lo sviluppo di Internet e l'eccesso di controllo sopra la proprietà intellettuale. Internet ha reso possibile la creazione di progetti di massa, a grande scala, e allo stesso tempo decentralizzati, per la prima volta nella storia dell'umanità. La proprietà intellettuale è uno strumento legale che è diventato un simbolo dell'esatto opposto di ciò per cui era stata introdotta: la protezione dei processi creativi. Di conseguenza, nuove modalità di condivisione dei processi creativi e dei loro risultati sono in costante sperimentazione. Ikka Tuomi riassume invece le cinque principali ragioni comunemente apportate al successo del software Open Source14. La prima riguarda il costo. I software Open Source normalmente non richiedono il pagamento di somme per la cessione di licenze di utilizzo, e gli utenti possono effettuare download gratuiti da Internet. La seconda riguarda la opinione diffusa della qualità superiore del software Open Source rispetto al software proprietario, dovuta al suo modello di sviluppo. Basandosi su un numero alto di collaboratori, questo processo di sviluppo permette una risoluzione più veloce e completa di tutti gli errori presenti. La terza ragione riguarda la possibilità di modifica del codice sorgente da parte dell'utente, 11 12 13 14
Castells (1996) Goetz (2003) Wynants e Cornelis (2005), pp.12-13 Tuomi (2005)
in relazione alle proprie esigenze. I software proprietari, non permettendo la consultazione né la modifica del proprio codice sorgente, limitano un possibile ruolo attivo dell'utente nel modificarli. La quarta ragione riguarda l'opinione diffusa che i modello di sviluppo Open Source riesca ad incorporare idee innovative più rapidamente e con più efficacia, grazie alla presenza di un numero elevato di partecipanti. La ultima ragione, riguarda il fatto che la presenza del codice sorgente permette la verifica della funzionalità del software, permettendo l'eliminazione di errori e vulnerabilità ai propri utenti. Queste cinque ragioni rappresentano le opinioni più diffuse riguardo il software Open Source, e sebbene siano oggetto di discussione, sono una espressione delle caratteristiche principali della filosofia Open Source. Tim O'Reilly15 propone una spiegazione più completa sul successo del software Open Source partendo dalle caratteristiche principali del software e di Internet. Già altri autori hanno citato queste caratteristiche, ma la spiegazione di O'Reilly presenta una sfumatura più precisa e specifica nello spiegare le ragioni del successo del software Open Source, dalla prospettiva del software e del suo sviluppo. L'analisi di O'Reilly parte dalla constatazione dell'avvenuto cambiamento di alcuni paradigmi. Come Manuel Castells nella sua descrizione dell'informazionalismo16, O'Reilly fa riferimento alla definizione data Thomas Kuhn del concetto di paradigma17. Per Kuhn il progresso scientifico non è graduale ma una sorta di equilibrio più o meno costante con alcuni momenti di cambiamento epocale, come è avvenuto con Copernico e Darwin. Una scoperta scientifica non è un incremento alle conoscenze attuali ma richiede la riconsiderazione di intere teorie e concetti già acquisiti: egli chiama questi rivoluzionari processi come cambiamenti di paradigma (paradigm shifts). Per O'Reilly un cambiamento di paradigma avvenne nel 1981 con l'introduzione, da parte di IBM, di una architettura standard per i personal computer. In contrasto con le consuetudini, IBM incominciò a produrre computer a partire da componenti comprati e rendendo i progetti accessibili (ogni computer veniva venduto con la descrizione degli schemi elettronici), aprendo le porte ad un numero elevato di imprese dedite alla copia e produzione di questi computer. In questo modo, l'architettura per personal computer sviluppata da IBM divenne uno standard, rimpiazzando gli altri tipi di computer esistenti. Tuttavia, i vertici di IBM non seppero comprendere appieno le conseguenze delle loro decisioni. All'epoca, le imprese dedite allo sviluppo di software erano semplicemente dei satelliti delle imprese produttrici di hardware: il software veniva considerato di scarsa importanza, e IBM decise di 15 O'Reilly (2005) 16 Castells (2001) 17 Kuhn, T. (1962), The Structure of Scientific Revolutions, University of Chicago Press, Chicago 51
lasciare il compito di fornire i propri computer con un sistema operativo ad una piccola impresa, la Microsoft. In seguito, altre imprese dedite alla copia degli standard IBM divennero leader in quel mercato, e il software divenne l'aspetto più importante dei computer, rendendo Microsoft molto più importante di IBM. Secondo O'Reilly, il movimento Open Source e Free Software si trovano ora nella stessa posizione di IBM nel 1981, quando cambiò le regole dell'industria del computer, ma non seppe comprenderne le conseguenze. Il futuro di questi movimenti, delle loro filosofie e dei loro software dipende dalla comprensione della direzione che il mercato informatico sta prendendo. Per avere questa comprensione, O'Reilly propone di vedere il movimento Open Source come l'espressione di tre tendenze di lungo corso: la commodization del software, la possibilità di collaborare attraverso reti e la modificabilità e personabilità del software (inteso quindi come un servizio)18. La commodization del software (la sua trasformazione in una commodity) è causata dalla emergenza di standard, provenienti dallo sviluppo di sistemi di comunicazione come Internet. La comunicazione infatti può avvenire con successo solo se i computer comunicano con gli stessi protocolli, quindi con gli stessi standard. Per O'Reilly la nuova natura di commodity del software porta come conseguenza che i guadagni nel futuro verranno non dalla vendita del software, ma dall'offerta di servizi ad essi associati. La possibilità di effettuare collaborazioni attraverso reti è una proprietà di Internet che il movimento Open Source ha sfruttato sin dall'apertura di Internet ai privati, effettuata nella prima metà degli anni '90. Per O'Reilly la metodologia di sviluppo software Open Source rappresenta il "linguaggio naturale" di una comunità collegata da reti, che emerge naturalmente19. Il movimento Open Source si trova quindi in vantaggio, se continuerà a saper sfruttare le caratteristiche delle future reti di comunicazione. La natura modificabile del codice sorgente, e il fatto che non tutti gli utenti possiedono le conoscenze per farlo, porta all'emergenza di nuove possibilità commerciali attraverso la customizzazione del software, ovvero con la considerazione del software non come un bene, un artefatto, ma come un servizio. Normalmente siamo abituati a considerare il software come un artefatto, anziché un processo. E certamente, nel nuovo paradigma, ci sarannoo software-artefatti, quei software che secondo O'Reilly diventeranno una commodity per il fatto di rappresentare uno standard di comunicazione. Ma vi sarò anche del software che non potrà essere considerato come una commodity, ma come qualcosa che dovrà 18 O'Reilly (2005) 19 "It appears that Open Source is the “natural language” of a networked community. Given enough developers and a network to connect them, opensource-style development behavior emerges." O'Reilly (2005) P.98 52
essere modificato costantemente: quindi, un processo. Soprattutto quelle attività che richiedono una partecipazione di utenti (come Google, Amazon, eBay), di per sé di natura dinamica, non si basano su dei prodotti ma su dei processi. I software quindi come un servizio, non solo come una commodity a cui affiancare dei servizi. Per O'Reily quindi la necessità del movimento Open Source per continuare ad avere successo sarà comprendere l'evoluzione del software e trovare modelli di business adatti. Un'altra analisi molto importante deriva da un articolo di Thomas Goetz, apparso nel novembre 2003 sulla rinomata rivista di nuove tecnologie Wired, intitolato Open Source Everywhere20. Già dal titolo si può comprendere l'importanza di questo articolo: può essere considerato la prima constatazione della estensione della filosofia Open Source verso ambiti differenti dal mondo della programmazione software. La sua pubblicazione su una rivista importante come Wired ha un ulteriore significato: da questo momento la estensione della filosofia Open Source è famosa anche per il grande pubblico, data la fama e diffusione di Wired, ritenuta da molti come la più auteorevole rivista riguardante Internet, il World Wide Web e il mondo dell'informatica in generale. Innanzitutto, per Thomas Goetz una caratteristica fondamentale contraddistingue le comunità Open Source (sia software che derivate): la condivisione degli obiettivi, delle attività, dei risultati, da lui espressa con la frase "share the goal, share the work, share the result". Secondo Thomas Goetz ci troviamo ora di fronte ad un momento dove una filosofia, una strategia e una tecnologia si sono allineate e hanno prodotto una grande innovazione. La filosofia Open Source ha grandi prospettive proprio per il fatto che rappresenta una alternativa allo status quo, più veloce, più ambiziosa e con maggiori capacità di sfruttare il potenziale creativo collettivo. La filosofia Open Source si è sviluppata nel mondo del software per primo grazie alla centralità che ha il codice e alla familiarità con Internet, ma i suoi valori possono estendersi anche ad altri campi, come gli esempi di ThinkCycle21, Linux, Wikipedia22 dimostrano. Goetz ritrova le radici della filosofia Open Source in due teorie: quella riguardante la distribuzione del lavoro fra più lavoratori di Frederick Taylor, e quella dell'interesse personale illuminato di Adam Smith, dove comportamenti "egoistici" individuali portano ad un bene collettivo. Sebbene questi collegamenti possano essere fonte di discussione, la loro importanza risiede nel fatto che rendono la filosofia Open Source strettamente legata al mondo industriale ed economico, e quindi non come una teoria antagonista. Per Thomas Goetz la filosofia Open Source rappresenta il perfetto esempio di un libero mercato. Come prima 20 Goetz (2003) 21 http://www.thinkcycle.org (si veda in appendice a p.289) 22 http://www.wikipedia.org (si veda in appendice a p.273)
accennato, questa posizione è spesso fonte di discussione, e la filosofia Open Source viene descritta secondo le teorie filosofiche ed economiche più disparate. Per altri commentatori la filosofia Open Source rappresenterebbe invece la perfetta applicazione dei principi dell'Anarchia23. Per altri ancora rappresenta una forma di Comunismo: spesso è questa l'accusa che viene rivolta agli hacker, soprattutto negli Stati Uniti, per i quali è molto importante sottolineare il fatto che una filosofia di collaborazione e condivisione come la loro sia ben differente dai regimi comunisti. Stallman stesso esprime la situazione in questo modo, ribaltando l'accusa: "Il comunismo per come fu praticato nell'Unione Sovietica era un sistema di controllo centralizzato dove tutta l'attività era irreggimentata, apparentemente per il bene comune, ma in realtà a vantaggio dei membri del partito comunista. E dove i dispositivi per la copia erano sorvegliati da vicino onde evitare la copia illegale. Il sistema americano del diritto d'autore sul software impone il controllo centralizzato sulla distribuzione di un programma, e i dispositivi per la copia sono sorvegliati tramite sistemi anti-copia automatici onde evitare la copia illegale. All'opposto, il mio lavoro punta alla costruzione di un sistema in cui la gente sia libera di decidere sulle proprie azioni; in particolare, libera di aiutare i vicini, e libera di alterare e migliorare gli strumenti che usano nella vita quotidiana. Un sistema basato sulla cooperazione volontaria e sulla decentralizzazione. Perciò, se dovessimo giudicare le posizioni sulla somiglianza al comunismo russo, sarebbero i proprietari di software a essere comunisti”24. Lawrence Lessig, professore di Giurisprudenza alla Stanford University e figura principale nell'elaborare gli aspetti legali della filosofia Open Source, risponde con ironia dicendo che chi cerca di riformare le leggi sul copyright non sono Communists ('comunisti') ma bensì Commonists (gioco di parole tra comunisti e common, il bene pubblico)25. Ciò che è importante sottolineare, al di là di queste dispute, è che il movimento Open Source non solo rappresenti una filosofia, ma anche un modello economico, ed entrambi rappresentano una rottura con il pensiero capitalista dominante attualmente. Goetz si spinge poi ancora più in là: come Taylor e Smith posero le basi intellettuali per la rivoluzione della produzione di massa, la filosofia Open Source rappresenta il punto di partenza per una rivoluzione basata sulla innovazione di massa. Come la linea di montaggio fordista supportò lo sviluppo della produzione di massa, la metodologia di sviluppo software Open Source supporterà una economia basata sulla conoscenza.
23 Moglen (1999) 24 Stalmann (2003b) p.15 25 Dean (2005)
2.6. Estensione della filosofia Open Source 2.6.1. Caratteristiche fondamentali La filosofia Open Source è stata applicata in molti campi esterni al mondo del software, in alcuni casi con successo, in altri senza successo, mentre in altri ancora questo processo di trasferimento di know-how è iniziato recentemente, e bisognerà attendere per vederne i risultati. Indubbiamente, si possono individuare tre motivi dell'emergenza di questa filosofia Open Source nella natura delle informazioni. Infatti le origini di questa filosofia derivano dal fatto che l'informatica e la programmazione si basano sulla gestione di software, informazioni per la gestione di hardware, di macchine. Il primo motivo riguarda quindi la natura della programmazione, una disciplina dedita alla creazione, modifica, sperimentazione e scambio di informazioni, sotto forma di un codice (sorgente o binario che sia). Il secondo motivo riguarda la standardizzazione di queste informazioni: i linguaggi di programmazione rappresentano un rigido standard, il che facilita la comunicazione. Infatti, programmatori di differenti nazionalità, che parlano differenti lingue, potrebbero non capirse se si parlassero, ma un codice sorgente scritto in un linguaggio di programmazione conosciuto ad entrambi rappresenta una base di comunicazione comune. Infine, ciò che ha permesso la collaborazione di un ampio numero di programmatori, è stata l'apertura di Internet ai privati. Internet rappresenta la possibiltà di distribuire informazioni fra gli utenti connessi, e il codice sorgente rappresenta l'informazione più leggera (in termini di dimensioni, in byte) e quindi la più facilmente e velocemente distribuibile. È possibile quindi elencare tre caratteristiche fondamentali per il funzionamento di una comunità che basa le sue attività sulla filosofia e metodologia Open Source: 1. la produzione di informazioni, che devono essere accessibili, modificabili e distribuibili: per la loro natura di beni non rivali, le informazioni possono essere condivise e riutilizzate in infiniti modi. La natura delle informazioni permette quindi la collaborazione collettiva; 2. la standardizzazione delle informazioni, che permette la facilità di comunicazione nella collaborazione collettiva; 3. l'utilizzo di reti che possano distribuire queste informazioni, le quali a loro volta dovranno tenere conto delle caratteristiche delle reti, al fine di poter essere distribuite e scambiate con facilità. Inoltre, è utile considerare l'analisi del fenomeno Open Source e della sua diffusione effettuata da
53
Geoff Mulgan, Tom Steinberg e Omar Salem26 e una think tank pubblicata per Demos27 indipendente dedicata allo studio delle problematiche sociali e politiche e le loro possibili trasformazioni tramite un approccio bottom-up. Gli autori del saggio elencano una lista28 delle principali caratteristiche condivise dai progetti Open Source: • trasparenza: riguarda il progetto ed il suo funzionamento, visibile ai partecipanti, che possono così decidere se impegnarsi o meno e in che modo e con che obiettivo. Sin dall'inizio dei progetti, ruoli e reputazione sono visibili, permettendo così la coordinazione collettiva; • controllo sui partecipanti solo ad inserimento avvenuto: le organizzazioni tradizionali erigono barriere sempre più sofisticate per le proprie attività, applicando meccanismi di analisi e promozione dei propri partecipanti, al fine di scegliere quelli dotati di maggiori conoscenze e capacità. I progetti Open Source, al contrario, permettono a chiunque la partecipazione: l'unica discriminazione riguarda la qualità del contributo che forniscono. Non vi è quindi un controllo all'ingresso della comunità: spesso sono presenti leader o nuclei centrali (i cosiddetti core group29) che controllano i contributi e la direzione generale della comunità. Normalmente, la posizione di leadership proviene dalla reputazione guadagnata con il proprio contributo apportato: gli autori sottolineano l'importanza del fatto che questo tipo di organizzazione non ha ancora un nome preciso, causata dalla sua novità; • basso costo e facilità di impegno: una reale apertura di una attività dipende dalla economicità e dalla facilità con cui è possibile partecipare. Il movimento di software Open Source si è sviluppato poiché i suoi partecipanti già possedevano computer e connessioni ad Internet, senza dover effettuare investimenti aggiuntivi; una struttura legale e meccanismi di • applicazione: per poter rendere pubblici ai partecipanti i risultati della loro collaborazione, evitando che persone esterne possano approfittarne in maniera scorretta. Le licenze diventano quindi un vero e proprio contratto sociale che regola la collaborazione; leadership: è necessaria la presenza di una • o più persone che, grazie alla loro reputazione, riescano a indirizzare la direzione della comunità e gestire le controversie. Questa caratteristica mette in crisi la visione anarchica del movimento Open Source; 26 27 28 29 54
Mulgan, Steinberg, Salem (2005) http://www.demos.co.uk Mulgan, Steinberg, Salem (2005), p.16-17 p.159
•
•
•
•
•
standard comuni: la comunicazione avviene secondo standard condivisi, e soprattutto aperti (open standard), essendo così modificabili dalla comunità secondo esigenza; peer review e cicli di feedback: la presenza di un alto numero di partecipanti porta più velocemente alla individuazione e risoluzione di errori e punti critici; obiettivi condivisi: la presenza di obiettivi condivisi rappresenta un punto di forza nella risoluzione di controversie, che riguardano quindi soltanto aspetti secondari. Infatti, chi non accetta gli obiettivi condivisi, decide di non partecipare; natura incrementale, anche i contributi più piccoli sono importanti: la natura delle infrastrutture telematiche e informatiche permette la partecipazione ad un numero molto elevato di partecipanti, permettendo così anche piccoli contributi. Moltiplicati per il numero elevato dei partecipanti, danno un risultato complessivo notevole; importanti incentivi non monetari: le persone partecipano molto spesso non per diretti guadagni economici, ma per la risoluzione di un problema personale ma condiviso a livello collettivo, per l'utilizzo di un bene prodotto collettivamente, per una convinzione etica diretta alla cooperazione.
Geoff Mulgan, Tom Steinberg e Omar Salem individuano anche alcuni punti critici30 e alcune possibili applicazioni future31 della filosofia Open Source. I punti critici sono: • minority capture: ogni progetto che si apre senza limiti alla partecipazione collettiva si apre anche al rischio che entri una relativa minoranza di partecipanti che desiderino cambiarne la direzione e alterare gli obiettivi (minority capture, una sorta di dittatura della minoranza). Episodi di questo genere sono stati osservati nei partiti politici, in riunioni pubbliche, nelle attività delle lobby e nei forum online. Questo punto critico rende necessaria la presenza di un leader o di un nucleo centrale in grado di mantenere costante la direzione della comunità e dirimere le controversie, e di meccanismi di controllo distribuiti a tutti i partecipanti, come il peer review32, che permettono una votazione collettiva dell'operato di tutti i partecipanti; • differenze e dissensi: i progetti Open Source funzionano efficacemente in presenza di un largo consenso sulle priorità e sui principi. Una volta che il consenso generale viene meno, la comunità si disgrega: sono quindi necessari meccanismi di discussione di principi e priorità a livello collettivo, evitando perciò che una parte della comunità prenda il 30 Mulgan, Steinberg, Salem (2005) p.23-26 31 Ibidem 27-34 32 p.161
•
•
•
•
controllo e imponga altre direzioni; difficoltà nell'accesso a risorse finanziarie: dato che i progetti Open Source normalmente rilasciano i risultati della cooperazione collettiva come un bene pubblico (o quasi), difficilmente riescono a generare un capitale finanziario da investire nelle proprie attività. Spesso progetto molto innovativi richiedono determinate infrastrutture di ricerca e quindi finanziamenti. Sono quindi necessari nuovi modelli economici per la generazione del capitale indispensabile al funzionameno delle comunità, ma questi sono già presenti e in fase di sviluppo; monopoli "necessari": gli autori sottolineano il fatto che spesso, affinché una innovazione si sviluppi e nasca un suo mercato relativo, sono necessari dei monopoli, seppur temporanei, al fine di recuperare gli investimenti finanziari indispensabili per sviluppare ulteriormente le innovazioni; beni rivali: secondo gli autori i progetti Open Source possono funzionare solo se riguardano beni non-rivali, ovvero quei beni il cui consumo da parte di più persone non ne diminuisce il valore ma anzi lo aumentano. Infatti il bene non rivale per eccellenza è l'informazione, grazie alla quale la filosofia Open Source si è sviluppata nell'ambito del software . Tuttavia i progetti Open Source possono benissimo riguardare anche beni materiali, oppure informazioni che possono essere utilizzate per intervenire su beni rivali. Ad esempio, la produzione collettiva di beni fisici, se questi vengono consumati individualmente, potrebbe non avere molto successo se non ben bilanciata (ovvero se qualche partecipanti riesce ad ottenere una quantità maggiore di questi beni rispetto agli altri). Ma un progetto Open Source può riguardare la produzione collettiva di informazioni legate alla produzione personale di beni fisici: le informazioni, se condivise, non diminuiscono di valore, e ogni partecipante può produrre per sé i beni fisici necessari, evitando così il rischio di appropriazione indebita da parte di agenti esterni; determinate idee necessitano di tranquillità e isolamento per svilupparsi: non tutti i progetti possono essere sviluppati collettivamente, in mezzo al clamore come in un bazaar33. Anche una introduzione anticipata nel mercato può portare ad un fallimento precoce, senza possibilità di soluzione degli errori e ulteriore evoluzione. Anche la presentazione al grande pubblico può portare a critiche feroci e demotivanti. Tuttavia gli autori non considerano il fatto che un progeto Open Source parte
33 Raymond (1998)
•
•
solitamente da una idea preesistente34 su cui in seguito si forma una comunità di collaboratori. Deve quindi essere scelta con cura la data di pubblicazione (nel senso letterale del termine: rendere pubblico) di un progetto e delle sue future azioni; innovazioni che si sviluppano ambiguamente: è stato osservato che molte innovazioni di successo si sviluppano improvvisamente, in percorsi non lineari, e quindi non facilmente contenibili entro un percorso. Secondo gli autori i progetti Open Source si sviluppano in maniera molto rigida e con confini ben stabiliti. In realtà, i confini delle comunità non sono mai netti, ma sfumati, dato che la partecipazione è libera e non vincolante a lungo termine: nuovi partecipanti possono portare nuove idee e approcci, al fine di arricchire le conoscenze da cui attingere. È quindi importante favorire la diversità all'interno della comunità35; informazioni private o sensibili: chiaramente, un approccio totalmente trasparente risulta inappropriato quando i contenuti del progetto riguardano temi sensibili o privati. Un governo non potrebbe cercare di progettare delle nuove armi con approccio Open Source, ne minerebbe la segretezza e quindi la sicurezza nazionale.
Anche se la filosofia Open Source può essere l'ispirazione per nuove discussioni pubbliche sui temi più svariati, ma queste, anche se si proclamano Open Source, non necessariamente lo sono. Non è corretto chiamare un progetto Open Source se questo non presenta un "codice", qualunque esso sia. Geoff Mulgan, Tom Steinberg e Omar Salem propongono tre ampie categorie di attività, osservate sul campo36. In alcuni casi, uno stesso progetto può rientrare in tutte e tre le categorie, e queste sono, almeno in parte, trasferibili a contesti estranei al software. Le categorie sono: • open knowledge: progetti dove la conoscenza viene concessa liberamente e trasformate e controllata (e in alcuni casi usata) da una ampia comunità di partecipanti. In questi casi il valore condiviso della conoscenza è l'obiettivo principale; • open team working: progetti formati da comunità di interesse che si organizzano per lo svolgimento cooperativo di attività comuni, con obiettivi ben definiti; • open conversation: forme tradizionali di discussione pubblica estese online e in grado di coinvolgere con efficacia un numero maggiore di partecipanti di quanto non si riuscisse a fare con strumenti tradizionali. In questi casi il processo è importante quanto gli obiettivi. 34 Idem 35 p.124 e seguenti 36 Mulgan, Steinberg, Salem (2005) pp.27-34 55
Secondo Geoff Mulgan, Tom Steinberg e Omar Salem queste tre categorie possono essere applicate in progetti sotto questi ambiti: media, settore pubblico, giurisprudenza, mondo accademico, arti, sanità, finanza e innovazione sociale. Come tutti i progetti Open Source basati su una comunità, il successo dei progetti Open Source esterni all'ambito software dipenderà molto dalla capacità di costruzione di una comunità, oltre che dalla validità della proposta di attività. Ad ogni modo, possiamo qui ricordare alcuni dei filoni principali che queste sperimentazioni stanno seguendo: Open Publishing, Open Content, Open Design, Open Source Biotechnology, Open Source Religion, Open Drinks.
2.6.2. Open Publishing Per Open Publishing37 si intende la possibilità di pubblicare delle notizie o altri contenuti in totale trasparenza rispetto ai lettori. Questi possono contribuire con contenuti, che vengono filtrati il meno possibile, proprio per mantere il processo trasparente. Tutte le decisioni editoriali vengono prese con totale trasparenza: i lettori possono controllarle e proporre modifiche, come succede in una comunità di software Open Source, riguardo alla direzione e agli obiettivi da intraprendere. Le notizie possono essere copiate e ridistribuite, come un codice sorgente software. L'Open Publishing si avvale principalmente di siti web, attraverso cui è possibile pubblicare e ricevere informazioni in maniera molto rapida. Spesso le organizzazioni che li gestiscono seguono alcuni principi (anche se ognuna con un suo proprio grado), come l'assenza di gerarchie, la partecipazione pubblica, un controllo editoriale minimo e trasparenza dei processi. Esempi di Open Publishing sono dati da Indymedia38, OhMyNews39, Slashdot e Kuro5hin40.
2.6.3. Open Content Open Content41 è termine inglese che significa contenuto libero. Pur traendo ispirazione dal concetto di Open Source code, la differenza sta nel fatto che ad essere liberamente disponibile ed utilizzabile non è il codice sorgente di un programma ma contenuti editoriali quali testi, immagini, musica e video. Il concetto venne introdotto nel 1998 da David Wiley, con la fondazione del progetto OpenContent e la pubblicazione delle prime licenze. Non tutti i contenuti "open content" sono liberamente disponibili e riproducibili allo stesso modo. Spesso i termini e le condizioni di utilizzo, riproduzione e di modifica dei contenuti vengono 37 http://en.wikipedia.org/wiki/Open_publishing 38 http://www.indymedia.org (si veda in appendice a p.267) 39 Http://www.ohmynews.com (si veda in appendice a p.269) 40 Htttp://slashdot.org, http://kuro5hin.org (si veda in appendice a p.271) 41 http://en.wikipedia.org/wiki/Open_content 56
stabiliti da una licenza di pubblicazione che viene scelta dall'autore. Esistono vari tipi di licenza, spesso molto differenti tra loro, tuttavia è possibile definire alcune variabili che sono comuni alla maggior parte delle licenze: • paternità dell'opera: la licenza stabilisce se è necessario o meno dichiarare il nome dell'autore originale dei contenuti ed eventualmente di coloro i quali vi apportino modifiche; • utilizzo dei contenuti a fini di lucro: la licenza stabilisce se i contenuti possono essere utilizzati/riprodotti anche per scopi commerciali o solo per fini amatoriali o di ricerca; • possibilità di apportare modifiche: la licenza stabilisce se è possibile modificare i contenuti da parte di terzi oppure no. Nel caso in cui fosse possibile apportare modifiche da parte di terzi, generalmente viene richiesto che il lavoro modificato venga pubblicato con una licenza uguale a quella del lavoro originale. Il primo esempio di Open Content su larga scala proviene dal Massachusetts Institute of Technology (MIT). Nel 1999, il MIT decise di rendere accessibili a chiunque i propri corsi universitari, con la convinzione che una disseminazione di conoscenza e informazione potesse portare benefici collettivi in tutto il mondo. A questo progetto venne dato il nome di “OpenCourseWare”42, Nel dicembre 2005, i corsi pubblicati erano 125043, con licenza Creative Commons Attribution – Noncommercial – Share Alike44.
2.6.4. Open Design Con il termine Open Design45, si intende esprimere il tentativo di portare la filosofia Open Source con le discipline di design, specialmente il design di prodotti. Sebbene i primi progetti orientati a ridefinire meglio questo legame stiano nascendo ora, vi sono alcuni esempi un pò meno recenti, alcuni con successo altri ancora in fase di sviluppo. Probabilmente i primi due esempi di open designer sono rappresentati da Martí Guixé e da Ronen Kadushin. Martí Guixé propone, nel suo progetto del 2003 "The Meta-territorial Kitchen Sytem-3" (fig.14), una cucina che definisce "Open Source", vista non come un laboratorio ma come una interfaccia tra le persone e le risorse che possono essere "installate" ed utilizzate come un codice informatico ("resources that we can open or not, install, uninstall, execute, etc. The basis is an open operative platform")46, ovvero gli alimenti, visti 42 http://ocw.mit.edu/index.html 43 Ultimo accesso effettuato il 10/02/2006, http://ocw.mit.edu/OcwWeb/Global/AboutOCW/aboutocw.htm 44 http://creativecommons.org/licenses/by-nc-sa/2.0/ 45 http://en.wikipedia.org/wiki/Open_design 46 http://www.guixe.com/
come software, e la cucina come il sistema operativo. Un sistema operativo modulare, che è possibile assemblare facilmente e quindi da chiunque: è questo il vero significato del concetto "Open Source "del progetto di Guixé. Non un vero progetto di Open Design, ma una metafora, un progetto concettuale. Infatti il progetto non è stato sviluppato collettivamente, né vi sono codici accessibili.
Il progetto ThinkCycle rappresenta il migliore esempio di riflessione sulle possibili sinergie tra il mondo del design e quello della filosofia Open Source. Alcuni tra gli ideatori di questo progetto hanno dato in vita in seguito all'iniziativa instructables, ossia un sito web che permette la condivisione di progetti attraverso la descrizione dei processi di produzione51.
È quindi più propriamente Ronen Kadushin47, un designer e docente universitario israeliano, la cui opera è stata presentata nel 2005 al Salone del Mobile di Milano e a DesignMai a Berlino48 il primo esempio di open designer. Ronen Kadushin ha reso disponibile dal suo sito web http://ronenkadushin.com/ undici progetti di design scaricabili. Ogni progetto include il disegno tecnico (in formato DXF), due immagini del prodotto finito e una breve descrizione (in formato DOC). I progetti vengono concessi con licenza Creative Commons49. Pur se i concetti di base della filosofia Open Source vengano seguiti (accessibilità, modificabilità e ridistribuibilità del codice sorgente), questo caso non rappresenta una comunità Open Peer-to-Peer: non esiste una comunità di discussione o progettazione, il sito web che ospita i progetti non è nemmeno organizzato per la sua formazione e Ronen Kadushin non presenta questo desiderio. Non sono infatti progetti di comunità di designers, dediti alla risoluzione di qualche problemi, ma una sorta di dimostrazione. I progetti presentati riguardano soprattutto accessori per la casa, come la lampade Man Holding Flower50 (fig.15 e 16), e rappresentano quindi solo una esemplificazione di come la filosofia Open Source possa applicarsi all'industrial design. Al contrario, il primo esempio di riflessione sul concetto di Open Design (e fino ad ora il più completo e l'unico ad aver raggiunto un buon successo) è addirittura antecedente: il progetto ThinkCycle. Nel marzo 2000, alcuni dottorandi del MIT Media Lab proposero una iniziativa atta a facilitare processi di problem solving su problemi reali, basati su una metodologia simile a quella utilizzata dalle comunità di sviluppo di software Open Source, tra studenti universitari e comunità locali dei paesi in via di sviluppo. In questo modo, non solo la metodologia rifletteva la filosofia Open Source dal punto di vista progettuale, ma anche dal punto di vista etico: la collaborazione tra designer per la risoluzione di problemi presenti nella vita delle persone più povere. Venne costruito un archivio online di problemi critici da risolvere, con strumenti per la collaborazione online tra designer, studenti, esperti. Le relative soluzioni progettuali elaborate vengono ospitate in tutte le loro fasi di evoluzione sul sito web, divenendo così accessibili a chiunque. 47 http://ronen-kadushin.com/Open_Design.asp 48 http://www.core77.com/corehome/2005/03/opendesign.html 49 http://creativecommons.org/licenses/by-nc-sa/2.0/ 50 http://ronenkadushin.com/uploads/1655/Man%20Holding%20Flow er%20light.zip
Fig. 14: Martí Guixé, The Meta-territorial Kitchen Sytem-3 (Fonte: http://www.guixe.com/exhibitions/2003_mtkslisboa/index.html)
Non specificatamente rivolto verso la disciplina del design, ma verso appassionati sportivi è Zeroprestige52, un sito web che permette la progettazione e condivisione di accessori necessari per praticare il kitesurfing. Questo progetto è legato ai due precedenti dalla stretta collaborazione fra i loro ideatori; non a caso rappresentano le iniziative per lo sviluppo di pratiche progettuali collaborative Open Design di maggior successo. 51 http://www.instructables.com/about/ (si veda in appendice a p,299) 52 http://www.zeroprestige.org (si veda in appendice a p,302) 57
Fig. 15: Ronen Kadushin, disegno tecnico del progetto Man Holding Flower (Fonte: http://www.ronenkadushin.com/Open_Design.asp)
Fig. 16: Ronen Kadushin, foto del progetto Man Holding Flower realizzato (Fonte: http://www.ronenkadushin.com/Open_Design.asp)
Negli ultimi anni sono nati anche altri esempi di comunità (o tentativi di costruzione di comunità) per una riflessione sugli aspetti sia teorici che pratici riguardante il design di prodotti e la filosofia Open Source: Synusia.org, OpenDesigns e Designbreak. Synusia.org (in realtà synusia.com53) è una organizzazione non-profit ideata per attrarre designers, artisti, ingegneri, sociologi e qualsiasi persona "non-designer" per collaborare su progetti.
rete di scienziati, ingegneri e designer al fine di risolvere alcuni problemi globali, come la degradazione dell'ambiente, aumentare l'accesso alle medicine da parte dei più poveri e aumentare la qualità delle condizioni di vita delle persone risiedenti nelle nazioni più povere. Designbreak si pone come facilitatore per lo svolgimento di progetti, e come gestore della loro introduzione nel mercato. Inoltre, per diffondere i contenuti della filosofia Open Source / Open Design attraverso una pubblicazione elettronica. Data la sua recente attivazione, è ancora troppo presto per formulare un giudizio; tuttavia, si può constatare che, fino ad ora, l'unica iniziativa degna di nota riguarda ThinkCycle, dato che è l'unica che è riuscita a costruire una comunità di utenti attiva e a portare avanti una riflessione teorica sull'argomento.
La sua attività intende colmare la distanza fra la disciplina del designe e la filosofia Open Source: tuttavia la pagina web non dà nessuna informazione, né sulle attività né su come contattare i suoi organizzatori. Non vi è quindi modo di sapere se si tratti di una speculazione o di una iniziativa autentica. OpenDesigns54 è un sito web attivo dal 2003 che si propone di ospitare progetti accessibili, con tando di disegno tecnico come source code, ma sino ad oggi solo un progetto (un mattone) è stato pubblicato55. Più recente, ma meglio organizzata, anche Designbreak56 è una organizzazione dedicata a colmare la distanza tra il mondo del design e la filosofia Open Source. Con la consapevolezza che il concetto di Open Design è stato solo suggerito per il momento, Designbreak si propone di reare una 53 http://www.synusia.org 54 http://opendesigns.ourproject.org/ 55 http://opendesigns.ourproject.org/article.php3?id_artic le=10 56 http://www.designbreak.org/index.html 58
Mentre ThinkCycle e Designbreak sono delle comunità costituite da gruppi dediti a più progetti con finalità etiche, gli altri esempi di Open Design legati alla progettazione di prodotti, sono caratterizzati dall'interesse verso un singolo progetto, di un particolare prodotto: OSCar e Open Source Green Vehicle sono comunità dedite alla progettazione di automobili. Il progetto OSCar (Open Source Car)57 è stato fondato nel 1999 da Markus Merz, ex marketing manager della BMW, con l'intento di diventare una 57 http://www.theoscarproject.org (si veda in appendice a p.285)
comunità di developers (cioè di sviluppatori, come vengono anche chiamati i programmatori informatici) di automobili intenti a sviluppare un progetto attraverso Internet. I car designer sono appassionati al loro lavoro almeno quanto gli hacker informatici: le macchine sono al centro dei loro pensieri durante il lavoro e anche al di fuori di esso. Ed oltre ai car designers, vi sono innumerevoli appassionati di automobili che possono fornire consigli e richieste utili. Dopo un periodo di inattività causata dall'inagibilità del sito web, la comunità ha ripreso le sue attività, e al momento rappresenta l'esempio più avanzato di Open Design di un singolo prodotto. Esiste anche un altro progetto di Open Design legato alla progettazione di un veicolo: Open Source Green Vehicle (OSGV)58. Nato sul finire del 2005, questo progetto si propone di influenzare l'industria automobilistica attraverso la competizione, con il fine di limitare i danni che essa sta portando all'ambiente, attraverso il consumo di materie prime e la costruzione di autoveicoli inquinanti. OSGV è una organizzazione non-profit che si propone di progettare, certificare e produrre veicoli caratterizzati da standard ambientali e di sicurezza notevolmente più avanzati rispetto agli attuali. A questo punto, le altre imprese produttrici, se vorranno continuare ad essere competitive sul mercato, dovranno inseguire OSGV sulla stessa strada di produzione sostenibile. OSGV si propone di utilizzare un processo progettuale ispirato alla filosofia Open Source, sviluppando un progetto Open Source ex novo, ma affidandosi, per i componenti, alle imprese esistenti. In questo modo, quando le altre imprese automobilistiche vorranno costruire autoveicoli più sostenibili, potranno rifornirsi dei componenti necessari dai fornitori esistenti. L'organizzazione si propone di iniziare con un autoveicolo desiderato da molti consumatori, per garantire una ampia diffusione al veicolo prodotto. Ha quindi deciso di iniziare con il progetto di un SUV, le cui caratteristiche però devono ancora essere decise. Differente è il caso della RED Unit59 del Design Council britannico: qui per Open Design si intende non il progetto di prodotti, ma la co-progettazione (co-creazione) di servizi pubblici attraverso una filosofia progettuale che riprende elementi dalla filosofia Open Source e dal concetto di relazioni Peer-to-Peer. Nei due progetti riguardanti i servizi sanitari, sviluppati lungo il 2005 a Kent 60 e Bolton61, la RED Unit (sotto la guida di Hilary Cottam e Charles Leadbeater) ha cercato di sviluppare un approccio progettuale in grado di mobilitare le risorse, le conoscenze e le esperienze distribuite nella popolazione, per renderle attive nella prevenzione di malattie derivanti da stili di vita poco salutari (Kent) oppure per renderle attive nella cura del diabete (Bolton). I cittadini vengono infatti considerati di pari livello rispetto agli esperti 58 http://www.osgv.org/; (si veda in appendice a p.285) 59 http://www.designcouncil.org/red (si veda in appendice a p.317) 60 Design Council (2006b) 61 Design Council (2006b)
(medici, infermiere, ecc.), e viene incoraggiato loro la costituzione di comunità (Kent) o di rapporti paritari (Bolton) per lo scambio di informazioni necessarie ad affrontare la malattia. I servizi pubblici divengono così co-creati, al fine di risolvere i problemi specifici di ogni persona e comunità. Dei servizi distribuiti, collaborativi e cocreati richiedono una forma di organizzazione innovativa, e la Red Unit la trovano negli esempi di comunità di software Open Source, che chiamano comunità di co-creazione (communities of cocreation)62. Questo tipo di comunità, secondo loro, permette la mobilitazione di risorse distribuite, a livello locale, la risoluzione di problemi complessi a la mobilitazione di iniziative bottom-up. In questo modo dei nuovi servizi pubblici basati sulla distribuzione, collaborazione e co-creazione possono essere erogati63. Per Hilary Cottam e Charles Leadbeater, quindi, la filosofia Open Source, più che una metodologia progettuale, è un fonte di ispirazione per la identificazione di obiettivi progettuali. Non si progetta un servizio attraverso una collaborazione collettiva e un "codice sorgente" accessibile, ma si "progettano" comunità che condividono alcune caratteristiche con quelle di software Open Source, principalmente alcuni meccanismi di auto-organizzazione. Più che filosofia Open Source e Peer-to-Peer applicata al design dei servizi, i concetti di open e Peer-to-Peer applicati all'oggeto del progetto finale.
2.6.5. Open Source Biotechnology La protezione di scoperte scientifiche attraverso brevetti era impensabile alcuni decenni fa, ma recentemente si è espansa in ogni campo, fino ad invadere anche il campo della ricerca medica e delle biotecnologie. Certamente le cause possono essere riscontrate nell'aumento di importanza delle imprese farmaceutiche nel finanziamento delle ricerche: queste tendono ad essere orientate verso gli interessi delle imprese, che a loro volta brevettano i risultati per assicurarsi maggiori guadagni possibili. Purtroppo, l'aumento incontrollato dei brevetti su scoperte scientifiche, comporta una riduzione dei flussi di informazione tra i ricercatori, minacciando così la continuità del processo scientifico. Le biotecnologie, sebbene vi siano esponenti della comunità scientifica con posizioni molto critiche a riguardo64, possono essere considerate come un esempio della ricerca scientifica nell'era delle telecomunicazioni e delle informazioni. Manuel Castells, nel suo studio sui cambiamenti causati dalle recenti rivoluzioni tecnologiche La nascita della società in rete65, afferma addirittura che l'ingegneria genetica e le tecnologie delle telecomunicazioni sono alla base 62 Cottam, Leadbeater (2004) p.24 63 Ibidem p.25 64 Per una descrizione chiara e ben documentata dei rischi e delle implicazioni delle ricerche biotecnologiche e delle loro applicazioni all'agricoltura, si veda Vandana Shiva, (1995) 65 Castells (1996) 59
del paradigma dell'informazionalismo: non una conseguenza, l'applicazione di un paradigma ad una disciplina distante da quella in cui si è generato, ma la sua origine66. Risulta quindi chiaro come sia comprensibile la nascita di esperimenti di Open Source Biotechnology. Una analisi accurata di questa tendenza può essere considerata la tesi di dottorato di Janet Elizabeth Hope67, la quale sostiene che una Open Source Biotechnology può essere fattibile non solo come uno schema di regolamentazione delle licenze, ma anche come metodologia di ricerca e di commercializzazione dei risultati. L'emergenza di un approccio Open Source alla ricerca sulle biotecnologie potrebbe risolvere i suoi problemi strutturali. Già alcune imprese stanno cominciando ad adottare questa filosofia. I casi SNP Consortium Ltd68, International HapMap Project69, Drugs for Neglected Diseases Initiative (DNDi)70, CAMBIA Bios71 , Tropical Disease Initiative (TDI)72 rappresentano i primi esempi di questo fenomeno.
2.6.6. Open Source Religion La filosofia Open Source è stata atto di alcuni tentativi di utilizzo nella creazione e discussione di sistemi di credenze religiose, sotto il nome di Open Source Religion73. In questo modo, i valori e i principi religiosi vengono creati attraverso un processo continuo di rifinimento ed estensione dagli stessi credenti. In contrasto con le religioni tradizionali, considerate autoritarie, gerarchiche e resistenti ai cambiamenti – queste religioni enfatizzano la partecipazione, la autodeterminazione, la decentralizzazione e la evoluzione. I fedeli di queste religioni si ritengono parte di un movimento Open Source più vasto, nella creazione di una intera cultura Open Source. Tutti gli esempi più significanti di religioni Open Source sono basati su Internet e sono quindi fenomeni molto recenti. Un'altro vantaggio specifico di queste religioni è che rompono il legame tra la fede e il luogo di nascita. I fedeli di queste religioni credono che la maggior parte delle persone credano in una determinata religione perché vi sono cresciuti assieme. Una religione Open Source, aperta ai contributi esterni da tutto il mondo, può evitare questo stretto legame e diviene, al contempo, una religione non fissa, non assoluta. La prima religione Open Source documentata risale alla metà degli anni '90, con nome Yoism. Attorno al 2001, i credenti di questa religione (detti Yoans) costruirono un sito web simile a quello di Wikipedia per la discussione collettiva sui principi e i valori 66 67 68 69 70 71 72 73 60
Castells (1996, 2001) Hope (2004) p.279 p.282 pp.280-281 pp.282-283 p.279 http://en.wikipedia.org/wiki/Open_source_religion
della loro religione.Questa discussione collettiva avviene attraverso un processo che chiamano Open Source Truth Process, che garantisce la costante evoluzione delle credenze e la necessaria apertura verso i contributi esterni. I credenti di questa religione infatti credono che la Verità possa essere raggiunta solamente attraverso il confronto collettivo, attraverso la condivisione delle esperienze personali: ciò li porta a valorizzare la diversità. La religione e le sue credenze sono il codice sorgente, che le persone possono "testare" attraverso la propria esperienza74. Tuttavia le religioni Open Source non riguardano solamente credenze nate ex novo, ma anche discussioni teologiche sopra religioni antichissime. Nel 2001, Douglas Rushkoff organizzò un summit per tentare la organizzazione di una comunità di discussione Open Source sul Giudaismo75. In seguito Rushkoff pubblicò il libro Nothing Sacred: The Truth about Judaism, dando così luogo alla creazione di un movimento di Open Source Judaism. Un altro esempio simile è quello di Open Source Haggadah76. Tentativi simili sono stati organizzati anche per quanto riguarda la religione cristiana da Open Source Thelogy (OSG)77, nel tentativo di capire fino a che punto la filosofia Open Source possa essere utilizzata per la discussione teologica e fino a che punto la religione cristiana possa inserirsi nella cultura emergente dell'Open Source. Va notato che, seppur basandosi su una comunità, questo progetto considera la filosofia Open Source solamente come una metodologia, attraverso la quale suddividere le credenze in moduli per una migliore discussione collettiva78.
2.6.7. Open Drink La filosofia Open Source è stata utilizzata anche per la "progettazione" di due bevande: OpenCola e Vores Øl, entrambe ideate semplicemente come una esemplificazione del concetto di codice sorgente accessibile contro il controllo dilagante della proprietà intellettuale. OpenCola79 venne ideata nel 2001 da una impresa canadese di sviluppo di software Open Source dallo stesso nome. L'idea infatti nacque come trovata pubblicitaria, ma venne in seguito prodotta e ne vennero vendute 150000 lattine, fino alla decisione della impresa di abbandonare questa strategia. Ad ogni modo, la ricetta è disponibile online80. La ricetta ha raggiunto la versione 1.1.3, chiunque può consultarla, produrre la birra, modificarla o cederla, a condizione di seguire la licenza GPL con cui viene ceduta. 74 http://www.yoism.org/?q=node/39 75 http://www.g4tv.com/screensavers/features/44075/Op enSource_Religion.html 76 http://www.opensourcehaggadah.com/aboutus.php 77 http://www.opensourcetheology.net/node/145 78 Ibidem 79 http://en.wikipedia.org/wiki/OpenCola 80 http://upload.wikimedia.org/wikipedia/en/b/bf/OpenCo la_soft_drink_recipe.pdf
La birra Vores Ă&#x2DC;l81 ('la nostra birra', in danese) venne presentata come la prima birra Open Source, pubblicata sotto licenza Creative Commons82. Venne ideata nel 2004 da alcuni studenti universitari di Copenhagen, in collaborazione con il collettivo artistico locale Superflex, con l'obiettivo di dimostrare l'applicabilitĂ della filosofia Open Source al di fuori dell'ambito software. Gli ideatori hanno progettato anche una immagine coordinata, accessibile online (fig.17) ed utilizzabile per la produzione della birra.
Fig. 17: Etichetta per la birra Vores Ă&#x2DC;l (Fonte: http://www.voresoel.dk)
81 http://www.voresoel.dk/main.php?id=70 82 http://creativecommons.org/licenses/by-sa/2.0/ 61
62
3.
Peer-to-Peer
3.1. Software Peer-to-Peer Il termine Peer-to-Peer (o abbreviato in P2P) apparve nei media nel 2001 grazie al clamore suscitato da Napster, un sistema di condivisione di file digitali basato su Internet e su un proprio software dedicato, distribuito nel 1999 dallo studente Shawn Fanning1. Generalmente per Peer-to-Peer si intende una rete di computer o qualsiasi rete che non possiede client o server2 fissi, ma un numero di nodi equivalenti (peer, appunto) che fungono sia da client che da server verso altri nodi della rete3. Una rete Peer-to-Peer si basa sulla condivisione della potenza di calcolo e dell'ampiezza di banda dei computer dei partecipanti, invece che basarsi su pochi computer, dei server. Queste reti sono utili non solo per lo scambio di file, ma anche di dati in tempo reale: la telefonia via Internet si basa su una tecnologia Peer-to-Peer. Le reti Peer-to-Peer possono prendere tre forme: • Peer-to-Peer puro: i partecipanti (peer) agiscono sia come client che come server, non vi è un server centrale che gestisce la rete; • Peer-to-Peer ibrido: un server centrale mantiene un archivio di informazioni sui peer e risponde alle richieste di queste informazioni; i peers mantengono un indice delle informazioni di cui sono in possesso, affinché il server centrale possa aggiornare i suoi dati relativi ai peer; • Peer-to-Peer misto: con caratteristiche di entrambi i metodi. Questo modello di rete è l'antitesi dell'architettura client-server: mediante questa configurazione qualsiasi nodo è in grado di avviare o completare una transazione. I nodi equivalenti possono comunque differire nella configurazione locale, nella velocità di elaborazione, nella ampiezza di banda e nella quantità di dati memorizzati.
Alcune reti e canali, come per esempio Napster, OpenNap o IRC usano il modello client-server per alcuni compiti (per esempio la ricerca) e il modello Peer-to-Peer per tutti gli altri. Reti come Gnutella o Freenet, vengono definite come il vero modello di rete Peer-to-Peer in quanto utilizzano una struttura Peer-to-Peer per tutti i tipi di transazione. Quando il termine Peer-to-Peer venne utilizzato per descrivere la rete Napster, implicava che la natura a file condivisi del protocollo fosse la cosa più importante, ma in realtà la grande conquista di Napster fu quella di mettere tutti i computer connessi sullo stesso piano. Il protocollo peer era il modo giusto per realizzarlo. Attraverso Napster e un collegamento attivo a Internet era possibile entrare a far parte di una comunità di utenti, consultare un archivio dei file digitali condivisi fra gli utenti e avviare il trasferimento di file autonomamente. Ciò che attirò l'attenzione dei media era il fatto che solitamente venivano scambiati file musicali protetti da copyright, azione illegale in sé, invece che l'innovatività del sistema, di per sé perfettamente legale. È da allora che il termine Peer-to-Peer è stato, nell'opinione comune, associato a pratiche illegali. Ma per comprendere il fenomeno dei software Peer-to-Peer bisogna capire le caratteristiche e l'evoluzione delle reti di telecomunicazioni, in particolare di Internet, rete di computer, su cui questi si basano.
3.2. Internet e World Wide Web: la infrastruttura degli scambi Peer-to-Peer 3.2.1. Internet
L'esempio classico di Peer-to-Peer è la rete per la condivisione di file (file sharing). Il termine può essere tecnicamente applicato a qualsiasi tipo di tecnologia di rete e di applicazioni che utilizzano questo modello, ma viene normalmente riferito alle reti di file sharing come Gnutella, FastTrack, e l'oramai defunto Napster che forniscono una infrastruttura per il libero scambio (e qualche volta anonimo) di file tra i computer connessi a Internet.
Internet può essere vista come una rete logica di enorme complessità, appoggiata a strutture fisiche e collegamenti di vario tipo (fibre ottiche, cavi coassiali, collegamenti satellitari, doppino telefonico, link su radiofrequenza (WiFi), su ponti radio, su raggi laser e su onde convogliate su condotte elettriche o addirittura idrauliche) che interconnette un agente umano o automatico ad un altro agente tramite, praticamente, qualsiasi tipo di computer o elaboratore elettronico oggi o in futuro esistente o immaginabile. Ogni dispositivo connesso direttamente ad Internet si chiama host o end system mentre la struttura che collega i vari host si chiama link di comunicazione.
Per un resoconto della battaglia giudiziaria inoltrata contro Napster si veda Wynants, Cornelis (2005) pp.242-243 http://en.wikipedia.org/wiki/Client/server http://en.wikipedia.org/wiki/Peer-to-Peer
Generalmente Internet è definita la rete delle reti, infatti Internet è costituita da tutta una serie di reti, private, pubbliche, aziendali, universitarie,
1
2 3
63
commerciali, connesse tra di loro, in effetti già prima della sua nascita esistevano reti locali, principalmente nei centri di ricerca internazionali, nei dipartimenti universitari. Un grande risultato della nascita e dell'affermazione di Internet è stato quello di creare uno standard de facto tra i protocolli di comunicazione tra le varie reti, consentendo ai più diversi enti e agenti (diversi governi, diverse società nazionali o sovranazionali, tra i vari dipartimenti universitari) di scambiare dati mediante un protocollo comune, il TCP/IP, relativamente indipendente da specifiche hardware proprietarie, da sistemi operativi, dai formati dei linguaggi di comunicazione degli apparati di comunicazione (modem, router, switch, hub, bridge, gateway, repeater, multiplexer). Una rete di reti, che la maggior parte degli utenti ha conosciuto non prima degli inizi degli anni '90 ma che esiste, almeno nel suo concetto, dagli anni '60.
Le origini di Internet si trovano in ARPANET, una rete di computer costituita nel settembre del 1969 negli USA da ARPA, l'Advanced Research Projects Agency. Questo progetto venne istituito nel 1958 dal Dipartimento della Difesa degli Stati Uniti per dare modo di ampliare e sviluppare la ricerca scientifica, soprattutto all'indomani del superamento tecnologico dell'Unione Sovietica, che aveva lanciato il primo satellite, lo Sputnik, nel 1957, conquistando i cieli americani. Quando la NASA le subentrò nella gestione dei programmi spaziali, l'ARPA assunse il controllo di tutte le ricerche scientifiche a lungo termine in campo militare. Verso il 1965 l'ARPA iniziò ad avere dei seri problemi di gestione dei computer, sparsi in varie sedi, e senza possibilità di comunicare fra loro: scambiare file fra loro era quasi impossibile, per via dei formati di archiviazione completamente diversi (e proprietari) che ognuno di essi usava, quindi era necessario molto tempo e molto lavoro per passare dati fra i vari computer, per non parlare dello sforzo necessario per portare e adattare i programmi da un computer all'altro. Per questo Bob Taylor, allora direttore della divisione informatica dell'ARPA, affrontò il problema in modo radicale. Nel 1966 parlò con Charlie Hertzfeld, l'allora direttore dell'ARPA, e ottenne uno stanziamento di un milione di dollari per il progetto ARPANET. ARPANET sarebbe servita a condividere online i dati delle ricerche svolte dai gruppi di scienziati sparsi in tutta la nazione, una rete invulnerabile ad un attacco nucleare. Così, nell'ottobre 1969 Charley Kline fu incaricato di creare il primo collegamento telefonico da computer a computer fra l'Università della California di Los Angeles e lo Stanford Research Institute, che furono così i primi due nodi di Internet.
Fig. 20: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2) 64
Fig. 21: Flussi di dati su Internet nel 1993 (Fonte: http://mappa.mundi.net/maps/maps_008/#ref_2)
Nel dicembre 1969 si aggiunsero alla connessione l'università di Santa Barbara e dello Utah, rispettivamente il terzo e quarto nodo (fig.18). Un ulteriore passo nello sviluppo di ARPANET fu quello di collegarla ad altri network, PRNET e SATNET, reti di comunicazione gestite da ARPA: alla fine del 1971 Internet era composta di 15 nodi (fig.19), e da quel momento la sua crescita è avvenuta a velocità esponenziale. Nel 1973 Robert Kahn, di ARPA, e Vinton Cerf, della Stanford University, misero per iscritto la struttura di Internet. Sempre nello stesso anno, fu istituito il progetto del protocollo di controllo trasmissione (TCP)4, uno standard indispensabile per la comunicazione tra reti di computer. Utilizzando questo standard, le applicazioni, eseguite su computer connessi alla rete, riescono a creare connessioni tra un computer e l'altro, connessione con cui possono scambiarsi dei dati. Nel 1978 Cerf, Postel e Crocker hanno aggiunto un protocollo tra rete e rete (IP), mettendo a punto il definitivo protocollo su cui ancor oggi opera Internet, il TCP/IP5. Nel 1983 Il Dipartimento della Difesa statunitense, preoccupato per possibili buchi nella sicurezza, creò MILNET, per scopi unicamente militari e ARPAINTERNET subentrò come rete esclusivamente dedicata alla ricerca. Nel 1984 la NSF, National Science Foundation, mise a punto la propria rete di 4 5
http://en.wikipedia.org/wiki/Transmission_Control_Prot ocol Nell'ambito delle telecomunicazioni, due o più macchine o host (computer, telefono, stampante, ecc...) possono comunicare tra loro rispettando norme che sono dette protocolli di rete. L'aderenza ai protocolli garantisce che due macchine possano comunicare correttamente, anche se sono state realizzate indipendentemente. (Fonte: http://it.wikipedia.org/wiki/Protocollo_di_rete)
comunicazione via computer (NSFNET) e nel 1988 incominciò a usare come sua dorsale ARPAINTERNET. Nel 1990 ARPANET, ormai obsoleta, venne smantellata e la NSF fu incaricata dal governo statunitense di gestire Internet. In questo periodo iniziò alla privatizzazione di Internet, che prese il sopravvento nel 1995, portando così alla chiusura di NSFNET. Gli anni '90 hanno assistito al proliferare dei service provider, e il 1995 è da molti considerato l'anno di nascita dell'attuale Internet. Un Internet Service Provider (ISP)6 è una struttura commerciale o un'organizzazione che offre agli utenti (casalinghi o ad altre imprese) accesso a Internet con i relativi servizi. Gli ISP formano i nodi nella struttura a ragnatela di Internet e non tutti sono uguali. Ci sono ISP di primo livello che hanno una rete di interconnessione ad alta velocità, sono internazionali e sono direttamente connessi ad altri ISP di primo livello. Tali ISP hanno connessi a loro un certo numero di ISP di secondo livello (di cui sono fornitori) che vengono detti, in questo caso, utenti. Gli ISP di primo livello formano, quindi, la dorsale di Internet. Tutto ciò è stato possibile grazie al progetto originario di ARPANET, decentralizzato e basato su protocolli di comunicazione aperti. Il dispiegamento delle potenzialità di Internet e la sua progressiva diffusione popolare sono però frutto dello sviluppo del WWW, il World Wide Web. Il World Wide Web, così come lo conosciamo oggi, nacque nel 1989 presso il CERN di Ginevra (Centro Europeo di Ricerche Nucleari, il più importante laboratorio di Fisica in Europa), su idea di Tim Berners-Lee e di Robert Cailliau che, per 6
http://it.wikipedia.org/wiki/ISP 65
permettere ai ricercatori di condividere la documentazione scientifica in formato elettronico ed indipendentemente dalla piattaforma migliorandone la comunicazione e la cooperar azione, definirono standard e protocolli per scambiare documenti su reti: il linguaggio HTML e il protocollo http. Una volta vista brevemente la storia di Internet, per capire la sua relazione con il concetto di scambio Peer-to-Peer è utile considerare un'analisi, svolta all'indomani del successo di Napster (e del clamore mediatico sollevato), da Nelson Minar e Marc Hedlund7. Per Minar e Hedlund Internet rappresenta una condivisione di risorse, una rete cooperativa costituita da milioni di host (i computer connessi), distribuiti in tutto il mondo. Una rete caratterizzata da una risorsa scarsa, l'ampiezza di banda (bandwidth), cioè la capacità di inviare e ricevere ad alta velocità, che gli utenti condividono e si spartiscono. Tuttavia, negli anni 1999-2000, qualcosa è cambiato: il modello di rete che era cresciuto in maniera esponenziale nella ultima decade si era ribaltato, e gli utenti collegati alla rete non erano più ricevitori passivi ma anche distributori attivi. Attraverso Napster, e il più grande movimento denominato Peer-to-Peer, cominciarono a utilizzare i propri computer e Internet non solo per scambiarsi e-mail e consultare pagine web, ma anche per scambiarsi reciprocamente file multimediali. Internet, così come era stato concepito sul finire
degli anni '60, era un sistema Peer-to-Peer: l'obiettivo di ARPANET era quello di condividere risorse in tutti gli Stati Uniti. ARPANET era molto più aperta allora che oggi, un campo aperto a ricercatori che non dovevano certamente difendersi gli uni dagli altri ma collaborare su progetti comuni. Nel corso del tempo, si è spostata verso una architettura client-server, quindi gerarchica, o per meglio dire asimmetrica, dove un nodo riceve le informazioni (client) che un altro nodo invia (server). Si è arrivati così ad una situazione in cui milioni di utenti comunicano con relativamente pochi e privilegiati server. I software Peer-to-Peer utilizzano Internet per come era stata progettata: come un medium per la comunicazione tra dispositivi informatici che condividono le risorse su base egualitaria. Ma questo concetto non è stato utilizzato per primo da Napster, vi sono stati i casi di Usenet e del Domain Name System (DNS). Ciò che ha reso rivoluzionario Napster è stata la scala, le dimensioni della comunità di partecipanti.
3.2.2. Usenet Usenet è una rete mondiale, nata nel 1979, formata da migliaia di newsgroup, che utilizza un modello di controllo decentralizzato per la copia di file tra computer. In questo senso, Usenet può essere considerato l'antenato dei software Peer-toPeer odierni. Un newsgroup8 è uno degli spazi virtuali creato su una rete di server interconnessi per discutere di un argomento (topic) ben determinato.
Fig. 22 Mappa di Internet, come realizzata dal progetto Opte nel novembre 2003 (Fonte: http://www.opte.org) 7 66
Minar, Hedlund (2001)
8
http://it.wikipedia.org/wiki/Newsgroup
In italiano a volte viene utilizzato il termine gruppo di discussione. Collegandosi ad Internet (per mezzo di programmi chiamati news reader, oggi totalmente integrati nei programmi di posta elettronica come ad esempio Outlook Express), a una sorta di “stanza delle bacheche" (news server) che raccoglie i vari Newsletter Group (o in breve NG). I news server comunicano fra loro in modo che i messaggi inviati ad un server, si trovino duplicati su tutti gli altri server. Per diversi motivi (economie di spazio, interesse degli utenti, censura), non tutti i server contengono gli stessi NG. Ogni Provider (ISP) decide infatti quali NG tenere. Questo approccio è ormai sempre più superato, nei fatti, dalla possibilità di accedere ai gruppi tramite un portale web, che può consentire agevolmente non solo la ricerca, ma anche la lettura e la partecipazione attiva ai newsgroup con estrema facilità. È da tenere in considerazione che la frequenza di aggiornamento dei gruppi sui portali web è solitamente piuttosto basse rispetto a quella che si può ottenere con una connessione diretta a Usenet. La netiquette9, su Usenet, sconsiglia di inviare articoli fuori tema e suggerisce di seguire per qualche tempo un newsgroup prima di iniziare a scrivere. Sono molti i newsgroup in cui i poster (ossia gli utenti) abituali, ossia coloro che li
seguono da più tempo e con una certa assiduità, hanno redatto delle FAQ, raccolte di domande poste di frequente, così da aiutare i newbie ('nuovi arrivati', 'principianti') ed evitare che il newsgroup contenga sempre le stesse domande o che queste provochino flame10, botta e risposta interminabili e di dubbia utilità. Inoltre, di norma ciascun newsgroup ha un manifesto (charter) che aiuta a comprendere quali sono gli argomenti oggetto di discussione. Non vi è nessuna autorità centrale che controlla la gestione delle notizie. L'aggiunta di un newsgroup al topic principale viene controllata con un rigido processo democratico, che si avvale di un newsgroup apposito (news.admin) per la proposta e discussione. Dopo che un determinato newsgroup viene proposto e discusso per un determinato periodo, chiunque sia dotato di un indirizzo e-mail può votare a favore o contro la proposta. L'aspetto stupefacente di Usenet è che ogni host partecipante può decidere le proprie regole a livello locale, ma la rete, a livello complessivo, funziona attraverso la cooperazione della comunità. Gli attuali programmi Peer-to-Peer non sempre riescono a replicare questo processo. Tuttavia, questa natura decentralizzata del controllo lo rende un canale di comunicazione estremamente “rumoroso”, nel senso che risulta vulnerabile a spam11 e altri utilizzi scorretti.
Fig. 23: Rete di Usenet, al maggio 1993 (Fonte: http://mappa.mundi.net/maps/maps_021/) 9
http://en.wikipedia.org/wiki/Netiquette
10 http://en.wikipedia.org/wiki/Flaming 11 http://en.wikipedia.org/wiki/Spam_%28electronic%29 67
3.2.3. DNS Il Domain Name Service (DNS)12 è un esempio di sistema che utilizza una struttura a rete di tipo Peer-to-Peer con un modello di proprietà delle informazioni di tipo gerarchico. Il suo aspetto più interessante è la scalabilità, dalle poche migliaia di host per i quali era stato progettato nel 1983 alle centinaia di milioni odierni. Il DNS venne creato come soluzione per un problema di file-sharing. Nei primi periodi di Internet, gli indirizzi testuali degli host erano conservati in un singolo file di testo, hosts.txt, copiato periodicamente in tutta la rete, dove venivano archiviati con il loro IP di riferimento. Gli IP sono gli indirizzi numerici (del tipo 4.2.49.2) degli host, ma per una persona è molto più facile ricordare un indirizzo testuale: da qui si spiega l'importanza di questo file. Ma, con il crescere della rete fino a migliaia di host e quindi di indirizzi, diveniva sempre più difficile affidarsi ad un singolo file, e il sistema DNS venne creato per distribuire dei dati nella rete, in modo Peer-to-Peer. Nel World Wide Web, un nome a dominio è costituito da una serie di stringhe separate da punti, ad esempio it.wikipedia.org. A differenza degli indirizzi IP, dove la parte più importante del numero è la prima partendo da sinistra, in un nome DNS la parte più importante è la prima partendo da destra. Questa è detta dominio di primo livello (o TLD, Top Level Domain), per esempio "org" o "nl". Un dominio di secondo livello consiste in due parti, per esempio wikipedia.org, e così via. Ogni ulteriore elemento specifica un'ulteriore suddivisione. Quando un dominio di secondo livello viene registrato al proprietario, questo è autorizzato a usare i nomi di dominio relativi ai successivi livelli come nl.wikipedia.org (dominio di terzo livello) e altri come some.other.stuff.Wikipedia.org (dominio di quinto livello) e così via.
3.2.4. Il boom di Internet (19951999) Con il boom di Internet a metà degli anni '90, un nuovo tipo di utenti cominciò a connettersi: non più hacker ed esperti informatici, ma persone comune interessate semplicemente a inviare e-mail e visitare pagine web. Il cambiamento di Internet in un fenomeno di cultura di massa ha avuto un forte impatto sull'architettura della rete, nel suo utilizzo e nel declino della cooperazione, con l'incremento di firewall e la crescita di reti asimmetriche come ad esempio ADSL. I cambiamenti nell'architettura della rete vennero introdotti per supportare i comportamenti maggioritari, cioè la ricezione di dati (downloading) e non la loro pubblicazione (publishing). I web browser, applicazioni che permettono la navigazione nel Web (ad es. Firefox, Internet Explorer, ecc.), vennero basati su un semplice protocollo di comunicazione del tipo server/client: il client inizia una connessione ad un server conosciuto, riceve alcuni dati e si disconnette. Questo modello di comunicazione è semplice e diretto, e viene utilizzato per la maggior parte delle operazioni, dalla navigazione nel Web ai videogiochi online, dagli acquisti elettronici alle transazioni finanziare. Ma non tutte le applicazioni: e-mail, chat e Usenet necessitano di comunicazioni Peer-to-Peer. Mentre la i primi concetti di Internet prevedevano una uguaglianza delle comunicazioni – un sistema che potesse permettere a chiunque la pubblicazione delle proprie idee – l'esplosione commerciale di Internet spostò l'attenzione verso un modello di comunicazione monodirezionale, tipico della stampa, delle radio e delle televisioni. La natura collaborativa di Internet stava quindi trasformandosi sempre di più in una rete meno aperta, dedicata alla ricezione passiva e con sempre più frequenti barriere alla comunicazione. Nelle fasi iniziali di Internet, tutti gli host erano considerati partecipanti di pari livello, peer: la rete era simmetrica – se un host si connetteva alla rete, chiunque fosse connesso alla rete poteva connettersi anche a questo host. Questa proprietà cominciò a erodersi a metà degli anni '90, con lo sviluppo di firewall e degli indirizzi IP dinamici. Con la crescita di Internet, emerse la necessità di garantire la sua sicurezza, proteggendo gli host individuali da un accesso illimitato e incontrollato. Dato che la maggior parte degli utenti non è in grado di gestire autonomamente le procedure di sicurezza, gli amministratori di rete cominciarono a introdurre i firewall come strumento di controllo degli accessi ai propri computer.
Il DNS è un quindi un servizio di directory, utilizzato soprattutto per la risoluzione di nomi di Host in indirizzi IP. Questa funzione è essenziale per l'usabilità di Internet, visto che gli esseri umani preferiscono ricordare nomi testuali, mentre gli host ed i router (o sia i dispositivi informatici che distribuiscono i dati) sono raggiungibili utilizzando gli indirizzi IP. Il servizio è realizzato tramite un database distribuito, costituito dai server DNS. Quando un host vuole conoscere l'indirizzo IP di un determinato indirizzo testuale, lo richiede al name server più vicino. Se questi non lo conosce, lo richiede all'autorità del dominio, che a sua volta può richiederlo all'autorità superiore (cioè la stringa successiva dell'indirizzo), fino a completare tutto l'indirizzo. I name servers agiscono sia da client che da server: questo meccanismo è stato replicato dai software Peer-to-Peer attuali. Quindi, sin dalle sue prime fasi, Internet è stata costruita utilizzando dei pattern di comunicazione di tipo Peer-to-Peer.
Un firewall13 (termine inglese dal significato originario di paratia antifuoco) è un componente passivo di difesa perimetrale (software o dispositivo hardware) che può anche svolgere funzioni di collegamento tra due o più tronconi di rete. Usualmente la rete viene divisa in due
12 http://it.wikipedia.org/wiki/DNS
13 http://it.wikipedia.org/wiki/Firewall
68
sottoreti: una, detta esterna, comprende l'intera internet mentre l'altra interna, detta LAN (Local Area Network), comprende una sezione più o meno grande di un insieme di computer locali. In alcuni casi è possibile che si crei l'esigenza di creare una terza sottorete detta DMZ (o 'zona demilitarizzata') atta a contenere quei sistemi che devono essere isolati dalla rete interna ma devono comunque essere protetti dal firewall. Grazie alla sua posizione strategica, il firewall risulta il posto migliore ove imporre delle logiche di traffico per i pacchetti in transito e/o eseguire un monitoraggio di tali pacchetti. La sua funzionalità principale in sostanza è quella di creare un filtro sulle connessioni entranti ed uscenti, in questo modo il dispositivo innalza il livello di sicurezza della rete e permette sia agli utenti interni che a quelli esterni di operare nel massimo della sicurezza. Una funzione spesso associata al firewall è quella di NAT14 ('traduzione degli indirizzi di rete'), che può contribuire a rendere inaccessibili i calcolatori sulla rete interna. I firewall sono degli strumenti di sicurezza molto utili, ma rappresentano anche un serio ostacolo alle comunicazioni del tipo Peer-to-Peer, permettendo una comunicazione da una rete interna verso Internet ma impedendo qualsiasi comunicazione dagli utenti presenti in Internet verso la rete interna. Un host protetto con questa tecnologia non può funzionare facilmente come server, ma solo come client: può quindi sono ricevere informazioni, non inviarle. Permettere ad un host di essere solo un client e non un server è una tendenza ricorrente nei cambiamenti avvenuti in Internet nell'era dell'esplosione commerciale. Con l'aumento del numero di utenti collegati attraverso modem, la iniziale consuetudine di dare ad ogni host connesso un indirizzo IP fisso divenne impraticabile: non vi erano abbastanza indirizzi IP disponibili. Vennero quindi introdotti gli indirizzi IP dinamici (che oggi sono la norma), ovvero qualsiasi utente può variare il suo indirizzo IP nel giro di uno stesso giorno, in base al numero di connessioni e disconnessioni. Il risultato finale è che molti host diventano così irraggiungibili, dato che continuano a cambiare indirizzo, e che molti host possono sfruttare questo anonimato per inviare posta elettronica indesiderata (spam). Applicazioni Peerto-Peer devono risolvere questo problema con molta fatica, costruendo registri dinamici degli indirizzi degli utenti. Firewall, indirizzi IP dinamici e NAT vennero introdotti per una necessità ampiamente riconosciuta: rendere Internet una architettura scalabile e sicura, per permettere la connessione ad un numero sempre maggiore di utenti. Purtroppo questo accesso, sebbene ora facile, molto spesso si tramuta in un ruolo passivo, di client. Per questo motivo i software Peer-to-Peer hanno rappresentato una rivoluzione, riportando gli utenti al ruolo attivo delle fasi iniziali di Internet.
14 http://en.wikipedia.org/wiki/Network_address_translati on
3.2.5. Il ritorno ad un ruolo attivo: Peer-to-Peer, Blog, Wiki Probabilmente la maggior parte degli utenti di Internet non sente il bisogno di pubblicare le proprie idee, ma è molto probabile che questo avvenga perché essi sono abituati a non poterlo fare. L'introduzione di software Peer-to-Peer, blog e wiki, che permettono (seppur in maniera differente) la pubblicazione di dati in maniera attiva, si è tramutata in un enorme successo di diffusione delle pratiche di scambio e pubblicazione di dati. Nel gergo di Internet, un blog15 è un diario in rete. Il termine blog è la contrazione di web log, ovvero 'traccia su rete'. Il fenomeno ha iniziato a prendere piede nel 1997 in America; nel 2001 è divenuto di moda anche in Italia, con la nascita dei primi servizi gratuiti dedicati alla gestione di blog. La struttura è costituita, solitamente, da un programma di pubblicazione guidata che consente di creare automaticamente una pagina web, anche senza conoscere necessariamente il linguaggio HTML; questa struttura può essere personalizzata con vesti grafiche dette templates (ne esistono diverse centinaia). Il blog permette a chiunque sia in possesso di una connessione Internet di creare facilmente un sito in cui pubblicare storie, informazioni e opinioni in completa autonomia. Ogni articolo è generalmente legato ad un thread, ('filo') in cui i lettori possono scrivere i loro commenti e lasciare messaggi all'autore. Il blog è un luogo dove si può (virtualmente) stare insieme agli altri e dove in genere si può esprimere liberamente la propria opinione. È un sito (web), gestito in modo autonomo dove si tiene traccia (log) dei pensieri; quasi una sorta di diario personale. Ciascuno vi scrive, in tempo reale, le proprie idee e riflessioni. In questo luogo cibernetico si possono pubblicare notizie, informazioni e storie di ogni genere, aggiungendo, se si vuole, anche dei link a siti di proprio interesse: la sezione che contiene links ad altri blog è definita blogroll. Tramite il blog si viene in contatto con persone lontane fisicamente ma spesso vicine alle proprie idee e ai propri punti di vista. Con esse si condividono i pensieri, le riflessioni su diverse situazioni poiché raramente si tratta di siti monotematici. Si può esprimere la propria creatività liberamente, interagendo in modo diretto con gli altri blogger. Un blogger infatti è colui che scrive e gestisce un blog, mentre l'insieme di tutti i blog viene detto blogsfera (in inglese, blogsphere). All'interno del blog ogni articolo viene numerato e può essere indicato univocamente attraverso un permalink, ovvero un link che punta direttamente a quell'articolo. In certi casi possono esserci più blogger che scrivono per un solo blog. In alcuni casi esistono siti (come Slashdot) simili a blog, ma 15 http://it.wikipedia.org/wiki/Blog 69
aperti a tutti. A tutt'oggi sono stati recensiti 31 milioni di blog e 2,2 miliardi di link fra blog16; si può comunque aspettare che il numero aumenti, vista la semplicità (e spesso gratuità) di questo sistema. I blog hanno anche alcune somiglianze con i wiki, nel modo in cui vengono gestiti gli aggiornamenti, favoriti i commenti dei lettori e stimolate le nascite di community.
Un wiki17 (o Wiki Wiki) è un sito web (o altrimenti una collezione di documenti ipertestuali) che permette ad ogni utilizzatore di aggiungere contenuti, come in un forum, ma anche di modificare i contenuti esistenti inseriti da altri utilizzatori. A tutt'oggi sono stati recensiti 1190 wiki attivi18 e, come per i blog, ci si aspetta un aumento del loro numero. Wiki Wiki deriva da un termine in lingua hawaiana che significa 'rapido'. Un wiki permette infatti di scrivere collettivamente e rapidamente dei documenti in un semplice linguaggio di markup19 usando un web browser. Poiché la maggior parte dei wiki sono basati sul web, il termine "wiki" è di solito sufficiente. Una singola pagina in un wiki è chiamata "pagina wiki", mentre l'insieme delle pagine, che sono usualmente strettamente interconnesse, è chiamato "il wiki". Una caratteristica distintiva della tecnologia wiki è la facilità con cui le pagine possono essere create e aggiornate. Generalmente, non esiste una verifica preventiva sulle modifiche, e la maggior parte dei wiki è aperta a tutti gli utenti - o almeno a tutti quelli che hanno accesso al server wiki. In effetti, perfino la registrazione di un account utente non è sempre richiesta. Nei wiki tradizionali, ci sono tre rappresentazioni per ogni pagina: il codice HTML, la pagina che risulta dalla visione di quel codice con un browser web e il codice sorgente modificabile dagli utenti, dal quale il server produce l'HTML. Quest'ultimo formato, noto come "wikitext", è scritto in un linguaggio di markup semplificato il cui stile e la cui sintassi variano tra le implementazioni. Il motivo dietro questo design è che l'HTML, con la sua grande libreria di tag, è troppo complicato per permettere modifiche rapide, e distrae dai contenuti veri e propri delle pagine. In questo modo, i wiki possono essere considerati come Open Source: un codice sorgente modificabile, anche collettivamente, da cui si ottiene un "programma", cioè uno strumento utilizzabile.
Fig. 24: Blog (Fonte: http://www.doorsofperception.com)
16 Ricerca effettuata da Technorati, accesso effettuato il 20/03/2006, http://www.technorati.com/ 70
I wiki sono un mezzo completamente ipertestuale, con una struttura di navigazione non lineare. Tipicamente ogni pagina contiene un gran numero di link ad altre pagine. Nei wiki di dimensioni notevoli esiste comunque una navigazione gerarchica, ma non deve essere necessariamente usata. I wiki generalmente seguono la filosofia di rendere facile la correzione di eventuali errori, piuttosto che rendere difficile commettere un errore. Così, i wiki oltre ad essere completamente aperti, forniscono anche vari modi per verificare la validità di aggiornamenti recenti al contenuto delle pagine. Il più importante ed usato in quasi tutti i wiki è la cosiddetta pagina delle "Ultime modifiche", che mostra sia uno specifico numero di modifiche recenti che la lista completa delle modifiche fatte in un determinato lasso di tempo. 17 http://it.wikipedia.org/wiki/Wiki 18 Ricerca effettuata da WorldWideWiki, accesso effettuato il 09/02/2006, http://www.worldwidewiki.net/wiki/PageIndex 19 http://it.wikipedia.org/wiki/Linguaggio_di_markup
punti di confronto
media
blog
attendibilità
brand
individuale
contribuzione
controllata/ dipendenza editoriale-politica
libera
proprietà dei contenuti
Copyright
Creative Commons e Copyleft
peculitarità contenuto
informazione
opinione, attualità
pubblicazione
pianificata
in tempo reale
distribuzione
broadcasting
broadcasting e narrowcasting
relazione con il pubblico
indiretta (sondaggi, volume di vendite)
interattiva e partecipativa
ritorno d’investimento
prodotti a pagamento, pubblicità di massa
abbonamento su contenuti addizionali-complementari/ pubblicità mirata/ promozione individuale
Tabella 2: Caratteristiche dei Media tradizionali rispetto ai blog (Fonte: Casaleggio Associati 2006)
Fig. 25: Analisi della rete degli scambi che avvengono tra utenti attraverso Gnutella (Fonte: http://www.cybergeography.org/atlas/gnucleus_graph_large.gif)
71
Dalla pagina dei cambiamenti sono accessibili altre due funzioni in quasi tutti i wiki: la cronologia delle revisioni, che visualizza le precedenti versioni di una pagina, e la funzionalità "Confronta", che può evidenziare i cambiamenti tra due revisioni. La cronologia delle revisioni fornisce un editor per aprire e salvare una precedente versione della pagina e, in tal modo, ristabilire il contenuto originale. La funzionalità "Confronta" può essere usata per decidere cosa sia necessario e cosa no. Un utente regolare del wiki può vedere il confronto di un cambiamento elencato nella pagina "Ultime modifiche" e, se è una pubblicazione inaccettabile, consultare la cronologia per ristabilire una precedente versione. Questo processo è più o meno efficiente in base al software wiki utilizzato. Non solo quindi software Peer-to-Peer veri e propri, ma anche blog e wiki permettono agli utenti di Internet una partecipazione attiva nello scambio e pubblicazione di informazioni. Ovviamente, il tipo di informazioni scambiate determina azioni illegali, ma non il sistema di per sé: sarebbe come dire che, dato che via telefonica possono essere organizzate attività criminali, il telefono rappresenta una tecnologia illegale. Le reti informatiche Peer-to-Peer permettono la separazione di due concetti, riguardanti le informazioni distribuite: l'autore (author, chi genera l'informazione) e l'editore (publisher, chi distribuisce la informazione). Ogni informazione ha un autore ed un editore, che possono anche non coincidere: i software Peer-to-Peer non permettono una distinzione facile fra i due, mentre nei blog e nei wiki questa distinzione è più facile, essendo spesso l'autore anche l'editore. Detto in altre parole: un software Peer-to-Peer permette la pubblicazione di informazioni anche se ne si è autori, mentre software blog e wiki generalmente permettono la pubblicazione di contenuti agli autori. Con la diffusione di software Peer-to-Peer, blog e wiki, gli utenti stanno dando una spinta verso un ritorno all'architettura paritaria originale di Internet: se non dal punto dell'hardware (sarebbe molto difficile riuscire a cambiare radicalmente le infrastrutture tecniche), almeno dal punto del software. A questo riguardo, la storia della radio è significativa perché, a differenza degli altri, questo mezzo di comunicazione di massa ha vissuto due periodi estremamente diversi: il primo, nel quale si è sviluppato come mezzo di comunicazione bidirezionale e attivo, utilizzato soprattutto dai radioamatori per trasmettere e per ricevere; il secondo, che vede la sua trasformazione in medium unidirezionale e passivo per quanto riguarda le comunicazioni di massa20. Un salto che contraddice la teoria del determinismo tecnologico, poiché la natura della radio, come dimostrato dai suoi esordi, era quanto meno doppia21. 20 Le comunicazioni via radio, per quanto riguarda le attività professionali che le richiedono, avvengono ancora per via bidirezionale. Ma per il grande pubblico, le radio sono soprattutto uno strumento di ricezione, non di trasmissione 21 Cesareo, Rodi (1996) 72
Se si desidera una Internet paritaria, dove gli utenti possono non solo ricevere informazioni ma anche pubblicarle, non bisogna quindi darne per scontata la natura paritaria, e l'importanza dei software Peer-to-Peer è proprio quella di ricordare sempre questo obiettivo. Ed una evoluzione simile potrebbe accadere alla generazione e distribuzione di energia elettrica, se venissero introdotti sistemi di distributed generation: da una rete con molti fornitori, ad una unica rete di utenti passivi (client delle imprese energetiche), fino ad una rete di utenti sia passivi che attivi (sia riceventi che "pubblicanti").
3.3. Prospettive future per il Peer-to-Peer La rapida e capillare diffusione delle tecnologie basate su protocolli di comunicazione Peer-to-Peer si sta estendendo anche ad altre applicazioni ed ad altri ambiti, oltre all'ambito della condivisione di file musicali, da cui ha preso inizio. Dato che il termine Peer-to-Peer ha acquisito popolarità proprio da questo ambito con Napster ed altri episodi di download illegale di opere musicali22, alcune considerazioni sul futuro di questo concetto devono riguardare anche il futuro dell'industria musicale. Infatti, per molte persone il termine Peerto-Peer è sinonimo di illegalità, e per poterlo usare apertamente senza rischi di incomprensioni, conviene spendere alcune parole sulle caratteristiche dell'industria discografica e sulle implicazioni delle nuove tecnologie su di essa23. La storia dell'industria discografica stessa dimostra come siano le nuove tecnologie introdotte a determinare la fruizione delle opere musicali e il loro status di bene economico. Nel XIX secolo rappresentava un bene relazionale, in quanto poteva essere fruita solo quando veniva eseguita da persone presenti nello stesso spazio fisico, sia che si trattasse di musica alta (eseguita tramite la lettura di spartiti) o popolare (eseguita attraverso l'improvvisazione su temi noti)24. La musica era quindi fortemente ancorata alla dimensione locale. Con l'introduzione del fonografo, si sviluppò una nuova relazione con la musica, più passiva, basata su alti capitali investiti nella sua registrazione, distribuzione e riproduzione. La musica era quindi gestita da una industria centralizzata, in cui vennero introdotte le attuali leggi che regolamentano la sua distribuzione e riproduzione25. 22 Più in generale, di opere protette da copyright: quindi anche software, film, ecc. Tuttavia i software Peer-toPeer hanno permesso inizialmente solo la condivisione di file musicali (di dimensioni minori e quindi più facilmente distribuibili attraverso Internet), e i processi intentati riguardano principalmente la condivisione di file musicali. La condivisione di file musicali è quindi diventata sinonimo di Peer-to-Peer 23 Per una descrizione più approfondita su media, tecnologia e copyright si veda Lessig (2004) 24 Benkler (2002) p.341 25 Per un resoconto più ampio dell'industria musicale, relativa a questo tema, si veda anche Engelen (2005),
Sono quindi leggi che derivano da un determinato contesto storico, da una data organizzazione economica di produzione e distribuzione della musica, basata su una determinata tecnologia. L'emergenza di pratiche di file sharing non rappresentano quindi un desiderio di illegalità e sfida delle leggi in sé, ma la l'emergenza di nuove possibilità di produzione, distribuzione e fruizione della musica, basate su una nuova infrastruttura tecnologica26. L'industria musicale si è sviluppata seguendo strettamente gli sviluppi tecnologici relativi alla produzione e distribuzione di musica, e creando leggi apposite per garantire i propri processi economici produttivi e distributivi. Ciò che i fenomeni del Peer-to-Peer mettono in luce che le correnti pratiche economiche (e quindi le leggi che le garantiscono e regolano) stiano diventando obsolete. La stessa cosa successe con l'introduzione delle cassette audio nel 1963: la loro facilità di utilizzo e soprattutto di riutilizzo permisero pratiche più "democratiche", ossia più facilmente accessibili. In questo modo gli utenti furono in grado di registrare le proprie cassette, decidendo la scaletta dei brani oppure addirittura editando i brani. Sebbene queste pratiche furono in principio ostacolate perché ritenute illegali, è da queste premesse che si è sviluppato lo stile musicale dell'hip hop, uno delle attuali maggiori fonti di guadagno per l'industria musicale27. Con il Peer-to-Peer non è in pericolo l'esistenza di un mercato discografico e quindi della fruizione musicale è in pericolo la natura attuale dell'organizzazione economica che gestisce il mercato discografico; come afferma Tim O’Reilly "File-sharing networks don’t threaten publishing.They threaten publishers."28 Per Benkler29 il fenomeno del Peer-to-Peer, assieme a quelli del Free Software e Open Source software, rappresentano l'esempio di una nuova modalità di produzione basata sulla condivisione, rappresentando l'esatto opposto dell'industria discografica e musicale tradizionale. Per Benkler rappresenta un terzo tipo di modalità di produzione, oltre al capitalismo del libero mercato e al controllo centralizzato da parte dello Stato. Per Benkler questa modalità dovrebbe essere definita peer production (produzione fra pari), le cui caratteristiche sono: 1. essa è basata sulla libera cooperazione, non sulla vendita del proprio lavoro in cambio di un salario, né trova la sua prima motivazione nel profitto o nel valore di scambio del prodotto risultante; 2. non è gestita da una gerarchia tradizionale; 3. non ha bisogno di un produttore; 4. è un’applicazione innovativa del copyright p.233-250 26 Per una accurata analisi sul rapporto tra industria musicale e pirateria, si veda Lessig (2004) pp.55-59, 62-79] 27 Wynants, Cornelis (2005) 28 Per una descrizione dei benefici delle pratiche di distribuzione Peer-to-Peer nel campo musicale si veda O'Reilly (2002) 29 Benkler (2002, 2004)
che crea un’orizzonte comune dell’informazione e supera le limitazioni inerenti alla forma della proprietà. In relazione al contesto dell'industria discografica, la peer production presenta due caratteristiche vantaggiose. La prima è la decentralizzazione del privilegio legale di decisione su quali risorse (cioè informazioni) utilizzare; nessun partecipante di questa modalità necessita di chiedere il permesso per partecipare e per utilizzare determinati strumenti o processi. La seconda riguarda la bassa intensità di capitale necessaria per ottenere, elaborare e comunicare il proprio lavoro con chi si sta cooperando. La necessità di una gerarchia non esiste sia per le condizioni legali che per le condizioni economiche presenti. È questa una modalità di produzione che non necessariamente sostituirà le altre pratiche, ma che ne modificherà i tratti, riducendone i costi e rendendole più accessibili. Reti Peer-to-Peer che rimuovono intermediazioni e mettono tutti i partecipanti sullo stesso piano possono essere utilizzate con successo come una nuova modalità di creazione e distribuzione di registrazioni musicali. Non solo: se adattate alle specifiche condizioni, possono essere utilizzate per tutte le opere creative riproducibili digitalmente. Così come l'ambito musicale ha rappresentato il primo punto di partenza del fenomeno di file sharing Peer-to-Peer, è possibile pensare che anche nuovi metodi di produzione e distribuzione possano originarsi in questo ambito e poi diffondersi. Sono quindi possibili quattro prospettive per l'industria musicale nel futuro prossimo: 1. l'adozione di pratiche distributive Peer-toPeer a pagamento; 2. il download a pagamento; 3. l'introduzione di organizzazioni di produzione e distribuzione musicale del tipo street performer protocol, ossia di forme di mecenatismo distribuito; 4. la produzione collaborativa attraverso la condivisione.
3.3.1. Peer-to-Peer a pagamento Il file sharing di musica digitale incorre spesso nelle ire dei titolari dei copyright esponendo chi lo pratica a rischi di multe e condanne in tribunale. Questo a causa del perdurare di leggi sul diritto di autore che non tengono conto dell'evoluzione tecnologica e delle sue influenze sulla sfera economica e sociale. Ma la diffusione delle pratiche di file sharing dimostra come rappresentino soluzioni altamente desiderate dagli utenti. Invece di essere viste come un comportamento illegale e quindi regolamentate e ridotte, potrebbero essere viste come una nuova opportunità di mercato. Nuovi servizi di distribuzione basati sulla condivisione Peer-to-Peer possono essere ideati ed offerti: Napster si è sviluppato così30. 30 http://en.wikipedia.org/wiki/Napster_%28pay_service %29 73
La pratica di file sharing Peer-to-Peer si sta estendendo anche al di fuori dei supporti digitali, anche se continua ad appoggiarsi alle reti digitali: è nato addirittura una iniziativa di scambio Peer-toPeer non di file musicali ma di cd musicali. L'idea è venuta a quattro soci di Palo Alto, California, contitolari di una società chiamata La La che dalle prime settimane di marzo 2006 è in rete con un sito omonimo31. A differenza di altri siti web che offrono dischi usati in rete come Djangomusic.com, La La non pubblica un catalogo di offerte ma invita gli appassionati a mettersi direttamente in contatto tra di loro. Prima di indicare il cd che vorrebbe ricevere, ciascun utente deve compilare e trasmettere un lista dei compact disc in suo possesso e che sarà disposto a cedere. Dopo di che la sua richiesta arriva in forma anonima a tutti i possessori dell'articolo ricercato: il primo a rispondere riceve l'indirizzo del richiedente e provvede ad effettuare la spedizione del disco utilizzando un pacchetto prepagato fornito dai gestori del sito. A differenza di quanto accade con il file sharing, lo scambio non sarà gratuito ma quasi: per ogni cd ricevuto, l'utente deve versare un dollaro e spedire in cambio un altro dischetto (sempre originale, mai una copia). L'accesso al servizio, in questa fase sperimentale, sarà limitato a una lista chiusa di invitati, ma dal mese di luglio 2006 sarà aperto a tutti. Restano da valutare le reazioni di artisti e case discografiche, le cui vendite nei negozi tradizionali rischierebbero ovviamente di essere danneggiate dal diffondersi di questo modello di scambio alla pari. Per le etichette, l'amministratore delegato di La La Bill Nguyen ha già pronta una proposta: considerando il fatto che solo il 10 o 20 % delle richieste potranno essere soddisfatte direttamente da chi fa uso del servizio queste potrebbero partecipare al gioco provvedendo a rifornire i clienti insoddisfatti con cd nuovi o file digitali scaricabili in download (sempre attraverso il sito). Quanto agli artisti, Nguyen sostiene di volerli sostenere e di essere disposto a cedere il 20 % degli introiti incassati dalla vendita di ogni cd.
3.3.2. Download a pagamento Sebbene l'iPod della Apple non sia il primo lettore portatile di file musicali, è certamente quello che ha attirato maggiormente l'attenzione dei media in tutto il mondo. Con l'introduzione dell'iPod nel mercato musicale, le caratteristiche sia del mondo della musica legale e che quelle del mondo della musica scaricabile da Internet sono state convogliate nell'elaborazione di un sistema di prodotto-servizio. È stata proprio la combinazione tra prodotto e servizio che ha decretato il suo successo: permette a chi non saprebbe come scaricare file musicali come acquistarli con facilità; permette a chi sa come scaricare file musicali uno strumento comodo, facile da usare e con un design raffinato. Attraverso l'iPod è infatti possibile ascoltare file musicali ovunque, e attraverso il negozio online 31 http://www.lala.com 74
iTunes è possibile acquistare file musicali legalmente e ad un prezzo contenuto. Introdotto nel 2001 come un prodotto sofisticato rivolto ad una cerchia ristretta di consumatori, è divenuto nel corso degli anni un prodotto ormai comune, con una crescita delle vendite notevole. La fornitura degli strumenti per facilitare un acquisto ed una fruizione facile ed economica di file musicali può aprire nuove opportunità commerciali32.
Grafico 1: Vendite iPod 2003-2005 (fonte: http://en.wikipedia.org/wiki/IPod)
Grafico 2: Vendite iTunes 2005-2006 (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-songpurchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)
3.3.3. Street performer protocol, o mecenatismo distribuito Mentre le due prospettive precedenti riguardano solamente la distribuzione delle opere musicali, possono essere possibili altrettante prospettive che rivoluzionano i processi attuali di produzione delle opere musicali, e quindi delle opere creative più in 32 A inizio 2006 le vendite su iTunes hanno raggiunto il miliardo di file musicali (Fonte: http://maddogfog.blogspot.com/2006/02/itunes-songpurchases-plotted-on-graph.html, http://www.apple.com/itunes/1billion/)
generale. La prima prospettiva riguarda pratiche di mecenatismo distribuito, ossia pratiche in cui l'autore o gli autori producono e pubblicano un'opera creative in conseguenza di una somma economica ricevuta precedentemente da un certo numero di utenti-mecenati. I fruitori delle opere musicali cambiano ruolo: da utenti passivi a mecenati attivi. Un caso attuale di realizzazione di queste pratiche è data dagli Einstürzende Neubauten, attraverso il Supporter's Project33. Una descrizione di possibili pratiche di questo genere viene fatta da John Kelsey e Bruce Schneier, che propongono il termine di street performer protocol34, richiamandosi alla pratica comune fra molti musicisti di strada di eseguire brani dietro compenso. In una pratica di questo tipo, gli autori aboliscono la necessità di passaggi di intermediazione per la pubblicazione delle proprie opere ed interagiscono con il proprio pubblico con modalità Peer-to-Peer. Gli autori promettono così la realizzazione e pubblicazione di un'opera in cambio di una somma anticipata: Kelsey e Schneier propongono che questa venga rilasciata come bene di pubblico dominio, ma è più corretto pensare che possano essere utilizzate varie modalità, dal classico copyright (come nel caso degli Einstürzende Neubauten) alle più recenti normative Creative Commons35. In questo modo gli autori non risentono economicamente della condivisione delle proprie opere, e gli editori vengono così ad avere un nuovo ruolo, che oltre alla classica ricerca e valorizzazione degli autori, si interessa della ricerca e gestione delle somme economiche che i vari mecenati distribuiti elargiscono. È questo un sistema che pone molta importanza nella fiducia e nella reputazione che intercorrono tra autori, editori e pubblico: in questo modo i tre attori vigilano reciprocamente permettendo così prezzi corretti ed abbordabili e comportamenti corretti.
3.3.4. Produzione collaborativa attraverso la condivisione Le emergenti reti Peer-to-Peer non pongono in questione solamente la distribuzione delle opere creative, ma anche le modalità con cui queste vengono regolate e prodotte. Considerandole come prodotti chiusi, non modificabili, non si creano le condizioni necessarie per una loro stabile fruizione, distribuzione e produzione. La nascita di nuove regolamentazioni come le licenze Creative Commons hanno permesso la nascita di processi creativi collaborativi, anche al di fuori del movimento di Free Software e Open Source Software. In questo modo gli autori sono liberi di produrre e pubblicare le proprie opere in modo che chiunque possa copiarle, condividerle e modificarle. Gli 33 http://www.neubauten.org (si veda in appendice p.303) 34 Kelsey, Bruce Schneier (1999) 35 pp.155-158
utenti non sono limitati nella fruizione delle opere, e gli autori ne guadagnano in celebrità grazie alla citazione (e quindi reputazione) che deriva loro dalla fruizione delle loro opere. È quindi possibile che più autori collaborino nella produzione e modifica di opere musicali, attraverso l'utilizzo di tecnologie informatiche di recente introduzione. È questo il caso della comunità nata attorno a iCompositions, un sito web che permette la creazione collaborativa di opere musicali attraverso il proprio software36.
3.3.5. Il Peer-to-Peer oltre la produzione e la condivisione di opere creative Quindi il concetto di Peer-to-Peer, pur originatosi con le pratiche di file sharing nell'ambito di opere multimediali, si sta diffondendo verso altri ambiti con notevole successo. Reti Peer-to-Peer non interessano solo la produzione e distribuzione di opere creative immateriali, ma possono essere utilizzate anche per garantire la libertà di espressione o per portare il concetto di relazione Peer-to-Peer anche nel commercio. Nel primo caso rientra l'esempio di Freenet, un software ideato per garantire la libera pubblicazione di informazioni anche in quelle nazioni in cui vige una stretta censura sulle minoranze37. Nel secondo caso rientrano eBay e P-grid. Sebbene il primo non faccia apertamente riferimento al concetto di Peer-to-Peer, in effetto garantisce le condizioni necessarie affinché i propri utenti possano svolgere transazioni commerciali con rapporti Peer-to-Peer o meglio, customer-tocustomer (C2C)38. P-grid rappresenta poi una ulteriore evoluzione di questo concetto, introducendo la naturale decentralizzazione delle reti Peer-to-Peer nelle pratiche di eBay, che sono invece centralizzate e quindi più vulnerabili a situazioni critiche39. Ma il Peer-to-Peer non rappresenta solo una tecnologia il cui sfruttamento risulta vantaggioso: esso può essere un concetto utilizzabile per comprendere le caratteristiche della condizione socio-economica attuale e per poterne quindi affrontare i problemi. Il file sharing, secondo Michel Bauwens, è solo un piccolo esempio di quello che il Peer-to-Peer è, un modello di rapporto tra uomini, una “dinamica relazionale” che sta germogliando in tutti i settori della società.
36 http://www.icompositions.com (si veda in appendice a p.291) 37 http://freenetproject.org (si veda in appendice a p.257) 38 http://www.p-grid.org (si veda in appendice a p.310) 39 http://www.ebay.com (si veda in appendice a p.310) 75
natura del potere
metodo di controllo
monopolio
schema di potere
premodernità
militare e religiosa
forza e tradizione
terra e persone
schema di forza
prima modernità
commerciale e industriale
disciplinare e biopotere
capitale industriale e finanziario
schema monetario
tarda modernità
finanziaria e mediatica
società di controllo e produzione del consenso
finanziario e sui media
schema del denaro e della fama
media Peer-to-Peer
protocollare e conflitti memetici di opinioni
de-monopolizzazione basata sulla reputazione contro monopoli dell’attenzione
schema del giudizio
età del Peer-toPeer
Tabella 3: L'emergere della dinamica relazionale Peer-to-Peer e della sua gestione (Fonte: Bauwens 2005)
Per Bauwens infatti Free Software e Open Source Software rientrano nel concetto più ampio di Peerto-Peer e lo completano. Bauwens si propone di descrivere e spiegare lo sviluppo di questa dinamica nel suo accadere, e di collocarlo in uno schema evolutivo dello sviluppo dei modi della civiltà. Inoltre, egli cerca non solo di descrivere, ma pure di fornire uno schema esplicativo del perché il Peer-to-Peer si stia sviluppando adesso, e del come si collochi in uno schema evolutivo più ampio (non nel senso di un’evoluzione naturale inevitabile, ma nel senso di una trasformazione morale intenzionale). Bauwens ipotizza che il Peer-to-Peer sia tanto la necessaria infrastruttura tecnologica dell’attuale fase del “capitalismo cognitivo”, quanto qualcosa che lo trascende significativamente e che perciò indica la possibilità di una nuova formazione sociale che vi si baserebbe in maniera ancora più profonda. Bauwens, infatti, vede nel concetto di Peer-to-Peer come una dinamica relazionale che sta emergendo non solo nella tecnologia (e non solo grazie ad essa), ma che riveste il campo economico, sociale, politico e anche religioso. Ad esempio, secondo Bauwens il Peer-to-Peer sta emergendo come una nuova etica e metodologia anche nel campo della spiritualità, attraverso il rifiuto di ogni sorta di autoritarismo spirituale in favore di una ricerca spirituale partecipativa basata sulla cooperazione libera tra individui. Il Peer-to-Peer, per Bauwens, è una forma specifica di dinamica relazionale, basata sulla presunta equipotenza dei suoi partecipanti, articolata nella libera cooperazione di uguali in vista del compimento di un lavoro comune, per la creazione di un bene comune, con forme di processi decisionali e di autonomia che sono diffusamente distribuite per tutta la rete. Equipotenza significa che non c’è un previo filtraggio formale per la partecipazione; piuttosto, è la pratica immediata della cooperazione che determina la competenza e il livello di partecipazione. Essa non rinnega l’“autorità”, ma solo la gerarchia obbligata prestabilita; in effetti, accetta un’autorità basata sulla competenza, sul concepimento del progetto, ecc.
76
Il Peer-to-Peer è una rete (un network), non una gerarchia (benché possa averne qualche elemento); è “distribuito”, benché possa avere elementi di centralizzazione e “decentralizzazione”; il controllo dell’informazione non è localizzato in nessun centro, ma è dovunque, all’interno del sistema. «Presunta equipotenza» significa che i sistemi Peer-to-Peer partono dalla premessa che “non si sa dove sarà localizzata la risorsa necessaria”; il loro presupposto è che “tutti” possano cooperare, ed essi non si appoggiano a regole formali per determinare in anticipo i membri che vi parteciperanno. L'equipotenza, cioè la potenzialità cooperativa, si verifica nel processo stesso della cooperazione. La ratifica della conoscenza, l’accettazione dei processi sono determinate dal collettivo. La cooperazione dev’essere libera, non forzata, né basata sulla neutralità (cioè: l’acquisto di cooperazione in un sistema monetario). C’è per produrre qualcosa. Consente la partecipazione più diffusa possibile. Mentre i sistemi gerarchici sono orientati alla creazione di omogeneità tra i membri “dipendenti”, le reti distribuite caratterizzate dalla dinamica Peer-to-Peer regolano i partecipanti “interdipendenti” conservando la loro eterogeneità. È l’“oggetto della cooperazione” stesso che crea l’unità temporanea. In un sistema Peer-to-Peer, l’uso della gerarchia e della centralizzazione è subordinato alla partecipazione e alla comunicazione molti-molti, e non le si utilizza per proibirlo o dominarlo. Questo significa che, benché il Peer-to-Peer si generi in reti distribuite, non tutte le reti distribuite presentano processi Peer-to-Peer. Molti processi distribuiti basilari, come il brulichio degli insetti, o il comportamento dei compratori e dei venditori nel mercato, non sono veri processi Peer-to-Peer, e non lo sono perché non promuovono la partecipazione. Il Peer-to-Peer, in quanto fenomeno eminentemente umano, integra aspetti intenzionali e morali. Quando i reticoli distribuiti, per esempio consigli di amministrazione interconnessivi, servono una gerarchia di ricchezza e potere e sono basati sull’esclusione anziché sulla partecipazione, essi non si qualificano come veri processi Peer-to-Peer.
Bauwens quindi elabora una visione del concetto di dinamica relazionale Peer-to-Peer in relazione alla infrastruttura tecnologica, alla sfera economica (ricollegandosi al pensiero di Benkler), politica, scientifica, culturale e spirituale. È quindi una visione molto ampia sulla società, che getta le basi per una diffusione ancora più ampia per il concetto Peer-to-Peer. La conclusione di Bauwens non è che il Peer-to-Peer sia necessariamente un rimedio per tutti i problemi, ma che la sua nuova forma di democrazia non rappresentazionale sia un ingrediente cruciale per trovare soluzioni ai cambiamenti globali presenti. Chi difende il Peer-to-Peer vuole combinare l'aspirazione alla libertà insita a ciascuna tradizione liberale con l'aspirazione all'uguaglianza insita nella tradizione democratica radicale e socialista in una nuova forma di civilizzazione nella quale entrambe risultino compatibili. Per Bauwens è precisamente la collaborazione dell'individuo libero nella creazione del valore d'uso, che gli permette di trovare la più alta espressione di se stesso. L'opera di Bauwens rappresenta quindi un punto fondamentale per la comprensione e l'evoluzione del concetto di Peer-to-Peer, e può essere sintetizzata nei seguenti punti: • la tecnologia riflette un cambiamento di coscienza verso la partecipazione e, a sua volta, la rafforza; • il formato reticolare, espresso nella specifica maniera dei rapporti Peer-to-Peer, è una nuova forma di organizzazione politica e di soggettività e un’alternativa all’ordine economico-politico la quale, benché di per sé non offra soluzioni, indica una varietà di formati dialogici e di autoorganizzazione per elaborare diversi processi per arrivare a quelle soluzioni; che questo formato apre la strada a un’epoca di “democrazia non rappresentativa”, dove un numero sempre maggiore di persone riusciranno a gestire la propria vita sciale e produttiva mediante l’uso di una varietà i reti e circoli di pari; • il Peer-to-Peer crea un nuovo dominio pubblico, un orizzonte comune dell’informazione, che andrebbe protetto ed esteso, specialmente nel dominio della creazione di conoscenza comune; e che questo dominio, nel quale il costo della riproduzione della conoscenza è tendente allo zero, richiede dei cambiamenti fondamentali nel regime della proprietà intellettuale, riflessi da nuove forme come il movimento free software; • i principi sviluppati dal movimento Free Software ed Open Source Software forniscono modelli che potrebbero essere usati in altre aree della vita sociale e produttiva; questi principi si ricollegano alle più antiche tradizioni e ai primi tentativi di ottenere un ordine sociale più cooperativo, evitando questa volta il ricorso all’autoritarismo e alla centralizzazione; la nuova cultura digitale
•
egalitaria è connessa alle più vecchie tradizioni di cooperazione tra operai e contadini e alla ricerca di una vita impegnata e sensata che si esprima come tale anche nel lavoro, il quale diventa espressione di creatività individuale e collettiva, anziché mezzo salariato di sopravvivenza; il Peer-to-Peer combina soggettività (nuovi valori), intersoggettività (nuove relazioni), oggettività (una tecnologia attuale) e interoggettività (nuove forme di organizzazione) che si rafforzano mutuamente in un ciclo di retroazione positivo, ed è chiaramente in fase di crescita, ma manca ancora di “autocoscienza politica”.
Credendo in questi principi, Bauwens ha fondato nel 2005 la Foundation for Peer-to-Peer Alternatives, assieme a Kris Roose, David H. Mason and James Herman40. L'attività della fondazione ha lo scopo di tentare di risolvere alcuni problemi che caratterizzano attualmente il concetto di Peer-toPeer. Il Peer-to-Peer infatti attualmente esiste in movimenti e progetti separati e distinti, ma questi diversi movimenti sono spesso inconsapevoli del comune ethos Peer-to-Peer che li lega. Perciò, c’è bisogno di un’iniziativa comune che 1. raccolga l’informazione; 2. metta in connessione le persone e crei un circuito di mutua informazione; 3. si sforzi di trovare concezioni integrative che attingono a molti sotto campi; 4. riesca ad organizzare eventi di riflessione e azione; 5. riesca a educare le persone riguardo agli strumenti critici e creativi per la costruzione del mondo. 6. ispiri la creazione e la connessione di altri nodi attivi nel campo del Peer-toPeer, organizzati attorno a temi, interessi e orientamenti comuni, nonché attorno a qualsiasi forma di identità e organizzazione che abbia un senso per le persone coinvolte;
40 http://www.p2pfoundation.net/index.php/About http://www.p2pfoundation.net/index.php/Founders 77
epoca
gradi di coscienza morale
rapporto tra gerarchia, cooperazione e autonomia
premodernità
nessun diritto di partecipazione politica
la gerarchia definisce, controlla e limita la cooperazione e l’autonomia
prima Modernità
partecipazione politica mediante la rappresentanza
la gerarchia autorizza un livello di cooperazione e di autonomia solo nella sfera politica
tarda modernità
rappresentanza politica con vari gradi di partecipazione più ampia
la gerarchia autorizza un livello di cooperazione e di autonomia nella sfera politica e, in vari gradi, in altri campi
età del Peer-to-Peer
diritti equipotenziali di partecipazione di tutti in tutti i campi
l'unico ruolo della gerarchia è la sua emersione spontanea nella nascita e nella continua proliferazione dell’autonomia-in-cooperazione in tutele sfere dell’agire umano
Tabella 4: Gerarchia e cooperazione nello sviluppo della società e nel concetto di Peer-to-Peer (Fonte: Bauwens 2005)
78
4.
Reti collaborative come comunità multilocali
4.1. Comunità e organizzazione Questi fenomeni di attivazione collettiva che rappresentati dalle comunità Open Peer-to-Peer possono essere considerati anche da un punto di vista sociologico, ponendo attenzione cioè alle loro caratteristiche sociali. Appare ovvio, dato che si sta parlando di insiemi di persone che interagiscono reciprocamente la fine di risolvere alcuni problemi. Tuttavia, non è così scontato il fatto che si stia parlando di comunità e non, per esempio di organizzazioni aziendali: esistono molti casi di software open source che rappresentano degli ottimi esempi di attività commerciale; il caso Neubauten.org rappresenta un altro caso di attività commerciale (registrazione e vendita di incisioni discografiche), i dabbawalla rappresentano un ottimo caso di attività distributiva, ecc. Si potrebbe quindi pensare di considerare i casi Open Peer-to-Peer come delle organizzazioni, e non come comunità. Ma le comunità Open Peer-to-Peer e le tradizionali organizzazioni economiche divergono su un punto fondamentale: la propria struttura.
Fig. 26: Gerarchia: il potere da forma alla rete sociale in modo top-down (Fonte: Chiesi 1999)
Fig. 27: Comunità Open Peer-to-Peer: la reputazione da forma alla rete sociale in modo bottom-up (Fonte: Chiesi 1999)
Mentre le organizzazioni tradizionali si basano su una gerarchia verticale che comanda e controlla, le comunità Open Peer-to-Peer si basano su una rete orizzontale in cui ogni partecipante comanda solo
se stesso e contribuisce a controllare la rete. Mentre nella gerarchia i rapporti interpersonali sono definiti dal potere, nelle comunità Open Peerto-Peer sono definite dalla reputazione: mentre il potere ha una natura di tipo top-down (cioè discende verso i livelli più bassi che lo accettano passivamente), la reputazione ha una natura di tipo bottom-up (cioè parte dai partecipanti, che attivamente attribuiscono la reputazione). Per questo motivo si parla di reti collaborative basate su comunità: le relazioni che si instaurano tra i partecipanti sono come quelle che si instaurano in una comunità, e non in una gerarchia. È questa una caratteristica molto importante, poiché porta dei notevoli vantaggi. Tuttavia anche una comunità si organizza per svolgere le proprie azioni: è quindi importante capire la relazione tra comunità e organizzazione. Richard Butler1 esprime una definizione teorica tipica di un'organizzazione come: 1. un'entità sociale che 2. ha uno scopo 3. ha dei confini, cosicché alcuni partecipanti possano essere considerati interni e altri esterni, 4. organizza le attività dei partecipanti in una struttura riconoscibile. Quindi si potrebbero pensare le comunità Open Peer-to-Peer come delle organizzazioni: sono delle entità sociali (un insieme di partecipanti), hanno uno scopo (trovare una soluzione a un problema comune), hanno dei confini (chi partecipa e chi no), e le attività sono organizzate in maniera riconoscibile (divisione del lavoro in ruoli, regole, artefatti, ecc.). Ma allora perché si autodefiniscono "comunità"? Analizzando il termine comunità, si vede che esso significa "insieme di persone unite tra di loro da rapporti sociali, linguistici e morali, vincoli organizzativi, interessi e consuetudini comuni. [...] Complesso di soggetti di diritto internazionale organizzati come collettività, per il conseguimento di vantaggi comuni dal punto di vista pratico, politico, economico"; derivante dal latino communitas (comunanza), che a sua volta deriva da communis (comune)2. Una organizzazione è invece "l'attività o l'ente che corrisponde in modo sistematico alle esigenze di funzionalità e di efficienza di una impresa per lo più collettiva: [...] finalizzata all'efficienza e produttività dell'impresa; [...] cui aderiscono alte percentuali della popolazione", derivante dal latino organum, che deriva dal greco órganon (affine a érgon, "opera"), e quindi "strumento"3. 1 2 3
Butler (1998) p.1 Giacomo Devoto, Gian Carlo Oli, "Il dizionario della lingua italiana", Le Monnier, Firenze 1990 Ibidem 79
La differenza risiede nell'accenno alla presenza di rapporti sociali (assente nell'organizzazione)? Per capire ancora meglio la differenza si possono analizzare quali significati abbiano questi due termini nell'ambito della biologia, dove entrambi sono presenti. In biologia una organizzazione è "la serie di processi attraverso cui organi, apparati e strutture si formano, si sviluppano, si differenziano e si coordinano così da costituire un organismo vivente. [...] il complesso dei fenomeni biochimici che avvengono nelle cellule durante la trasformazione dei composti organici alimentari in costituenti della sostanza vivente" 4. Inoltre, in biologia esiste il termine biocenosi, che si riferisce a un "insieme di specie o popolazioni animali, vegetali e di batteri conviventi in un determinato ambiente, fra le quali si stabiliscano definiti rapporti di interdipendenza"5, che viene spesso sostituito dal sinonimo comunità biotica. La differenza fondamentale tra comunità e organizzazione è che il primo rappresenta un soggetto, mentre il secondo si riferisce al processo che questo soggetto intraprende. Analizzare quindi i casi Open Peer-to-Peer dal punto di vista sociologico, come delle comunità, significa capire quali siano le sue caratteristiche indipendentemente dalla organizzazione che adottano (e che infatti può variare da caso a caso). Ma questi casi suscitano interesse per il loro particolare modo di organizzarsi, e quindi anche i processi sono importanti. Questi casi emergenti sono una sperimentazione continua, non costituiscono un paradigma rigido (e non hanno intenzione di costituirlo) e devono la loro organizzazione al fatto di essere costituiti in comunità. Anche le imprese (organizzazioni aziendali) che si basano su casi Open Peer-to-Peer, ottengono vantaggi dal loro essere in comunità, caratteristica che non mettono in discussione, ma anzi cercano di incoraggiare6. L'aspetto "comunità" e l'aspetto "organizzazione" sono inscindibili: senza la formazione di comunità, non avremmo questa forma di organizzazione; senza questa forma di organizzazione, queste comunità non risulterebbero talmente innovative e interessanti. Come definire quindi una comunità, dal punto di vista sociologico, prima di poterla analizzare? La comunità può essere vista come "un gruppo sociale che vive generalmente in un'area territoriale determinata e che fa parte della società della quale riprende molte caratteristiche, ma su scala più limitata, con un gioco di interrelazioni e interessi meno complesso e differenziato e dove, a differenza della società, vi è maggiore accentuazione degli aspetti totalizzanti e simpatetici delle relazioni interpersonali"7. La comunità vista quindi come comunità locale, contrapposta alla società, vista come insieme più 4 5 6 7
80
Ibidem Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino Come nel caso di Neubauten.org, ad esempio Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino
grande e complesso di cui fa parte. Tuttavia una comunità può costituirsi oggigiorno secondo varie tipologie, oltre alla tradizionale comunità locale (che si trova in una fase di crisi di lungo corso, a partire dalla Rivoluzione Industriale). Una comunità Open Peer-to-Peer, che si forma per svolgere una attività, può essere analizzata in relazione alla localizzazione dello svolgimento di questa: locale, globale, multilocale. Vi sono almeno tre elementi principali nella maggior parte delle definizioni sociologiche di comunità8: • area geografica; • interazione sociale; • legami comuni. In questo modo ogni definizione di comunità si trova a includere una variabile territoriale (area geografica), una variabile sociologica (interazione sociale) e una psicoculturale (legami comuni).
4.2. Definizioni sociologiche di comunità 4.2.1. La comunità come dimensione territoriale: la comunità locale Vista come unità territoriale9, la comunità è stata indicata fino ad ora come unità spaziale, un'aggregazione di persone che vivono in un'area specifica, o semplicemente come “luogo”. Ad ogni modo, è difficile analizzare tutte le sfaccettature delle dimensioni spaziali delle comunità, ma si può sottolineare che i fattori territoriali aiutano a spiegare la localizzazione e la persistenza delle comunità e che i membri di una comunità modificano costantemente il milieu10 territoriale in cui vivono. È comprensibile come variabile territoriali e geografiche possano spiegare l'esistenza e le potenzialità di sviluppo di una comunità. È più probabile la presenza di comunità in territori ricchi di risorse naturali o in presenza di importanti rotte commerciali, e l'aggregazione di abitanti in comunità di dimensioni sempre più grandi è stata anche una conseguenza della Rivoluzione Industriale e dello sviluppo delle economie moderne. Le comunità si sono formate perché gli esseri umani non possono trascendere lo spazio e per la capacità di facilitare il contatto, la protezione reciproca, l'organizzazione e l'integrazione del gruppo. Tuttavia, anche se le variabili territoriali influenzano la localizzazione e le dinamiche di crescita delle comunità, il modo in cui i suoi membri la modificano e adattano al milieu territoriale dipende dal loro bagaglio culturale e dalle loro conoscenze tecniche.
8 Poplin (1979) 9 Ibidem pp.8-10 10 "Ambiente", in senso sociologico e culturale, in quanto fattore determinante di processi politici, sociali, artistici e letterari. (Fonte: Devoto, Oli 1990)
4.2.2. La comunità come interazione sociale: la comunità come gruppo La comunità può anche essere vista come l'elemento base per la organizzazione sociale11; tuttavia vi sono discordanze sulla maniera in cui descrivere la comunità dal punto di vista sociologico che portano principalmente a due visioni, che hanno però molti elementi in comune: la comunità come un gruppo sociale e la comunità come un sistema sociale. Il merito di aver suggerito che la comunità è uno dei vari gruppi sociali va a T. Hiller12, secondo il quale i gruppi sociali hanno alcune caratteristiche di base come l'insieme dei membri, una o più prove di appartenenza, ruoli assegnati e un insieme di norme. Se tutte queste caratteristiche sono viste come parti integrali della struttura della comunità allora questa può essere considerata come tale. Le comunità possiedono queste caratteristiche, anche se con gradi differenti: tutte le comunità possiedono un numero di membri e pongono dei requisiti per la partecipazione; ogni comunità assegna dei ruoli hai suoi membri ed è dotata di un insieme di norme a cui i membri devono conformarsi. Ad ogni modo, se la comunità viene vista come un gruppo sociale, va distinta dagli altri tipi di gruppi sociali. Un possibile modo è quello di vedere la comunità come unica tra i gruppi sociale che è dotata di una dimensione territoriale.
4.2.3. La comunità come interazione sociale: la comunità come sistema sociale Negli ultimi decenni, pochi studiosi vedono la comunità come un gruppo sociale, e preferiscono considerarla come un sistema sociale, come una combinazione di sistemi e unità sociali che svolgono importanti funzioni sociali in relazione ad una località. In questo modo, la comunità si configura come un sistema costituito di sottosistemi che svolgono funzioni di socializzazione, controllo sociale, partecipazione, mutuo supporto, produzione, distribuzione e consumo di notevole importanza per la propria dimensione locale. In realtà questa visione è una versione più ampia e ridefinita della visione della comunità come gruppo sociale che sottolinea l'importanza della comunità come unità di organizzazione sociale: una comunità emerge come il primo sottosistema che può potenzialmente incontrare tutta la scale dei bisogni fisiologici, psicologici e sociali dei suoi membri, cosa che un gruppo di dimensioni limitate, un nucleo familiare o un governo non possono fare. Nella visione della comunità come sistema sociale, 11 Poplin (1979) 12 T.Hiller, The Community as a Social Group, in American Sociological Review n. 6 (aprile 1941), p.189
il termine “sistema sociale” è stato definito in molti modi, ma può essere considerato come un insieme altamente organizzato di relazioni socialmente significanti tra due o più persone o gruppo come un sistema composto dai modelli di interazione tra i membri13. Uno dei contributi più importanti della teoria del sistema sociale è che fa luce sui modi in cui le comunità si strutturano e organizzano: le comunità possono essere viste come un sistema i cui componenti sono status, ruoli, gruppi e istituzioni. Inoltre, questi componenti o sottosistemi sono strettamente relazionati fra di loro: i ruoli e gli status relazionati con altri ruoli e altri status per formare gruppi, i gruppi si combinano con altri gruppi per formare istituzioni. Infine, le istituzioni si legano fra loro per dare luogo a comunità. Spesso i sociologi considerano gli status sociali e i ruoli come i componenti base dell'organizzazione sociale. Infatti, il termine status si riferisce alla posizione ricoperta da un individuo in qualsiasi gruppo sociale. Il termine ruolo si riferisce alla maniera con cui in cui gli individui si comportano ricoprendo gli status che gli sono stati assegnati. Il comportamento specifico di un ruolo o di uno status può essere deciso indipendentemente o, molto più frequentemente, elaborato dalla comunità. Ovviamente non si può ricoprire un ruolo o avere uno status senza relazioni con altre persone: per questo motivo si può considerare che gli status e i ruoli si combinino per formare i gruppi, secondo livello di organizzazione della comunità. Vi sono diversi metodi per classificare i gruppi, come ad esempio suddividerli tra gruppi statistici, gruppi di società, gruppi sociali e gruppi associazionali. Il gruppo statistico si riferisce a quell'insieme di persone che è accomunato dall'aver effettuato una stessa scelta od operazione, ma che non interagiscono fra loro e quindi non formano un gruppo sociale. Similmente si comportano i gruppi di società, suddivisi per sesso, occupazione, reddito, ecc., che possono avere una consapevolezza di formare un gruppo ma non interagiscono inevitabilmente fra loro. Il gruppo sociale invece è caratterizzato dalla consapevolezza di appartenenza e di interazione e include diverse unità di organizzazione come gruppi di parentela, gruppi di amici, ecc. Anche nei membri di un gruppo associazionale ci sono interazioni ed in più il gruppo ha anche una struttura formale, su base gerarchica con leader, presidenti, segretari, soci e via dicendo. A queste quattro suddivisioni è possibile aggiungerne una quinta, quella di gruppo comunità, seguendo le teorie di Hiller. Tutti i gruppi (ad eccezione dei gruppi statistici o della società) hanno quattro caratteristiche basilari: un insieme di membri, requisiti di ammissione, ruoli, norme. L'unico fattore che le differenzia è che i gruppi comunità hanno anche una importante dimensione territoriale. 13 Poplin (1979) 81
Molti dei gruppi esistenti a livello di comunità non possono vivere in isolamento rispetto ad altri gruppi che hanno obiettivi, funzioni e scopi simili, altrimenti ne risulterebbe una inefficacia generale. Per questo motivo si costituiscono in istituzioni. Nonostante l'ambiguità del termine, si può utilizzarlo sapendo che tutte le istituzioni hanno un punto in comune: svolgono certe funzioni cruciali per la continuità della comunità (o di tutta la società) nel tempo grazie alla loro struttura. La comunità è quindi un sistema di sistemi o, più precisamente, un sistema le cui parti sono le sue istituzioni sociali. Tuttavia questo non significa che tutti i gruppi siano integrati dentro la comunità o che siano sempre relazionati fra loro. Si hanno interazioni sia all'interno che fra sistemi sociali, che possono essere indicati come reti di interazioni. In gruppi relativamente semplici, il termine interazione implica che le azioni di una persona richiedono una azione reciproca: l'interazione si modifica reciprocamente in un processo dinamico. Sfortunatamente, il concetto di interazione è più difficilmente adattabile a sistemi complessi come la comunità, dato che non tutti i componenti interagiscono fra loro. Spesso infatti le interazioni faccia a faccia si manifestano all'interno dei sottosistemi di cui la comunità è costituita. A causa di ciò spesso i teorici dei sistemi sociali analizzano le relazioni tra sistemi sociali in termini di “collegamento sistemico”, che si riferisce ad un processo dove uno o più elementi di almeno due sistemi sociali sono articolati in una maniera tale che i due sistemi in alcune occasioni e in alcuni modi possono essere visti come uno solo. L'interazione avviene quindi tra individui, tra gruppi, tra gruppi e istituzioni, e tra due o più istituzioni. I collegamenti che si sviluppano tra i sottosistemi di una comunità sono molto simili alle interazioni faccia a faccia, che comporta un considerevole numero di interrelazioni e collegamenti tra i sistemi sociali che formano la comunità. Le possibilità sono: 1. le unità provenienti da sistemi differenti possono unirsi e dare luce ad un nuovo sistema; 2. i membri guida dei sistemi collegati possono interagire in vece dei rispettivi sistemi; 3. emergono sistemi sociali che hanno il compito esplicito di coordinare le relazioni con gli altri sistemi; 4. l'interazione tra due o più sistemi sociali può traspirare in maniera indiretta, attraverso dei mezzi di comunicazione. Un metodo ulteriore per studiare l'interazione a livello di comunità è in termini di input ed output che fluiscono tra i vari sottosistemi. Ogni sottosistema della comunità riceve input di vario tipo dalle altre unità nella località: input necessari per le operazioni, input creati da altre unità locali per aggiustamenti adattivi, input che coinvolgono le attitudini e il comportamento delle persone con cui ha a che fare. Inoltre, si può porre l'accento sulle maniere con cui un sistema A ottiene un input 82
da un altro sistema B. Può farlo attraverso la coercizione, che implica che il sistema A è talmente potente da restringere le scelte possibili del sistema B che deve quindi obbedire. Oppure può farlo attraverso una contrattazione o un meccanismo legale-burocratico.
4.2.4. La comunità come interazione sociale: una rete di interazioni In contrapposizione alla visione di comunità come sistema sociale si può riscontrare l'accento posto alla rete delle interazioni sociali come struttura fondante14. Ad ogni modo, questi due approcci non sono così distanti fra loro ma hanno una cosa in comune: si basano sul postulato che le interazioni avvengono non solo tra individui ma anche tra gruppi e istituzioni. Inoltre, bisogna effettuare una distinzione tra l'approccio alla comunità come rete di interazioni sociali e la teoria dell'azione di comunità (community action theory). L'interazione è uno strumento concettuale standard che i sociologi possono utilizzare nell'analisi di una comunità, mentre la teoria dell'azione di comunità cerca di distinguere le attività comuni da quelle che non lo sono. Il considerare la comunità come una rete di interazioni ha un notevole vantaggio: può servire come strumento di descrizione sistematica delle interrelazioni delle varie unità, permettendo la comprensione della strutture e dei processi della comunità. Uno dei principali problemi che si incontrano nell'adottare questa metodologia di analisi è che le condizioni delle moderne comunità non rientrano completamente nelle definizioni di interazione accettate dai sociologi. In breve, l'interazione è solitamente indicata come un incontro faccia a faccia tra due o più persone in cui ognuna di queste tiene conto delle altre. Ovviamente il coinvolgimento di tutti i membri della comunità in una rete di interazioni di questo tipo non avviene mai ad eccezione dei piccoli villaggi, dato che nella maggior parte delle comunità l'elevato numero di membri e una mancanza di interessi comuni ne impediscono la formazione. Una soluzione per risolvere questo problema è quella di considerare che non solo interagiscono i singoli individui ma anche i gruppi e le istituzioni di cui una comunità è formata: la comunità è vista come una catena di relazioni di input-output in cui ogni sottosistema riceve gli input necessari dagli altri sottosistemi e a sua volta contribuisce ad altri sottosistemi e alla comunità nel suo insieme. Questi input possono essere contributi finanziari, risorse fisiche, pressioni sociali, forza lavoro, ecc. In questo modo si può vedere la comunità come una rete di sottosistemi interagenti con degli assi orizzontali e verticali. L'asse orizzontale comprende le relazioni tra individui e tra gruppi all'interno della località, mentre l'asse verticale comprende le relazioni tra un individuo e un gruppo locale di 14 Idem
interesse e da questi alla dimensione di organizzazione regionale e nazionale; l'interazione può avvenire tra due unità sociali che occupano in livello simile nel sistema comunitario totale o tra unità sociali e unità di estensione territoriale maggiore. Una interessante analisi della rete di interazioni a livello di comunità è stato sviluppato da Norton E. Long, che paragona l'interazione a livello di comunità ad una serie di giochi15. In un sistema territoriale si possono riscontrare un “gioco” politico, un “gioco” bancario, un “gioco” della stampa, un “gioco” delle organizzazioni civiche e così via16. Anche se tutti questi “giocatori” inseguono i propri obiettivi individuali, “l'ecologia dei giochi” nel sistema territoriale locale porta a termine dei risultati non pianificati ma funzionali. Ad esempio, politici, banchieri e imprenditori possono inseguire obiettivi individuali nello sviluppo di una nuova area residenziale, ma come risultato della loro interazione e dai “giochi” che svolgono le necessità di alloggi della comunità possono essere risolte. Morris Freilich17 analizza le reti di interazioni nel tentativo di identificare le comunità, che egli concepisce come una serie di centri dove le persone si riuniscono. Allontanandosi da questi centri si può notare come le persone non si riuniscono più nei centri osservati all'inizio ma in un altro gruppo di centri: è stata oltrepassata la linea di confine della comunità. L'esistenza dei centri di interazione in ogni comunità mostra come i membri della comunità possano sviluppare sottoculture e un insieme di conoscenze specializzate. Sono stati riscontrati anche altri metodi per analizzare la comunità come rete di interazioni18. Ad esempio, si è potuto notare che l'interazione a livello di comunità spesso mostra modelli e configurazioni caratteristiche. Quando queste vengono generalizzate al punto da diventare caratteristiche dell'interazione sia di individui che di gruppi, vengono chiamate processi sociali di base, e sono la cooperazione, la competizione e il conflitto. I sottoprocessi con cui la cooperazione è promossa e la competizione e i conflitti mitigati sono la sistemazione (accomodation), la fusione (amalgamation) e la assimilazione (assimilation). L'unico meccanismo che permette la continuazione dell'esistenza di una comunità è la cooperazione, dato che i conflitti possono diventare troppo costosi mentre la competizione non porta sempre alla soluzione delle problematiche di base della comunità. 15 Norton E. Long, The Local Community as an Ecology of Games in Roland L. Warren (1977), New perspectives on the American Community: a book of readings, Rand McNally Company 1977, Chicago, pp.58-74 16 Poplin (1979) 17 Morris Freilich, Toward an Operational Definition of Community, in Rural Sociology n. 28, (giugno 1963),pp.117-127 18 Poplin (1979)
Anche nelle comunità più disgregate si può sempre riscontrare una minima cooperazione che evita il collasso totale: la competizione è essenzialmente un processo cooperativo in cui le parti in causa concordano su quali obiettivi tendere e sui metodi con cui raggiungerli. Tutti e tre i processi sono sempre presenti in ogni comunità, in grado differente da caso a caso.
4.2.5. La comunità come unità pisco-culturale La maggior parte dei sociologi concorda nel ritenere che i legami comuni sono uno degli aspetti importanti della complessità del termine comunità19. Come variabili culturali, il sentimento di comunità coinvolge una condivisione di valori, credenze ed obiettivi comuni che possono originarsi da fonti differenti ma soprattutto dal milieu territoriale in cui la comunità è cresciuta. Questi valori, credenze ed obiettivi possono essere orientati verso temi ben precisi, come la relazione con la natura, con il soprannaturale, all'attività umana ecc. Allo stesso modo il sentimento di comunità necessita di norme, un insieme di aspettative comportamentali a cui i membri devono conformarsi. La condivisione di questi valori, credenze ed obiettivi può essere ridotta a causa dell'eterogeneità delle attuali comunità. Il sentimento di comunità fornisce all'individuo un modello e una stabilità difficilmente riscontrabili in un mondo complesso, ma al contempo può svolgere da restrizione nella crescita personale di alcuni individui, che non riescono a slegarsi dalla comunità anche quando ne trarrebbero vantaggio.
4.3. La comunità locale tradizionale come forma archetipa Nella sua analisi sulla trasformazione del concetto di "comunità", Bauman20 ricorda che le parole hanno dei significati; alcune di esse, tuttavia, destano anche particolari “sensazioni”. La parola “comunità” è una di queste. Emana una sensazione piacevole, qualunque cosa tale termine possa significare. “Vivere in una comunità”, “far parte di una comunità” è qualcosa di buono. Quando qualcuno esce dalla retta via, spieghiamo spesso la sua condotta insana dicendo che “frequenta cattive compagnie”. Se qualcuno conduce una vita miserabile, piena di sofferenze e priva di dignità, subito accusiamo la società, i criteri con cui è organizzata, il modo in cui funziona. La compagnia o la società possono anche essere cattive, la comunità no. La comunità – questa è la sensazione – è sempre una cosa buona.
19 Idem 20 Bauman (2003) pp.3-4 83
Fig. 28: Comunità locale preindustriale (Veduta del villaggio di Bochum , Matthäus Merian, "Topographia Germaniae" 1647)
Innanzitutto, la comunità è un luogo “caldo”, un posto intimo e confortevole, che ripara, caratterizzata dalla comprensione e fiducia reciproche, che non presenta sorprese. A volte si può litigare, ma si tratta di alterchi tra amici e tutti cerchiamo di rendere la nostra integrazione ogni giorno più lieta e gradevole. Può capitare che, sebbene guidati dal comune desiderio di migliorare la nostra vita comune, discordiamo sui modi per raggiungere tale obiettivo e, tuttavia, non desideriamo mail il male altrui e possiamo essere certi che tutti coloro che ci circondano non desiderano che il nostro bene. Inoltre, la comunità è un luogo in cui possiamo contare sulla benevolenza di tutti, dove aiutarci reciprocamente è un nostro puro e semplice dovere, così come è un nostro puro e semplice diritto aspettarci che l'aiuto richiesto non mancherà. È dunque facile comprendere perché la parola “comunità” emani una sensazione piacevole. I primi studi sociologici sul tema della comunità risalgono all'opera di Ferdinand Tönnies, e in particolar modo al suo libro Gemeinschaft und Gesellschaft ('Comunità e società'), pubblicato originariamente nel 1887. Per Tönnies comunità (Gemeinschaft) e società (Gesellschaft) non sono soltanto due forme di aggregazione, ma anche due tipi storici. In epoca preindustriale, dove i rapporti umani erano mediati dal rapporto con la terra, predominavano forme di natura comunitaria, mentre le forme societarie dominano nella società moderna in cui i rapporti tra gli uomini sono mediati dal rapporto con il mercato. La dicotomia di Tönnies riecheggia quindi la nostalgia romantica per rapporti di intimità, carichi di componenti affettive, che l'impersonalità della società industriale stava distruggendo. Come forme di aggregazione, società e comunità rappresentano due forme polari di relazione sociale. Vi è una relazione sociale di tipo societario 84
quando ogni individuo implicato nella relazione persegue razionalmente i propri fini individuali prescindendo dai fini (e quindi dal sistema di valori) degli altri attori, se questi non sono condizioni e strumenti per il raggiungimento delle proprie mete. La relazione sociale di tipo comunitario si basa invece non sulla contrapposizione dei fini e degli interessi individuali ma sulla loro condivisione. Non si tratta di una relazione volontariamente instaurata in vista di un fine specifico, ma di una relazione spontanea i cui fini sono di natura diffusa e spesso i membri non ne sono neppure consapevoli. Nella comunità gli uomini sono uniti da un legame di tipo organico, nella società da un legame di tipo meccanico. La comunità viene vista come un organismo vivente, la società come un aggregato e prodotto meccanico. Inoltre, Ferdinand Tönnies affermava che quanto distingueva la comunità del passato dalla società moderna (allora nascente) era la reciproca comprensione di tutti i suoi membri. Non un consenso: questo è un accordo raggiunto da persone che la pensano essenzialmente in modo diverso, il prodotto di snervanti negoziati e compromessi. La comprensione di stampo comunitario non ha bisogno di essere cercata, e tanto meno di essere laboriosamente costruita o conquistata e difesa. Il tipo di comprensione su cui poggia la comunità precede ogni sorta di accordo o disaccordo. È un sentimento reciprocamente vincolante ed è grazie a tale comprensione, e solo grazie ad essa, che gli abitanti della comunità restano sostanzialmente uniti a dispetto dei tanti fattori di disgregazione. In questa fase, quindi, il concetto di comunità è strettamente legato alla sua dimensione locale e alle relazioni che, in quel determinato luogo, si sono formate nel corso degli anni. Per Robert
Redfield21 questo tipo di comunità è un'entità peculiare rispetto ad altre forme di aggregazione umana (appare cioè chiaro “dove inizia e dove finisce”), piccola (tanto piccola da poter essere vista in tutta la sua interezza da tutti i suoi membri) e autosufficiente (capace cioè di provvedere a tutte o quasi le attività e necessità dei suoi membri). “Peculiare” significa: la divisione fra “noi” e “loro” è assoluta e totale, non esistono vie di mezzo, è perfettamente chiaro chi è “uno di noi” e chi no, non c'è alcun motivo di confusione. “Piccola” significa: la comunicazione tra i suoi membri è densa ed esaustiva e pone dunque i segnali sporadicamente provenienti dall'esterno in posizione di svantaggio per via della loro relativa saltuarietà, superficialità e meccanicità. “Autosufficienza” significa: l'isolamento dagli “altri” è totale, le possibilità di spezzarlo sono remote. Tutti e tre questi elementi si coalizzano per proteggere quanto più efficacemente possibile i membri della comunità da qualunque minaccia alle loro consuetudini. Inoltre, la coesione della comunità è dovuta alla omogeneità, alla identicità (sameness).
4.4. La crisi della comunità locale tradizionale e le comunità elettive Come descrive bene Bauman22, l'identicità entra in crisi nel momento stesso in cui le condizioni della sua esistenza iniziano a vacillare: quando la bilancia tra comunicazione “interna” ed “esterna”, un tempo fortemente inclinata a favore della prima, comincia a riequilibrarsi e dunque ad offuscare la differenza tra “noi” e “loro”. L'identicità svanisce allorché la comunicazione tra membri di una comunità e mondo esterno diventa più intensa e pregnante di quella esistente tra i membri dell'enclave. L'aprirsi di una breccia nelle mura fortificate della comunità apparve un epilogo inevitabile con l'avvento dei mezzi di trasporto meccanici; veicoli di informazioni alternative (o di persone la cui stessa estraneità costituiva un'informazione distinta e in conflitto con la conoscenza internamente disponibile) poterono ora in via di principio viaggiare con uguale o maggiore rapidità del sistema del passaparola inventato e adottato entro i confini della “naturale” mobilità umana. La distanza, un tempo la più formidabile delle difese comunitarie, perse gran parte della propria rilevanza. Il colpo di grazia alla “naturalezza” della comprensione comunitaria giunse, tuttavia, con l'avvento dei mass media, vale a dire con l'emancipazione del flusso di informazioni dal movimento dei corpi. Allorché le informazioni hanno la possibilità di viaggiare indipendentemente da chi le emana e a velocità ben superiore rispetto a quella dei più avanzati mezzi di trasporto (come accade nel tipo di società in cui viviamo oggi), il confine tra “interno” ed “esterno” non è più tracciabile, e tanto meno difendibile. 21 Ibidem pp.12-13 22 Idem
A partire da questo momento, secondo Bauman23, l'omogeneità va “estratta a forza” da un ingarbugliato intrigo di varietà usando gli strumenti della selezione, della separazione e dell'esclusione, qualsiasi forma di unità va creata, la concordanza “prodotta artificialmente” è l'unica forma di unità disponibile. La comprensione comune può essere solo una conquista ottenuta (semmai vi si riesca) al termine di un lungo e laborioso processo di discussione, persuasione, in feroce competizione con un'infinità di concorrenti, tutti alla ricerca di attenzione. E una volta raggiunto, l'accordo concluso sarà sempre segnato dalla memoria dei passati conflitti e dalle scelte operate nel loro corso. Per quanto solido possa apparire, un simile accordo non sarà mai, dunque, “naturale” come quello esistente nelle comunità di Tönnies e Redfield. Non sarà mai immune da ulteriori ripensamenti, discussioni e conflitti; tutt'al più potrà raggiungere lo status di un “contratto rinnovabile”: un accordo ad accordarsi da rinnovare periodicamente, ma il cui esito non è mai scontato. La comunità fatta di comprensione comune, dunque, quand'anche la si riuscisse a creare, resterà sempre un'entità fragile e vulnerabile, costantemente bisognosa di vigilanza, fortificazione e difesa. Questi cambiamenti derivano dalla Rivoluzione Industriale e dai grandi movimenti di inurbamento collegati. Se da un lato rappresentava l'emancipazione dei singoli individui dalla terra, dalle imposizioni della piccola comunità locale, dall'altro lato rappresentava l'inizio di una nuova forma di reclusione24. Le comunità, con le loro caratteristiche, non erano adatte ad una rapida industrializzazione: le sue regole troppo autonome, basate su tacite logiche e riluttanti alla manipolazione e al cambiamento, perché troppi erano i fili di interazione umana che ciascuna azione veniva a intrecciare. La questione non era tanto convincere lo svogliato contadino a lavorare (nessuno doveva insegnare ai futuri operai che la fabbrica rappresentava una reclusione come la terra prima), ma come preparali al lavoro in un ambiente repressivo totalmente nuovo e non familiare. Per farli entrare nei nuovi panni, gli operai dovettero innanzitutto essere trasformati in una "massa", spogliati del vecchio abito di consuetudini comunitarie. La guerra alla comunità venne combattuta sventolando l'idealistico proposito di liberare l'individuo dall'inerzia della massa, ma l'obiettivo reale, anche se mascherato, di quel conflitto era esattamente l'opposto di quello dichiarato: eliminare il principale potere della comunità – quello cioè di definire ruoli e modelli – in modo da poter condensare le singole unità, ormai spogliate della propria individualità, nell'informe massa operaia. L'etica del lavoro della prima era industriale fu un tentativo di ricostituire un regime di comando, 23 Ibidem p.14 24 Ibidem p.27 85
controllo e punizione la stessa destrezza lavorativa che nella fitta rete di rapporti comunitari contraddistingueva in modo del tutto naturale l'operato di artigiani e commercianti25. Secondo Max Weber26, l'atto costitutivo del capitalismo moderno va individuato nella separazione dell'attività lavorativa dall'abitazione domestica, e nella conseguente separazione dei produttori dai loro mezzi di sussistenza. Questa duplice innovazione dette vita a due fenomeni: la nascita del profitto e la contemporanea liberazione dei mezzi di sostentamento dell'uomo dalla rete di legami morali ed emotivi, familiari e di quartiere; ma in pari tempo li svuotò di tutti i significati che essi avevano in passato. Agli artigiani di ieri non fu più chiaro cosa significasse il termine "lavoro ben fatto", e "fare le cose a modo" perse qualsiasi valore o senso di dignità e onore. Se per i pochi privilegiati l'avvento dell'ordine moderno significò il dischiudersi di spazi infiniti per l'autoaffermazione individuale, per la grande massa significò semplicemente il passaggio da un ambiente piccolo e angusto a un altro esattamente uguale27. Due tendenze hanno accompagnato il capitalismo moderno in tutta la sua storia, seppure a fasi alterne. Una è stata già indicata: un costante tentativo di sostituire la "naturale comprensione" dell'antica comunità, il ritmo di vita del contadino, scandito dalla natura e quello dell'artigiano regolato dalla tradizione, con una routine creata artificialmente e imposta con la forza. La seconda fu un tentativo molto meno tenace (e avviato tardivamente) di resuscitare o creare ab nihilo un "sentimento comunitario", questa volta però, entro i confini della nuova struttura di potere. La prima tendenza raggiunse l'apice all'inizio del XX secolo con la catena di montaggio, lo "studio del movimento" e la "organizzazione scientifica del lavoro" di Frederick Taylor, tutte strategie miranti a separare l'efficienza produttiva dalle motivazioni e i sentimenti dei produttori. Asservendo i lavoratori all'impersonale ritmo della macchina, veniva ridotto al minimo il ruolo dell'iniziativa, della dedizione e della cooperazione, fino alla destrezza personale (espletata in modo più efficace dalla macchina). La seconda tendenza procedette parallelamente alla prima ed ebbe origine precoce nei "villaggi modello" di alcuni filantropi che associarono il successo industriale al "benessere" dei lavoratori28. Anziché basarsi esclusivamente sugli schiaccianti poteri coercitivi della macchina, essi puntarono sui valori morali dei lavoratori, sulla loro pietà religiosa, sulla stucchevolezza della loro vita familiare e sulla loro fiducia nel capo-padrone. villaggi modello sorti ai margini delle fabbriche esibivano abitazioni decenti, ma anche cappelle, scuole elementari, ospedali e comfort sociali di 25 26 27 28 86
Ibidem Ibidem Ibidem Ibidem
pp.27-28 p.29 p.31 p.35
base, e tutto su indicazione dei proprietari delle fabbriche, al pari del resto del complesso produttivo. La scommessa era ricreare una comunità incentrata sul luogo di lavoro e, per converso, fare dell'impiego in fabbrica l'occupazione di "tutta la vita". I filantropi, considerati dai loro contemporanei dei "socialisti utopisti" e per tale motivo da alcuni salutati come i pionieri delle riforme morali, da altri guardati con sospetto e accusati di sovversivismo, speravano di alleviare gli effetti spersonalizzanti e disumanizzanti dell'incedente età della macchina e preservare qualcosa del vecchio, paternalistico e solidale rapporto mastro-apprendista e spirito comunitario. Tali filantropi motivati da fini etici restarono, tuttavia, ai margini della corrente principale dello sviluppo capitalista29. La famosa "fabbrica fordista" tentò di sintetizzare entrambe queste tendenze sacrificando il meno possibile le potenzialità della "organizzazione scientifica" o dell'aggregazione di stile comunitario. Per circa mezzo secolo, e in particolare per tutti i "trent'anni gloriosi" di "compattezza sociale" che accompagnarono la ricostruzione postbellica, la fabbrica fordista funse da modello concreto perseguito con vario grado di successo da tutte le imprese capitaliste30. Negli ultimi tre decenni, seguiti alla fine del fordismo, liberalizzazione e deregolamentazione sono diventate le principali decisioni prese dai governi, con la conseguenza di aumentare l'incertezza delle singole persone e quindi il desiderio verso le comunità (ormai quasi dissolte). Il privilegio di “vivere in una comunità”, infatti, fornisce sicurezza, ma richiede un prezzo da pagare, un prezzo trascurabile o finanche impercettibile fin tanto che la comunità resta un sogno. La valuta con cui si paga tale prezzo è la libertà, variamente definita “autonomia”, “diritto all'autoaffermazione”, “diritto di essere se stessi”. Qualunque strada si scelga, da una parte si guadagna e dall'altra si perde. L'assenza di comunità significa assenza di sicurezza; la presenza di una comunità, quando si verifica, finisce ben presto con il significare perdita di libertà31. Secondo Bauman32, sotto tale incertezza, la possibilità di opporre resistenza ai mutamenti imposti e in particolare una resistenza tenace, organizzata e solidale, è minima o, addirittura, inesistente. Il genere di incertezza e paura del futuro nel cangiante ambiente sociale, non unisce i sofferenti ma al contrario li divide. L'insicurezza attanaglia tutti noi, immersi come siamo in un impalpabile e imprevedibile mondo fatto di liberalizzazione, flessibilità, competitività, ed endemica incertezza, ma ciascuno di noi consuma la propria ansia da solo, vivendola come un problema individuale, il risultato di fallimenti personali e una sfida alle doti e capacità 29 30 31 32
Ibidem Ibidem Ibidem Ibidem
p.36 p.37 p.6 pp.41-42
individuali. Siamo indotti a cercare soluzioni personali a contraddizioni sistemiche; cerchiamo la salvezza individuale da problemi comuni. Tale strategia ha ben poche speranze di sortire gli effetti desiderati, dal momento che non intacca le radici stesse dell'insicurezza; inoltre, è precisamente questo ripiegare sulle nostre risorse e capacità individuali che alimenta nel mondo quell'insicurezza che tentiamo di rifuggire. Il declino della comunità è, da questo punto di vista, un fenomeno che si autoalimenta33.
4.5. Comunità globali chiuse: élite cosmopolite Parallelamente alla crescita della sicurezza e al desiderio di comunità, Bauman riscontra la tendenza delle classi più agiate a formare una comunità globale chiusa: "la secessione dell'uomo affermato". L'élite mondiale, una volta ottenuta una indipendenza economica, tende a isolarsi in una propria "comunità", la cui caratteristica principale risiede nel separare l'élite dal resto della popolazione34. Il mondo in cui la nuova élite risiede oggi non è definito dal loro "recapito permanente" (nel vecchio senso fisico o topografico). Il loro mondo non ha "recapito permanente", se non l'indirizzo di e-mail e il numero del telefonino cellulare. La nuova élite non è definita da alcun luogo geografico, è completamente extraterritoriale. Solo l'extraterritorialità garantisce l'esistenza di un'area priva di comunità, ed è proprio questo tipo di area che la nuova "élite globale" desidera35. Il "cosmopolitismo" della nuova élite globale è nato per essere selettivo. È assolutamente inadeguato al ruolo di "cultura globale": tale modello non può essere diffuso, propagato, universalmente condiviso. In quanto tale, differisce dalle élite precedenti, le quali hanno sempre proposto culture e modelli di vita. Lo stile di vita "cosmopolita" dei nuovi secessionisti non è fatto per l'iniziazione di massa, e i "cosmopoliti" non propongono un nuovo e migliore stile di vita né una avanguardia. Ciò che il loro stile di vita celebra è l'irrilevanza della collocazione geografica, una condizione certamente fuori portata della gente comune, degli "indigeni" incatenati al suolo. Il messaggio del modo d'essere "cosmopolita" è semplice e chiaro: non importa dove siano, ciò che importa è che noi siamo lì. I viaggi dei nuovi cosmopoliti non sono viaggi alla scoperta di qualcosa, il loro tratto distintivo è l'uniformità: catene di villaggi vacanza, di ristoranti o alberghi, uguali in ogni angolo del mondo, perché altrimenti entrerebbero in contatto con la cultura locale. La élite si isola quindi in isole, un arcipelago di isole sparse per tutto il mondo, dove la 33 Ibidem p.V 34 Ibidem p.49 35 Ibidem p.53
popolazione resta omogenea, le regole di ammissione sono severe e applicate meticolosamente (seppur informalmente), gli standard comportamentali sono rigidi e precisi e richiedono un'incondizionata conformità. Come in tutte le "comunità chiuse", la probabilità di incontrarvi un vero estraneo e di doversi misurare con una reale sfida culturale è ridotta inevitabilmente al minimo. Per Bauman36, più di ogni altra cosa, la "bolla" in cui la nuova, globale, cosmopolita élite economica e intellettuale trascorre gran parte del proprio tempo è un'area priva di comunità. Si tratta di un luogo in cui l'aggregazione viene intesa come identicità degli individui e degli "estranei su richiesta", dove è più importante l'individuo della collettività. La "secessione dell'uomo affermato" significa per prima cosa e innanzitutto, fuga dalle comunità. Un esempio di queste "comunità chiuse" (gated communities37) (fig.29) è dato dalle comunità residenziali battezzate common-interest developments (CID)38. Molte di queste sono cinte da mura e reticolati, sorvegliate all'ingresso ed espressamente pensate per limitare gli accessi. Custodi – cioè, guardie armate – sorvegliano i cancelli d'entrata per garantire che solo residenti, ospiti, visitatori e fornitori autorizzati possano accedervi. Diversamente dalle comunità locali tradizionali, costituite da case e attività economiche di proprietà di privati e da risorse e bellezze naturali di proprietà pubblica, i CID sono spazi abitativi completamente mercificati. Spazi e proprietà pubblici non esistono e, diversamente da quanto accade nelle comunità tradizionali dove è consentita la libera circolazione di persone, beni e servizi, l'accesso al CID è circoscritto in modo rigido, costituendo una delle principali ragioni per cui la gente decide di abitarci. I CID vendono un modo di vivere, non una semplice casa. Molti di coloro che decidono di andare a vivere in un CID sono allettati dalle comodità e dai servizi offerti. Comunque, la loro esperienza di vita viene mercificata a spese dei diritti di proprietà. L'assunto fondante e gli accordi contrattuali che regolano la vita nei CID non fanno che limitare sottilmente i diritti di proprietà, orientando lo sguardo verso i vantaggi e i benefici associati a una sistemazione abitativa imperniata sull'accesso. Le comunità di prestigio39 rappresentano un'ulteriore categoria di CID: i membri più ricchi della società spesso decidono di abitare fra persone di pari mezzi economici, e tendono a gradire i controlli di sicurezza e le limitazioni all'accesso che caratterizzano la vita di queste comunità cintate.
36 37 38 39
Ibidem p.56 http://en.wikipedia.org/wiki/Gated_community Rifkin (2000) Ibidem 87
Fig. 29: Gated community (Fonte: http://en.wikipedia.org/wiki/Gated_community)
4.6. Comunità globali aperte: comunità virtuali Lo sviluppo delle tecnologie digitali ha rivoluzionato in pochi anni il nostro modo di lavorare, comunicare, interagire con l'ambiente circostante. Strumenti inizialmente concepiti per il trattamento automatico delle informazioni si sono imposti in tutti i settori dell'attività umana. Si è creato, così, uno spazio visuale nel quale ciascun elemento può essere in contatto con qualunque altro e con tutto l'insieme. Parallelamente, il sapere, nelle sue varie forme (sapere, saper fare, saper essere), si è imposto sempre di più come fonte di ricchezza e di successo. Una risorsa preziosa da valorizzare. La combinazione di questi due elementi – sviluppo tecnologico da un lato e importanza strategica del sapere dall'altro – è stata il vero motore che ha condotto, a partire da metà anni '80 del secolo scorso, alla nascita e allo sviluppo delle comunità virtuali, forme di aggregazione oggi particolarmente diffuse tanto da essere descritte da alcuni autori come il terreno prediletto di un nuovo spazio antropologico: lo spazio del sapere40. Comunemente, le comunità virtuali sono viste come luoghi di incontro di persone con gli stessi interessi e passioni e che si avvalgono dell'ausilio della Rete per comunicare in modo sufficientemente continuativo e intenso. In realtà, e comunità virtuali esistevano già un decennio prima dell'affermazione conclamata di Internet intorno alla metà degli anni '9041. Quando la Rete era ancora limitata alle università e a pochi altri settori, erano già attivi i BBS (Bullettin Board System), che da “magazzini” di software e informazioni si riconfigurarono ben presto in comunità. In quel periodo la Rete era ancora legata, nella sua dimensione comunitaria, a preesistenti realtà di tipo locale, ma il 40 Levy (1996) 41 Brancato (2002) 88
collegamento di queste griglie sempre più complesse e despazializzanti produce gli effetti che conosciamo: l'allontanamento significante tra spazio e comunicazione interpersonale, tra locale e globale, tra appartenenza e differenza. Nel mondo esistono ancora i BBS e il loro interesse sta proprio nell'aver fornito un punto di scoperta e diffusione sociale di un modello innovativo della comunicazione e dell'uso delle tecnologie. La pratica delle virtual communities, quindi, dalle chat ai forum, è tutt'altro che nuova. Ciò che appare inedito è la loro dimensione di massa: è questo il fenomeno sociologicamente rilevante, causato da Internet. Ciò che la Rete introduce non è tanto una tecnologia quanto un modello innovativo di aggregazione comunitaria, un modello molto fluido, in cui coesistono istanze organizzative tra loro diversissime – da un accordo relazionale di tipo gerarchico alla più spinta decentralizzazione del legame – e un'attitudine diffusa dei soggetti a gestire differenti sistemi di comunità. Howard Rheingold, uno dei fondatori della prima comunità elettronica , The Well42, e tra i primi ad affrontare il tema delle comunità virtuali, ne ha dato questa definizione: le comunità virtuali sono aggregazioni sociali che emergono dalla Rete quando un certo numero di persone porta avanti delle discussioni pubbliche sufficientemente a lungo, con un certo livello di emozioni umane, tanto da formare dei reticoli di relazioni sociali nel cyberspazio43. C'è però anche chi ama definire le comunità virtuali, più genericamente, come delle piazze dove si incontrano tante persone di diverso pensiero ed estrazione sociale per discutere, senza che si instaurino tra loro delle relazioni significative. Ciò che appare evidente comunque è che le comunità virtuali rappresentano un grande fenomeno sociale che vive solo grazie a Internet. 42 http://www.well.com/ 43 http://www.rheingold.com/vc/book/intro.html
Le comunità virtuali svolgono prevalentemente tre funzioni44: • le prime sono di carattere strumentale, ovvero indirizzate allo svolgimento di compiti specifici; • le seconde sono invece di carattere espressivo: consistono nella volontà di stare insieme, di sperimentare forme nuove di socialità grazie alla comunicazione mediata dal computer; • il terzo tipo di funzioni attiene alla sperimentazione dell'identità, manifestandosi nel desiderio di verificare fino a che punto si possono modificare i confini del proprio sé.
• •
capacità di discussione; esistenza di una morale.
Le comunità virtuali sono anche caratterizzate da alcuni fattori che le rendono differenti dalle comunità locali "tradizionali", non solo per il fatto che esistono grazie ad una tecnologia che permette la comunicazione tra membri "distribuiti" geograficamente. Spesso i termini di comunità virtuale e comunità di interessi sono utilizzati come sinonimi, ma si tratta di una forzatura, perché non tutte le comunità di interessi sono virtuali. L'accostamento tra i due termini, però, risulta ugualmente utile perché mette in evidenza un dato importante.
Fig. 30: The well (Fonte: http://www.thewell.com)
Le caratteristiche46 che le comunità virtuali condividono con le comunità fisiche sono: • condivisione di interessi; • condivisione di valori; • capacità di attenzione e di relazione interpersonale;
La comunione di interessi circa un determinato argomento svolge un ruolo fondamentale nel definire il livello di aggregazione, coinvolgimento e partecipazione degli individui alla vita della comunità. Le comunità virtuali sono quindi comunità elettive, dove i membri non sono costretti a parteciparvi ma sono liberi di farlo. Gli utenti delle comunità virtuali sono caratterizzati sempre da un duplice ruolo: da un lato, essi costituiscono il pubblico al quale sono destinati i servizi, dall'altro, sono anche i produttori attivi dei contenuti47. Inoltre, la questione dell'identità48 rappresenta una delle problematiche più discusse legate alle comunità virtuali: nel mondo virtuale gli individui possono alterare le proprie generalità o assumere più identità contemporaneamente. Questa caratteristica può però, in molti casi, rivelarsi vantaggiosa per la vita della comunità: la
44 Roversi (2004) pp.122-123 45 Ibidem p.122 46 Ibidem p.124
47 Idem 48 Idem
Una comunità virtuale deve rispondere a determinati criteri45: • essere il più possibile economica per gli utenti; • essere economicamente florida per i finanziatori e gestori; • essere aperta e illimitata; • essere in grado di autogovernarsi; • essere capace di delineare da sé la propria forma.
89
razza, il sesso, l'età, tutte le informazioni fisiche che noi trasmettiamo agli altri nel corso di un'interazione comunicativa sono assenti nello spazio virtuale. Non è detto che ciò sia un limite. Anzi, può facilitare la nascita di relazioni spontanee e rendere ogni forma di discriminazione più difficile, con il risultato che i membri della comunità si giudicano l'un l'altro soprattutto per i contenuti di cui si fanno portatori. Inoltre, la possibilità di assumere un'identità diversa può avere un effetto disinibente sull'individuo, stimolando la sua volontà di mettersi in gioco. Tutte queste caratteristiche, sommate alla recente nascita, rendono le comunità virtuali un argomento di studio molto dibattuto, dove si alternano visioni contrastanti. Nelle sue analisi basate sull'esperienza di The Well Rheingold49 considera le comunità virtuali come veri e propri mondi sociali che si integrano nel mondo della vita quotidiana reale di molte persone: intrecci comunicativi che sono diventati luoghi di vera socialità collettiva. Ma per Rheingold le comunità virtuali sono anche qualcosa di più: a suo giudizio infatti le comunità virtuali, supplendo all'assenza di socialità e di relazioni comunitarie della contemporaneità, prefigurano un nuovo modello di sviluppo sociale. Rheingold è senza dubbio un entusiasta della Rete, che considera come uno strumento indispensabile per l'affermazione della vera democrazia, generantesi in modo bottom-up. Per Rheingold la comunicazione mediata dal computer diviene uno strumento di vera democrazia centralizzata: in Rete tutti sono uguali in quanto non sono più sottoposti ai vincoli di varia natura che condizionano la comunicazione e la discussione nella vita pubblica. Mosso dal suo profondo entusiasmo, Rheingold non si ferma qui. A suo giudizio, la tradizione verso le comunità virtuali può essere paragonata a quella avvenuta con il passaggio dalle comunità rurali di villaggio alle moderne società. Ipotizza quindi l'apertura, all'interno della Rete, di nuovi spazi telematici e la transizione verso un nuovo modello di relazioni interumane. Una nuova forma di società, o meglio di comunità estesa all'intera società: la comunità virtuale globale. Rheingold però non mette in guardia rispetto ai problemi, ai pericoli e allo smarrimento che può generare una nuova forma di cittadinanza virtuale50. Questa distinzione tra comunità e società è stata critica da altri studiosi contemporanei come Jean-Luc Nancy51, per il quale non esiste una comunità perduta da ricostruire. La società, e cioè l'associazione delle forze, dei bisogni e dei segni che conosciamo non sostituisce nessuna comunità perduta. Ha solo preso il posto di un'aggregazione di individui di cui non esisteva il nome, un'aggregazione umana di tipo partecipativo. Per Nancy le comunità (virtuali o reali che siano) sono caratterizzate da finitudine, transitorietà, 49 http://www.rheingold.com/vc/book/index.html 50 Roversi (2004) 51 Idem 90
precarietà, mancanza di uno statuto definito. Grazie a Nancy il dibattito sul concetto di comunità virtuale, e sulle differenze tra comunità in senso tradizionale e comunità virtuali, si è ampliato sino ad inglobare al suo interno proprio questo problema: quello della permanenza e della stabilità di una comunità che nasce e si sviluppa in un contesto radicalmente nuovo rispetto a quello delle comunità che storicamente conosciamo. Tomás Maldonado52 assume una posizione critica dell'entusiasmo per la tecnologia: non le si possono attribuire tutte le trasformazioni in atto nella nostra società, e quindi attribuire a Internet un ruolo salvifico. Per Maldonado le comunità virtuali sono simulacri di comunità reali nel migliore dei casi e nel peggiore comunità di spettri caratterizzate da forti aspetti regressivi. A suo giudizio, la grande maggioranza delle comunità virtuali è costituita da comunità che nascono in virtù di un processo simpatetico, cioè in base all'aggregazione di persone simili che hanno interessi condivisi. L'aggregarsi di queste persone in un dialogo comunicativo online è dovuto proprio a questo fatto: alla base, esse svolgono professioni simili, hanno problemi simili, i loro atteggiamenti sociali e politici sono simili. Tuttavia, proprio per il loro alto grado di omogeneità, queste comunità virtuali sono comunità con una scarsa dinamica interna, sono precarie e fragili. Non reggono, infatti, il conflitto interno tra membri, mentre nelle comunità reali posizioni spesso diverse riescono a stare dentro un unico “contenitore”. Molte delle comunità che si formano in Rete non hanno struttura e spesso non acquisiscono nemmeno un'attrezzata percezione di se stesse. Sono organismi fluidi, che esistono in quanto sono, frutto di un'aggregazione spontanea motivata da esigenze di carattere passionale o patico53. Esterne, in ciò, all'orizzonte tipicamente moderno del progetto. Nella rete delle reti, le comunità si configurano come una sorta di Internet originaria, come luoghi fisici e insieme mentali sviluppati dai medesimi utenti, figure che cercano la relazione con l'altro al di là della padronanza tecnica. La maggioranza delle comunità online sono infatti rivolte e gestite da un'utenza non specialistica, attraverso tecnologie user friendly. Le comunità virtuali, se pur con le loro limitazioni, possono rappresentare una opportunità di creazione di legami sociali, anche se non robusti come nelle comunità locali. Il problema principale, però, alla loro diffusione, è che non tutti hanno accesso alle tecnologie necessarie e possono godere dei benefici che esse mettono a disposizione. Vi sono anzi intere nazioni e consistenti fasce della popolazione mondiale che ancora ne sono escluse. È una disparità di accesso che si affianca ai numerosi divides che interessano molte aree del 52 Idem 53 Brancato(2002)
nostro pianeta: povertà, sfruttamento indiscriminato delle risorse locali, mancanza di energia elettrica, problemi politici, bassi livelli di istruzione, ecc. Il digital divide (o divario digitale, cioè informatico) si aggiunge a questa lista di ritardi già presenti sia nei paesi più sviluppati che in quelli in via di sviluppo e c'è il rischio, visto il costante progresso delle nuove tecnologie informatiche, di vedere aumentare sempre di più queste differenze.
4.7. Comunità Open Peer-to-Peer come comunità multilocali Oggi, quindi, a parte le comunità locali (quelle cioè, che possono essere definite tali a pieno merito, nel senso che mantengono ancora intatte molte delle caratteristiche tipiche delle comunità preindustriali), convivono comunità globali di due tipi, aperte e chiuse. Pur se non come nella società preindustriale, le comunità locali rappresentano sempre la condizione più diffusa di aggregazione sociale; sono tuttavia comunità che hanno in gran parte perso il "senso di comunità" tipico delle comunità preindustriali. Dall'altro lato, le comunità globali sono tali in quanto riescono a comprendere persone sparse per il pianeta, facilitando le loro comunicazioni e spostamenti grazie alla tecnologia, senza la quale non esisterebbero. Le comunità chiuse (selettive), rappresentano una conseguenza della globalizzazione e della facilità di spostamento che permette, con la perdita dalla dimensione locale tradizionale e la conquista di una omogenea cultura/comunità globale, in cui si è prima membri di una comunità globale (l'élite) che della comunità locale in cui si vive (CID). È quindi una comunità globale selettiva (perché rende difficile l'accesso), distribuita in comunità locali chiuse: anche se non in CID, sempre con una distanza dalla comunità locale tradizionale, da cui non si sente vincolata da un sentimento comunitario. Le comunità aperte (elettive), rappresentano una conseguenza dell'aumento di connettività e della facilità di comunicazione che permette, con la perdita della dimensione locale "reale" (spesso chiamate comunità virtuali), ma dove le relazioni, seppur fragili e cangianti, sono più simili alle comunità tradizionali. Sono quindi delle comunità globali elettive, perché chi vi fa parte lo fa in libertà, di accesso ma anche di uscita, rendendo queste comunità non stabili come le comunità locali. Le comunità Open Peer-to-Peer, almeno nella situazione attuale, rappresentano invece un altro tipo di comunità, in parte locale ed in parte globale: la comunità multilocale54. Le comunità multilocali sono l'espressione di ciò che Ezio Manzini chiama "localismo cosmopolita"55, un atteggiamento che combina la globalizzazione e la connettività, ma, al contrario delle comunità 54 Manzini (2004) 55 Idem
globali, si lega alla propria dimensione locale in maniera forte, simile a quella delle comunità tradizionali. Bisogna notare però che queste comunità non rappresentano una forma di nostalgia per il passato che non torna, né una forma di autarchia. È un locale molto lontano da ciò che in passato si è inteso con questa espressione (la valle, il villaggio agricolo, la cittadina di provincia isolati e relativamente chiusi nella propria cultura ed economia), che combina tra loro le specificità dei luoghi, e delle comunità che ad essi si riferiscono, con fenomeni nuovi che la globalizzazione e l'interconnessione culturale, economica e sociale generano e sostengono a scala planetaria. Contrariamente a quanto nel recente passato si era pensato, quindi, i fenomeni congiunti della globalizzazione e della connettività hanno fatto riemergere la dimensione locale, ma legandola alla dimensione globale: "il localismo cosmopolita è il risultato di una particolare condizione di equilibrio tra radicamento (il radicamento in un luogo e nella comunità che a quel luogo si riferisce) e apertura (l'apertura ai flussi globali di idee, di informazioni, di persone, di cose e di denaro)"56. È questo un equilibrio assai delicato in quanto, in ogni momento, uno dei due poli può sopraffare l'altro portando ad un'antistorica chiusura o, all'opposto, ad una apertura distruttiva del tessuto sociale locale e delle sue peculiarità. Il localismo cosmopolita genera quindi un nuovo senso del luogo e della comunità: “un luogo ed una comunità locale che non sono più delle entità (quasi) isolate, ma dei nodi di una rete, dei punti di connessione tra le reti corte (che generano e rigenerano il tessuto sociale e produttivo locale) e le reti lunghe (che connettono quel luogo e quella comunità con il resto del mondo)”57. Le comunità multilocali sono rese possibili dall'emergere dei sistemi distribuiti, che permettono loro una certa autonomia pur lontane dai grandi centri. Anche se attualmente i sistemi distribuiti introdotti con maggiore diffusione riguardano solamente reti di telecomunicazioni, la loro implementazione rappresenta una tendenza di più largo corso. Con il progredire di questa tendenza, quindi, le comunità multilocali potranno avere una maggiore possibilità di successo e diffusione nelle loro attività. Si assiste quindi all'emergenza di un nuovo tipo di comunità, che cerca di affrontare gli aspetti negativi delle comunità locali attuali e delle comunità globali, mutuandone gli aspetti positivi. Di più: la costituzione di comunità multilocali non richiede grandi esodi come successe durante la Rivoluzione Industriale, ma si basa su una riorganizzazione dell'esistente attraverso interventi minimi. Si assiste quindi all'emergere di comunità dotate di un forte senso di identità, fortemente legate alla loro dimensione locale (con attenzione alle 56 Idem 57 Idem 91
specificità locali e alle relazioni interpersonali), ma aperte alla connessione con altre comunità/luoghi58. Le comunità Open Peer-to-Peer rappresentano un ottimo esempio di localismo cosmopolita. Sono cosmopolite, nel senso che sono aperte al coinvolgimento del numero più alto possibile di partecipanti, ampliando le proprie dimensioni. Le comunità Open Peer-to-Peer, infatti, spesso basano la sostenibilità delle proprie attività attraverso la loro suddivisione fra i partecipanti, e un loro numero elevato rende più facile lo svolgimento delle attività59. L'importanza delle comunità Open Peer-to-Peer è proprio quella di aver sviluppato forme organizzative potenzialmente scalabili, adatte quindi sia per pochi partecipanti che per numeri elevati. La maggior parte delle comunità Open Peer-to-Peer infatti si organizza in una maniera molto simile a quella delle comunità virtuali, permettendo la partecipazione a persone distanti geograficamente. Sono locali, nel senso che le loro attività si svolgono nella loro dimensione locale oppure si svolgono su una dimensione globale ma interessano direttamente la loro dimensione locale. Le comunità Open Peer-to-Peer si organizzano infatti su differenti dimensioni, in una scala che parte dalla singola comunità locale (fig.32), passa poi per le reti di comunità locali (fig.33) e giunge infine alla comunità globale (fig.31). La scelta della dimensione organizzativa dipende prevalentemente dal tipo di problema (quanto esso interessa la dimensione locale) e quindi dall'attività svolta per affrontarlo, e dagli artefatti utilizzati per gestire la comunità. Le attività, infatti, riguardano principalmente informazioni o alcuni beni materiali che, per le loro specifiche caratteristiche, come le informazioni possono essere distribuiti facilmente e velocemente. Nel caso delle informazioni, queste vengono elaborate e scambiate sia a livello locale che a livello globale, ma solitamente l'obiettivo di questa elaborazione e scambio risiede in un loro utilizzo nella propria dimensione locale di ogni singolo partecipante. Nel caso dei beni fisici, la dimensione locale è ancora più importante, e le attività, anche se non raggiungono una dimensione globale intesa come planetaria, raggiungono una dimensione localizzata ma di ampie dimensioni. Nel caso delle comunità locali e delle reti di comunità locali di dimensioni più ridotte, l'attività si concentra geograficamente e le interazioni avvengono principalmente a livello locale (in misura inferiore anche a livello globale). Le comunità sono semi-autonome nell'attività: ognuna svolge la stessa attività autonomamente, a parte occasionali scambi in situazioni critiche. La crescita della comunità avviene con una direzione dal locale verso il globale. Queste reti sono adatte soprattutto se si utilizzano artefatti low tech e se la dimensione locale è molto 58 Idem 59 Benkler (2002) 92
importante. Se si utilizzano artefatti low tech, dato che questi non permettono una interazione rapida tra un numero elevato di partecipanti, l'attività dovrà essere svolta in maniera autonoma da molte comunità locali. Se poi la dimensione locale è molto importante per i partecipanti, l'attività dovrà considerarla con maggiore profondità e quindi orientarsi più sulla dimensione locale. In questa forma di organizzazione si formano reti collaborative fra partecipanti e partecipanti e fra comunità e comunità di partecipanti. Se la dimensione locale è meno importante e vengono utilizzate soprattutto ICT per interagire, la comunità prenderà la forma di una rete collaborativa fra partecipanti, distribuiti geograficamente ma collaboranti fra loro. In questo modo sono possibili reti di comunità locali dalle dimensioni maggiori o comunità globali. Ad ogni modo, anche in questa forma di organizzazione i partecipanti tendono ad incontrarsi a livello locale per interagire meglio. In questo caso si ha una comunità globale, con una sola attività suddivisa fra tutti i partecipanti, che poi usano i risultati a livello individuale (e ciò equivale a dire “locale”)60. Sia che siano comunità locali o comunità globali, le comunità tendono ad essere comunità virtuali e reali, globali e locali, allo stesso tempo. Quando l'attività viene svolta prevalentemente a livello globale (attraverso, cioè, la collaborazione contemporanea di tutti i partecipanti), i partecipanti tendono a cercarsi e ad incontrarsi in base alla prossimità geografica, in base cioè alla loro dimensione locale61. Anche quando sembrano semplici comunità virtuali (la partecipazione dei membri è libera e spesso è possibile uscire con facilità), la loro tendenza è quella di legarsi alla propria dimensione locale. Quando l'attività viene svolta a livello locale, viene suddivisa tra le comunità locali che agiscono parallelamente ed, entro una certa misura, autonomamente. Le comunità locali sfruttano i collegamenti interlocali (quindi globali) al fine di scambiarsi informazioni, beni, persone (intese cioè come portatrici di conoscenze e di capacità), per migliorare le proprie singole attività. La formazione delle comunità Open Peer-to-Peer segue quindi due flussi: dal globale al locale, dal locale al globale. Nel primo caso, le comunità nascono a livello globale (come semplici comunità virtuali) e si sviluppano fino a considerare maggiormente la propria dimensione locale. Sono questi i casi più recenti62, che si ispirano direttamente alla filosofia Open Source e Peer-toPeer. Nel secondo caso, Le comunità locali ampliano le proprie dimensioni accettando più membri o formando reti con altre comunità, fino a raggiungere una dimensione globale (intesa non per forza come planetaria, ma di dimensioni 60 Ad esempio, come nei casi Wikipedia, software Open Source, Amazon, eBay, The Sims 61 Ad esempio, come nei casi BBC Action Network, BBC Neighbourhood Gardener, Meetup, Neubauten.org 62 Ad esempio come nei casi Neubauten.org, Solar Roof, Thinkcycle
maggiori). Sono questi i casi Open Peer-to-Peer ante litteram, costituitisi specificamente per la propria dimensione locale o per l'assenza di infrastrutture di comunicazioni globali63. Per le comunità Open Peer-to-Peer, tutti i partecipanti hanno pari valore, sono quindi peer ('pari'): in questo modo le comunità Open Peer-toPeer si configurano come aggregazioni sociali orizzontali, non verticali come nelle gerarchie (tipiche delle organizzazioni aziendali). Per le comunità Open Peer-to-Peer i partecipanti sono peer come nelle comunità virtuali, ma non come nelle comunità selettive: in queste i loro membri sono sì peer, ma la comunità non è aperta e chi si trova all'esterno non è considerato peer. Nelle comunità Open Peer-to-Peer, invece, la partecipazione è aperta a tutti (Open), i quali sono considerati di pari livello (Peer-to-Peer). Bisogna spendere anche alcune parole riguardo ad un'altra caratteristica tipica, che le differenzia dalla letteratura tradizionale delle comunità di pratica. Le comunità di pratica, infatti, potrebbero essere considerate come comunità di pratica, in quanto si formano attraverso la condivisione di una pratica (attività) comune. Tuttavia, le comunità di pratica necessitano di legami sociali preesistenti per formarsi, mentre nelle comunità Open Peer-to-Peer non necessariamente questi sono presentii64.
Le comunità Open Peer-to-Peer possono partire come comunità virtuali globali, ed in questo caso la presenza di relazioni sociali preesistenti non è necessaria. Anzi, così facendo permettono la formazione di nuovi legami sociali. Possono partire dalle comunità locali, e sebbene in questo caso le relazioni preesistenti siano importanti, il successo di queste comunità è dovuto all'ampliamento delle loro dimensioni, cosa che avviene non necessariamente attraverso i legami sociali preesistenti. In definitiva, le comunità Open Peerto-Peer favoriscono la nascita e il miglioramento dei legami sociali, attraverso la costruzione di reti sociali di ampie dimensioni. Le comunità Open Peer-to-Peer, legando la dimensione locale con quella locale, sono in grado di collegare reti brevi con reti lunghe, guadagnando dai lati positivi di entrambe. Sia che collaborino a livello globale, elaborando informazioni che poi utilizzano a livello locale, sia che collaborino a livello locale, portando a risultati globali, le comunità Open Peer-to-Peer riescono a intessere i legami forti (prevalentemente locali) con i legami deboli (prevalentemente globali). La compresenza di legami deboli e legami forti comporta numerosi vantaggi, che possono essere spiegati comprendendo altri fattori sociologici fino a qui non analizzati, quali il capitale sociale, la fiducia e le reti sociali. E sono proprio questi due
Fig. 31: Comunità Open Peer-to-Peer organizzate come comunità virtuali globali 63 Ad esempio, come nei casi dabbawalla, Amul, Grameen Bank e Self-Help Groups 64 Inoltre, la maggior parte della letteratura si è soffermata sulla formazione di comunità di pratica all'interno di organizzazioni aziendali, e sebbene questo non sia un prerequisito, la loro immagine ne è ormai fortemente legata
fattori che rendono interessanti le comunità Open Peer-to-Peer, per eventuali sviluppi futuri a cui possono dare luogo.
93
Fig. 32: ComunitĂ Open-Peer-to-Peer organizzate come comunitĂ locali
94
Fig. 33: ComunitĂ Open Peer-to-Peer organizzate come reti di comunitĂ locali
95
4.8. Comunità, capitale sociale, sviluppo locale 4.8.1. Comunità e capitale sociale Una caratteristica importante delle comunità in generale (e quindi anche delle comunità Open Peer-to-Peer), è data dalle relazioni caratteristiche che vi si instaurano e come queste portino alla formazione del capitale sociale. Per analizzare e descrivere il capitale sociale (e non solo quello), la sociologia utilizza il concetto di rete sociale, ossia dell'insieme delle relazioni intercorrenti all'interno di un determinato tessuto sociale. Come accennato prima, le comunità possono essere viste come reti di interazioni, e quindi anche come reti di relazioni. L'inquadramento più originale e influente del concetto di capitale sociale è stato senza dubbio quello fornito da Coleman65, il quale suggerisce di considerare le dotazioni di cui dispone ogni individuo come forme di capitale distinguibili in capitale fisico, capitale umano e capitale sociale. Il capitale fisico è costituito da beni strumentali tangibili (materiali e monetari) e il capitale umano dalle capacità e abilità della persona. Il capitale sociale è invece costituito da relazioni sociale che hanno una certa persistenza nel tempo e che gli individui in parte possiedono naturalmente (ad esempio, le relazioni parentali o di ceto), in parte costruiscono attivamente nel corso della loro vita (ad esempio, le relazioni di amicizia o conoscenze maturate nelle cerchie sociali in cui l'individuo è transitato). Il capitale sociale non è riducibile all'insieme delle proprietà individuali possedute da un determinato agente: non è allocato né in beni strumentali, né nell'individuo, ma inerisce alla struttura delle relazioni tra le persone (due o più). Queste relazioni possono essere concepite come forme di capitale perché, similmente agli altri tipi di capitale, sono produttive di valori materiali e simbolici: la loro particolare storia e la loro continuità forniscono, infatti, un contributo specifico al perseguimento dei fini individuali. Esse si presentano, al contempo, come vincoli e come risorse per l'attore.
le reti sociali di tipo orizzontale che, mettendo in contatto tra loro individui dello stesso status e potere, tendono a favorire la fiducia e la cooperazione. Le reti di tipo verticale, che legano gli individui in relazioni asimmetriche di gerarchia e dipendenza, non hanno invece questa virtù. L'estensione della fiducia dai contesti di piccola scala a quelli di grande scala richiede la diffusione di norme di reciprocità generalizzata e la formazione di intrecci sempre più complessi di reti sociali di tipo orizzontale; richiede, dunque, un'espansione della solidarietà oltre i confini della parentela67. Per Fukuyama68 il capitale sociale è la capacità delle persone di lavorare insieme per scopi comuni in gruppi e organizzazioni. Tale abilità deriva dalla presenza, in una data società, della fiducia, vista come l'aspettativa, che nasce dall'interno di una comunità, di un comportamento prevedibile, corretto e cooperativo, basato su norme continuamente condivise, da parte dei suoi membri69. La cooperazione estesa, necessaria al passaggio dalla piccola alla grande scala, richiede il superamento dei confini imposti dalla solidarietà parentale. Capitale sociale e fiducia sono trasmessi tramite meccanismi culturali di lunga durata basati su sistemi etici e morali, su credenze religiose e costumi sociali tramandati storicamente.
In seguito il concetto è stato ripreso da molti autori, tra cui Putnam e Fukuyama, i quali enfatizzano la dimensione cooperativa insita nel concetto di capitale sociale. Putnam rivela che quanto più è elevato lo stock di capitale sociale disponibile in un certo contesto, tanto più diventa probabile la cooperazione sociale spontanea. Il capitale sociale viene definito come quell'insieme di caratteristiche dell'organizzazione sociale, quali la fiducia, le norme di reciprocità e le reti di impegno civico che possono aumentare l'efficienza della società facilitando il coordinamento delle azioni individuali66. Sempre secondo Putnam, sono
È possibile, naturalmente, immaginare situazioni limite in cui i rapporti cooperativi stabiliti possono essere costruiti anche in assenza di fiducia. Ciò presuppone certezza sugli stati futuri del mondo e sugli stati futuri del sé; assenza di incertezza, cioè, nella comunicazione, nella valutazione delle poste in gioco e delle possibili alternative, nell'interpretazione dei sistemi normativi, e totale credibilità negli eventuali sistemi di sanzioni e ricompense disponibili. In questi casi in cui c'è completa prevedibilità, e le possibilità di defezione e di comportamenti opportunistici sono escluse, il problema della fiducia non si pone. Nella realtà, specie quando sono in gioco processi cooperativi di lungo periodo, l'allontanamento da queste improbabili situazioni limite rappresenta la norma, e la fiducia costituisce un espediente necessario per far fronte sia alla nostra limitata capacità previsionale, sia alla libertà degli altri. E bisogna ricordare il forte senso di insicurezza che deriva dalla attuale tendenza all'individualizzazione. La fiducia diventa, perciò, un bene necessario per ovviare all'inevitabile instabilità e subottimalità di eventuali accordi cooperativi sorti in assenza di fiducia, e per costruire interazioni cooperative altrimenti impossibili. Quindi, reti orizzontali che sappiano andare oltre i normali legami parentali, possono, attraverso la fiducia reciproca, favorire l'emergenza di pratiche cooperative. Le comunità Open Peer-to-Peer, che sono delle reti orizzontali, devono il proprio funzionamento grazie alla fiducia reciproca che si instaura tra i partecipanti.
65 Coleman J.S., (1990), Foundations of social theory, Cambridge University Press, Cambridge 66 Putnam R., (1993) La tradizione civica nelle regioni italiane, Mondadori, Milano
67 Idem 68 Fukuyama F., (1995) Trust : the social virtues and the creation of prosperity, Free Press, New York 69 Idem
96
In definitiva, il capitale sociale consta di relazioni fiduciarie (forti e deboli, variamente estese e interconnesse) atte a favorire, tra i partecipanti, la capacità di riconoscersi e intendersi, di scambiarsi informazioni, di aiutarsi reciprocamente e di cooperare a fini comuni. Si tratta, dunque, di relazioni di reciprocità informali o formali regolate da norme che definiscono, in modo più o meno flessibile, la forma, i contenuti e i confini degli scambi, e che sono rese efficaci da sanzioni di tipo interno o esterno all'individuo. Tali relazioni ampliano la capacità di azione dell'attore individuale o collettivo e, se sufficientemente estese, anche la capacità di azione del sistema sociale. Ci si trova di fronte, quindi, a un capitale che è sociale perché, a differenza del capitale privato, ha la natura del bene pubblico: le persone che sostengono attivamente e rafforzano queste strutture di reciprocità producono infatti benefici non solo per sé, ma anche per tutti gli individui che fanno parte di tali strutture. Il capitale sociale è quindi un bene collettivo.
istituzionali e collettive (fiducia sistemica o istituzionale), oppure da attori individuali (fiducia personale o interpersonale)"70.
Nelle comunità Open Peer-to-Peer, la collaborazione nell'attività principale porta alla costruzione di beni collettivi in maniera cosciente: vengono cioè inseguiti degli obiettivi condivisi. Ma oltre a questi obiettivi condivisi (che possono essere visti come dei beni collettivi e quindi condivisi), attraverso l'attività si giunge anche ad un altro bene collettivo: il capitale sociale.
La fiducia interpersonale viene definita come l'aspettativa che l'altro attore non manipolerà la comunicazione o, più specificamente, che fornirà una rappresentazione autentica, non parziale né mendace, del proprio comportamento di ruolo e della propria identità. La fiducia interpersonale può essere vista anche come un'aspettativa di regolarità e continuità nel comportamento di ruolo e nell'identità degli attori73, o dalla reciprocità di interessi e fiducia, e di fiducia delle proprie capacità74. La fiducia in se stessi può abbracciare le aspettative che riguardano la capacità di sapersi presentare agli altri in maniera credibile, di modo che venga riconosciuta senza fraintendimenti la propria identità, o quantomeno l'identità che si vuole rendere socialmente visibile; ma può anche riguardare le aspettative concernenti la propria capacità di evitare l'autoinganno e comportamenti lesivi del proprio interesse, la stabilità o il mutamento del proprio comportamento di ruolo o della propria identità, il possesso di certe qualità, la validità delle proprie aspettative in generale e di quelle fiduciarie in particolare.
È quindi un risultato secondario delle attività delle comunità Open Peer-to-Peer, che si formano per la risoluzione di problemi condivisi attraverso la creazione di una risoluzione condivisa. Ma rappresenta una caratteristica importante: non solo le comunità Open Peer-to-Peer permettono la risoluzione di problemi contingenti, ma creano le condizioni (il capitale sociale) affinché i propri membri possano risolvere altri problemi futuri. Questo capitale, che è sociale perché ha la natura del bene pubblico, non esiste quindi se non condiviso. Esiste solo all'interno della comunità Open Peer-to-Peer, condiviso tra i suoi membri, così come gli obiettivi, l'attività, i risultati, i valori, ecc. Una ulteriore motivazione alla idea che le comunità Open Peer-to-Peer si basino sulla condivisione.
4.8.2. Comunità e fiducia Al concetto di fiducia sono stati attribuiti una notevole pluralità di significati. Facendo una sintesi di tutte le proposte avanzate, Mutti colloca la fiducia "nel contesto di aspettative aventi una valenza positiva per l'attore e formulate in condizioni di incertezza. L'incertezza riguarda non solo le situazioni nelle quali c'è carenza di informazioni, ma anche situazioni in c'è una tale eccedenza di informazioni da richiedere un difficile e precario processo interpretativo di riduzione della complessità. Il destinatario delle aspettative fiduciarie può essere costituito dall'organizzazione naturale e sociale nel suo insieme o nelle sue singole espressioni
I contenuti della fiducia sistemica o istituzionale vengono generalmente definiti come aspettative di stabilità di un dato ordine naturale e sociale, di riconferma, dunque, del funzionamento delle sue regole71. Tuttavia, definire la fiducia sistemica esclusivamente in termini di aspettative di regolarità ha, però, l'ovvio inconveniente di escludere dalla relazione fiduciaria le aspettative di mutamento dell'organizzazione sociale e delle sue regole di base. Inoltre, l'enfasi posta sul mantenimento di routine della fiducia trascura di analizzare la variabilità e la precarietà della fiducia sistemica e istituzionale nei diversi contesti storicosociali. Infine, porre quasi esclusivamente l'accento sull'adesione incondizionata dell'attore all'ordine sociale porta facilmente a negare rilevanza alla possibilità che venga percepito come problematico il rapporto comunicativo tra sistema e attore72.
Mutti quindi definisce la fiducia in termini generali come "un'aspettativa di esperienze con valenza positiva per l'attore, maturata sotto condizioni di incertezza, ma in presenza di un carico cognitivo e/o emotivo tale da permettere di superare la soglia della mera speranza"75. Si tratta di una definizione molto generale in grado di includere la fiducia sistemica e interpersonale nelle varie formulazioni proposte, comprese le aspettative di mutamento e l'autoreferenza. In essa si ribadisce che ci troviamo in presenza di aspettative riguardanti eventi ed esperienze con 70 71 72 73 74 75
Mutti (1998) p.71 Ibidem p.38 Idem Idem Idem Ibidem p.41 97
significato "positivo" per l'attore che emette l'atto fiduciario, senza, con questo, che si debba ricorrere a un'arbitraria specificazione della natura umana e di suo bisogni. Si sottolinea, inoltre, che l'aspettativa fiduciaria non matura in condizioni di totale ignoranza e che, quando ciò avviene, deve esserci una compensazione in termini di componenti emotive. Infine, viene effettuata una distinzione tra semplice speranza e fiducia vera e propria. Nel caso della speranza, infatti, ci troviamo di fronte a un'aspettativa priva di ancoramenti cognitivi e/o emotivi, o con una loro presenza così ridotta da impedire il passaggio a un'aspettativa più intensa e rassicurante come la fiducia76. La fiducia si colloca, dal punto di vista cognitivo, in una zona intermedia tra completa conoscenza e completa ignoranza. L'aspettativa fiduciaria interviene sull'incertezza sostituendo le informazioni mancanti, o riducendo la complessità da eccesso di informazioni, con una forma di "certezza interna" che ha la valenza di rassicurazione positiva rispetto ad eventi ed esperienze contingenti. L'incertezza viene resa più tollerabile con quest'atto di sostituzione e di riduzione della complessità che orienta le aspettative dell'attore in direzione di previsioni gratificanti. L'aspettativa fiduciaria sostituisce, dunque, l'incertezza con un livello di "certezza" e rassicurazione interna che varia secondo il grado di fiducia concessa. Essa rappresenta, comunque, un investimento cognitivo più elevato della semplice speranza77. Superata la soglia della semplice speranza, la fiducia può manifestarsi con gradi di intensità crescente fino al limite della fiducia cieca, incondizionata, o dell'intenso atto di fede. È tuttavia possibile effettuare una distinzione netta tra confidare e avere fiducia78. Il confidare è proprio delle situazioni in cui non esiste possibilità di uscita e in cui si sa che il proprio comportamento non inciderà in maniera significativa sugli esiti del processo considerato, di modo che, in caso di delusione, non avremo a pentirci delle nostre azioni. Ciò si verifica nelle situazioni fortemente costrittive in cui l'attore non ha reali spazi di scelta ed effettive possibilità di incidere sugli eventi. L'ambito della fiducia riguarda invece le situazioni in cui c'è possibilità di uscita dalla relazione ed esiste quantomeno la percezione di essere in grado di incidere, col proprio comportamento, sugli eventi.
attivamente alla loro produzione (il fenomeno dei free-rider). Molto spesso, quando i risultati finali sono delle informazioni o progetti che si vuole diffondere, l'utilizzo e la diffusione da parte dei free-rider non fa altro che aumentarne il valore. Una aumento delle persone che utilizzano un determinato software open source non fa altro che aumentarne il suo valore, aumentandone la diffusione: si tratta questo di un effetto denominato network effect79. Quando l'attività riguarda delle informazioni, essendo queste beni non rivali, non risentono di diminuzione del proprio valore; ciò che può succedere è un aumento dato da una maggiore loro diffusione. Ma, a parte questo meccanismi di difesa, ciò che permette la collaborazione è proprio la fiducia reciproca, che vi saranno cioè alcuni freerider, ma che la maggior parte delle persone collaborerà. Certamente, una comunità Open Peer-to-Peer non necessariamente avrà successo, ma solo se riuscirà a coinvolgere un ampio numero di partecipanti, tra cui si sviluppa una fiducia reciproca. L'atto fiduciario, oltre alle componenti cognitive, è generalmente costituito da una combinazione variabile di queste con altre componenti emotive. Ad esempio, situazioni di totale incertezza, indotte, per esempio, da rapidi mutamenti sociali che impedirebbero, sul piano puramente cognitivo, il sorgere della fiducia, possono essere risolte perciò da una atto fiduciario a base esclusivamente emotivo80. Inoltre, anche il grado di coerenza e completezza, di ambiguità e manipolabilità dei sistemi normativi è cruciale nella spiegazione dei processi di generalizzazione delle aspettative sociali e di riduzione dell'incertezza. Lo spazio delle fiducia, dunque, è potenzialmente tanto più ampio quanto più estese sono le aree socialmente non normate, e quanto più le strutture normative e gli espedienti organizzativi attivati per ridurre l'incertezza risultano manipolabili interpretativamente e suscettibili di comportamento non conforme81. Nelle comunità Open Peer-to-Peer, dove le regole vengono discusse collettivamente, la fiducia ha quindi una importanza fondamentale.
Le comunità Open Peer-to-Peer, quindi, si basano sulla fiducia: in esse è possibile uscire con relativa facilità, e i membri rivestono un ruolo attivo nelle proprie azioni e scelte. È questa fiducia che riduce le incertezza che possono ostacolare la cooperazione collettiva: dato che i risultati finali sono pubblici e condivisi, alcuni membri potrebbero approfittarne per usufruirne senza collaborare
L'atto fiduciario comporta il coinvolgimento non solo di colui che concede la fiducia, ma anche di colui che la riceve: quest'ultimo deve dimostrare, infatti, di essere degno della fiducia ottenuta. Entrambe le parti entrano in relazione sia nel momento dell'azione, sia nel momento in cui l'aspettativa viene resa esplicita. Entrambe sviluppano meccanismi autoriflessivi e cioè, da un lato, aspettative di validità delle proprie aspettative fiduciarie (fiducia nella fiducia concessa), dall'altro, aspettative che la fiducia ricevuta non risulti fittizia (fiducia nella fiducia ricevuta). La fiducia, dopo che è stata concessa, cerca perciò
76 Ibidem pp.42-43 77 Ibidem pp.44-45 78 Ibidem p.43
79 http://en.wikipedia.org/wiki/Network_effect 80 Mutti (1998) 81 Idem
98
una qualche conferma nella realtà e produce anche delle pressioni perché ciò avvenga82. La fiducia presuppone quindi un rapporto Peer-to-Peer. Nonostante le possibili complicazioni, l'atto fiduciario, una volta emesso, attiva un meccanismo di riduzione dell'incertezza e della complessità sociale. Esso produce, inoltre, una forma di pressione e di controllo nei confronti del beneficiario al fine di essere confermato. Spesso chiede pure la reciprocazione, alimentando una spirale autorafforzantesi che stimola la cooperazione e la solidarietà sociale. Inoltre, anche la sfiducia funge da riduttore dell'incertezza perché contribuisce a forgiare le aspettative degli attori ed entra in modo pertinente nei loro processi decisionali. Se ben risposta, svolge funzioni positive per chi l'ha emessa, evitandogli danni e delusioni. Anche la sfiducia tende a confermarsi e rafforzarsi nell'interazione sociale, alimento la reciprocazione. La spirale della fiducia e del sospetto reciproci non incentiva però la solidarietà e la cooperazione, bensì il conflitto e l'atomizzazione sociale. Rapporti di fiducia reciproca elevati, generalizzati, equilibrati, poggianti su basi reali costituiscono una condizione necessaria, ma non sufficiente, alla cooperazione. Essi favoriscono l'accettazione di rischi derivanti da una maggiore interdipendenza, come pure la trasparenza nel processo di comunicazione e la chiarezza nelle regole di interazione esistenti (soprattutto sotto il profilo della loro interpretazione). Stimolano, dunque, una spirale virtuosa di intensificazione dei rapporti sociali. La sfiducia e il sospetto alimentano invece processi opposti, dando vita a una spirale socialmente viziosa83. In termini di scambio sociale, la fiducia reciproca incentiva scambi generalizzati, a contenuto ampio e di lungo periodo; rende superfluo il ricorso a un'elevata formalizzazione o a una dettagliata specificazione delle regole dello scambio; rende, perciò, potenzialmente più elastico, dinamico e allargato l'intero processo di scambio, riducendone i costi di transazione. In situazioni di scambio sociale nelle quali gli oggetti scambiati risultano di difficile misurazione e comparazione la fiducia può svolgere importanti funzioni di medium e garante dello scambio. Ciò vale soprattutto per scambi non coercitivi di lungo periodo in cui non esistono regole procedurali e sostanziali ben corroborate, o quando queste risultano largamente incoerenti, incomplete e inefficaci. La fiducia svolge, dunque, una fondamentale funzione di incentivazione della socialità e di generalizzazione della relazione sociale. Essa estende l'orizzonte temporale del sistema sociale e ne aumenta il potenziale di azione. Ciò è tanto più evidente quanto più elevato e 82 Idem 83 Idem
generalizzato è il livello di fiducia che circola nel sistema, e quanto più ridotti sono gli squilibri nei gradi di fiducia che gli attori reciprocamente si concedono. Lo stesso vale se la fiducia poggia su basi reali e non su processi di manipolazione che corrono costantemente il rischio di essere smascherati84. La fiducia svolge anche importanti funzioni di controllo e di regolazione sociale: l'attribuzione di fiducia e di responsabilità fornisce una flessibilità di controllo maggiore di quella offerta da un sistema di punizioni-ricompense per ogni comportamento specifico. Sono infatti i processi di peer review che permettono l'attribuzione della fiducia all'interno delle comunità Open Peer-to-Peer, e rappresentano quindi un requisito fondamentale per il loro funzionamento.
4.8.3. Comunità e relazioni che generano capitale sociale I tipi di relazioni sociali che non possono costituire capitale sociale sono le relazioni di scambio, quelle di mero incontro tra persone che non continuano la loro relazione, e a quelle di ostilità, di sfruttamento o conflittuali in genere. Esse sono caratterizzate da due tratti: o di non aver bisogno della riconoscibilità dell'identità dell'altro, come è il caso dello scambio e dell'incontro; o di mirare ad annullare l'identità dell'altro e/o a sottrargliene componenti, come è nel caso dell'ostilità, dello sfruttamento e del conflitto (in termini di proprietà). Sono quindi portatrici di capitale sociale quelle relazioni in cui sia possibile che l'identità più o meno duratura dei partecipanti sia riconosciuta, e che inoltre ipotizzino forme di solidarietà o di reciprocità85. In alcuni casi il capitale sociale sembra costituirsi grazie all'intervento di un terzo – un gruppo sociale, un'agenzia, un'istituzione – che assicura che il rapporto tra le due parti avvenga senza sfruttamento o frode od opportunismo di una parte nei confronti dell'altra. In altri casi, il capitale sociale si costituisce nella relazione tra due parti, in cui una anticipa l'aiuto dell'altra nel perseguire i suoi fini, in quanto ipotizza che si costituisca un rapporto diadico di mutuo appoggio. Pizzorno86 definisce il primo di questi due tipi “capitale sociale di solidarietà”; il secondo “capitale sociale di reciprocità”: • il capitale sociale di solidarietà si basa su quel tipo di relazioni sociali che sorgono, o vengono sostenute, grazie a gruppi coesi i cui membri sono legati l'uno all'altro in maniera forte e duratura, ed è quindi prevedibile che agiscano secondo principi di solidarietà di gruppo. In tale circostanza, se una relazione tra due o più persone costituisce capitale sociale, cioè se una 84 Idem 85 Pizzorno (2001) pp.22-23 86 Ibidem pp.27-30 99
•
persona A può plausibilmente aspettarsi che un'altra persona B, a cui essa si rivolge, adempia a una promessa, o soddisfi una richiesta di aiuto, sarà o perché sia A sia B appartengono allo stesso gruppo e agiscono quindi sotto obblighi di solidarietà (e Pizzorno chiama questa come fiducia interna); o perché A sa che B appartiene a un gruppo coeso, il quale è in grado di premiarlo se egli assolve, o di punirlo se non assolve, a ciò che in quella circostanza ci si aspetta da lui (che Pizzorno chiama fiducia esterna). La fiducia esterna necessariamente include le condizioni che fanno operare anche la fiducia interna; ma è bene distinguere i due tipi, perché la fiducia esterna interessa anche persone che non appartengono al gruppo coeso, che però utilizzano come capitale sociale la cogenza di obbligazioni che quello comporta. I meccanismi della fiducia interna, ma soprattutto quelli della fiducia esterna, saranno più o meno efficaci in funzione dello spessore dei confini che separano il gruppo dalla società circostante; il capitale sociale di reciprocità. Affinché questo tipo di capitale sociale si formi non occorre assumere la presenza di un gruppo coeso che intervenga ad assicurare l'operatività della relazione sociale a certi fini attraverso meccanismi di ricompensa o penalità simboliche o materiali. Esso quindi si manifesterà più probabilmente sulla base di legami deboli che di legami forti. Sarà soltanto necessario assumere che quando una persona instaura un rapporto di qualche durata con un'altra persona sia prevedibile che avvengano certi passaggi di aiuti o di informazioni tra le due.
2.
3.
Pizzorno87 giunge quindi ad elencare alcuni tipi di relazioni che costituiscono capitale sociale: 1.
87 Idem 100
sono capitale sociale le relazioni che stabiliscono una potenziale cooperazione tra due o più persone a fini comuni. Così un operatore economico utilizza determinati rapporti di conoscenza con altri operatori per impiantare un'impresa, o stabilire determinati accordi. A prima vista si tratta di un normale atto in perseguimento di interessi economici. Ma è diverso da puri atti di scambio o di contratto perché presuppone precedenti rapporti, e per l'esistenza di questi occorrerà dar spiegazioni differenti da quelle che fanno riferimento a intenzioni di perseguimento di fini. Simile sarà il caso di associazioni con numero limitato di membri volte a sostenere la capacità di perseguire certi fini comuni (per esempio un'associazione di genitori di allievi di una scuola determinata). Si ha cioè qui una produzione di beni pubblici da parte di un
4.
piccolo gruppo; similmente, sono capitale sociale le relazioni attraverso le quali un operatore economico ottiene di ampliare, o dare solidità alla sua clientela, diffondere informazioni riguardanti la sua reputazione professionale, e simili. Anche qui vale quanto detto per il caso precedente; è poi tipica forma di capitale sociale la relazione nella quale una persona aiuta un'altra persona senza chiedere, o ricevere nulla in cambio, ma nell'ipotesi do ut des che si perfezionerà nel futuro, in una forma di reciprocità dilazionata. Questo, che è un caso frequente, resta ambiguo ai partecipanti stessi quanto a motivazione reale. Può essere che la persona che dà si aspetti di ricevere effettivamente qualche beneficio nel futuro, anche se la corrispondenza tra quanto dà e quanto riceverà non può che restare indeterminata, come indeterminato è il momento della futura corresponsione. Può anche darsi, ed è motivazione più imprecisa ma anche assai più plausibile, che quel che conta in casi simili non sia di ricevere in cambio nel futuro qualcosa di preciso, bensì di stabilire un rapporto di gratitudine con l'altra persona. In un certo senso si può dire che ciò che si verifica in questo caso è una modificazione, pur minima, dell'identità dei due individui che sono entrati in rapporto, in quanto entrambi diventano portatori di un riconoscimento che si aggiunge a quelli dai quali la loro identità era fino a quel momento definita. E si noti che allora chi controlla il processo è chi ha dato, e che potenzialmente (reconditamente), definisce il riconoscimento dovutogli. Da qui anche il significato delle ben conosciute insistenze a rifiutare restituzioni, o contraccambi, soprattutto se immediati, perché così si ottiene che perduri controllo sull'altro, il quale resta quindi “legato da ingratitudine”. È questo del resto il meccanismo socio-psicologico profondo che opera nei fenomeni del dono rituale studiati dagli antropologi classici88: tipici processi di formazione di capitale sociale collettivo; è poi mobilitazione di capitale sociale una relazione nella quale una persona ne aiuta un'altra perché questo aumenta il prestigio di una determinata unità collettiva. È il caso di un connazionale all'estero, o corregionale, o membro dello stesso gruppo etnico, che aiuta un altro a trovar lavoro, per esempio, o lo raccomanda per fargli ottenere determinati benefici, nell'idea che ciò torni a vantaggio dell'unità sociale cui entrambi appartengono. Ad ogni modo, questi casi sono diversi da quelli in cui interviene un gruppo coeso che abbia poteri di premiare o penalizzare
88 pp.148-150
determinati atti dei suoi membri. Questa volta invece si ipotizza che l'unità sociale in nome della quale l'aiuto viene offerto è troppo informe per agire come soggetto collettivo, e soprattutto non costituisce una cerchia di riconoscimento in grado di identificare durevolmente un singolo membro; è solo una comunità di riferimento ideale, a cui si immagina di appartenere, e dalla quale non ci si possono aspettare espliciti atti ricompensanti o penalizzanti. Per la creazione di capitale sociale, quindi, sono utili sia legami deboli che legami forti. Le comunità Open Peer-to-Peer, creando reti brevi (legami forti) e reti lunghe (legami deboli), riescono a costituire capitale sociale con molta efficacia. Inoltre, seppur i legami interpersonale possano essere fragili e poco duraturi, le comunità Open Peer-to-Peer riescono a costituire capitale sociale attraverso la organizzazione di economie del dono89.
4.8.4. Capitale sociale e relazioni: analisi delle reti sociali Per capire in che modo i legami deboli e forti possano costituire capitale sociale, risulta utile affidarsi ad una branca della sociologia, la social network analysis o analisi delle reti sociali90. La network analysis è un insieme di procedure per la raccolta, il trattamento, l'elaborazione e il controllo delle ipotesi relative a dati di tipo relazionale. Benché nelle scienze sociali nessuna procedura di ricerca, e tanto meno uno strumento analitico, possano essere considerati teoricamente neutrali, l'analisi delle reti si presta ad applicazioni teoricamente orientate in direzioni molto diverse. La network analysis è quindi una disciplina versatile, i cui principi sono utilizzati per studiare reti in ambito sociologico, antropologico, psicologico, politologo, economico, organizzativo, chimico, biologico, ecc91. L'idea che i fenomeni sociali possano essere interpretati come reti di relazioni, che la società stessa possa essere spiegata come esito di vincoli e opportunità emergenti dalle relazioni tra i soggetti gode di crescente consenso nell'ambito delle scienze sociali92. L'analisi delle reti sociali si occupa direttamente degli elementi costitutivi della società – le relazioni 89 Idem 90 Per tradurre network, Chiesi utilizza il termine reticoli anziché reti, in quanto può comportare meno ambiguità (un reticolo è una rete sociale e non, ad esempio, una rete da pesca). A riguardo si veda Chiesi (1999), p.20-21. In questo testo verrà mantenuto il termine rete, per non introdurre un altro termine che potrebbe risultare fuorviante, e anche per sottolineare una visione reticolare e sistemica, che lega le teorie della Complessità alla Sociologia 91 Chiesi (1999) p.11 92 Ibidem p.12
tra gli attori – al contrario delle tecniche tradizionali, che si sforzano di interpretare la realtà solo indirettamente attraverso gli attributi di individui presi singolarmente. L'analisi delle reti, nella sua forma attuale, consiste di un insieme di tecniche di analisi strutturale, che si basano sui seguenti postulati relativi alla realtà sociale: • il comportamento dell'attore è interpretabile principalmente in termini di vincoli strutturali all'azione, piuttosto che in termini di libertà di scelta tra corsi di azione alternativi; • la spiegazione dei fenomeni sociali deve essere ricercata nella relazione tra gli elementi, piuttosto che nelle caratteristiche degli elementi; • le tecniche di analisi si concentrano sulla natura relazionale della struttura sociale e sostituiscono (o integrano) le tecniche statistiche classiche che si basano su elementi considerati indipendenti fra loro; • la forma delle relazioni sociali può a sua volta essere spiegata in parte come l'esito delle scelte degli attori, individuali o collettivi, che rappresentano i nodi del reticolo. Quest'ultima affermazione non deve essere considerata necessariamente in contrasto con la prima. È infatti plausibile pensare che la struttura sociale condizioni il singolo individuo e che la combinazione delle azioni individuali contribuisca a modificare l'assetto della struttura sociale93. Tramite l'analisi della rete sociale, l'entità del capitale sociale a disposizione di ogni individuo può essere stimata individuando la posizione strutturale che ciascun individuo occupa nella rete di relazioni in cui è inserito. L'origine dell'analisi della rete sociale può essere rintracciata nell'opera di Georg Simmel, che propone una "geometria del sociale", il che significa concentrare l'attenzione sulle forme della vita sociale, distinguendole dai loro contenuti.94 Simmel è celebrato in tutti i manuali introduttivi di sociologia, per l'analisi delle conseguenze sociali dell'ampiezza del gruppo. Partendo dall'individuo isolato egli analizza le conseguenze dell'unione di due individui, la diade, la forma sociologica più semplice95, e giunge fino alla triade. 93 Ibidem p.25 94 Ibidem p.36 95 Una visione reticolare può essere applicata anche ad altri ambiti, e il principio della diade come forma minima rimane. Ad esempio, come si vedrà nel cap.6, un Sistema di Attività non si trova mai isolato, ma interagisce con una rete di altri Sistemi di Attività. Ad esempio, riceve regole e strumenti da alcuni Sistemi di Attività (ad esempio, il management), e produce risultati per altri Sistemi di Attività (ad esempio, i clienti). In questo modo, un Sistema di Attività viene influenzato da forze esterne, che vengono acquisite e poi modificate come fattori interni. Tuttavia non sono le influenze esterne, di per sé, a causare cambiamenti ed eventi incomprensibili all'interno dell'attività, ma il loro ingresso nel Sistema di Attività. In questo modo, il Sistema di Attività agisce costantemente tra contraddizioni interne ed esterne. Per capire queste 101
L'analisi di Simmel rimane legata soprattutto alle relazioni di piccolo gruppo, in cui la struttura è data dal numero dei partecipanti e può mutare radicalmente introducendo anche un solo individuo. Con l'introduzione del terzo soggetto, a formare una triade, il gruppo muta natura più profondamente di quanto non avvenga aggiungendo il quarto o il quinto. I primi tentativi di trasposizione della sociologia relazionale dalla teoria alla pratica risalgono ai primi anni '30 del secolo passato, in modo apparentemente indipendente in campi disciplinari diversi. In particolare sono individuabili tre scuole, che nel corso degli anni subiscono contaminazioni reciproche, anche grazie alla mobilità di alcuni studiosi, che di fatto permettono il passaggio di concetti, approcci e tecniche da una scuola all'altra96. Un primo filone di ricerca, originariamente influenzato dalla teoria della gestalt, si sviluppa in America grazie ad un gruppo di psicologi sociali emigrato dalla Germania nazista97. Autori come Kurt Lewin, Jacob Moreno e Fritz Heider sottolineano il ruolo giocato dalla struttura dei gruppi interpersonali nella costruzione degli schemi cognitivi. Essi applicano nuovi tipi di analisi strutturale allo scopo di studiare i flussi di informazione e la formazione delle idee tra i membri di un gruppo. L'attenzione per i rapporti tra la struttura delle relazioni interpersonali a livello micro e i fenomeni macro-sociali più complessivi suggerisce una qualche continuità con la sociologia classica tedesca. Alla diade e alla triade di Simmel, Moreno accosta altre strutture sociometriche e propone lo strumento del sociogramma, niente più che un espediente grafico per descrivere quelle che chiama le proprietà formali delle configurazioni sociali. Da questo momento tuttavia la metafora si trasforma in una forma diagrammatica, in qualche modo confrontabile, e permette di distinguere analiticamente e descrivere graficamente una famiglia di concetti derivati come quelli di posizione sociale, di relazione simmetrica, asimmetrica o di reciprocità, e di individuare percorsi di connessione interpersonale. Un secondo approccio98 è collegato allo strutturalfunzionalismo e, partendo dalla tradizione dell'antropologia anglosassone, sviluppa alcune applicazioni empiriche in campo sociologico. In particolare, l'applicazione di tecniche di osservazione mutuate dalla ricerca antropologica aveva posto in luce l'importanza delle relazioni interpersonali informali nel comportamento lavorativo. L'applicazione di tecniche di derivazione contraddizioni, bisogna espandere il Sistema di Attività fino ad incluedere almeno un altro Sistema di Attività interagente. In questo modo si ha una diade formata da due Sistemi di Attività 96 Ibidem p.42 97 Ibidem p.43 98 Ibidem p.44 102
antropologica allo studio di moderne comunità urbane spostò l'attenzione dall'analisi della posizione individuale nel reticolo complessivo all'individuazione di gruppi più o meno isolati dalla struttura sociale complessiva (detti cliques), all'analisi della loro struttura interna e delle appartenenze multiple degli individui ad essi. Il terzo approccio è costituito dai lavori della cosiddetta scuola di Manchester99, che rappresenta lo sviluppo in chiave critica dell'antropologia struttural-funzionalista. Autori come Max Gluckman, John Barnes, Clyde Mitchell e Elisabeth Bott riprendono le nozioni metaforiche di rete ma, invece di insistere sui concetti di integrazione e coesione sociale, sottolineano il ruolo giocato dal conflitto e dal potere nella trasformazione e nella persistenza delle strutture sociali. Il cambiamento dell'oggetto di ricerca, dalle comunità africane primitive, alle piccole comunità di villaggio europee e alle strutture familiari in ambiente urbano permette di evidenziare il ruolo dei legami di parentela, amicizia e vicinato nella produzione dell'integrazione sociale. I contributi più ricchi provengono però da Mitchell, che complica il modello distinguendo analiticamente vari tipi di relazione, ciascuna caratterizzata da distinti parametri di reciprocità, durata e intensità. Inoltre l'applicazione della teoria dei grafi permette di sviluppare i concetti fondamentali di densità, connessione e raggiungibilità riferiti alla rete nel suo complesso. In matematica, la teoria dei grafi100 permette di schematizzare una grande varietà di situazioni e di processi e spesso di consentire di analizzarli in termini quantitativi ed algoritmici. Possiamo immaginare geometricamente un grafo come un insieme di punti nello spazio e di curve continue che connettono coppie di punti senza intersecarsi tra loro. In un grafo, il posizionamento dei nodi e la forma delle curve è irrilevante, contano solo i nodi e le relazioni tra di loro. In altri termini, lo stesso grafo può essere disegnato in molti modi diversi senza modificare le sue proprietà. La scuola di Manchester propone indubbiamente un modello ricco e aperto dei rapporti esistenti tra attore, relazione sociale e reti "situate". Gli attori sociali agiscono sempre in situazioni strutturate dai tipi di relazioni attivate e dalla morfologia delle loro reti, ma ciò non esclude spazi di autonomia e creatività. Relazioni e reti vengono intese, dunque, come vincoli e risorse dell'azione individuale. Le reti sono intessute di scambi, negoziazioni e conflitti, in cui transitano risorse materiali e non materiali, coercitivi, rituali, simboliche, cognitive ed emotive.
99 Ibidem p.45 100 http://it.wikipedia.org/wiki/Teoria_dei_grafi
Fig. 34: Analisi delle reti sociali in comunità di sviluppo Open Source (Fonte: Madey, Freeh, Tynan 2002)
L'interesse sia per la forma che per i contenuti delle reti porta a una confluenza, esplicitamente ricercata, tra teoria delle reti e teoria dello scambio sociale, intese entrambe in senso non troppo rigidamente formalizzato e in grado di includere l'ampia gamma di risorse che transitano nell'interazione sociale.
Questi problemi, uniti all'attenzione esclusiva ai rapporti informali, di derivazione antropologica, viene tuttavia indicata come un limite della scuola di Manchester103, che ne causerà il declino a cominciare dagli anni '70, quando i maggiori sviluppi metodologici e soprattutto tecnici sono ormai localizzati a Harvard.
Con ciò questa scuola si pone, anche se non ne è pienamente consapevole, nel solco tracciato per primo da Simmel, la cui opera, presenta certamente i lineamenti di una sociologia formale, di una geometria sociale, ma questa risulta pur sempre innestata su una teoria dello scambio sociale sensibile ai diversi contenuti delle risorse che vengono scambiate. Questa esigenza di legare forma e contenuti delle relazioni sociali comporta però una complessificazione dell'analisi che la scuola di Manchester avrà evidenti difficoltà a condurre in porto101. L'attenzione preponderante rivolta alla processualità sociale "in situazione" lascia troppo sullo sfondo le dimensioni macro. Non c'è interesse a definire concetti quali: società, struttura sociale, sistemi culturali. I confini esterni delle reti vengono allora tracciati pragmaticamente dal ricercatore sulla base dei suoi interessi di ricerca. Ma, così facendo, si resta teoricamente disarmati di fronte all'esigenza, tutt'altro che secondaria, di individuare i criteri e le regole che governano le interdipendenze e gli intrecci di rete, specie se questi ultimi appartengono a un comune dominio macro (culturale, economico, politico e sociale) retto da specifiche logiche interne non tutte suscettibili di microriduzione, o comunque non tutte interpretabili sulla base delle logiche di rete locali.
Rispetto alla scuola di Manchester esistono, al contempo, elementi di continuità e di differenziazione. La continuità è data dal fatto che l'unità di base dell'analisi è costituita dala relazione sociale vista nella sua "concretezza". L'elemento di differenziazione è rappresentato invece dalla diversa risposta fornita ai nessi esistenti tra forma e contenuti delle reti, tra attore e rete, tra micro e macro, che la scuola di Manchester aveva presentato in modo sfumato, vago e teoricamente insoddisfacente. Questa diversa risposta è in buona parte dettata dall'esigenza di formulare una geometria del sociale e della struttura della società, attraverso una rigorosa formalizzazione matematica. L'impostazione di questa scuola può essere definita infatti come sociologia matematica, in quanto l'obiettivo è quello di modellizzare strutture sociali dotate di differenti proprietà partendo dalla teoria matematica dei grafi e utilizzando l'algebra delle matrici. L'approccio è quindi astratto e deduttivomatematico, piuttosto che sostanziale e applicativo a problemi di interpretazione sociologica. L'elemento che unifica i diversi contributi non è cioè una qualche teoria sociale, ma il metodo della network analysis in quanto tale.
Questa difficoltà si ricollega anche all'altro limite di questa scuola, costituito dal fatto che il rapporto tra l'individuo (le sue motivazioni, la sua identità) e le sue reti sociali è lasciato troppo nel vago102. 101 Mutti (1998) 102 Mutti (1998)
103 Chiesi (1999) pp.45-46 103
Fig. 35: Analisi delle reti sociali tra bloggers (Fonte: http://radio.weblogs.com/0104369/2003/01/08.html)
A questo livello di sviluppo metodologico corrisponde però una certa povertà dei risultati teorici delle ricerche, il cui merito principale è quello di fornire informazioni empiriche, talvolta contro intuitive, a favore o più spesso a sfavore di teorie tradizionali, non ancora controllate a livello empirico. Pur esistendo riferimenti alle risorse a disposizione degli attori, l'interesse prevalente concerne la forma delle relazioni sociali e la loro eventuale simmetria (cioè il potere). La morfologia della rete presenta una elevata autonomia rispetto agli elementi che la costituiscono (attori e risorse); la forma delle relazioni sociali determina, anzi, ampiamente i loro contenuti. Il complesso rapporto che intercorre tra forma e contenuti delle relazioni sociali finisce così con l'essere risolto in modo alquanto riduttivo e unilaterale, né viene ritenuta rilevante una rigorosa distinzione, sul piano analitico, tra relazioni di tipo economico, politico, culturale, ecc. Al nesso esistente tra attore e rete viene fornita una soluzione deterministica: gli atteggiamenti e i comportamenti degli attori risultano fortemente condizionati dalla struttura delle relazioni in cui sono inseriti. Il rifiuto di ogni schema interpretativo dell'azione che faccia riferimento a processi di interiorizzazione delle norme si accompagna, inoltre, a una drastica riduzione degli spazi di autonomia del sistema culturale rispetto alla morfologia della struttura delle relazioni sociali. 104
La scuola americana si sbarazza, dunque, del problematico rapporto intercorrente tra individuo e rete predicando la quasi totale dipendenza del primo dalla struttura della seconda104. È tuttavia a cominciare dall'inizio degli anni '70 che alcune applicazioni della metodologia di analisi elaborata in quegli anni attirarono l'attenzione dei sociologi, grazie al raggiungimento di interessanti risultati teorici come quelli riscontrati da Mark Granovetter, in grado di far luce sul rapporto tra comportamenti micro e strutture macro e quindi di contribuire a colmare la tradizionale separazione tra questi due livelli. L'impostazione deterministica, implicata nello sviluppo delle tecniche quantitative di analisi strutturale, viene sempre più spesso messa in discussione e affiancata da studi e applicazioni che concepiscono la rete di relazioni sociali in cui il soggetto è inserito non solo come vincolo all'azione, ma anche come opportunità105. In sostanza, lo stato dell'arte è attualmente aperto a diverse impostazioni teoriche, e comunque si è ridotta la distanza tra il rapido sviluppo delle tecniche di indagine e lo sviluppo più lento del loro substrato teorico106.
104 Mutti (1998) 105 Chiesi (1999) p.46 106 Ibidem p.47
4.8.5. Analisi delle reti e legami deboli e forti La social network analysis rappresenta dunque uno strumento di analisi e descrizione delle reti sociali, da cui può essere compreso il capitale sociale esistente e condiviso tra i vari attori. Riguardo alle comunità Open Peer-to-Peer, risulta particolarmente interessante l'opera di Mark Granovetter, che, individuando legami deboli e forti, propone una spiegazione alla importanza delle reti lunghe e brevi delle comunità Open Peerto-Peer in relazione al loro capitale sociale. Il problema dell'incertezza e dell'informazione come risorsa strategica, al centro del dibattito nella teoria economica, costituisce il quadro di riferimento generale entro cui può essere collocato il contributo di Mark Granovetter 107. Le istituzioni economiche e il mercato vengono concepiti da Granovetter come costruzioni sociali costituite da reti di interdipendenze tra attori economici condizionati dalla forma e dai contenuti dei legami esistenti fra loro, ma anche in grado di trasformarli. Tali attori cercano di ridurre l'incertezza non solo facendo ricorso ai canali formali di comunicazione (mass media, agenzie di collocamento, ecc.), ma soprattutto utilizzando i contatti personali informali (parenti, amici, conoscenti, ecc.), attraverso i quali vengono scambiate informazioni sull'ambiente economico e sulle strategie degli attori. L'interazione informale rappresenta, secondo Granovetter, un'importante risorsa a disposizione degli attori per la costruzione di meccanismi fiduciari (su base cognitiva ed emotiva) che possono permettere di tenere sotto controllo i comportamenti opportunistici; inoltre, l'informazione ottenuta informalmente risulta spesso più accurata, dettagliata e qualitativamente ricca di quella ottenibile con mezzi più formali108.
triangolo. I legami forti tra le persone hanno quasi tutti questa configurazione e i triangoli con un lato mancante sono rari110. Si supponga di rimuovere in qualche modo dalla rete sociale un legame forte. Che effetto avrebbe la rimozione sui gradi di separazione? Quasi nessuno. Poiché i legami forti formano quasi sempre triangoli di questo tipo appena descritto, procedendo lungo i rimanenti due lati del triangolo si andrebbe lo stesso da un'estremità all'altra della connessione mancante in soli due passaggi. Si può quindi eliminare qualsiasi legame forte senza che si producano grandi effetti sulle “distanze sociali” all'interno della rete. Sebbene i legami forti sembrino quelli indispensabili a tenere insieme la rete, per quanto riguarda i gradi di separazione non lo sono; anzi, non sono affatto importanti. Come dimostrò Granovetter, i legami cruciali sono quelli deboli, soprattutto quelli che lui definì “ponti” sociali111. Un ponte sociale è un collegamento cruciale che permette di tenere insieme una parte del tessuto sociale: come un ponte, rende più facile la comunicazione fra due persone, accorciando la distanza. Ad esempio, nella figura 36 la connessione tra A e B è un ponte, poiché la sua rimozione avrebbe un effetto considerevole sulla distanza sociale tra i due punti. Poiché i ponti consentono la tenuta delle reti sociali, si potrebbe supporre che siano legami forti, come quelli tra amici intimi; invece i legami forti non sono quasi mai rilevanti sotto quel profilo e possono essere rimossi senza produrre gravi danni. È vero invece l'opposto: i ponti sono costituiti quasi sempre da legami deboli. Granovetter giunse alla conclusione che i legami deboli sono spesso più importanti di quelli forti, perché svolgono la funzione di tenere insieme la rete sociale. Sono le “scorciatoie” che, se eliminate, farebbero disgregare la rete112.
Granovetter109 intuisce che, descrivendo le reti sociali, è possibile accennare all'intensità dei legami tra le persone: genericamente, i legami “forti” sono quelli che uniscono familiari, amici intimi o colleghi che passano molto tempo insieme, mentre i legami “deboli” sono quelli di generica conoscenza. Si considerino, ad esempio, tre amici. Come accade agli amici, è facile che abbiano parecchio in comune: magari vivono nello stesso quartiere, lavorano insieme o si incontrano negli stessi luoghi. Se due di loro hanno delle cose in comune, tenderanno ad averle pure con il terzo. Inoltre, se passano del tempo assieme, forse lo passano anche con il terzo, e lo fanno di sicuro quando si ritrovano tutti e tre insieme. Insomma, se una persona è fortemente legata ad altre due, anche queste due sono sovente assai legate tra loro. Esisteranno eccezioni, ma in genere la situazione dovrebbe essere questa. In un grafo, tale principio si traduce nel fatto che i legami forti non sono isolati, ma tendono a formare un
I legami deboli non sono solo ponti verso un'altra persona, ma anche verso mondi sociali lontani che
107 Granovetter (1973) 108 Mutti (1998) 109 Buchanan (2003)
110 Idem 111 Idem 112 Idem
Fig. 36: Ponti sociali (Fonte: Buchanan 2003)
105
ci sarebbero, altrimenti, del tutto estranei. Agendo da ponti, i legami deboli permettono di raggiungere persone distanti con molta rapidità, e quindi anche una diffusione di informazioni rapida e ampia113. I legami forti, invece, ci connettono con persone con le quali, senza questi legami, saremmo connesse comunque. I ponti tra mondi hanno dunque un'importanza enorme e molto probabilmente sono la chiave del segreto che rende le reti sociali così piccole. Senza i legami deboli, una comunità sarebbe frammentata in tanti gruppi isolati114. Granovetter capì la differenza fra questi due legami studiando come le persone riescono a trovare un impiego attraverso le proprie conoscenze. Per i lavoratori qualificati, le informazioni rilevanti per la ricerca di un posto di lavoro provengono più frequentemente da contatti di semplice conoscenza, mentre l'intervento di parenti e amici è raro. Questo risultato comprova innanzitutto la preminenza della struttura sulla motivazione. Parenti e amici stretti sono certamente più motivati ad aiutare chi cerca lavoro, ma non si trovano nella posizione strutturale migliore per poterlo fare. Essi condividono con l'attore lo stesso ambiente e difficilmente possono disporre di informazioni ulteriori rispetto a quelle che l'attore già possiede. Il fatto di condividere legami forti non aiuta la ricerca di un lavoro. Al contrario i membri marginali o esterni alla rete sociale di intimità, coloro che sono collegati debolmente con l'attore, perché hanno accesso ad ambienti diversi, sono più probabilmente a conoscenza di informazioni decisive su posti di lavoro vacanti. I legami forti tornano invece ad assumere un ruolo centrale nel caso del lavoro dequalificato. Margaret Grieco115 dimostra che nel settore alimentare caratterizzato da stagionalità dell'occupazione, e nel settore metalmeccanico, caratterizzato da ampia immigrazione da altre regioni, non solo il reclutamento, ma anche l'organizzazione produttiva passano ancora attraverso le reti familiari, come nelle fasi della prima industrializzazione. Dal lato della domanda, vengono incoraggiate le pratiche di reclutamento informale attraverso i lavoratori già occupati, allo scopo di controllare la forza-lavoro. Dal lato dell'offerta, la parentela non costituisce solo il reticolo informativo essenziale, che permette di individuare le opportunità, ma è anche un canale di assunzione, che rafforza un sistema di obbliggazioni reciproche. Le differenze tra lavoro qualificato e dequalificato sono notevoli, ma in ogni caso sia gli studi di Granovetter che quelli di Grieco evidenziano almeno quattro fattori costanti116: 1. il percorso informativo tra chi offre e chi domanda lavoro non è mai lungo, poiché l'elemento fiduciario rimane rilevante; 113 Idem 114 Idem 115 (Chiesi (1999) p.28 116 Ibidem p.29 106
2.
3.
4.
viene confutata l'ipotesi che il mercato del lavoro moderno sia retto da principi impersonali, meritocratici ed universalistici; l'informazione utile per attivare il mercato del lavoro non viene prodotta ad hoc, ma viene utilizzata come sottoprodotto di altri processi sociali; i fenomeni macro emergono come combinazioni di processi di interazione a livello micro.117
Mentre nella epoca preindustriale, nelle comunità locali tradizionali, i legami forti erano i più importanti, ora vengono affiancati dai legami deboli, che per alcuni ambiti sono ancora più importanti. Le comunità Open Peer-to-Peer, che riescono a sfruttare entrambi, possono distribuire, ricevere e scambiare informazioni con molta più efficacia e rapidità. Non solo quindi, ricerca di impieghi, ma tutte le attività che implicano una distribuzione e scambio di informazioni all'interno della rete sociale sono avvantaggiati. È questo uno dei motivi per cui le comunità Open Peer-to-Peer riescono a scambiarsi informazioni (come nel caso della Grameen Bank 118) e beni fisici (come nel caso dei dabbawalla119) con estrema rapidità ed efficacia, a tal punto da basare le proprie attività sulla distribuzione di informazioni, beni, persone. Infatti, nel caso della Grameen Bank, gli agenti della banca rappresentano i legami deboli e mentre i peer del gruppo che riceve un prestito sono legati da legami forti. Nel caso dei dabbawalla, il dabbawalla che si trova sui treni agisce da legame debole di connessione fra la casa (e rispettivo dabbawalla da cui proviene) e l'ufficio (e rispettivo dabbawalla che lo raggiunge). La presenza di capitale sociale porta anche ad altre conseguenza positive. Non solo, infatti, la presenza di capitale sociale condiviso può portare alla risoluzione di problemi e alla attivazione di iniziative economiche. Si può arrivare sino a dare inizio a processi, di lungo periodo, che sono in grado di portare uno sviluppo a livello locale. In questo modo, le attività delle comunità Open Peer-to-Peer non si esauriscono nel loro obiettivo iniziale, ma fungono da base per possibili cooperazioni future alla risoluzione di nuovi problemi. La nascita di una comunità Open Peer-to-Peer può quindi rappresentare un processo di rigenerazione locale in costante evoluzione e crescita, una strategia per affrontare la globalizzazione partendo dalla dimensione locale.
117 pp.112-114 118 pp.327-329 119 p.307
4.8.6. Capitale sociale e sviluppo locale 4.8.6.1. Globalizzazione e sviluppo locale In meno di un decennio il tema della globalizzazione dell'economia non si è solo affermato nel dibattito scientifico, ma si è anche imposto all'attenzione dei media e dell'opinione pubblica. L'economia è così apparsa sempre più sradicata da singoli luoghi, sempre più mobile nello spazio: si ricercano occasioni d'investimento di capitali, di produzione di beni e servizi, o di vendita di prodotti, in luoghi molto lontani. È anche vero però che la maggior parte della produzione ha ancora origine e destinazione dentro i confini nazionali, e che il fenomeno sia volutamente enfatizzato. E in questo processo di "annullamento" delle condizioni specifiche locali non è nuovo, ma rappresenta una continuazione di quella riduzione della complessità di cui il fordismo si alimentava120. All'immagine di un'economia sradicata dai luoghi, alimentata da quella della globalizzazione, negli ultimi anni se ne è affiancata un'altra che si muove in direzione opposta: lo sviluppo locale121. Qui l'attenzione va allo sviluppo di territori, città, regioni che mostrano segni di particolare dinamismo. È il legame con un determinato territorio, e con il suo contesto sociale e istituzionale, che suscita l'interesse non solo degli studiosi, ma anche di amministratori e politici locali, di dirigenti di organizzazioni di rappresentanza delle categorie economiche, o di esponenti dell'associazionismo sociale e culturale. Un rinnovato interesse, quindi, per le caratteristiche specifiche della dimensione locale. Naturalmente, il dinamismo di singoli territori o città non è di per sé una novità: lo sviluppo economico non ha mai proceduto in modo omogeneo nello spazio. La novità è che rispetto al passato si affermano percorsi di sviluppo che sono meno il frutto di scelte derivanti dal “centro” - da politiche nazionali dello Stato – o la semplice conseguenza di determinismi geografici, come la dotazione di particolari risorse naturali e ambientali, o la vicinanza ai mercati. In questo contesto è comprensibile l'importanza dei processi di governance e dell'introduzione di sistemi distribuiti. I primi infatti permettono agli attori locali un ruolo attivo, mentre i secondi rappresentano l'infrastruttura tecnica che permette iniziative di sviluppo locale. È questa caratteristica di sviluppo organizzato a livello locale ciò che accomuna casi apparentemente diversi che hanno attirato l'attenzione negli ultimi anni: i sistemi locali dell'alta tecnologia, da quello dell'informatica della 120 Rullani (2002a, 2002b) 121 Trigilia (2005) p.4
Silicon Valley al polo delle biotecnologie di Oxford o a quello dei media di Colonia; lo sviluppo urbano di città che hanno affrontato i problemi del declino delle industrie tradizionali, o hanno avviato progetti innovativi, come Barcellona, Bilbao, Glasgow, Lione, Francoforte, Stoccolma e molte altre; e naturalmente l'esperienza dei distretti industriali, o di altri tipi di sistemi produttivi locali, in molte regioni italiane ed europee122. Lo sviluppo locale non si identifica quindi con specifiche specializzazioni produttive o con particolari modelli istituzionali di regolazione dell'economia. È quindi fuorviante associarlo esclusivamente ai distretti industriali di piccola impresa. Esso riguarda sistemi produttivi locali che possono assumere caratteri diversi: per esempio, possono coinvolgere grandi o medie imprese-rete che organizzano un insieme di fornitori localizzati in parte in uno stesso territorio, oppure agglomerati di piccole imprese (clusters) con un minor grado di integrazione e di cooperazione tra loro rispetto ai distretti. Anche la specializzazione produttiva può variare: accanto ai casi più conosciuti dei sistemi legati alle produzioni di beni per la persona e per la casa (tessile, abbigliamento, calzature, mobili, ceramiche, ecc.) vi sono sistemi di imprese specializzate in settori ad alta tecnologia (informatica, telecomunicazioni, biotecnologie, media, ecc.). Il fenomeno non va nemmeno legato al solo settore manifatturiero: ci possono essere sistemi specializzati in attività terziarie (finanza e servizi alle imprese, turismo) o in attività agroindustriali. Spesso sono presenti varie combinazioni di settori produttivi123. Ciò che caratterizza lo sviluppo locale è la capacità dei soggetti istituzionali locali di cooperare per avviare e condurre percorsi di sviluppo condivisi che mobilitino risorse e competenze locali. Il protagonismo dei soggetti locali e la mobilitazione delle risorse del territorio non implicano affatto una sorta di localismo autarchico, una chiusura difensiva verso i processi globalizzanti. Al contrario, il protagonismo dei soggetti locali favorisce lo sviluppo di un territorio quando riesce ad attrarre in modo intelligente risorse esterne, sia di tipo politico (investimenti pubblici qualificati o risorse per attirare imprese private) che economico e culturale (legate a decisioni di investimento o di localizzazione di soggetti privati); e quando riesce a cogliere le opportunità che l'allargamento dei mercati offre per nuove strategie di produzione di beni o servizi che valorizzino specifiche competenze e beni comuni (come il patrimonio ambientale e storico artistico)124. In definitiva, lo sviluppo locale consiste nel legare la dimensione locale specifica con reti globali a più largo raggio, in modo di utilizzarle per migliorare le condizioni locali. Tuttavia, ciò che distingue lo sviluppo locale dal 122 Trigilia (2005) p.5 123 Ibidem pp.5-6 124 Idem 107
mero dinamismo locale, come processo di crescita economica misurabile in termini di reddito prodotto e di occupazione, è la capacità di usare le risorse esterne per valorizzare quelle interne: attrarre investimenti, imprese, risorse scientifiche o culturali, non solo come occasione per la crescita della produzione, del reddito e dell'occupazione, ma come strumento che arricchisce le competenze e le specializzazioni locali. Può quindi essere messo facilmente in relazione con il concetto di localismo cosmopolita: lo sviluppo locale il suo strumento di diffusione. Un esempio dell'importanza dello sviluppo locale nel migliorare le condizioni locali è dato dall'emergere delle produzioni artigianali locali che propongono con successo i loro prodotti collegandoli all'identità del luogo di origine e ai valori culturali e sociali che lo caratterizzano. Affinché il modello di localismo cosmopolita basato sullo sviluppo locale possa funzionare, è necessario che il luogo e la comunità cui questi prodotti si riferiscono siano effettivamente vivi, vitali e di alta qualità. Secondo Manzini125, "se vi sono prodotti che portano con sé lo spirito del luogo, la qualità di questo luogo (e della comunità che lo caratterizza) deve anch'essa essere garantita. Tra luogo, comunità e prodotto si deve dunque stabilire un duplice legame: la qualità del luogo e della comunità è un elemento decisivo nel successo di un prodotto". Il successo di un prodotto, quindi, per essere duraturo, deve favorire la rigenerazione della qualità del luogo e della comunità di origine. Lo sviluppo locale rappresenta quindi un percorso possibile per affrontare i problemi indotti dalla globalizzazione, ricostruendo un nuovo equilibrio tra sviluppo e coesione sociale. Non si tratta quindi di difendersi dalla globalizzazione, ma di usare in modo accorto - cioè con capacità progettuale – le maggiori opportunità potenziali che essa offre dal lato dei processi produttivi (più mobili) e degli sbocchi di mercato (più aperti e variegati)126. Lo sviluppo locale è dunque diverso sia dal localismo autarchico che dal dinamismo di origine esterna. Il suo rapporto con la globalizzazione non è né meramente difensivo-oppositivo, come per il localismo, né passivo e adattivo, come per il dinamismo locale. Lo sviluppo locale si fonda sulle capacità di cooperazione e di strategia dei soggetti locali per gestire i vincoli posti dalla globalizzazione, e per coglierne le opportunità127. Certo, il discrimine tra sviluppo locale e mero dinamismo è difficile da tracciare con precisione. In una fase iniziale i due fenomeni possono anche convivere. Per esempio, un territorio può usare benefici fiscali, finanziari, di costo del lavoro, di fornitura di servizi, per attrarre imprese esterne. Per far questo può darsi strutture di marketing territoriale, cioè agenzie specializzate per contattare e attrarre investitori esterni. Ma se nel tempo questo processo non si combina con la 125 Manzini (2004) 126 Trigilia (2005) pp.6-7 127 Ibidem p.8 108
capacità di valorizzare le risorse provenienti dall'esterno per far crescere le competenze e le risorse locali, il rischio è che non si inneschi un vero sviluppo locale. La crescita resta soggetta ai flussi della globalizzazione, che rapidamente possono creare altrove occasioni più redditizie per imprese e investitori. Insomma, mentre per il marketing territoriale l'attrazione di risorse esterne è spesso un fine in sé, nella logica dello sviluppo locale essa diventa piuttosto un mezzo. Il perseguimento di una “via alta” di competitività si accompagna a un nuovo radicamento locale delle attività economiche. Ciò vale in particolare per le fasi di progettazione e di organizzazione complessiva dei processi, rispetto a quelle di mera produzione, che possono invece essere più facilmente delocalizzate. Le attività innovative si concentrano, e non solo quelle dove sono più coinvolte le imprese piccole e medie. Anche le grandi aziende in regime oligopolistico, che dominano nei settori a elevate economie di scala, sono oggi più interessate a localizzare le loro attività innovative dove vi sono possibilità più favorevoli di collaborazioni esterne qualificate e di servizi collettivi. Lo sviluppo locale non si identifica quindi con un determinato modello di organizzazione produttiva – per esempio quello dei distretti industriali – e non riguarda solo le attività manifatturiere. L'elemento essenziale che lo contraddistingue è costituito dalla capacità dei soggetti locali di collaborare per produrre beni collettivi che arricchiscono le economie esterne, ma anche per valorizzare beni comuni, come il patrimonio ambientale e storico-artistico. La qualificazione del territorio è il presupposto per sostenere o far emergere iniziative locali, ma anche per attirare attività esterne che non si localizzino in una determinata area solo per vantaggi di costo, oggi sempre meno difendibili per i paesi più sviluppati128.
4.8.6.2. La produzione di beni collettivi locali Nella descrizione di sviluppo locale eseguita da Trigilia129, lo spostamento verso attività e servizi più innovativi dipende oggi soprattutto dalla capacità di costruzione sociale dell'innovazione, ed è ciò che rende più importante il perseguimento dello sviluppo locale. L'economia diventa infatti più relazionale: è legata a fattori non di mercato, meno governabili con semplici relazioni contrattuali, e più basati invece su condizioni di contesto che facilitano la cooperazione fra soggetti individuali e collettivi. L'innovazione e la ricerca della qualità dipendono meno dalle singole aziende isolate, e sono invece maggiormente radicate nella capacità del contesto 128 Ibidem p.IX 129 Ibidem p.VIII
istituzionale locale di offrire un ambiente favorevole: economie esterne materiali e immateriali (infrastrutture, servizi, ricerca, formazione, ma anche qualità sociale e urbana, reti cooperative tra imprese e capacità di collaborazione fra attori pubblici e privati nel governo dei territori). Per Trigilia "lo sviluppo locale diventa così la costruzione sociale dell'innovazione offrendo beni collettivi di cui i singoli attori hanno più bisogno, ma che non sono in grado di produrre da soli"130. Le economie esterne si possono considerare quindi come il frutto di beni collettivi locali che aumentano la competitività delle imprese localizzate in un determinato territorio, sia perché ne abbassano i costi sia perché possono accrescere la loro capacità di innovazione. Si tratta di beni che le singole aziende non sono in grado di produrre in quantità adeguate (o non hanno interesse a farlo), ma da cui dipende la competitività di ciascuna di esse. In alcuni casi si tratta di beni collettivi in senso stretto, cioè estesi a tutti i potenziali fruitori: per esempio la disponibilità di manodopera qualificata, o di buone infrastrutture logistiche e di comunicazione. In altri casi, l'accesso può essere limitato ad alcuni gruppi: per esempio servizi di smaltimento di rifiuti per un settore produttivo particolarmente inquinante. Si parla allora più propriamente di beni di club o categoriali131. Rispetto alla fase fordista, in cui prevalevano imprese più autonome dall'ambiente, le economie esterne diventano ora più importanti. La diffusione e la qualità di economie esterne alle singole imprese, ma interne a una determinata area, acquistano un peso cruciale per le aziende e danno nuovo rilievo al rapporto tra economia e territorio. Perché l'ambiente si qualifichi e lo sviluppo locale si attivi, o si preservi, è necessario saper offrire quei beni collettivi che creino e ricreino, continuamente, economie esterne adeguate: rigenerino, quindi, le condizioni locali continuamente. Trigilia cerca di individuare i meccanismi attraverso i quali i territori contribuiscono ad arricchire l'offerta di beni collettivi132. Questi meccanismi si basano su due tipi di processi: processi di generazione "spontanei" e processi di costruzione più intenzionali. I due fenomeni si presentano di solito in combinazioni diverse. Nella fase iniziale del percorso di sviluppo sono soprattutto due meccanismi spontanei (o meglio: non intenzionali) a giocare un ruolo rilevante: dotazioni originarie di risorse tangibili e intangibili ed effetti emergenti di scelte non coordinate di singoli attori. Via via che lo sviluppo procede, diventa invece più importante un terzo processo: la capacità di coordinamento consapevole e intenzionale tra i diversi soggetti, e in particolare l'interazione tra attori collettivi (governi locali, organizzazioni di rappresentanza degli interessi, associazioni). 130 Idem 131Ibidem pp.12-13 132 Ibidem p.21
L'esistenza di una tradizione di saper fare diffuso localmente è essenziale per poter organizzare un modello produttivo basato sulla divisione del lavoro e sulla collaborazione tra produttori specializzati in singole parti o componenti. Le opportunità per produzioni flessibili e di qualità, che si aprono con le trasformazioni dei mercati e con le nuove tecnologie, sono originariamente colte da territori nei quali vi siano dotazioni di risorse cognitive e normative sedimentatesi storicamente. Ma le risorse cognitive non bastano, è necessaria anche un'intensa e complessa collaborazione tra gli attori. Cruciale è dunque l'esistenza di reti di legami sociali tra i soggetti coinvolti nel processo produttivo. Questo meccanismo riproduce fiducia e gioca un ruolo di particolare rilievo nella produzione spontanea di beni collettivi che alimentano lo sviluppo locale (attirando eventualmente anche imprese esterne). I beni in questione riguardano, in particolare, la disponibilità di soggetti economici specializzati (imprenditori e lavoratori), in grado di collaborare tra di loro in produzioni flessibili e di qualità con bassi costi di transazione. Ne risultano rilevanti economie esterne per le imprese locali, o per quelle esterne che decidono di localizzarsi133. Una seconda modalità di produzione spontanea di beni collettivi locali riguarda gli effetti emergenti di scelte non coordinate di attori locali o esterni. Anche il processo precedente può essere visto in questa chiave. La distinzione è però utile per mettere in evidenza un percorso in cui non sono necessariamente presenti quelle dotazioni originarie in termini di conoscenze e di reti di relazioni sociali. Questo meccanismo è stato infatti riscontrato in contesti meno sviluppati economicamente, e meno integrati socialmente. In questo caso le economie esterne che alimentano l'avvio dello sviluppo locale sono legate a decisioni iniziali di pochi soggetti. In genere, le economie esterne che ne risultano sono meno ricche di quelle esaminate in precedenza134. Per questo motivo le forme di collaborazione e di integrazione orizzontale tra le imprese tendono ad essere meno sviluppate che nei distretti (di solito si tratta di aggregazioni – clusters – di piccole e medie imprese). Attraverso l'interazione ripetuta nel corso del processo si possono però sviluppare reti di relazioni e rafforzare la produzione più intenzionale di economie esterne. Una terza modalità di generazione di beni collettivi è rappresentata dai processi consapevoli di costruzione. In genere questo meccanismo accompagna sin dall'inizio un percorso di sviluppo locale, ma certo esso diventa più importante nella fase di consolidamento. Vi sono poi dei casi, come nella formazione di sistemi produttivi locali specializzati in attività ad alta tecnologia, o nei progetti di sviluppo di città medio-grandi, in cui il suo ruolo è determinante sin dalla fase iniziale. La produzione di questo tipo di 133 Ibidem p.22 134 Ibidem p.23 109
beni collettivi locali può riguardare infrastrutture e servizi che sono oggetto di specifiche politiche pubbliche intraprese dai governi locali e regionali, anche sulla base di programmi nazionali o europei (vie di comunicazione, aree attrezzate o parchi tecnologici, ecc.). Si tratta qui di veri e propri beni pubblici aperti al consumo di tutti i possibili fruitori (non escludibilità). Il loro uso da parte di alcuni soggetti non diminuisce inoltre la disponibilità per alcuni fruitori (non rivalità nel consumo). In altri casi, specifici servizi sono il frutto della cooperazione tra i soggetti economici (servizi alle imprese promossi e gestiti dalle organizzazioni di categoria)135. Un ulteriore caso è costituito dalla disponibilità di un ambiente con particolari qualità naturalistiche (per esempio foreste, fiumi, coste) o storico-artistiche. Si tratta di beni comuni che sono sfruttabili da tutti i soggetti, in particolare da quelli locali, ma che possono deperire se il consumo individuale non è disciplinato (rivalità del consumo). Il contributo dello sviluppo locale consiste qui nella capacità di regolare l'uso delle risorse comuni, facendone un punto di forza, invece di lasciarle sottoutilizzate, o di farle deperire per mancanza di controllo sull'uso da parte dei soggetti privati. Trigilia ritiene necessario sottolineare che una più efficace produzione di questi beni per il contesto locale richiede in genere un'elevata capacità di cooperazione informale e formale tra i diversi soggetti collettivi pubblici e privati136. Infatti, una possibile conseguenza di relazioni non cooperative è il diffondersi di legami politici clientelari, di collusioni. Occorre tenere presente che ci possono essere anche reti sociali dove vi siano conseguenze favorevoli per coloro che ne fanno parte, ma negative per lo sviluppo locale. In questo senso si può dire che la produzione intenzionale di beni collettivi dedicati, che rispondono cioè a specifiche esigenze di creazione di economie esterne per lo sviluppo locale, richiede una produzione congiunta tra soggetti pubblici e privati: un'elevata capacità di coordinamento tra soggetti collettivi137. I meccanismi di produzione di beni collettivi hanno un importante elemento in comune: il loro funzionamento è influenzato dall'esistenza di relazioni sociali personali tra i soggetti coinvolti, che facilitano la cooperazione. Si tratta di relazioni extra-economiche che incidono sullo sviluppo economico sia direttamente nel processo produttivo, sia indirettamente attraverso la formulazione di politiche pubbliche o di interventi che creano beni collettivi dedicati per il contesto locale. In entrambi i casi il ruolo delle reti di relazioni sociali è di particolare rilievo, perché rende possibili transazioni complesse e rischiose sul piano economico o politico; fornisce risorse di fiducia che consentono ai soggetti di cooperare anche in presenza di condizioni di incertezza e di carenza di informazioni138. 135 Ibidem 136 Ibidem 137 Ibidem 138 Ibidem 110
p.24 p.25 p.26 p.28
Si comprende quindi l'importanza del capitale sociale per innescare processi di sviluppo locale. Attraverso il capitale sociale si alimenta la formazione di risorse cognitive, come le informazioni, o normative, come la fiducia, che permettono agli attori di realizzare obiettivi che non sarebbero altrimenti raggiungibili, o lo sarebbero a costi molto più alti. Spostandosi dal livello individuale a quello aggregato, si potrà poi dire che un determinato contesto territoriale risulta più o meno ricco di capitale sociale a seconda che i soggetti individuali o collettivi che vi risiedono siano coinvolti in reti di relazioni cooperative più o meno diffuse. Quando si parla di un territorio ben fornito di capitale sociale, si fa riferimento a reti cooperative con effetti positivi per la collettività. Ciò non vuol dire, però, che in assenza di tali effetti manchi necessariamente capitale sociale, ma ciò che interessa è quel capitale sociale che permette processi di sviluppo locale139. Il capitale sociale non fa differenza tra un’impresa e l’altra; ma crea una differenza strutturale tra tutte le imprese locali e tutte le imprese esterne, dando dunque una forma territoriale alla concorrenza. Attraverso la mediazione del capitale sociale i territori si fanno concorrenza in quanto territori o, meglio, in quanto società locali dotate ciascuna di storia e specificità differenti140. In questa produzione cooperativa di beni collettivi, le comunità Open Peer-to-Peer possono ricoprire un ruolo fondamentale. La ragione è comprensibile, dato che le loro attività sono cooperative e riguardano sempre la produzione di beni collettivi (siano essi risoluzione a problemi, progetti, beni fisici, ecc.). Nel contesto dello sviluppo locale, le comunità Open Peer-to-Peer mettono quindi in moto processi intenzionali di produzione di beni collettivi, in special modo quando le loro attività sono esplicitamente indirizzate al miglioramento delle proprie dimensioni locali141. Ma non solo. Una volta che una comunità Open Peer-to-Peer si è costituita e ha svolto la propria attività con successo, è stato costituito anche un capitale sociale e intellettuale condiviso, che rappresentano le "dotazioni originarie" di cui parla Trigilia, che possono essere utilizzate per nuove attività cooperative. Le comunità Open Peer-to-Peer possono quindi svolgere attività direttamente indirizzate alla dimensione locale, producendo così beni collettivi, ma anche se non fossero interessate alla dimensione locale, produrrebbero comunque capitale sociale che può essere utilizzato in seguito. Non solo le comunità Open Peer-to-Peer possono essere un fattore di sviluppo locale, ma anche lo stesso software open source può esserlo. In questo modo, si possono favorire comunità Open Peer-toPeer oppure utilizzare le comunità già esistenti e 139 Ibidem p.30 140 Rullani (2002b) 141 Come ad esempio nei casi Honeybee network, BBC Action Network, BBC Neighbourhood Gardener, Grameen Bank, Terra Madre, Open Health, Self Help Groups (SHG), Solar Roof
portare parte dei loro risultati in un determinato contesto locale. L'iniziativa basata sulla filosofia Open Source della Regione dell'Extremadura è un esempio dei recenti progetti in cui le autorità locali scelgono il software open source per abilitare una partecipazione della popolazione a tutti i livelli, in modo da garantire un accesso libero (open access) alle risorse amministrative, tecnologiche, economiche ed educative regionali. In questo caso specifico, le amministrazioni locali erano consapevoli che uno sviluppo locale di successo non sarebbe stato possibile senza un coinvolgimento ampio. L'idea che ebbero era di non decidere una strategia imponente top-down, ma di gettare le fondamenta per attività collaborative e incoraggiare le persone a prenderne parte. La costruzione di una piattaforma comune ha permesso la nascita di altre attività economiche di successo, portando la religione a condizioni migliori142.
sia tra soggetti individuali che collettivi. Si formano più facilmente reti di relazioni che alimentano la fiducia reciproca e favoriscono la cooperazione. Infatti, a livello locale funzionano meccanismi di controllo sociale che permettono di individuare e isolare chi rompe la fiducia attraverso una rapida circolazione dell'informazione. Da questo punto di vista, le appartenenze radicate costituiscono una forte pressione sul comportamento individuale, contribuendo a limitare l'opportunismo.
Solitamente la generazione per appartenenza si basa su legami particolarmente intensi e frequenti, legami cioè "forti" come quelli descritti da Granovetter. Per quanto riguarda le reti individuali, legami di questo tipo hanno vantaggi e svantaggi. Tra i primi vi è la possibilità di cooperazioni più complesse e rischiose, che viene ad essere maggiormente sostenuta da un più forte cemento fiduciario. Tra gli svantaggi va però valutato il rischio di una chiusura eccessiva delle reti, che potrebbe limitare le informazioni circolanti, e quindi influire negativamente sui processi di aggiustamento economico144. I legami di appartenenza generano capitale sociale
I meccanismi di formazione del capitale sociale basati sulla sperimentazione, a differenza dei precedenti, si basano sui legami "deboli". Si formano cioè relazioni meno intense e più occasionali. Ad esempio, un'impresa esterna o locale può stabilire rapporti con altre aziende in una determinata area, e se questi si concludono con soddisfazione possono essere ripetuti nel tempo. Si formano così delle comunità professionali, attraverso le quali circolano più facilmente informazioni e conoscenze, e viene valutata la reputazione dei soggetti coinvolti. Anche qui il controllo sociale esercitato attraverso le reti è poi rilevante, ma è in genere più limitato al comportamento professionale. Vantaggi e svantaggi sono opposti rispetto al capitale sociale legato all'appartenenza. Da un lato, in queste reti circolano più informazioni che facilitano l'apertura verso nuove conoscenze, anche esterne al contesto locale. Ciò favorisce l'accesso alle conoscenze più codificate, che sono importanti per l'aggiornamento del sistema produttivo locale. D'altra parte, reti più basate su legami deboli sono meno efficaci nel processo di trasformazione del sapere codificato in uno specifico sapere contestuale, che presuppone rapporti più stretti e frequenti tra i soggetti coinvolti. Per Trigilia, la generazione per sperimentazione è poi particolarmente importante nei rapporti tra soggetti collettivi. Quando manca una comune appartenenza è più difficile cooperare per la produzione di beni collettivi. Ciascun attore può fidarsi poco degli altri, e la sua stessa base giudica con sospetto eventuali forme di collaborazione con altri soggetti, specie se non sono ideologicamente vicini. Trigilia conclude dicendo che affinché l'innovazione possa svilupparsi efficacemente, sembra necessaria una composizione bilanciata tra legami deboli e forti145. Quali sono le condizioni che favoriscono un uso delle reti con effetti positivi sullo sviluppo locale? Trigilia propone due aspetti di particolare rilievo: una cultura condivisa e il ruolo delle istituzioni politiche. Al fine della nostra analisi, risulta più interessante il ruolo giocato dalla cultura condivisa. La cultura ereditata dal passato conta nell'orientare i comportamenti dei soggetti. Essa influenza la morfologia delle reti, perché ne definisce i confini e inoltre condiziona i contenuti delle relazioni146.
142 Vaca, A (2005) 143 Trigilia (2005) p.32 144 Ibidem p.34
145 Ibidem pp.35-36 146 Ibidem p.41
4.8.6.3. Generazione di capitale sociale a livello locale Trigilia individua due processi ideal-tipici di generazione di capitale sociale e relazionati con i processi di sviluppo locale, a cui corrispondono reti di relazioni con caratteristiche diverse. Un primo tipo è legato a quelle dotazioni originarie, che sono alimentate da identità collettive particolarmente radicate in un certo territorio. In questo caso l'origine del capitale sociale è più esterna alla sfera economica, ma vi si estende facilitandone il funzionamento. L'altro meccanismo si basa invece su attività economiche e di lavoro che, anche attraverso la loro ripetizione nel tempo, vanno al di là di rapporti meramente contrattuali, generando legami sociali più duraturi. Egli definisce il primo processo – che va dalla società all'economia – come generazione per appartenenza, e il secondo – che si muove in senso inverso – generazione per sperimentazione143. Questa distinzione è simile a quella fornita da Pizzorno tra "capitale sociale di solidarietà" e "di reciprocità", anche se è più focalizzata sulle relazioni tra capitale sociale e attività economiche.
111
Come già accennato, il capitale sociale delle comunità Open Peer-to-Peer che è utile per lo sviluppo locale, viene formato in due modi. Una comunità Open Peer-to-Peer può interessarsi direttamente alla produzione di determinati beni collettivi di cui vi è necessità a livello locale (generando al contempo capitale sociale utile per lo sviluppo locale in generale), oppure, se le sue attività hanno altri obiettivi, generano comunque del capitale sociale che può essere utile in futuro. Possono quindi generare capitale sociale per sperimentazione e per appartenenza. Inoltre, sono caratterizzate sia da legami deboli che da legami forti e si basano su una cultura condivisa. Le comunità Open Peer-to-Peer hanno una cultura della cooperazione, della condivisione, una economia del dono e una forte componente etica. Hanno quindi le giuste caratteristiche, la giusta cultura, per poter utilizzare le loro reti sociali al meglio, per uno sviluppo locale efficace ed equilibrato.
112
5. Reti collaborative complessi
5.1. Il bazaar e la complessità Una analisi molto importante del fenomeno del software open source viene da Ko Kuwabara, che utilizza alcuni concetti provenienti dalla Teoria della Complessità. Nonostante la Teoria della Complessità non sia ancora giunta ad un livello di integrazione completo delle differenti teorie che la formano, questo collegamento che effettua Kuwabara amplia notevolmente gli strumenti di analisi delle comunità Open Peer-to-Peer. Kuwabara prende come esempio Linux, rappresentando questo il software open source per eccellenza, quello che ha avuto maggior successo in termini di utenti utilizzatori e membri della comunità di programmatori. Spesso le due figure coincidono ma, sebbene il progetto sia iniziato dall'attività di utentiprogrammatori, ha avuto talmente tanto successo da ampliare la sua comunità anche a utenti non esperti (se non in misura minima) o comunque non programmatori. Linux rappresenta non solo il simbolo del software open source e quindi della filosofia Open Source, ma anche come questa possa espandersi nella società e in altri ambiti. Linux merita un luogo speciale all'interno della storia del software open source per molte ragioni. Per prima cosa, la sua qualità come un sistema operativo di prima categoria lo pone ai più alti vertici di progettazione di software. Un sistema operativo è la base software sulla quale sono eseguite tutte le applicazioni degli utenti. Basato su istruzioni notevolmente complesse, controlla gli strumenti e gestisce il flusso di informazioni e comunicazione fra i vari componenti del computer, stanziando le risorse di sistema del computer fra i vari programmi in esecuzione. Il suo kernel (o nucleo) da solo consiste in quasi un milione di linee di codice nel caso di Linux, con altri milioni di linee di codice nei programmi periferici che costituiscono una distribuzione commerciale di Linux. La progettazione e sviluppo di un software complesso come un sistema operativo è un compito scoraggiante anche per le più grandi aziende, e ancora di più per un piccolo gruppo di hacker appassionati sparsi su tutta la rete di Internet. Per seconda cosa, le dimensioni del progetto di Linux sono semplicemente senza precedenti nella storia dello sviluppo di software. In certi periodi, migliaia di programmatori hanno speso volontariamente il loro tempo e sforzo nello sviluppo quotidiano di numerosi componenti e funzioni che comprendono il sistema operativo. Secondo una stima, il progetto ha coinvolto circa
come
sistemi
adattativi
40,000 persone in tutto il mondo1, e nessuno di questi volontari è stato compensato finanziariamente per il loro contributo. Nondimeno, il progetto di Linux è cresciuto fino alla sua notevole dimensione senza una organizzazione formale attorno ad una autorità centrale. Fred Brooks, un'autorità sull'ingegneria del software, riscontrò che, proprio a causa dei crescenti costi di coordinazione, il tempo di sviluppo aumenta esponenzialmente col numero dei programmatori presenti in un team progettuale2: è quindi impossibile una progettazione collettiva su larga scala, soprattutto senza una gestione centralizzata. Nel mondo delle grandi imprese, la legge di Brook viene considerata come una verità evidente. Ma Linux sfida questa concezione con successo: non è mai esistita una organizzazione centralizzata che agisse da intermediaria delle comunicazioni tra Torvalds e le migliaia di partecipanti, né team progettuali di piccole dimensioni e con responsabilità e compiti prescritti, alle quali vengono assegnati i partecipanti. Invece, sin dall'inizio, ogni persona è stata lasciata libera di decidere dove impegnare il proprio intervento, anche se ciò avrebbe potuto comportare un rischio potenziale di difficoltà di coordinazione. Nonostante ciò, il progetto di Linux ha proceduto ad una velocità straordinaria, con aggiornamenti e versioni rilasciate su una base quotidiana e settimanale. Infine, nonostante la complessità, le dimensioni e la velocità di sviluppo del progetto, Torvalds e i suoi co-sviluppatori hanno realizzato con successo un sistema operativo potente tal quale Linux è oggi, che molte persone considerano migliore di Microsoft Windows (il sistema operativo più diffuso, il classico caso di software proprietario) in molti aspetti della performance, incluso l'affidabilità, una qualità spesso desiderata ma di difficile realizzazione in sistemi operativi. Non è sorprendente che, oggi, Linux abbia una base di utenti valutata in circa più di tre milioni di utenti in tutto il mondo, una posizione che, per essere raggiunta, occorse il doppio del tempo a Microsoft3. Quindi, anche se la qualità del kernel di Linux è di per sé significativa4, quello che è particolarmente significativo è il fatto che Linux abbia realizzato un standard di qualità superiore a quello di software proprietario, con una 1 2 3 4
Kuwabara (2000) http://en.wikipedia.org/wiki/Brooks%27_law Kuwabara (2000) L'importanza di Linux, per il movimento Free Software e Open Source, risulta proprio nell'aver fornito il kernel mancante al sistema operativo sviluppato dalla Free Software Foundation 113
organizzazione in cui nessuno all'epoca credeva potesse avere successo. Anche se Torvalds stesso è un programmatore dotato d'ingegno, come molti dei suoi cosviluppatori, una cosa è produrre un prodotto di alta qualità per il piacere personale, e completamente una altra cosa è costruire un sistema che sorpassi in performance i prodotti commerciali. Linus Torvalds, e i suoi co-sviluppatori, sono riusciti a sviluppare un progetto talmente complesso come quello di un kernel attraverso una metodologia progettuale (ma anche organizzativa, dato che riguarda una intera comunità) differente da quella dominante nel mondo dell'informatica. Ciò che è importante nella storia dello sviluppo di Linux, secondo Kuwabara, è che la sua particolare metodologia progettuale sia riuscita a risolvere problemi complessi in maniera innovativa e al di là delle aspettative di successo. Una metodologia che Eric Raymond ha definito a bazaar, contrapponendola a quella a cattedrale. Da un lato abbiamo quindi il modello a cattedrale, comune nei progetti di sviluppo di natura commerciale, caratterizzato da una pianificazione centralizzata di tipo top-down e messa in pratica da team progettuali specializzati con calendari ben definiti. Una organizzazione razionale, basata sull'efficienza, caratterizzata da una gestione lineare del progetto. Dall'altro lato abbiamo il modello a bazaar, tipico del progetto di Linux, col suo sviluppo decentrato guidato dai capricci di appassionati volontari e poco altro. In contrasto all'isolamento sereno della cattedrale, il bazaar rappresenta il clamore stesso. Chiunque è benvenuto - più persone, maggiore il rumore creato, meglio è. È una comunità di persone e per le persone, una comunità per tutti dove condividere. può apparire caotica e senza struttura, una comunità dove nessuno è singolarmente in carica. Le caratteristiche più importanti del modello a bazaar risiedono nel coinvolgimento di un alto numero di partecipanti, e di conseguenza una totale apertura del progetto (mentre nella cattedrale i partecipanti sono pochi, interni all'impresa, che mantiene quindi il progetto chiuso e segreto verso l'esterno); su una architettura modulare (e non monolitica come nella cattedrale) che possa fungere da enabler della collaborazione collettiva; sul riutilizzo delle risorse e sulla flessibilità; sulla pubblicazione rapida e frequente del codice, che permette ai partecipanti di trovare gli errori presenti non appena questi si presentano. Data una base di utenti e sviluppatori grande come la comunità di Linux, Torvalds può, in tutta sicurezza e tranquillità, contare su altre persone affinché scrivano ed esaminino il codice per lui. Può ricevere versioni multiple del codice da persone che sono meglio informate o interessate nello specifico componente. Il suo compito è semplicemente quello di selezionare il codice migliore per inserirlo nella versione successiva.
In definitiva, il suo è un ruolo di enabler della collaborazione collettiva grazie alla sua visione della direzione del progetto. Lo sviluppo del kernel è essenzialmente un processo competitivo in cui ogni partecipante cerca di offrire il codice migliore. Anche se nessuno di loro è compensato finanziariamente, Raymond pensa che questi ottengano abbastanza soddisfazione dalla reputazione ricevuta con il loro sforzo e l'abilità guadagnata da un confronto reciproco. In effetti, la soddisfazione attraverso la reputazione è collegata direttamente all'interesse personale degli hacker. Secondo Kuwabara, nello stesso modo in cui forze della natura hanno creato l'occhio umano, il processo selettivo di sviluppo e debugging5 parallelo hanno creato, linea dopo linea di codice, un sistema operativo coerente e stabile, caratterizzato da una complessità e qualità ben oltre un progetto ordinario. Quello che è dietro alle dinamiche del progetto di Linux, è l'evoluzione stessa, un sistema ecologico dove una serie di agenti indipendenti cercano di massimizzare gli utili personali producendo un ordine spontaneo e in grado di auto-correggersi, più elaborato ed efficiente di quanto avrebbe potuto raggiungere qualsiasi pianificazione centralizzata. Questa visione evoluzionista si spiega se si pensa che l'evoluzione non sia solo un fenomeno biologico, ma più generalmente, una legge di probabilità che si applica anche ai cambiamenti in popolazioni nonbiologiche. Per Kuwabara, questa capacità di gestire la complessità è una conseguenza del modello a bazaar adottato: Linux può essere visto come sistema adattivo complesso (su due livelli distinti di interazione), il cui sviluppo è basato sull'evoluzione e non su una progettazione, almeno non nel senso tradizionale del termine. Ad un livello abbiamo il codice sorgente. Linux, come tutti gli altri sistemi operativi, consiste di numerose linee di codice organizzate in gerarchie logiche di unità distinte e sub unità. Le unità di codice a turno interagiscono nell'eseguire un compito, formando una immensa rete di funzioni interdipendenti, anche per le operazioni più basilari. Al livello globale del sistema operativo, questa ricca connettività permette al sistema operativo di trattare una larga serie di input dall'utente e rispondere con un ordine ugualmente ampio di comportamenti logici in una maniera notevolmente interattiva. Ovviamente, il sistema operativo è solamente interattivo nel senso che è progettato specificamente dai suoi sviluppatori. E, allo stesso modo, evolve solamente se gli sviluppatori lo modificano. Ad un secondo livello della struttura gerarchica, quindi, abbiamo la comunità di sviluppatori ed utenti che formano la loro rete di agenti interagenti a livello locale. L'interesse di Kuwabara nell'evoluzione di Linux ha due pertanto aspetti. Il primo aspetto riguarda la pura e semplice complessità del sistema operativo.
5 114
http://en.wikipedia.org/wiki/Debugging
Fig. 37: Ciclo di retroazione (Fonte: von Bertalanffy 1971)
Dato che la performance di un sistema operativo si basa sulla stretta interazione tra componenti ermeticamente integrati, un bug (errore) apparentemente innocuo, in una sola linea di codice, potrebbe provocare effetti inaspettati e difficilmente rintracciabili in altri luoghi del sistema operativo. Allo stesso tempo, questo progetto logico e densamente interconnesso del sistema operativo è associato con una comunità in costante divenire. In breve, Linux è un sistema complesso sia dal lato del progetto (il codice sorgente) che da quello della comunità che lo sviluppa. Sono complesse la organizzazione della comunità e la progettazione del codice.La complessità del sistema operativo di Linux è una funzione della comunità che si evolve, le sue diverse e mutevoli necessità e richieste. Ciò che è interessante e straordinario di Linux da questo punto di vista è che la sua qualità sono derivate, non dai particolari principi progettuali del singolo kernel, ma dalle interazioni fra i numerosi partecipanti. Così, la complessità di Linux è cresciuta di pari passo con la crescita della comunità: l'emergenza del progetto e l'auto-organizzazione della comunità sono strettamente collegate.
5.2. Comunità Open Peer-to-Peer come sistemi complessi Linux, e quindi anche le altre comunità Open Peerto-Peer, sono sistemi complessi in grado di affrontare la complessità. Ma come possiamo definire la complessità? Uno dei più antichi sogni del genere umano è ridurre la complessità alla semplicità. Il desiderio di semplicità ha a lungo guidato i vari sforzi di spiegare il mondo in termini di sistemi semplici, andamenti lineari, leggi riducibili a semplici equazioni. Ma la complessità è una dimensione da cui è impossibile prescindere. Il termine complesso significa “risultante dall'unione di varie parti; composito, eterogeneo”6. Etimologicamente il termine complessità deriva dal participio passato del verbo latino complector, che significa intrecciare insieme, cingere, riunire, raccogliere (plexus, 'interecciato')7. La complessità, dunque, è fatta di intrecci, interconnessioni, del reciproco intersecarsi di parti 6 7
Taylore (2005) p.176 Idem
ed elementi diversi fra loro. Come afferma Taylor, "la complessità non solo ha mille implicazioni; è essa stessa un fitto processo di implicazione. La complicazione implica e l'implicazione complica"8. Ludwig von Bertalanffy, uno dei fondatori della Teoria Generale dei Sistemi, dà questa definizione di sistema: "un sistema può essere definito come un complesso di elementi interagenti. Interazione significa che gli elementi, p, sono connessi da relazioni, R, in modo tale che il comportamento di un elemento p in R è differente da quello che sarebbe il suo comportamento rispetto ad un'altra relazione R1"9. Un sistema complesso può quindi essere compreso come una rete di interazioni fra vari elementi, definizione questa che si ricollega a quelle definizioni sociologiche danno del termine comunità. Se la struttura di una comunità si basa su una rete di interazioni sociali, possiamo vedere la comunità come un sistema complesso, e cercare di descrivere il suo funzionamento attraverso le teorie che cercano di descrivere la complessità10. La rete è quindi l'architettura della complessità. Mark Taylor descrive la rete come la forma di una cultura che sta emergendo, e sviluppa una metafora architettonica che spiega la relazione tra la rete e la complessità: "laddove i muri dividono e isolano, cercando d'imporre l'ordine e il controllo, le reti collegano e mettono in relazione, immergendo tutti in connessioni multiple, mutevoli e che si definiscono a vicenda, senza che nessuno ne detenga il controllo"11. Per von Bertalanffy un sistema si dice complesso quando le interazioni tra i suoi elementi costitutivi formano dei cicli di retroazione (feedback loop). Per retroazione si intende un processo circolare in cui una parte dell'uscita viene rinviata all'ingresso come informazione relativa alla forma preliminare della risposta. La retroazione è negativa quando è di tipo frenante, cioè tendente a garantire stabilità. In questo caso, una deviazione rispetto all'equilibrio è inviata all'indietro, come informazione, attraverso il meccanismo di retroazione, sino a che l'equilibrio non è ripristinato. Tale processo è alla base, per Idem von Bertalanffy L., "Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni", ISEDI, milano 1971, p.23 10 Il concetto di rete, quindi, è estendibile dalla social network analysis alle teorie della complessità. Non è quindi una semplice metafora ma una prospettiva di analisi sistemica condivisa 11 Taylor (2005) p.28 8 9
115
esempio, sia da fenomeni biologici, come l'omeostasi, sia di numerosi dispositivi tecnologici. Il termostato che regola la temperatura di una casa, ad esempio, alza il riscaldamento centrale quando la temperatura scende al di sotto di un valore prefissato; quando essa la supera, il termostato determina invece una sottrazione di calore.
O, più generalmente, un ciclo di retroazione può anche essere visto come una serie di eventi che si influenzano a vicenda (fig.39).
La retroazione positiva, al contrario, è di tipo rinforzante, autostimolante. Essa ha un effetto destabilizzante, secondo la logica "a chi ha, sarà dato": anziché smorzare le piccole perturbazioni, come farà la retroazione negativa, tende ad amplificarle sempre di più. È il fenomeno che si verifica quando un suono, emesso da un altoparlante, rientra nel microfono e viene rapidamente amplificato sempre di più12. I meccanismi di retroazione possono innescarsi in un sistema in due casi: • quando le interazioni tra gli elementi sono non-lineari, e si ha che l'elemento A influisce sull'elemento B, e a sua volta B influisce su A, garantendo così un ritorno di informazione. Un esempio è dato dalla schismogenesi, ossia una situazione in cui ciò che fa A determina in B un inasprimento del comportamento, cui A reagisce. La schismogenesi può essere simmetrica oppure complementare. È simmetrica, quando A e B si comportano essenzialmente nello stesso modo: A fa un passo in una certa direzione, il che spinge B a farne uno più lungo nella stessa direzione, lo stesso fa A, e così via. È, invece, complementare, quando A e B si comportano in modo opposto, come nella relazione tra un individuo prepotente ed un altro remissivo: A, l'individuo prepotente, assume un atteggiamento dispotico, B, l'individuo remissivo, lo subisce così umilmente che A diventa ancora più dispotico, e via di conseguenza13; A→←B •
quando si hanno delle reazioni a catena, per cui A interagisce con B, B con C, C con D, e così via fino a Z, che a sua volta interagisce con A, chiudendo la catena. In questo modo, anche se le interazioni sono lineari, la chiusura dell'anello garantisce un effetto di retroazione. Un processo di questo tipo è l'autocatalisi chimica, dove ogni molecola catalizza la produzione di un'altra molecola, in un ciclo chiuso che permette all'insieme di catalizzare se stesso14. A → B → C → D → ... → Z → A → ...
12 Bertuglia, Staricco (200) 13 Idem 14 Idem 116
Fig. 38: Formazione di un anello di retroazione in un sistema i cui elementi hanno, l'uno con l'altro, interazioni di tipo solo lineare (Fonte: Capra 2001)
Fig. 39: Ciclo di retroazione tra eventi
Fino a pochi decenni fa, un sistema veniva definito complesso quando il numero dei suoi componenti e, soprattutto, delle loro interazioni era molto elevato. Esistono, però, sistemi a molti componenti, quali quelli coinvolti nei fenomeni collettivi del moto ondoso, della fisica dello stato solido, della termodinamica, che non possono essere considerati complessi ma solo "complicati": il loro comportamento è privo di sorprese e prevedibile, purché analizzato con tecniche matematiche di tipo statistico e probabilistico. Viceversa, sistemi costituiti da pochi elementi, ma con interazioni non-lineari tra questi elementi, presentano un comportamento imprevedibile e ricco di sorprese. La definizione di un sistema complesso basata sull'elevato numero di componenti ed interazioni non è allora né sufficiente, (sistemi costituiti di pochi elementi possono esibire un comportamento complesso) né necessaria (sistemi a molte componenti possono esibire un comportamento prevedibile).
Per questo, oggi, l'origine della complessità di un sistema viene vista nella presenza di cicli di retroazione nelle interazioni tra gli elementi costitutivi. Le reti di interazioni possono prendere molte forme, ma la forma a ciclo di retroazione è quella che garantisce un comportamento complesso al sistema. Nei sistemi complessi, si ha in genere compresenza di retroazioni negative e positive, ma sono soprattutto queste ultime, grazie al loro effetto amplificatore, a determinare le caratteristiche più interessanti di tali sistemi. Innanzitutto, esse fanno sì che gli effetti di un'azione locale siano in genere non solo locali. In realtà, questa è una proprietà di tutti i sistemi, anche di quelli semplici, ed è dovuta al fatto che gli elementi costitutivi non sono isolati, ma in interazione. Analogamente, in una ragnatela, la vibrazione di un nodo può trasmettersi ad un altro nodo, anche lontano, grazie ai fili che li collegano. Nei sistemi complessi, però, la non-linearità può rinforzare una perturbazione locale fino a generare una cascata di effetti che interessano l'intero sistema. Inoltre, le retroazioni positive comportano che "il tutto sia più che la somma delle parti". "Il significato dell'espressione "l'insieme è maggiore della somma delle parti", consiste semplicemente nell'affermare che le caratteristiche costitutive di un sistema complesso non sono spiegabili a partire dalle caratteristiche delle parti isolate15. Nei sistemi semplici, caratterizzati da interazioni lineari, il tutto è esattamente uguale alla somma delle parti: ogni componente è autonoma rispetto alle altre, pur nei limiti dell'interazione. Ad esempio, il suono è un sistema lineare, ed ecco perché siamo in grado di distinguere quello di un oboe da quello degli strumenti a corde che lo accompagnano. Le onde sonore si sovrappongono e conservano tuttavia identità separate. Nei sistemi complessi, invece, la presenza di retroazione e di mutua dipendenza comporta che le equazioni differenziali che li descrivono siano di tipo non-lineare. Tali equazioni, a differenza di quelle lineari, possono essere risolte in termini analitici solo in alcuni casi; in generale, esse richiedono un'integrazione per via numerica, tramite l'uso di un calcolatore. Proprio la necessità di un adeguato supporto informatico costituisce uno dei motivi per cui solo di recente è stato avviato uno studio sistematico dei sitemi complessi. Inoltre, le equazioni differenziali non-lineari non godono della proprietà fondamentale secondo cui una combinazione lineare di soluzioni è ancora una soluzione. Ciò significa che il comportamento di un sistema complesso non è uguale alla somma dei comportamenti delle sue parti; anzi, è qualcosa di più, e di inaspettato. La non-linearità determina l'emergere di proprietà e comportamenti controintiuitivi e apparentemente acasuali (quali catastrofi, biforcazioni, creazione di novità, autoorganizzazione), che non possono essere dedotti 15 Idem
da un'analisi degli elementi costitutivi. Secondo Casti16, l'essenza dei sistemi complessi risiede proprio nella loro capacità di generare "sorpresa", ossia di comportarsi in un modo che va contro le nostre previsioni17. Se è vero che l'intero è più ed altro che la somma delle parti, ecco che allora l'approccio analiticoriduzionista risulta inadeguato per lo studio di questi sistemi, ed occorre ricorrere ad un approccio olistico. Non è possibile cercare di studiare le proprietà di un sistema complesso isolando l'uno dall'altro gli elementi componenti: tali proprietà, infatti, derivano da quei rapporti di mutua dipendenza tra gli elementi, dovuti alla nonlinearità delle loro interazioni; rapporti che vengono meno proprio nel momento della scomposizione in parti isolate. Un sistema complesso, dunque, non può essere scomposto in parti senza perdere aspetti essenziali del suo comportamento. Comportamento che appare ricco di "sorprese", anche quando il sistema sia costituito da pochi elementi, purché essi siano legati da interazioni non-lineari. La natura di sistema complesso delle comunità Open Peer-to-Peer può essere compresa anche grazie alla presenza di cicli di retroazione. Ad esempio, in una comunità di sviluppo di software open source, un ciclo di retroazione positiva è quello che, grazie alla segnalazione degli errori, permette uno sviluppo più rapido del programma (fig. 40). Un ciclo di retroazione negativa è invece quello che porta il nucleo centrale ad accorgersi che il malcontento dei membri della comunità influisce negativamente sulla qualità del software prodotto: in questo modo il nucleo centrale può intraprendere iniziative per cambiare la direzione generale della comunità, al fine di coinvolgere maggiormente i partecipanti. Uno dei tanti cicli di retroazione positiva di una comunità Open Peer-to-Peer il cui bene collettivo viene condiviso liberamente (anche con chi non fa ancora parte della comunità), è quello rappresentato in fig. 42. Questo ciclo si basa sui contributi individuali apportati e sulla etica che li regola. Un maggior contributo individuale (in termini di intensità e/o di numero di partecipanti contribuenti) porta ad una maggiore rapidità e qualità di produzione del bene collettivo (l'obbiettivo dell'attività della comunità). Ciò, a sua volta, porta a due conseguenze: una interna alla comunità, l'altra esterna. La conseguenza interna è data dall'aumento della reputazione di chi ha fornito un contributo individuale maggiore: vista la qualità dell'attività svolta, si premia chi ha speso un maggiore impegno. A sua volta, questa reputazione fornisce una spinta verso gli altri partecipanti, che la desiderano, fornendo un esempio di comportamento e sentimento corretto all'etica della comunità (nel caso delle comunità Open Peer-to-Peer, l'etica Hacker). 16 Casti, John L., (1994) Complexification. Explaining a Paradoxical World Through the Science of Surprise. HarperCollins, New York 17 Bertuglia, Staricco (200) 117
Questa etica porta loro a impegnarsi con maggiore intensità per aumentare la propria reputazione e ricambiare il "dono" ricevuto dall'opera degli altri partecipanti. All'esterno della comunità, invece, nella società, una maggiore qualità o rapidità di produzione del bene collettivo garantiscono le condizioni necessarie per una sua ampia diffusione, portando con sé anche i valori dell'etica hacker che hanno guidato la sua produzione. In questo modo il bene collettivo diffonde con sé i valori della comunità. A questo punto un maggior numero di persone esterne alla comunità che utilizzano il bene collettivo e ne approvano i valori entraranno a far parte della comunità con un contributo personale per restituire il "dono" ricevuto del bene collettivo. Inoltre, si è visto come il comportamento di un sistema complesso porti a "sorprese", a risultati inattesi. Lo sviluppo di Linux rappresentò una enorme sorpresa, poiché nessuno si aspettava che una organizzazione progettuale a bazaar potesse riuscire nel compito di realizzare un kernel. In realtà è stata proprio questa organizzazione basata su un sistema complesso (la comunità) che lo a reso possibile.
Fig. 40: Esempio di retroazione positiva in una comunità di software Open Source
5.3. Auto-organizzazione dei sistemi complessi Nei sistemi complessi, la non-linearità, con il suo effetto amplificativo, è alla base di proprietà e comportamenti controintiuitivi e apparentemente acasuali, che non possono essere dedotti da un'analisi degli elementi costitutivi. Tra queste proprietà, la più interessante è costituita dalla capacità di auto-organizzazione: i sistemi complessi sono in grado di dotarsi di una struttura spaziale e temporale ordinata e coerente, senza necessità di un controllore esterno, ma semplicemente sulla base dello schema delle interazioni tra gli elementi costitutivi. E questo benché tali elementi agiscano ognuno secondo il cosiddetto "principio di minima resistenza", ossia cercando di ottenere il massimo beneficio con il minimo sforzo18. Le modalità con cui un sistema complesso si auto-organizza dipendono quindi da come siano strutturate le interazioni tra i suoi elementi, che permettono loro di entrare in relazione reciproca e di scambiare "informazioni", ossia di "organizzarsi" determinando il comportamento del sistema. Nel caso dei sistemi complessi, quest'organizzazione non è imposta dall'esterno: non vi è un supervisore, un "creatore" esterno che, con una precisa intenzionalità progettuale, prescriva come gli elementi costitutivi debbano interagire, affinché il sistema si comporti secondo i suoi desideri.
18 Idem 118
Fig. 41: Esempio di retroazione negativa in una comunità di software Open Source
Fig. 42: Cicli di retroazione tra comunità Open Peer-to-Peer e società
119
L'organizzazione emerge spontaneamente, è il sistema stesso che, per così dire, la "sceglie", tra le molte possibili: si parla pertanto di autoorganizzazione. Questo però, non vuol dire che siano i singoli elementi costitutivi del sistema a decidere, consapevolmente, quale organizzazione deve essere assunta. Come non esiste un supervisore esterno, così non esiste neppure un progetto organizzativo interno al sistema, di cui tali elementi siano informati ed in conformità al quale agiscano. Anzi, essi non hanno l'esigenza che vi sia un ordine complessivo, ed il loro comportamento è prettamente individualistico, improntato al "principio di minima resistenza" (definito in analogia con i fenomeni di motto convettivo): ogni componente cerca di ottenere per sé il massimo beneficio immediato con il minimo dispendio di energie. Tuttavia, a causa delle amplificazioni della retroazione positiva, un elemento del sistema non può sapere, a priori, quali azioni gli porteranno più vantaggio; deve procedere per tentativi, e deve essere pronto a correggersi, rinforzando o indebolendo le sue interazioni, o creandone di nuove con altri elementi. Ne deriva un processo di continuo e reciproco adattamento tra le parti del sistema, ognuna delle quali agisce e reagisce in base alle azioni e reazioni delle altre parti. Questo processo modifica progressivamente l'organizzazione, finché non si giunge a quella organizzazione che garantisce un'interazione armoniosa, ed in ogni caso non conflittuale, tra gli elementi del sistema, in risposta agli stimoli provenienti dall'ambiente esterno.
2.
delle interazioni stesse possano amplificarsi sino ad avere conseguenze a livello macroscopico, attraverso cicli di retroazione positivi e negativi; apertura del sistema, in modo che possa essere soggetto ad azioni esterne che lo allontanino dall'equilibrio.
Questa seconda condizione evidenzia come l'organizzazione che il sistema assume sia quella che ottimizza le interazioni tra i suoi elementi, ma non in senso assoluto, bensì relativamente alle particolari sollecitazioni provenienti dall'ambiente. Esse agiscono, in sostanza, come un "suggerimento organizzativo". Poiché l'ambiente non è fisso, ma mutevole, queste sollecitazioni possono cambiare, e l'organizzazione può risultare non più adeguata. Il sistema dovrà assumerne un'altra, modificando lo schema delle interazioni degli elementi. L'organizzazione, allora, non è fissa: è una configurazione di ordine dinamico; e l'autoorganizzazione è il modo in cui il sistema si adatta all'ambiente, contrastandone le azioni distruttive e salvaguardando la propria integrità22.
L'organizzazione è quindi lo strumento attraverso cui il sistema non-lineare controlla e domina la propria complessità. Tramite l'auto-organizzazione, il sistema complesso sceglie, tra le molte configurazioni disponibili di interazioni delle sue parti, quella ottimale, anche se tale "scelta" è inconscia, non consapevole: è l'organizzazione che "emerge" spontaneamente, in conseguenza dell'azione congiunta, competitiva e cooperativa degli elementi costitutivi, ognuno animato dai propri obiettivi. In particolare, nelle comunità Open Peer-to-Peer, la competizione è rappresentata dalla ricerca dell'aumento della reputazione personale, mentre la cooperazione è rappresentata dalla economia del dono, presente nella etica hacker19. L'organizzazione è riconoscibile solo su una scala spazio-temporale macroscopica, cioè di diversi ordini di grandezza di quella microscopica delle interazioni tra gli elementi. Di conseguenza, questa organizzazione può essere osservata solo dall'esterno del sistema, non dal suo interno20. Le condizioni necessarie affinché un sistema possa auto-organizzarsi sono due21: 1. non-linearità delle interazioni tra gli elementi costitutivi (ossia complessità del sistema), in modo che piccole variazioni
Il modo in cui un sistema complesso cambia la sua organizzazione, in risposta a perturbazioni esterne che lo allontanano dalle condizioni di equilibrio, è stato studiato da Ilya Prigogine, il quale ha elaborato la teoria delle strutture dissipative23. Una struttura dissipativa è un sistema complesso aperto che, in condizioni di non equilibrio, è in grado di dotarsi di una struttura ordinata (sotto forma di configurazioni spaziali o ritmi temporali) attraverso produzione di entropia nell'ambiente, cioè dissipazione di energia per attrito, perdite o sprechi. Le strutture dissipative evidenziano il ruolo fondamentale delle fluttuazioni, cioè delle piccole variazioni locali, che costantemente si verificano a livello delle interazioni tra gli elementi costitutivi del sistema. Tali fluttuazioni sono una conseguenza del principio di minima resistenza: ogni elemento modifica ininterrottamente le sue interazioni con gli altri elementi, alla ricerca di quelle a lui più favorevoli. È proprio l'amplificazione, ad opera della non-linearità, di queste fluttuazioni delle interazioni, che permette la nascita di correlazioni macroscopiche, e quindi di strutture spaziotemporali ordinate; se non vi fossere fluttuazioni, il sistema non potrebbe abbandonare il suo stato omogeneo ed auto-organizzarsi24. L'amplificazione delle fluttuazioni, però, può avvenire solo in presenza di perturbazioni esterne, provenienti dall'ambiente, che operino come un'azione od un vincolo sul sistema. Se il sistema è in equilibrio, le retroazioni negative prevalgono sulle positive, e tendono a smorzare le fluttuazioni. Se invece le perturbazioni spostano il sistema dall'equilibrio, sono le retroazioni positive a prendere il sopravvento, amplificando le fluttuazioni fino a generare una nuova struttura ordinata.
19 pp.142-150 20 Bertuglia, Staricco (200) 21 Idem
22 Idem 23 Idem 24 Idem
120
Il sistema diventa sensibile rispetto a se stesso, alle fluttuazioni della sua stessa attività. Quando un sistema, sotto l'azione di perturbazioni esterne, si allontana dall'equilibrio, può verificarsi un fenomeno interessante: la nuova forma di organizzazione che può assumere non è unica, anzi; il sistema può scegliere fra tante forme. Ancora una volta, la causa di questa proprietà è la non-linearità, uno dei cui aspetti più tipici è proprio la pluralità di soluzioni. La comparsa di più soluzioni viene detta biforcazione25. Essa si verifica solo quando le perturbazioni esterne portano il sistema oltre la soglia di stabilità. Se è possibile rappresentare il sistema tramite un'unica variabile di stato Y e le perturbazioni esterne tramite un unico parametro di controllo λ, il modo con cui Y risente delle variazioni di λ può essere illustrato con un diagramma di biforcazione. Finché λ resta inferiore ad un valore critico λc, c'è una sola soluzione: il sistema si mantiene stabile, le fluttuazioni vengono smorzate. Quando λ supera λc, la soluzione rappresentata dal ramo (a) diventa instabile, mentre compaiono due nuovi rami (b1) e (b2) di soluzioni stabili: è la biforcazione. I rami (b1) e (b2) sono contemporaneamente stabili: il sistema sceglie quale dei due rami seguire nel punto di biforcazione, ossia quando λ è esattamente uguale a λc. È qusto il punto in cui il sistema diventa instabile: le fluttuazioni non vengono più smorzate, anzi vengono amplificate dalla non-linearità, ed è proprio il fatto che sia questa o quella fluttuazione a prendere il sopravvento, a determinare il passaggio all'una o all'altra soluzione. La scelta del ramo è, cioè, assolutamente imprevedibile: ripentendo più volte l'esperimento di portare λ al valore λc, alcuni sistemi seguiranno il ramo (b1), altri il ramo (b2). Le soluzioni di un ramo e quelle dell'altro differiscono tra loro non quantitativamente, ma qualitativamente: orario/antiorario, rosso/blu, ecc26.
Fig. 43: Diagramma di biforcazione (Fonte: Bertuglia, Staricco 2000) 25 Idem 26 Idem
Fenomeni come l'isteresi e le biforcazioni conferiscono ai sistemi complessi una dimensione storica27. L'isteresi è la proprietà di un sistema di non essere influenzato istantaneamente alle forze che agiscono su di esso, ma di reagire lentamente, o di non tornare completamente allo stato originale28. Nell'isteresi, la scelta tra un ramo e l'altro di evoluzione dipende dallo stato che il sistema aveva prima di giungere nella zona di bistabilità. Nelle biforcazioni, tale scelta è imprevedibile: si ha cioè un evento la cui nozione implica che ciò che si è prodotto "avrebbe potuto" non prodursi; tale evento dà vita a nuove coerenze, determinando l'evoluzione successiva del sistema e rendendola irreversibile29. Questa dimensione storica è particolarmente significativa nei sistemi biologici. Gli esseri viventi ricevono in continuazione dall'ambiente energia e materia, che essi usano per il loro metabolismo, per poi ridisperderle nell'ambiente sotto forma di rifiuti: sono cioè delle strutture dissipative, con alcune differenze rispetto a quelle di tipo fisico. Gli organismi biologici sono infatti delle sorte di "strutture storiche", in grado di conservare "memoria" delle organizzazioni che acquisiscono nel corso della loro evoluzione. Gli scambi che hanno con l'ambiente sono continui, generalmente irreversibili e di diverso genere: non solo passaggio di calore dall'ambiente al sistema, come nella convezione, ma flussi di energia e di materia molto differenziati (tramite l'alimentazione, la respirazione, ecc.); inoltre, il loro ambiente non è fisso, ma soggetto a cambiamenti. Le perturbazioni che i sistemi biologici ricevono dall'esterno sono allora molteplici e mutevoli; questo fa sì che siano soggetti a più punti di instabilità e biforcazione. Non c'è solo il passaggio dall'omogeneità all'ordine, ma anche la possibilità di saltare da una struttura ordinata ad un'altra anch'essa ordinata. Le stesse condizioni di non-linearità possono produrre un dato ordine facendolo emergere dal caos dei processi elementari od anche, sotto condizioni diverse, distruggere questo ordine dando luogo ad una nuova coerenza al di là di un'altra biforcazione. L'evoluzione di questi sistemi può essere descritta tramite un diagramma di biforcazione, i cui rami stabili si biforcano progressivamente per più livelli, in un modo molto simile agli alberi filogenetici usati in biologia. Tale diagramma di biforcazione mostra la compresenza di imprevedibilità e necessità. In corrispondenza dei punti di biforcazione, sono le fluttuazioni a decidere quale ramo verrà adottato. La nuova organizzazione che il sistema acquisisce, in conseguenza di questa "scelta", è stabile rispetto alle fluttuazioni, che non possono più capovolgerla, almeno finché le perturbazioni esterne non crescono a tal punto da raggiungere una nuova soglia di instabilità. Tra due punti di biforcazione, cioè, il sistema è vincolato al ramo in cui si trova da leggi deterministiche, che gli 27 Idem 28 http://en.wikipedia.org/wiki/Hysteresis 29 Bertuglia, Staricco (200) 121
impediscono di abbandonare la sua organizzazione attuale. Per un certo valore λ' del parametro di controllo, il sistema rappresentato in figura potrebbe trovarsi, con eguale probabilità, su diversi rami; sono state le biforcazioni, che ha attraversato nel passato, a decidere il suo stato nel presente. Non gli è possibile abbandonare il percorso che ha intrapreso, non può saltare da A ad A'; al tempo stesso non può sapere se, per λ = λ'', si troverà in B o B'30.
non è una proprietà dei legami chimici. Essa è infatti un'esperienza sensoriale che sorge quando le molecole di zucchero interagiscono con la chimica delle nostre papille gustative, che, a loro volta, attivano un determinato modo una serie di neuroni. L'esperienza della dolcezza avviene da quell'attività neuronale. Pertanto, quando ci limitiamo ad affermare che la proprietà caratteristica dello zucchero è la sua dolcezza, in realtà ci riferiamo a una serie di fenomeni emergenti che si situano a differenti livelli di complessità33.
5.4. Emergenza dell'autoorganizzazione
Ma l'emergenza si manifesta solo quando l'attività globale non è data dalla semplice somma dell'attività degli elementi a livello locale34. Sebbene l'espressione "il tutto è più della somma delle parti" sia molto diffusa, occorre effettuare una precisazione: l'emergenza nasce dall'interazione fra le parti, non precedentemente, e non necessariamente. Ciò che emerge non è predicibile e non ha precedenti, e rappresenta un nuovo livello di evoluzione del sistema. I comportamenti complessi non sono proprietà delle singole entità e non possono essere facilmente riconosciuti o dedotti dal comportamento di entità del livello più basso. La forma e il comportamento di uno stormo di uccelli o di un branco di pesci sono buoni esempi di emergenza. Una delle ragioni per cui un comportamento emergente si verifica è che il numero di interazioni tra le componenti di un sistema aumenta combinatoriamente con il numero delle componenti, consentendo l'emergenza potenziale di nuovi e più impercettibili tipi di comportamento. D'altro canto,il grande numero di interazioni non è di per sè sufficiente a determinare un comportamento emergente, poiché molte interazioni potrebbero essere irrilevanti, oppure annullarsi a vicenda. In alcuni casi,un grosso numero di interazioni può in effetti contrastare l'emergenza di comportamenti interessanti, creando un forte "rumore di fondo" che può "zittire" ogni segnale di emergenza; il comportamento emergente potrebbe in questo caso aver bisogno di essere temporaneamente isolato dalle altre interazioni mentre raggiunge una massa critica tale da auto-sostenersi. Per cui non è solo il numero di connessioni tra le componenti a incoraggiare l'emergenza, ma anche l'organizzazione di queste connessioni. È la organizzazione a rete decentralizzata dei comportamenti locali che causa l'emergenza di un comportamento globale, il quale a sua volta influenza i comportamenti locali. L'emergenza è quindi causata da una doppia interrelazione tra la scala locale e quella locale, in cui il controllo del sistema viene decentralizzato. Come conseguenza di questo fatto sia ha che le azioni dei singoli elementi sono controllabili, ma il comportamento del sistema non è controllabile. L'emergenza di una caratteristica o di un comportamento continuerà a svilupparsi anche se alcuni elementi vengono meno: in una rete
Si è detto che l'auto-organizzazione "emerge" spontaneamente, ma in realtà occorre fare una precisazione, distinguendo tra emergenza e autoorganizzazione, due concetti utili a descrivere il comportamento dei sistemi complessi ma che sono distinti e possono esistere sia separatamente che contemporaneamente31.
Fig. 44: Diagramma di biforcazione a più rami (Fonte: Bertuglia, Staricco 2000)
L'emergenza è la capacità di un sistema di avere proprietà, comportamenti, strutture nascenti ed inattese al livello macroscopico (livello globale) che nascono dalle interazioni tra gli elementi al livello microscopico (livello locale)32. L'emergenza porta alla creazione di novità, e questa novità è spesso qualcosa di qualitativamente differente dai fenomeni da cui è affiorata. Per illustrare questo fatto, possiamo ricorrere a un esempio ampiamente conosciuto, tratto dalla chimica: la strutture e le proprietà dello zucchero. Quando gli atomi di carbono, ossigeno e idrogeno si legano in un certo modo, formando lo zucchero, il composto che ne risulta ha un sapore dolce. Questa dolcezza non risiede né in C, né in O, né in H: risiede invece nello schema che emerge dalla loro interazione. Si tratta di una proprietà emergente. Inoltre, per esprimerci in un senso più rigoroso, la dolcezza 30 Idem 31 De Wolf, Holvoet (2005) 32 Idem 122
33 Capra (2002) 34 Cit. in Taylor (2005) p.188
decentralizzata, più elementi sono di pari importanza e possono sostituirsi. Al contrario, in una rete centralizzata, l'eliminazione del centro avrebbe fatto crollare l'intera rete. In conclusione, le caratteristiche che portano all'emergenza sono la presenza di molte interazioni, la decentralizzazione del controllo del sistema e la conseguente flessibilità degli elementi, una correlazione tra i livelli micro e macro (locale e globale): se anche una di queste condizioni vengono a mancare, non si ha l'emergenza. In definitiva, l'essenza dell'emergenza è quella della nascita un comportamento globale radicalmente nuovo causato dai singoli comportamenti individuali a livello locale, ma differente da questi. L'essenza della autoorganizzazione, invece, è quella di un comportamento adattativo globale che autonomamente acquisisce e mantiene un ordine crescente. Emergenza ed auto-organizzazione, quindi, enfatizzano differenti aspetti dei sistemi complessi, e sono entrambi processi dinamici che emergono nel corso del tempo. Un comportamento del sistema che garantisce l'auto-organizzazione, infatti, può nascere ad un certo momento come proprietà emergente. Non sempre però questo avviene. Una auto-organizzazione centralizzata non permette la nascita di un comportamento emergente, che necessità di una decentralizzazione del sistema. È la decentralizzazione delle comunità Open Peerto-Peer che permette l'emergenza di processi di auto-organizzazione e di risultati innovativi e sorprendenti quali Linux. Viceversa, un sistema caratterizzato da emergenza ma che non presenta auto-organizzazione a causa di un ordine insufficiente non riuscirà sempre ad adattarsi e ad evolversi. Inoltre, l'unico modo di avere un comportamento emergente coerente a livello globale è quello di lasciare liberi gli elementi di agire (ossia di auto-organizzarsi). Sia l'emergenza che l'auto-organizzazione, infatti, sono processi molto resistenti, anche se per differenti motivi. La resistenza dell'emergenza è causata dalla flessibilità dei propri elementi, dovuta alla decentralizzazione: l'eliminazione o un errore di un singola parte non pregiudica la proprietà emergente nella sua complessità. L'autoorganizzazione è resistente invece grazie alla sua adattabilità ai cambiamenti e la sua abilità a mantenere un ordine crescente. Questi due fenomeni possono causarsi a vicenda: l'auto-organizzazione a livello locale può essere la causa dell'emergenza di una proprietà a livello locale; il risultato dell'emergenza globale è una auto-organizzazione allo stato locale. Risulta chiaro che una comunità Open Peer-to-Peer, per essere caratterizzata dall'emergenza di una caratteristica o di un comportamento, deve presentare soddisfatte queste condizioni di decentralizzazione, flessibilità dei partecipanti, numero elevato di interazioni e correlazione tra la dimensione globale e quella locale. Come esempio,
per Rullani35 il capitale sociale si configura come una proprietà emergente di una società che è formata da uomini in carne ed ossa e che ha una sua specifica storia, cultura, esistenza pratica. In una comunità Open Peer-to-Peer, quindi la formazione di relazioni personali acquista una caratteristica emergente, che nasce dalle interazioni svolte nella prosecuzione dell'attività comunitaria. I partecipanti formano delle comunità al fine di risolvere un proprio problema attraverso lo svolgimento di una attività, e questo fa nascere delle relazioni fra loro.
5.5. Evoluzione dell'autoorganizzazione: sistemi complessi adattativi L'affinità tra auto-organizzazione ed evoluzione (e lo stretto legame tra emergenza e autoorganizzazione) è alla base degli studi svolti all'Istituto di Santa Fe sui cosiddetti sistemi complessi adattativi (CAS: Complex Adaptive Systems). L'aggettivo "adattativi" viene usato per sottolineare il fatto che i sistemi complessi, quando modificano la loro organizzazione, non si limitano a reagire passivamente ai cambiamenti dell'ambiente; al contrario, essi cercano sempre di volgere a proprio vantaggio questi cambiamenti, adattandosi ad essi. L'auto-organizzazione, cioè, può essere vista come una forma di evoluzione finalizzata a mantenere sempre un buon adattamento tra il sistema ed il suo ambiente. Tale adattamento si realizza proprio come nell'evoluzione biologica, ossia tramite due meccanismi fondamentali: previsione e retroazione. Come dimostra la teoria delle strutture dissipative, l'organizzazione che un sistema adotta ad un certo istante è quella che armonizza le interazioni tra gli elementi in risposta alle sollecitazioni provenienti dall'ambiente; inoltre, essa determina il comportamento del sistema stesso. L'organizzazione può, pertanto, essere vista come una sorta di previsione: "se la situazione ambientale è A, è opportuno intraprendere l'azione B, perché essa porterà a dei buoni risultati". Non è una previsione cosciente, quanto piuttosto una sorta di modello predittivo implicito, di tipo più prescrittivo (di ciò che dovrebbe essere fatto in una data situazione) che non descrittivo (delle opzioni presenti in una data situazione). Il DNA ne è l'esempio per eccellenza: i geni codificano un organismo che, nelle condizioni ambientali che essi prevedono di trovare, avrà buone possibilità di sopravvivere. Le fluttuazioni, presenti a livello delle interazioni tra gli elementi costituenti, operano come le mutazioni genetiche nell'evoluzione: permettono, cioè, al sistema di esplorare le diverse forme di organizzazione possibili. Quale di queste forme verrà scelta dipende dalla retroazione con l'ambiente, ossia da una sorta di selezione, che 35 De Wolf, Holvoet (2005) 123
mette alla prova la previsione implicita nell'organizzazione. Se tale previsione è corretta, il comportamento del sistema avrà successo: si può parlare allora di un buon adattamento rispetto all'ambiente. L'organizzazione è adeguata, il sistema la conserva finché l'ambiente non muta: la selezione, infatti, sopprime le fluttuazioni tendenti a modificare l'organizzazione. Ma come può avvenire tale soppressione, se la selezione opera a livello macroscopico (premiando o punendo il comportamento di tutto il sistema) e le fluttuazioni si sviluppano invece a livello microscopico? La risposta sta nella proprietà fondamentale dei sistemi complessi, e cioè nella non-linearità. Essa non permette solo l'amplificazione dal livello locale a quello globale, ma anche, inversamente, un ritorno di informazione dal livello globale a quello locale. Così, il successo del sistema si traduce nel successo dell'azione dei suoi singoli elementi, che sono alla ricerca del massimo vantaggio individuale. Questi elementi tendono allora a mantenere invariate le proprie interazioni: modificandole, infatti, allontanerebbero il sistema dall'organizzazione che si è dimostrata adatta, con la conseguenza di ottenere un peggiore risultato, collettivo e, per retroazione, anche individuale. Se invece, la previsione implicita nell'organizzazione è sbagliata, il comportamento del sistema non ha successo: il livello di adattamento è basso. La non-linearità comporta che i singoli componenti abbiano un cattivo risultato, spingendoli così a modificare le proprie interazioni36. Si generano di conseguenza quelle fluttuazioni che permettono al sistema di "tastare il terreno" alla ricerca di una nuova organizzazione, dotata di migliori capacità predittive e capace di garantire un vantaggio a livello sia macroscopico sia microscopico. Si trova, in sintesi, lo stesso fenomeno già descritto dalla teoria delle strutture dissipative, anche se interpretato, ora, tramite i concetti di adattamento e selezione: soppressone delle fluttuazioni all'equilibrio, cioè nel caso di buon adattamento tra sistema ed ambiente, e loro amplificazione selettiva lontano dall'equilibrio, ossia nel caso di cattivo adattamento. Sarebbe proprio una forma di "selezione" a garantire che, in corrispondenza dei punti di biforcazione (cioè quando il sistema perde il suo precedente adattamento), tra tutte le possibili forme di organizzazione, si stabilizzino solo quelle "adatte" alla nuova condizione dell'ambiente, ossia quelle capaci di assicurare al sistema un comportamento di successo. Queste organizzazioni "adatte", a causa della non-linearità, sono più di una per ogni punto di biforcazione: quale di esse verrà adottata dal sistema dipende dal fatto che, nei momenti di instabilità, venga amplificata questa o quella fluttuazione. Non sempre però la soluzione di equilibrio assunta da un sistema è la migliore possibile. Non è detto, cioè, che le forme di organizzazioni definibili come adatte abbiano lo stesso livello di performance: pur garantendo tutte un buon 36 Bertuglia, Staricco (2000) 124
adattamento rispetto all'ambiente, una o alcune di esse possono assicurare al comportamento del sistema un successo maggiore rispetto alle altre. Non sempre, però, il sistema sceglierà le organizzazioni migliori, poiché tale scelta è casuale. Le forme di adattamento di un sistema al suo ambiente sono state classificate da Gell-Mann in tre tipi fondamentali37: • il sistema muta il suo comportamento senza cambiare la sua organizzazione. Questo è possibile perché ogni forma di organizzazione permette al sistema di adottare più tipi di comportamento, non uno solo. Si tratta di un adattamento "diretto", rappresentato, nei diagrammi di biforcazione, dal tratto rettilineo tra due successivi punti di biforcazione: quando il livello delle perturbazioni esterne cresce, il sistema non modifica la sua organizzazione, ma solo il suo comportamento; • il sistema cambia la sua organizzazione. È la situazione che si verifica nei punti di biforcazione; • il sistema scompare, perché nessuna delle sue possibili organizzazioni è adatta alle nuove perturbazioni ambientali, e lascia il posto ad altri sistemi. È la sopravvivenza darwiniana del più adatto, che in questo caso non si verifica all'interno del sistema, come competizione tra le diverse organizzazioni, ma ad un livello superiore, tra sistemi diversi. Questi tre livelli di adattamento si realizzano su scale temporali diverse, crescenti dal primo al terzo. Ad ogni modo, nel terzo caso scompare il sistema, ma alcuni dei suoi elementi sopravvivono e possono formare un altro sistema. L'idea di organizzazione come modello predittivo implicito consente di cogliere un'altra interessante analogia, quella tra auto-organizzazione ed apprendimento. Un sistema complesso, essendo aperto, riceve dall'esterno un flusso continuo di materia ed energia, che può essere visto come un flusso di dati sulle caratteristiche dell'ambiente. In tale flusso, il sistema percepisce delle regolarità, le separa dal resto dei dati, che appaiono invece accidentali od arbitrari, ed infine le "comprime" in uno schema; quest'ultimo descrive l'ambiente e prescrive il comportamento del sistema. Quando l'ambiente, e con esso il flusso di dati, si modifica, il sistema percepisce nuove regolarità ed elabora nuovi schemi, quindi li "mette alla prova" e adotta quello che garantisce il comportamento più vantaggioso38. Tramite l'interazione con l'ambiente, il sistema acquisisce informazione (anche in maniera non cosciente) sul mondo esterno, ne scopre le caratteristiche ed impara a comportarsi di conseguenza. La forma più generale di apprendimento è data proprio dall'autoorganizzazione. L'organizzazione, in quanto modello predittivo che determina il 37 Gell-Mann (1996) 38 Bertuglia, Staricco (2000)
comportamento, costituisce uno "schema"; il sistema, grazie alle fluttuazioni microscopiche, può provare diversi di questi schemi ed adottare, tramite il processo di selezione, quello che meglio descrive l'ambiente. Auto-organizzazione, evoluzione ed apprendimento sono, in sostanza, tre metafore per descrivere l'attività di un sistema complesso. Mentre la teoria delle strutture dissipative si serve quasi esclusivamente della prima di queste metafore, la teoria dei sistemi complessi adattativi le utilizza tutte e tre, per porre l'accento su aspetti diversi del comportamento dei sistemi complessi. La metafora dell'auto-organizzazione sottolinea l'autonomia del sistema, cioè la sua capacità di dotarsi da solo di una struttura ordinata; quella dell'evoluzione mette in evidenza l'aspetto processuale, cioè la possibilità di modifica nel tempo di tale struttura; quella dell'apprendimento riflette il rapporto che il sistema ha con il suo ambiente. Proprio la capacità di adattarsi ed apprendere può essere vista come la principale proprietà che distingue i sistemi complessi da quelli caotici, che invece ne sono privi. Tanto i sistemi complessi quanto i sistemi caotici sono caratterizzati dalla non-linearità delle interazioni tra i propri elementi costitutivi, ma nei sistemi caotici questa nonlinearità raggiunge un livello tale che l'amplificazione delle fluttuazioni prosegue senza fine, impedendo al sistema di stabilizzarsi su una forma di organizzazione adatta rispetto al suo ambiente. A sua volta, un sistema complesso può assumere un comportamento caotico se il suo ambiente cambia troppo, o troppo velocemente: la componente caotica nel flusso di dati diventa predominante rispetto a quella regolare, e il sistema non può più "conoscere" l'ambiente e, quindi, auto-organizzarsi. Se, viceversa, l'ambiente è troppo stabile, il sistema perde la capacità di evolvere. Un sistema complesso, quindi, sarà tanto più efficiente quanto più si trova immerso in una situazione intermedia tra ordine e disordine. L'ambiente deve presentare abbastanza regolarità perché i sistemi possano servirsene ai fini dell'apprendimento o dell'adattamento, ma al tempo stesso non una regolarità così grande da rendere impossibile che vi accada qualcosa. Ne consegue che una comunità Open Peer-to-Peer, che è un sistema complesso, se il suo ambiente cambia troppo o troppo velocemente non riesce più ad adattarsi ad esso auto-organizzandosi. In questo caso la sua capacità di adattamento e di risoluzione di problemi complessi viene quindi meno. La metafora dell'apprendimento risulta adeguata a descrivere il comportamento di un sistema complesso anche da un punto di vista termodinamico. L'entropia di un sistema può essere considerata, intuitivamente, come una misura del grado di disordine interno al sistema stesso. Il secondo principio della termodinamica afferma che, in un sistema isolato (cioè privo di
qualsiasi forma di scambio con l'esterno), l'entropia aumenta inesorabilmente col passare del tempo, fino a raggiungere un valore massimo. Ciò non vale per un sistema aperto, qual è un sistema complesso auto-organizzativo, a causa dei flussi che attraversano i suoi confini. Esso riceve, infatti, dall'ambiente un flusso di materia ed energia, cioè un flusso negativo di entropia (negentropia), che utilizza per organizzarsi; a sua volta, può riversare nell'ambiente un flusso positivo di entropia (prodotta per mantenere la sua organizzazione interna) sotto forma di rifiuti e scarti, ed eventualmente un flusso negativo, fatto di materia ed energia di qualità superiore. Un sistema può auto-organizzarsi solo in presenza di un sufficiente flusso di energia (ossia di negentropia) proveniente dall'esterno e necessario per vincere la produzione di entropia interna al sistema. Un sistema, però, non è in grado di utilizzare tutto il flusso di neg-entropia che riceve: in tale flusso vi sono elementi che non è in grado di riconoscere e di metabolizzare, e che costituiscono una sorta di rumore. Solo la neg-entropia riconosciuta (che possiamo chiamare segnale) può essere utilizzata dal sistema per auto-organizzarsi. L'auto-organizzazione di un sistema non è altro che il progressivo riconoscimento di nuove fonti di negentropia nell'ambiente. Questo processo di riconoscimento è del tutto analogo al processo di apprendimento dai sistemi adattativi complessi: basta sostituire "regolarità" con "neg-entropia riconosciuta" (o "segnale") e "dati accidentali" con "rumore". Quando l'ambiente muta, le fonti di neg-entropia riconosciute dal sistema possono scomparire, ed essere sostituite da nuove fonti, che il sistema non è in grado di riconoscere immediatamente; il "rumore" prevale allora sulla neg-entropia riconosciuta, il sistema diventa instabile e la sua entropia (cioè il suo disordine) cresce notevolmente, perché non più contrastata da una adeguato flusso energetico39.
5.6. Una evoluzione memetica L'auto-organizzazione può quindi essere vista come una forma di evoluzione finalizzata a mantenere sempre un buon adattamento tra il sistema ed il suo ambiente. I sistemi complessi che si autoorganizzano possono quindi essere compresi come sistemi complessi adattativi, e il loro adattamento si realizza come nell'evoluzione biologica. È l'evoluzione che rende i sistemi complessi ancora più complessi. Per capire come si evolva una comunità Open Peer-to-Peer, possiamo riprendere il discorso effettuato da Kuwabara, nel punto in cui descrive Linux come un sistema complesso adattativo. Per Kuwabara l'evoluzione in Linux avviene grazie alla decentralizzazione del potere che avviene nella organizzazione a bazaar, e la descrive come "riguardante il flusso di informazioni fra gli individui"40. 39 Idem 40 Kuwabara (2000) 125
Questo flusso di informazioni, in una teoria evoluzionistica, deve fornire istruzioni per i processi interni degli individui e mediare il processo evolutivo all'interno di una determinata popolazione. Questo flusso di informazioni viene regolato da tre processi, fondamentali per la evoluzione di una popolazione: la variazione, la selezione e la replicazione. Per prima cosa, deve essere presente una variazione nella popolazione, di modo che non tutti i suoi membri siano identici. Quindi, in una popolazione eterogenea, il processo di selezione competitiva deve eliminare i membri inadatti; infine, le caratteristiche dei membri che sopravvivono devono essere replicate nella prole. Ad esempio, nell'evoluzione biologica, le informazioni sono contenute nei geni che permettono la differenziazione degli individui. Sono due i distinti processi che contribuiscono alla variazione dei geni: la mutazione (che introduce cambiamenti casuali e spontanei in un organismo) e l'ibridazione (che avviene attraverso scambi sessuali di materiale genetico tra organismi). La variazione genetica rappresenta poi un vantaggio o uno svantaggio nella selezione competitiva tra organismi: chi sopravvive, può trasmettere i propri geni alla discendenza. In pratica, nell'evoluzione biologica, il flusso di informazioni viene mediato attraverso i geni. Questo concetto venne sviluppato ulteriormente da Richard Dawkins41. Egli pubblica nel 1976 un libro che, all'inizio, apparve come uno dei tanti saggi divulgativi sul darwinismo, scritto per contribuire alla chiarificazione dell'ipotesi sull'evoluzione per selezione naturale. In realtà, The Selfish Gene (il gene egoista) costituisce una tappa epocale nello sviluppo delle teorie evoluzioniste. Per Dawkins non sono le popolazioni vegetali e animali gli attori dell'evoluzione: è il gene ad essere protagonista, che muta e si evolve, passando da organismo ad organismo. La competizione non avviene tra organismi ma tra geni, informazioni che usano gli organismo come substrato fisico di diffusione. In un suo successivo libro42, Dawkins propone un'altra variazione alla teoria evoluzionista di Darwin. Cercando di spiegare come la selezione naturale possa sviluppare organismi complessi, Dawkins oppone una evoluzione basata sulla pura casualità accoppiata con una selezione cumulativa alla tradizionale visione di una evoluzione basata sulla pura casualità. Le variazioni genetiche, infatti, hanno un ruolo importante, ma l'evoluzione di un organismo verso forme più complesse non avverrà basandosi solo su di esse, divenendo altrimenti un processo troppo lento. Dawkins suppone invece che, nel processo evolutivo, sia possibile una selezione cumulativa dei geni più adatti: i cambiamenti vengono così accumulati passo a passo, alla stessa maniera in cui uno scrittore stende differenti versioni di un testo sino ad arrivare alla stesura finale. 41 Kuwabara (2000), Ianneo (2005) 42 Dawkins R. (1986),The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design , Penguin, London 126
La selezione cumulativa è quindi un processo di editing. La selezione cumulativa non è, per Kuwabara, un processo cruciale solamente nell'evoluzione biologica, ma una parte integrante dell'organizzazione a bazaar. Nel caso di Linux, il codice non viene riscritto totalmente non appena emerge un errore, ma questo viene identificato ed eliminato, accumulando parti di codice testate e approvate. Certamente, processi di editing e di riutilizzo di codice sorgente non sono esclusivi delle organizzazioni a bazaar, ma ciò che rende quest'ultima più avvantaggiata nel suo utilizzo sono i processi di editing parallelo. Dato che la comunità di sviluppo di Linux non ha un vertice che decide la direzione, vi sono molteplici visioni, molteplici tentativi di modifica del codice. Mentre in una organizzazione a cattedrale tutti i partecipanti concorrono alla progettazione di un solo codice, sviluppato in un'unica direzione, nell'organizzazione a bazaar molti partecipanti sviluppano più codici, basati su più visioni. In pratica, se accettiamo l'ipotesi che una selezione cumulativa sia possibile anche nella programmazione, il software prodotto dalla comunità rappresenta la popolazione, le varie versioni che i partecipanti sviluppano parallelamente rappresentano i membri della popolazione, e le versioni stabili pubblicate del software rappresentano una generazione nella corso della vita della popolazione. Questa prospettiva genetica non è così azzardata, se si considera che il gene rappresenta una informazione e in biologia si parla di genotipo (le informazioni che servono per produrre in un organismo determinati caratteri) e fenotipo (i caratteri derivanti dalla combinazione dei genotipi). Il codice sorgente è quindi il genotipo del software open source, e il codice binario il fenotipo. Nel bazaar, i partecipanti sviluppano più versioni, più generazioni genetiche del codice, portando questo ad un processo di evoluzione tipico di una popolazione: qualche elemento scomparirà (qualche proposta individuale), ma la popolazione sopravviverà adattandosi all'ambiente maggiormente (si avrà un software più complesso e completo). I partecipanti sono quindi degli attori evolutivi che, anche se non riescono ad ottimizzare le risorse globalmente, sarà sempre uno di loro che riuscirà a trovare la soluzione migliore, con beneficio collettivo. Il parallelismo è probabilmente la differenza cruciale tra la cattedrale e il bazaar. La cattedrale, a causa dei limiti economici imposti dal mercato, cerca di minimizzare gli sviluppi paralleli, che vengono considerati uno spreco di risorse. In un progetto open source, basato sull'apporto volontario, non vi sono limiti economici ristretti, e più sviluppi paralleli sono possibili e addirittura incoraggiati. Dato che è un progetto di software open source si basa su base volontaria, non è possibile sapere chi potrà contribuire in futuro, e un numero di partecipanti attivi maggiore dà più garanzie di sopravvivenza. Lo sviluppo parallelo di più versioni (generazioni) di più codici (membri della popolazione) accresce notevolmente la velocità dell'evoluzione della
popolazione (il software): è per questo motivo che Linux e gli altri software open source si sono sviluppati con tale rapidità, maggiore rispetto alle organizzazioni a cattedrale. Quindi, gli agenti di un sistema complesso, sebbene adattabile, non ottimizzano realmente le risorse. La ragione sta nella indisponibilità di informazioni globali per gli agenti individuali, da un lato, e nell'assenza di un intervento esterno o da una autorità centrale, dall'altro, al fine di determinare le interazioni ottimali. Come John Casti, "Nei [sistemi complessi] nessun singolo agente ha accesso a quello che stanno facendo tutti gli altri agenti. Al massimo ogni agente trova informazioni su un sottoinsieme del set di agenti relativamente piccolo, e tratta questa informazione 'locale' per giungere ad una decisione in base a cui agirà"43. In un sistema complesso, quindi, gli attori elaborano delle ipotesi sullo stato globale del sistema in base alle proprie conoscenze locali. Per Kuwabara, l'utilità di un approccio evoluzionista è che, basandosi solamente sulla variazione casuale, selezione non casuale e replicazione, può descrivere qualsiasi sistema (naturale o artificiale) che evolve verso forme più complesse attraverso "cambiamenti incrementali esplorati Tuttavia, per descrivere parallelamente"44. correttamente Linux (o qualsiasi comunità Open Peer-to-Peer), bisogna utilizzare un approccio evoluzionista appropriato, che quindi non si basi su unità biologiche come i geni, ma che si basi su unità culturali come i memi, concetto introdotto da Richard Dawkins45. Per Dawkins le idee di Darwin sono applicabili a qualsiasi elemento nella realtà in grado di duplicarsi, sia esso molecola nucleotidica o idea rivoluzionaria. L'unico scopo di queste entità invisibili – geni e memi – non sarebbe altro che produrre copie per diffondersi all'interno di piante, animali e uomini resi "veicoli" inconsapevole. Il meme rappresenterebbe così ogni elemento della cultura umana (idea, poesia, ricetta, progetto, ecc.) duplicabile in altri cervelli mediante un meccanismo di trasmissione selettiva, ovvero secondo un processo analogo, se non identico, alla replicazione biologica del DNA. Per Dawkins il sostantivo meme proviene dalla parola mimesi, che in greco antico significa 'imitazione', e dal termine francese même, 'stesso', da lui scelto per la chiara assonanza con "gene". Meme, dunque, come unità di trasmissione culturale e unità di imitazione, in stretta correlazione all'essenza della memoria. In altri termini, il meme rappresenta l'effetto della trasposizione dei concetti della biologia evoluzionistica contemporanea in campo mentale e sociale: in particolare, della interpretazione tipica di Dawkins che vede nel gene l'elemento fondamentale del codice della vita e della sua evoluzione. 43 Cit. in Kuwabara (2000) (nostra traduzione) 44 Kuwabara (2000) (nostra traduzione) 45 Dawkins R., (1976), The Selfish Gene, Oxford University Press, Oxford
Ma come si diffondono i memi? Mentre i geni passano da generazione a generazione, i memi passano anche "lateralmente", da persona a persona della stessa generazione, attraverso l'imitazione e l'apprendimento sociale. Attraverso la reciproca osservazione, l'imitazione si ha riguardo i comportamenti, mentre l'apprendimento sociale riguarda l'ambiente. L'apprendimento sociale si basa sul principio di prova ed errore (trial and error), ricompensa e punizione. Attraverso la reciproca osservazione ed interazione, le conseguenze positive e negative dei comportamenti individuali diventano la base esperienziale per lo sviluppo di decisioni. La variazione avviene attraverso la mutazione di un meme in un individuo (la rielaborazione di un concetto o di un brano di codice sorgente), o attraverso la ricombinazione di memi provenienti da differenti individui (il confronto e lo sviluppo di concetti, la condivisione e combinazione di due codici sorgenti sviluppati parallelamente). L'apprendimento sociale quindi funge da campo per l'evoluzione memetica, dove i memi più adatti sopravvivono e si sviluppano in nuove generazioni. La diffusione dei memi, quindi, è un passaggio tra individui intergenerazionale e intragenerazionale. Mentre nell'evoluzione genetica i cambiamenti dei geni avvengono solo ad ogni generazione, nell'evoluzione memetica questi avvengono in continuazione, risultandone quindi in una velocità di evoluzione maggiore. L'evoluzione genetica lavora a livello della popolazione, mentre l'evoluzione memetica lavora sia al livello della popolazione sia al livello individuale. L'evoluzione memetica è quindi una evoluzione di tipo lamarckiano, ovvero gli individui mantengono e diffondono i "caratteri acquisiti" (cioè le idee e le altre espressioni culturali). Rispetto all'evoluzione genetica darwiniana, quindi, l'evoluzione memetica lamarckiana non è "cieca", casuale. Anche se non ha una visione completa della direzione intrapresa, le variazioni casuali che la sorreggono sono meno casuali e più dirette. Così come i geni interagiscono fra loro per produrre un fenotipo, i memi spesso agiscono in gruppo, formando un memeplesso (memeplex) dove si rinforzano a vicenda. Un memeplesso rappresenta un complesso di memi co-adattati, trasmessi insieme, come ad esempio religioni, ideologie politiche, sistemi di credenze. Per Kuwabara Linux rappresenta un memeplesso, caratterizzato da più porzioni di codice sorgente o patch (i memi), coadattati lungo tutto il processo di sviluppo. Le caratteristiche che permettono ai memi un'ampia diffusione sono46: 1. coerenza: per diffondersi, un meme deve trovarsi in armonia con i memi già presenti nelle persone che incontra; 2. novità: un meme deve rappresentare una novità radicale per poter essere considerato positivamente e conservato; 3. semplicità: il meme deve essere facilmente memorizzabile; 4. utilità individuale: un meme, per poter 46 Heylighen (1996) 127
essere considerato positivamente e conservato, deve aiutare i singoli individui nel perseguimento dei loro obiettivi; 5. importanza: per poter essere notato dagli altri individui e così diffondersi attraverso di loro, deve essere facilmente percettibile e di notevole significato; 6. espressività: il meme deve poter essere espresso in un linguaggio o in un codice con facilità; 7. formalità: l'interpretazione del meme deve dipendere poco dalla singola persona o dal contesto; 8. infettività: gli individui che portano con sé un meme devono essere inclini alla sua diffusione, come se fosse un virus; 9. conformismo: un meme si diffonde maggiormente se viene supportato dai memi già diffusi nella maggioranza delle persone; 10. utilità collettiva: un meme può diffondersi anche se è utile solamente per una collettività.
dell'autopoiesi elaborata da Maturana e Varela (1984)47. Mentre la teoria delle strutture dissipative e la teoria dei sistemi complessi adattativi concentrano la loro attenzione sui processi di formazione e di consolidamento delle diverse forme organizzative di un sistema, la teoria autopoietica, formulata nell'ambito disciplinare della biologia, punta a valutare le condizioni che definiscono il vivente, come forma autoorganizzata e separata dall'ambiente esterno. In altre parole, tale teoria è interessata non tanto ai processi di trasformazione dell'organizzazione di un sistema, quanto alle modalità secondo cui un sistema (soprattutto se vivente) riesce a mantenere la sua identità e unicità, pur in presenza dei detti processi di trasformazione. Questa differenza di approccio si riflette nella terminologia utilizzata: lo schema delle interazioni tra gli elementi costitutivi, che nella teoria delle strutture dissipative e nella teoria dei sistemi complessi adattativi veniva chiamato organizzazione, nella teoria dell'autopoiesi viene definito struttura.
È facilmente osservabile come molte di queste caratteristiche siano presenti nel caso di Linux e delle comunità di sviluppo di software open source. Una nuova porzione di codice (patch) deve essere coerente con il resto del codice; deve apportare un contributo innovativo (e quindi novità); deve essere semplice per poter essere compreso anche dagli altri partecipanti, deve rappresentare una utilità individuale o collettiva; deve avere una certa importanza o non verrà considerato dalla comunità; deve essere formalizzato secondo un linguaggio (il linguaggio di programmazione) di modo che possa essere compreso da tutti; i partecipanti, dato che aderiscono all'etica hacker basata sull'economia del dono, sono inclini alla loro diffusione all'interno della comunità di Linux e della comunità più ampia di programmatori e utenti.
Per organizzazione Maturana e Varela intendono, invece, qualcosa di più astratto: è l'insieme dei rapporti tra gli elementi costitutivi che definisce l'identità del sistema, le sue caratteristiche essenziali, e che non può venir meno, pena la perdita di questa identità da parte del sistema. La struttura è la materializzazione fisica dell'organizzazione, l'insieme dei componenti e delle interazioni che la realizzano tangibilmente; l'organizzazione può concretizzarsi in diversi tipi di strutture: essa costituisce, perciò, il "campo di variabilità" della struttura, l'insieme delle possibili strutture che il sistema può assumere senza perdere la sua identità. Chiarite queste differenze, è possibile cogliere le molte analogie che legano le teorie dell'auto-organizzazione alla teoria dell'autopoiesi, tenendo conto che, nel resto di questo paragrafo, si chiamerà "struttura" ciò che, nella teoria delle strutture dissipative e nella teoria dei sistemi complessi adattativi, è definita "organizzazione".
Ma non è una coincidenza che le tecnologie digitali siano adatte a processi evolutivi. Dawkins identifica tre qualità essenziali per un replicatore di memi affinché possa diffonderli con successo: fecondità, fedeltà delle copie, longevità. In breve, un replicatore diffonderà i memi con maggior successo tanto quanto saranno maggiori le quantità di copie dei memi che produrrà, maggiore sarà la fedeltà di queste copie agli originali, maggiore sarà la durata della vita delle copie affinché possano replicarsi. La natura delle informazioni digitalizzate soddisfa queste tre condizioni. Nella organizzazione a bazaar, l'evoluzione, attraverso la variazione, esplora risorse multiple, mentre l'auto-organizzazione, attraverso cicli di retroazione positivi, sfrutta una particolare risorsa.
Le diverse strutture, in cui l'organizzazione di un sistema autopoietico può concretizzarsi, possono trasformarsi l'una nell'altra in conseguenza di perturbazioni esterne. La storia di questo cambiamento strutturale, che avviene senza la perdita dell'organizzazione, è detta ontogenesi del sistema. Essa coincide, nel grafico delle biforcazioni, ogni ramo del quale rappresenta una struttura particolare48. Le perturbazioni però possono solo "innescare", e non determinare, tali cambiamenti: l'ambiente può solo dare l'avvio ad un cambiamento strutturale, ma è il sistema a decidere quale nuova struttura adottare, al posto della precedente, in risposta ad una perturbazione.
5.7. Conservazione dell'autoorganizzazione: Autopoiesi
Un sistema autopoietico è, dunque, autonomo rispetto al suo ambiente: è caratterizzato, cioè, da
La concezione dell'auto-organizzazione come forma di apprendimento è al centro anche della teoria
47 Maturana H., Varela F., (1980), Autopoiesis and Cognition, D. Reidel, Dordrecht 48 Bertuglia, Staricco (2000)
128
chiusura operativa, nel senso che si ristruttura in risposta agli stimoli esterni secondo le proprie regole interne, e non in modo imposto dall'ambiente. I cambiamenti prodotti dall'interazione fra essere vivente e ambiente sono innescati dall'agente perturbante e determinati dalla struttura del perturbato. Non tutte le perturbazioni esterne innescano cambiamenti strutturali: alcune sono distruttive, cioè provocano la perdita dell'organizzazione; altre non vengono neppure percepite dal sistema. Se il sistema, in un certo momento, non ha interazioni distruttive con il suo ambiente, è con quest'ultimo in un rapporto di compatibilità definito come adattamento; l'ontogenesi è il processo con cui il sistema conserva tale adattamento, mutando la propria struttura in risposta alle variazioni dell'ambiente. Il rapporto di adattamento tra sistema e ambiente è anche detto accoppiamento strutturale, per sottolineare come i cambiamenti strutturali del sistema siano innescati (anche se non determinati) proprio dall'ambiente. L'insieme delle interazioni non distruttive che un sistema ha con l'ambiente nel rapporto di accoppiamento strutturale è definito dominio cognitivo. L'aggettivo "cognitivo" viene utilizzato per indicare che queste interazioni non distruttive costituiscono tutto ciò che il sistema può "sapere" del mondo esterno. Per Maturana e Varela, l'ambiente di un sistema non è costituito da tutto quanto è esterno al sistema (come si intende nella Teoria Generale dei Sistemi), ma solo da quella parte del mondo esterno con cui il sistema può avere delle interazioni non distruttive. Non esiste un ambiente dato in partenza, stabile, oggettivamente rappresentabile; il sistema riconosce come suo ambiente solo ciò con cui può interagire, così come un uomo riesce ad essere cosciente solo di una minima parte di ciò che i suoi sensi percepiscono. 49 Il dominio cognitivo di un sistema non è fisso, ma dipende dalla struttura: ad ogni struttura corrisponde, infatti, un diverso insieme di interazioni non distruttive che il sistema può avere con il mondo esterno. Ogni cambiamento strutturale è accompagnato, dunque, da un cambiamento del dominio cognitivo del sistema e, di conseguenza, del suo ambiente. È per questo che si parla di accoppiamento strutturale: l'ambiente, con le sue perturbazioni, innesca i cambiamenti strutturali del sistema, che, a loro volta, modificano l'ambiente. Il processo ontogenetico di cambiamento strutturale (ossia di auto-organizzazione) di un sistema autopoietico può essere visto, dunque, come una forma di apprendimento: modificando la sua struttura, il sistema modifica il suo ambiente, ossia "conosce" nuove parti del mondo esterno con cui può interagire. Come un processore di negentropia, auto-organizzandosi, riconosce via via nuove fonti di ordine, così un sistema autopoietico, attraverso i cambiamenti strutturali, riconosce nuove parti del mondo esterno con cui interagire in modo non distruttivo. Tutti i sistemi autopoietici 49 Idem
sono dunque sistemi cognitivi, anche se privi di sistema nervoso; la loro stessa attività di autoorganizzazione è un processo di cognizione. Anche nel caso della teoria dell'autopoiesi, dunque, la metafora dell'apprendimento viene usata per descrivere il comportamento di un sistema capace di auto-organizzarsi (o, come forse sarebbe meglio dire in questo caso, di auto-strutturarsi). La principale differenza, rispetto alla teoria delle strutture dissipative e alla teoria dei sistemi complessi adattativi, riguarda un altro aspetto: i sistemi autopoietici sono in grado non solo di assumere autonomamente una struttura ordinata, ma anche di produrre da soli i propri elementi. A utopoiesi vuol dire proprio "produzione di sé". Negli organismi unicellulari, ad esempio, la struttura non solo si modifica da sé, ma si "produce" anche da sola: una volta che l'organismo è nato, ogni suo componente può essere prodotto solo dagli altri componenti, e così pure il confine che delimita il sistema e che lo definisce come unità. A sua volta, l'organismo può nascere solo da un altro organismo a lui identico, per divisione cellulare. In una cellula, i componenti sono correlati da una rete di interazioni chimiche (il metabolismo cellulare), che producono nuovi componenti destinati, alcuni, ad entrare nella stessa rete che li ha prodotti e, altri, a costituire la membrana cellulare, indispensabile per il funzionamento della rete50. Luhmann51 sostiene che si possa parlare di autopoiesi, anziché solamente di chiusura operativa, anche per i sistemi sociali, se si assume che gli elementi di tali sistemi non siano gli individui, ma le comunicazioni. Un sistema sociale non è nient'altro che l'insieme di tutte le comunicazioni che si riferiscono (e si riproducono) reciprocamente; è con la riproduzione di comunicazioni attraverso comunicazioni che un sistema sociale costruisce da sé, autopoieticamente, i suoi confini, differenziandosi dal suo ambiente. Oltre a differenziarsi dall'ambiente, il sistema sociale si differenzia al proprio interno in sottosistemi funzionali, ognuno dei quali tratta tutti gli altri sottosistemi come proprio ambiente. Non sempre una perturbazione ambientale ha la possibilità di modificare il sistema: ciò può avvenire solo quando tale perturbazione viene riconosciuta dal sistema, ossia diventa oggetto di comunicazione. Una volta che essa è entrata nella rete autopoietica di comunicazioni, è il sistema a decidere se e come reagire, in base alla sua attuale struttura. Per Fritjof Capra52 anche una rete sociale è uno schema di organizzazione non lineare: qui, però, i nodi e i collegamenti della rete non sono più realtà puramente biochimiche. Le reti sociali sono, innanzitutto, delle reti di comunicazioni nelle quali entrano in gioco linguaggi simbolici, condizionamenti culturali, relazioni di potere e così 50 Idem 51 Luhmann N. (1990), The Autopoiesis of Social Systems, in Luhmann N., (1990) Essays on SelfReference, Columbia University Press, New York 52 Capra (2002) 129
via53. Riprendendo il discorso iniziato da Luhmann, per Capra il modo specifico in cui i sistemi sociali realizzano la propria riproduzione autopoietica è quello della comunicazione. I loro elementi costitutivi sono delle comunicazioni che vengono continuamente prodotte e riprodotte da una rete di comunicazioni, e che non possono esistere se non all'interno di tale rete. Queste reti di comunicazioni sono in grado di autogenerarsi: ciascuna comunicazione, infatti, genera dei pensieri e dei significati, i quali a loro volta daranno origine ad altre comunicazioni così che la rete, nel suo complesso, viene a generare se stessa, è autopoietica. Sviluppandosi in una serie di circuiti che ritornano su se stessi, le comunicazioni producono un sistema di credenze, spiegazioni e valori condivisi – un comune orizzonte di significato -, continuamente alimentato da ulteriori comunicazioni. Attraverso questo orizzonte di significati condivisi, i singoli individui acquistano la propria identità di membri della rete sociale, e in questo modo la rete genera anche i propri confini, l'ambito della propria estensione. Non si tratta di confini fisici, ma di una ambito di aspettative, di fiducia e lealtà, che viene continuamente mantenuto e rinegoziato dalla rete stessa. Per Capra inoltre la cultura emerge da una complessa dinamica non lineare. Essa è creata da una rete sociale in cui, attraverso molteplici circuiti, i valori, le credenze e le regole di condotta vengono continuamente mantenuti, comunicati e modificati. La cultura emerge da una rete di comunicazioni fra individui; e, quando è emersa, viene a sua volta a condizionare le loro azioni. In altri termini, le strutture sociali (o regole di comportamento) che condizionano le azioni degli individui, vengono prodotte e continuamente rafforzate dalla loro stessa rete di comunicazioni. La rete sociale produce poi anche un corpo di conoscenze condivise (in cui rientrano informazioni, idee, abilità tecniche) che, assieme ai valori e alle credenze, contribuiscono a dar forma al modo di vita caratteristico di quella cultura. Inoltre, i valori e le credenze propri di una cultura esercitano un'influenza sul corpo di conoscenze in essa prodotto; fanno cioè parte di quelle lenti attraverso le quali vediamo il mondo, e ci aiutano a interpretare le nostre esperienze e a decidere quale tipo di conoscenza è rilevante, significativa. Queste conoscenze significative, continuamente modificate dalla rete di comunicazioni, vengono poi trasmesse di generazione in generazione assieme ai valori, alle credenze e alle regole di condotta che caratterizzano quella determinata cultura54. In una comunità Open Peer-to-Peer, quindi le comunicazioni svolgono anche la funzione di mantenere l'auto-organizzazione della comunità stessa, "riparando" e "sostituendo" gli elementi deboli: ossia, cercando di motivare i partecipanti o di sostituire la loro uscita coinvolgendone nuovi. Questi cicli autopoietici, basati sulle comunicazioni, permettono anche l'emergenza della cultura della 53 Idem 54 Idem 130
comunità e quindi della sua identità. Si vede quindi come il flusso di informazioni non permetta solamente l'evoluzione di un sistema complesso e dell'oggetto della sua attività, ma anche la costituzione e mantenimento della sua autoorganizzazione.
5.8. Definire la complessità per affrontarla Sembrano esserci idee intuitive abbastanza ben sviluppate su che cosa costituisca un sistema complesso, ma i tentativi di formalizzare il significato della complessità sembrano ancora incompleti. In informatica, è stata introdotta la nozione di complessità computazionale di un problema, definita come il tempo minimo impiegato da un computer per risolvere tale problema. Essa ha però un campo di applicazione molto ristretto, e non è adatta a descrivere la complessità di un sistema qualsiasi; inoltre, presenta una chiara "dipendenza dal contesto": il tempo minimo dipende, infatti, dal tipo di computer e dall'abilità del programmatore55. In realtà, la dipendenza dal contesto è ineliminabile. La maggior parte delle definizioni di complessità, perciò, anziché lasciarla implicita, la rendono esplicita: assumono, cioè, che la complessità di un sistema non sia una sua proprietà intrinseca, oggettivamente misurabile, ma dipenda dalla descrizione del sistema che ne viene fatta da un osservatore esterno. La teoria dei sistemi complessi adattativi permette di introdurre una particolare definizione di complessità: la complessità effettiva. Un sistema complesso adattativo, quando riceve un flusso di dati dall'esterno, ne individua le regolarità e le comprime in uno schema. Se il flusso di dati proviene da un altro sistema, lo schema non sarà che una descrizione delle regolarità di tale altro sistema. La complessità effettiva di un sistema, con riferimento ad un sistema complesso adattativo che lo osserva e ne costruisce uno schema, è la lunghezza di questo schema, ossia la lunghezza della più breve descrizione delle sue regolarità56. Anche in questo caso, ci si riferisce ad una descrizione fatta da un osservatore esterno; questa, però, non riguarda l'intero sistema ma solo le sue regolarità. Per una data descrizione la complessità effettiva raggiunge un valore elevato in una situazione intermedia, quando il sistema non è né troppo ordinato né troppo disordinato. Il concetto di complessità effettiva ha però dei limiti. Se si osserva il genoma degli esseri umani e quello delle grandi scimmie antropomorfe a noi più vicine nell'albero dell'evoluzione, si può notare che le differenze sono poco rilevanti; eppure, tali minime mutazioni genetiche hanno permesso agli uomini di elaborare un linguaggio e una cultura.
55 Bertuglia, Staricco (2000) 56 Idem
La lunghezza del genoma, cioè, non è in grado, da sola, di misurare in modo adeguato la complessità degli organismi, e degli esseri umani in particolare. Occorre allora integrare la complessità effettiva con il concetto di complessità potenziale, per tenere conto di come piccoli cambiamenti nello schema descrittivo interno possano portare ad una forte crescita delle complessità effettiva. La complessità potenziale, cioè, dà una misura del livello di complessità che un sistema potrà raggiungere nel corso della sua evoluzione futura. Per valutarla, si considerano le possibili storie future del sistema, e si calcola la complessità effettiva che il sistema avrà in ciascuna di quelle storie: la complessità potenziale del sistema è la media di tali complessità effettive, pesate ciascuna secondo la probabilità che il sistema ha di seguire la storia corrispondente. La complessità potenziale avrebbe così permesso di distinguere le scimmie dai primi esseri umani primitivi, pur avendo essi una complessità effettiva molto simile57. La nozione di complessità effettiva appare molto vicina alla definizione di complessità proposta da Casti58. Secondo questo autore, la complessità è una proprietà latente di un sistema S, che si manifesta solo quando S interagisce con un altro sistema O, generalmente in un processo di misura o di controllo. In questa interazione, si possono distinguere due forme di complessità: la complessità di S così come percepita da O, chiamata design complexity e indicata con CO(S); e la complessità di O così come viene percepita da S, chiamata control complexity e indicata con CS(O). design complexity CO(S):
O osserva S
control complexity CS(O):
O è osservato da S
Questa distinzione è stata generalmente trascurata nella fisica classica, dove l'interazione tra S ed O sembra unidirezionale, perché il sistema osservato S non appare esercitare alcuna forma di La osservazione sul sistema osservatore O59. control complexity ha, invece, un ruolo importante nella fisica dei quanti e del cosmo, nei sistemi biologici dotati di un qualche livello di autocoscienza e, soprattutto, nei sistemi sociali. Casti60 ha introdotto la seguente "regola aurea" per due sistemi complessi in interazione tra loro: la situazione migliore si ha quando i due sistemi hanno pressoché lo stesso livello di complessità, ossia: CO(S) = CS(O) In altre parole, bisogna essere complessi per 57 Idem 58 Casti J.L., (1986), On System Complexity: Identification, Measurement and Management, in J. Casti & A. Karlquist (eds.) Complexity Language and Life: Mathematical Approaches. Berlin: Springer, pp. 146-173. 59 Bertuglia, Staricco (2000) 60 Casti (1986)
comprendere e per gestire la complessità. Ciò comporta, in primo luogo, che la complessità di un sistema non va vista come un difetto che debba essere eliminato, al fine di una migliore comprensione o gestione del sistema; al contrario, quando il sistema appare troppo semplice al suo osservatore o gestore, un aumento della complessità può rivelarsi addirittura auspicabile, perché può essere causa e fonte di varietà e quindi ricchezza di aspetti. In secondo luogo, per riuscire a gestire la complessità, occorre creare modelli fedeli non solo del sistema da gestire, ma anche del sistema che gestisce. La complessità, la sua identificazione e la sua gestione sono il risultato di un processo interattivo fra il sistema gestito e il sistema gestore; quest'ultimo, quindi, deve disporre di un'adeguata descrizione (un modello) sia del sistema gestito sia di se stesso. Ne discende, tra l'altro, che dobbiamo avere uno strumento che permetta di stabilire il livello di complessità di entrambi, poiché la situazione migliore, ai fini della gestione della complessità, sarebbe quella in cui i due livelli di complessità sono uguali fra loro61. Da un punto di vista quantitativo, propone di misurare CO(S) tramite il numero di descrizioni non equivalenti che O può fornire di S. Per descrizione si intende una qualche forma di interazione che O può avere con S. Un sasso, ad esempio, per la maggior parte delle persone è un oggetto semplice, ed è oggetto solamente di poche interazioni (lancio, rottura, ecc.) mentre per un geologo rappresenta un sistema complesso in quanto si trova di fronte ad un campo di interazioni possibili più ampio (ad esempio, le varie modalità di analisi e studio del sasso)62. Una nuova classe di descrizioni, non equivalenti rispetto alle precedenti, emerge ogni volta che il sistema attraversa una biforcazione o si dota di un nuovo livello organizzativo nella sua gerarchia. CO(S), quindi, può essere assunta uguale al numero di biforcazioni che un sistema osservatore O riconosce nell'evoluzione di un sistema S. Lo stesso vale per la complessità effettiva di un sistema S: essa è la descrizione più breve, fatta da un altro sistema O, delle regolarità del sistema S, e il numero di tali regolarità dipende da quello delle biforcazioni. Ogni biforcazione, infatti, è un evento accidentale che si "congela" come una regolarità per il futuro del sistema. Tanto la definizione di complessità effettiva, quanto quella di design complexity, quindi, vedono nella complessità una proprietà del sistema, che si manifesta, però, solo nell'interazione di tale sistema con un osservatore. Ciò significa che uno stesso sistema può presentare, per due osservatori differenti, due livelli diversi di complessità. Inoltre, sia la complessità effettiva sia la design complexity di un sistema vengono valutate quantitativamente sulla base del numero di biforcazioni che un determinato osservatore individua nell'evoluzione di quel sistema. Infatti, ad ogni punto di 61 Bertuglia, Staricco (2000) 62 Idem 131
biforcazione il sistema acquisisce una nuova forma di organizzazione, che è qualitativamente differente dalle precedenti; in altre parole, una biforcazione fa sì che l'osservatore colga, nel sistema, nuove regolarità (e, quindi, un aumento della complessità effettiva), o possa dare del sistema nuove forme di descrizione (cioè ne veda accresciuta la design complexity). Infine, è bene ricordare come la comparsa di biforcazioni, nell'evoluzione di un sistema, sia dovuta alla non-linearità delle interazioni tra i suoi elementi: in questo modo, è possibile comprendere il legame esistente tra le due definizioni di complessità sopra riportate (basate sulla presenza di biforcazioni) e la definizione di sistema complesso data all'inizio (basata sulla non-linearità delle interazioni tra gli elementi costitutivi)63. La complessità di un problema si manifesta solo ad un osservatore complesso: per questo motivo le comunità Open Peer-to-Peer, che sono dei sistemi complessi, riescono ad affrontare e risolvere problemi complessi. Una moltitudine di agenti, in grado di agire con una certa libertà, possono esplorare differenti direzioni e prospettive. Sebbene solo pochi agenti avranno successo, la natura delle comunità Open Peer-to-Peer, basate sulla condivisione, fa sì che tutta la comunità riesca a trarne vantaggio.
5.9. Riduzione della complessità e valorizzazione della diversità Le comunità Open Peer-to-Peer risultano quindi importanti anche per una loro caratteristica: essendo sistemi complessi, possono affrontare con successo problemi complessi. Fino ad oggi, infatti, a parte alcuni casi eccezionali, si è sempre tentato di ridurre la complessità al fine di affrontarla. Le comunità Open Peer-to-Peer non rappresenteranno forse il primo tentativo di risoluzione della complessità attraverso la complessità, ma rappresentano invece un caso importante di come questo tentativo possa essere svolto, e di come possa essere portato alla conoscenza generale. Un primo esempio di questo tentativo viene riscontrato da Enzo Rullani64 nei distretti industriali. Per Rullani la razionalità deterministica tipica del pensiero moderno, e in special modo del fordismo, ambiva soprattutto a rendere efficiente lo sfruttamento del già noto. Per far ciò bisognava prima di tutto neutralizzare la complessità del mondo, che minacciava la possibilità di calcolo e razionalizzazione. Dovevano cioè essere ridotti gli spazi di varianza e di indeterminazione che rendevano imprevedibili gli eventi naturali, le scelte individuali, i significati percepiti da diverse persone e organizzazioni, i comportamenti manifestati nella vita economica e sociale65. In questo spirito, essi erano stati disciplinati e ridotti 63 Idem 64 Rullani (2002a) 65 Ibidem p.68 132
con l'uso della strumentazione uscita dalla rivoluzione industriale e cioè: • con l'uso della scienza e della tecnologia, incorporate nelle macchine e nel sistema tecnico della produzione di fabbrica, caratterizzato dalla ripetitività e standardizzazione delle operazioni e dei prodotti; • con il ricorso all'automatismo dei mercati, che ha imposto il prezzo come metro universale di misura di tutte le cose, sottoponendo in questo modo la vita produttiva e sociale ad un potente processo di quantificazione e astrazione. Il fordismo, nel corso del Novecento, aveva poi reso più drastica la spinta verso la razionalizzazione tecnica, inquadrando il lavoro nell'organizzazione scientifica varata da Taylor e generalizzando l'impiego della produzione a macchina, estesa a tutte le sfere di attività, comprese quelle di maggiore complessità. Grazie a questo trattamento, la complessità intrinseca di alcune attività non è più un buon motivo per sottrarle alla modernizzazione, perché può essere efficientemente ridotta mediante la tecnica della parcellizzazione: un compito complesso viene scomposto in una sequenza di operazioni elementari, ciascuna delle quali è abbastanza semplice da essere delegata ad un algoritmo di calcolo o ad una macchia. La linea di lavorazione o il programma di produzione potranno poi ricomporre i frammenti, aumentando il livello di complessità nei limiti dello strettamente necessario, inferiori a quelli iniziali. Per Rullani quindi la programmazione della grande impresa fordista genera quindi un ambiente artificiale a complessità ridotta. Un ambiente che ha il pregio fondamentale di rendere controllabile il comportamento degli agenti, dal momento che gli effetti delle azioni sono calcolabili e i rapporti tra le diverse azioni programmabili in anticipo. Il calcolo si sposta in questo modo al potere: ciò che può essere calcolato, diventa facilmente controllabile. Ed è anche vero il contrario: ciò che può essere controllato, offre un ottimo input – privo di ambiguità e di sorprese – per le procedure di calcolo. Nelle aree in cui rimane un eccesso di varianza o di indeterminazione, i dispositivi di previsione e di comando sono affiancati da procedure di negoziazione tra gli interessi organizzati. Alla fine, nell'affresco che rappresenta il capitalismo manageriale trionfante fino agli anni '70, grandi organizzazioni pubbliche e private assicurano la stabilità e prevedibilità dei comportamenti usando come riduttori di complessità la forza della conoscenza scientificotecnologica, quella del comando proprietario e quella, più duttile e adattiva, della contrattazione con gli stakeholder. Una modernità che procedeva riducendo la complessità “naturale” del mondo umano e sociale aveva pochissimi punti di contatto con la nozione di territorio, inteso come sintesi, sedimentata in un luogo, di storia, cultura e di
relazioni tra gli uomini66. Nella teoria e nella pratica dell'economia moderna, il territorio è di fatto scomparso; al suo posto la modernità ha proposto uno spazio artificiale, privo di complessità e posto a disposizione del calcolo di convenienza degli attori. Nel progetto fordista di modernità, la complessità delle società locali non era in alcun modo utilizzabile per produrre valore economico, ma era di ostacolo e di impaccio. Un territorio senza complessità è un territorio senza qualità. Uno dei tanti luoghi, uno dei tanti addensamenti o rarefazioni prodotte dall'algoritmo di calcolo67. Ma questa riduzione della complessità si è trovata di fronte ad un limite, e non a caso si parla ora di post-modernità e post-fordismo. In epoca postfordista il mercato non è più in continua crescita, ma, nella migliore delle ipotesi, stabile; la domanda è sempre più differenziata in prodotti poco standardizzati e dal ciclo di vita molto breve. In una tale situazione l'impresa deve imparare a "respirare" con il mercato, cioè ad adattare le proprie procedure produttive al carattere instabile, nervoso, imprevedibile, della domanda. Si ha il passaggio dal modello di strategia autoritario del tipo top-down, che caratterizzava il fordismo, a quello che i teorici dell'organizzazione chiamano "incrementale", del tipo bottom-up. In esso le strategie emergono dalle decisioni incrementali prese durante la continua attività di correzione, sperimentazione e apprendimento che ha luogo a livello operativo: non si dà più un soggetto "centrale", ma si ipotizza una molteplicità di microdecisioni. Non potendosi più basare sulle economie di scala, l'impresa assume come principi organizzativi quello della decentralizzazione, della flessibilità e del justin-time, per ridurre al minimo scarti, tempi morti e magazzini. Essa deve, necessariamente, porre in essere livelli relativamente elevati di autoorganizzazione, interpretando i segnali provenienti dall'ambiente e adattandovi le forme e le modalità della propria cooperazione. La fabbrica postfordista si razionalizza da sé, lavorando68. Si tende quindi oggi ad affrontare maggiormente la complessità, in tutte le sue sfaccettature: ad esempio, oggi ci si interessa alle caratteristiche specifiche del territorio negli interventi di sviluppo locale. E questo interesse è nato soprattutto da casi promettenti come i distretti industriali. Rullani collega il successo dei distretti industriali alla loro “straordinaria capacità di far coesistere un'efficiente organizzazione della produzione, con tutta la gamma di specializzazioni e di scambi tipici di una economia moderna, con livelli di elevata varietà (nello spazio), di variabilità (nel tempo) e di indeterminazione (nello spazio delle possibilità)”69. Esso rappresenta, in altri termini, la negazione pratica del “dogma centrale” della modernità, che considera incompatibili organizzazione e complessità, proponendo di conseguenza 66 67 68 69
Ibidem p.70 Ibidem p.71 Bertuglia, Staricco (2000) Rullani (2002a) p.82
organizzazioni condannate a mantenere artificialmente basso il livello di complessità ammessa al loro interno e nei rapporti con l'ambiente esterno. Per Rullani i distretti industriali offrono invece un esempio pratico di come sia possibile realizzare una ragionevole sintesi tra organizzazione e complessità, anche in assenza di dispositivi artificiali di riduzione della complessità basati sulla tecnica, sul comando o sulla negoziazione. La complessità, in altre parole, viene governata dai distretti in altro modo (senza ridurla a priori) e con altri dispositivi (diversi dalla tecnica, dal comando e dalla negoziazione). Il distretto industriale è un sistema che metabolizza la complessità attraverso una dinamica di apprendimento distribuito, che mobilita l'intelligenza di molti attori autonomi capaci di comunicare e di interagire tra loro. Nessuno di questi attori ha abbastanza potere tecnico, normativo o negoziale da ordinare il comportamento degli altri in un programma coerente di azioni, ma ciascuno impara, nel corso dell'azione, ad esplorare il suo segmento di complessità facendo esperienza in proprio e, al tempo stesso, facendo tesoro dell'esperienza degli altri. Di qui l'emergenza di una auto-organizzazione che progressivamente, attraverso ripetute prove, “impara” a rendere efficiente l'organizzazione interna del sistema e a rispondere in modo flessibile alle domande dell'ambiente esterno. Per Rullani70 il distretto industriale ha le caratteristiche tipiche di un sistema adattativo complesso, perché • è ordinato da processi auto-organizzatori, che avvengono per variazione, selezione e ritenzione delle varianti di volta in volta più adatte alla situazione contingente, a prescindere dall'esistenza di un progetto intenzionale e di attori consapevoli; • nell'elaborazione di varianti e nella selezione/ritenzione delle stesse utilizza un capitale intellettuale e sociale sedimentato dall'esperienza e assimilato nelle strutture specifiche, originali di ciascun distretto (linguaggi, circuiti logistici, sistemi fiduciari e di garanzia); • manifesta processi di crescita e dinamiche non lineari, grazie ai moltiplicatori che propagano nel distretto le soluzioni più efficaci e stoppano quelle non altrettanto riuscite; • ospitando un patrimonio di varianti e di nicchie ecologiche di gran lunga eccedente gli usi immediati, dà accesso ad una riserva di diversità che consente risposte flessibili e creative rispetto alle contingenze. Inoltre, sempre secondo Rullani, l'ecologia distrettuale modifica continuamente l'accoppiamento strutturale raggiunto tra gli uomini, i significati, i mezzi materiali e i prodotti. Nel suo funzionamento il distretto non “macina” soltanto informazioni e soluzioni tecniche, ma plasma strutture sociali, identità collettive, scale di valori. Rullani ha quindi una visione autopoietica del 70 Idem 133
distretto, che ha una certa capacità di risolvere problemi solo a condizione di potersi riprodurre come sistema vivente, formato da migliaia di uomini che cercano nel suo ambiente non solo soluzione economicamente efficienti, e paganti, ma anche risposte a bisogni di relazione, di comunicazione, di senso che eccedono l'orizzonte economico strettamente detto. Tutte queste persone abitano in modo permanente il distretto e non hanno un mondo di ricambio in cui soddisfare le loro esigenze extra-economiche. Dunque la micro-società distrettuale non può limitarsi ad essere efficiente dal punto di vista dell'economia, ma dovrà rispondere ad esigenze meta-economiche o extra-economiche che sono ugualmente importanti per riprodurre il sistema nel tempo71. Di conseguenza, il distretto può appartenere legittimamente all'economia soltanto se questa allarga la regione di sua pertinenza, uscendo dal determinismo e avventurandosi nella complessità. Per questo motivo per lungo tempo i distretti furono ignorati dagli economisti. Il distretto organizza la complessità della divisione del lavoro innovativo usando, come “collante”, la condivisione del contesto locale da parte di imprese che lavorano vicine l'una all'altra e che fanno parte dello stesso sistema di esperienza. Il distretto, in questo senso, non è altro che una rete collaborativa localizzata che utilizza il territorio come medium di relazione per facilitare la divisione del lavoro e la propagazione delle idee di successo. Si può dunque parlare di complessità considerando l'ambiente (la forma latente dello spazio delle possibilità) o considerando il sistema che lo esplora (la struttura interna che metabolizza la complessità dell'ambiente esterno e la rende governabile). Per Rullani “ci si aspetta infatti che l'esplorazione di un ambiente complesso abbia come risultato la costruzione di una struttura interna al sistema di pari livello di complessità; e che la complessità interna di un sistema possa essere considerata utile solo se si riferisce ad un ambiente con cui quella struttura ha qualche corrispondenza. L'apprendimento sottrae dunque complessità libera all'ambiente e la metabolizza nelle strutture del sistema sotto forma di complessità governata, ossia di varianza, indeterminazione e curvature dello spazio delle possibilità che il sistema è in grado di padroneggiare con variazioni o adattamenti rapidi e poco costosi, anche se non deterministici”72. La struttura interna si articola per livelli, in funzione delle proprietà emergenti che caratterizzano, ad esempio, un macrosistema rispetto ai suoi componenti elementari. Il manifestarsi di proprietà emergenti che sono proprie, ad esempio, delle cellule e non delle molecole, dei gruppi sociali e non degli individui che li compongono, consente di distribuire il governo della complessità tra diversi livelli di organizzazione, passando dal micro al macro. Il governo della complessità può avvenire regolando 71 Idem 72 Idem 134
il comportamento delle parti elementari, ma, per tutti gli aspetti che riguardano le proprietà emergenti a livello macro, questa regolazione può diventare molto difficile e costosa se non si stabiliscono meccanismi di governo a livello macro, che consentano di utilizzare il principio dell'equivalenza funzionale. Rullani termina la sua analisi ipotizzando una convergenza futura tra distretti locali e reti translocali, che sono a suo avviso due modi per governare la complessità attraverso l'interazione tra imprese differenti. Essi, per affermarsi, devono vincere la concorrenza delle gerarchie multinazionali e/o dei mercati. E riescono a farlo solo quando si tratta di organizzare produzioni complesse che, utilizzando sapere contestuale (del luogo o della rete), possono essere diffuse all'interno del sistema e, allo stesso tempo, protette dai concorrenti esterni73. L'elemento decisivo di queste due forme è la possibilità di fare esperienza nella condivisione delle innovazioni. Il contesto condiviso dal distretto (il circuito locale) o il contesto condiviso della rete (la cooperazione a distanza) possono essere due risorse complementari – quando un distretto, ad esempio, si apre ad una serie di relazioni con nodi de-localizzati di una rete più ampia di condivisione delle esperienze – o due risorse concorrenti, quando l'uno sostituisce l'altro. Anche dall'analisi di Rullani, quindi, si comprende come siano utili sistemi complessi integrati a livello locale ma inseriti anche in reti di dimensione più ampia, al fine di risolvere problemi complessi. Certamente vi sono delle differenze tra le comunità Open Peer-to-Peer e i distretti industriali, ma in loro possono essere riscontrati certi tratti comuni di confronto con la complessità attraverso la condivisione e la creazione di capitale sociale74.
5.10. Monocolture e diversità Il passaggio da una modernità riduzionista ad una post-modernità in grado di apprezzare la complessità non riguarda semplicemente la sfera economica, ma è una rivoluzione intellettuale. Si passa da una monocoltura della mente ad una intelligenza collettiva. Vandana Shiva, partendo dall'analisi dell'agricoltura contemporanea, arriva a comprendere come la monocoltura non sia solamente una pratica agricola, ma una concezione del mondo proveniente dalla modernità occidentale diffusa attraverso la globalizzazione dei mercati75. Il filo critico del pensiero di Vandana Shiva è che uniformità e diversità non sono solo modi diversi di uso della terra, ma anche modi di pensare e modi di vivere. La riduzione della complessità attraverso la riduzione della diversità, eredità della modernità e del fordismo, è la causa della diffusione delle 73 Idem 74 Maggioni (2002) 75 Shiva (1995)
monocolture, nella pratica e nella cultura. Per Vandana Shiva, le monocolture prima invadono la mente, e dopo si trasferiscono nella pratica. Le monocolture della mente generano modelli di produzione che distruggono la diversità e legittimano questa distruzione come progresso, crescita e miglioramento. Dal punto di vista delle monocolture della mente, la produttività sembra crescere quando la diversità è cancellata e sostituita con l'uniformità. Tuttavia, dal punto di vista della diversità, le monocolture comportano una diminuzione delle rese e della produttività. Sono sistemi poveri, in termini sia quantitativi sia qualitativi, ed anche altamente instabili e insostenibili. Questo perché distruggono sia la diversità e le alternative sia il controllo decentrato sui sistemi di produzione e di consumo. Le monocolture si diffondono non perché permettano di produrre di più ma perché permettono di controllare meglio. L'espansione delle monocolture dipende dalla politica e dal potere più che dai sistemi biologici della produzione. Shiva sostiene che il sapere scientifico occidentale è una monocoltura che, attraverso la globalizzazione dei mercati, si diffonde uniformando (cioè eliminando) le tradizioni locali. La scomparsa dei sistemi locali, attraverso l'interazione con il sapere occidentale dominante, si realizza a molti livelli, e con diversi passaggi. Innanzitutto, i saperi locali scompaiono semplicemente perché si fa finta di non vederli, negandone l'esistenza. I sistemi occidentali di conoscenza sono stati considerati, in genere, universali. Tuttavia un sistema dominante è anche un sistema locale, con insediamento sociale in una particolare cultura, classe e genere. Non è universale in senso epistemologico. È semplicemente la versione globalizzata di una tradizione locale e provinciale. Derivando da una cultura di dominazione e colonizzazione, i moderni saperi sono essi stessi sistemi di colonizzazione. La distanza stessa rimuove dalla percezione i sistemi locali, e quando riemergono nel quadro della globalizzazione, li si fa scomparire negandone lo status di sapere sistematico e definendoli “primitivi” e “non scientifici”.
Questo perché il sistema occidentale è considerato il solo “scientifico” e universale. I modelli della scienza moderna che hanno favorito questa lettura non discendono da una effettiva pratica scientifica, ma da visioni idealizzate della scienza, che le hanno attribuito un particolare status epistemologico. Il positivismo e i metodi della verifica e della falsificazione erano tutti basati sull'ipotesi che – contrariamente ai valori locali tradizionali del mondo, iscritti nel sociale – la moderna conoscenza scientifica potesse essere definita indipendentemente dalle mediazioni sociali. Si pensava che gli scienziati, in base a un sistema scientifico astratto, facessero affermazioni corrispondenti alla realtà del mondo da essi direttamente osservato. Le nuove tendenze della sociologia e della filosofia della scienza hanno messo in discussione le assunzioni positiviste, ma non la superiorità dei sistemi occidentali. Il sapere scientifico dominante alimenta dunque una monocoltura della mente, che apre un vuoto in cui le alternative locali scompaiono, secondo lo stesso meccanismo con cui la monocoltura delle piante introdotte dall'esterno porta alla distruzione della diversità locale. Il sapere dominante distrugge le condizioni stesse di esistenza delle alternative, così come l'introduzione delle monocolture distrugge le condizioni stesse di esistenza delle diverse specie. Come metafora, la monocoltura della mente è ben illustrata dal sapere e dalla pratica forestale e agricola. Silvicoltura e agricoltura “scientifiche” spaccano artificialmente il mondo vegetale in due parti separate e distinte, sulla base dei differenti mercati delle merci sui quali silvicoltura e agricoltura offrono materie prime e risorse. Nei saperi locali, il mondo delle piante non è artificialmente distinto tra la foresta, che fornisce legname commerciale, e la superficie agricola, che fornisce cibo. Foresta e campi sono un insieme ecologico unitario, e le attività della foresta contribuiscono a soddisfare i bisogni alimentari delle comunità locali, mentre l'agricoltura è modellata sulla ecologia delle foreste tropicali. Una parte degli abitanti della foresta raccoglie il cibo direttamente dalla foresta, mentre molte comunità praticano l'agricoltura fuori della foresta,
Fig. 45: Scomparsa delle alternative e riduzione della diversità con l'introduzione delle monocolture (Fonte: Shiva 1995)
135
ma la fertilità del suolo agricolo dipende da quella della foresta. La maggior parte dei saperi locali si basa sulla capacità di sostegno alla vita offerta dalle foreste tropicali, non sul valore commerciale del legno. Questi sistemi ricadono nel punto cieco di una prospettiva basata esclusivamente sullo sfruttamento commerciale delle foreste. Se taluni prodotti consuetudinari locali possono essere commercializzati, essi vengono considerati “minori”, mentre i tronchi e il legname sono i “prodotti principali”. I sistemi alimentari basati direttamente e indirettamente sulla foresta non esistono dunque nella visione riduzionista della silvicoltura e dell'agricoltura, nonostante che essi siano stati e siano tuttora il fondamento per la sopravvivenza di moltissime comunità nel mondo intero. Anche nelle zone non tribali, le foreste danno cibo e mezzo di sostentamento, attraverso input fondamentali per l'agricoltura, quali la conservazione del suolo e dell'acqua, foraggio e fertilizzante organico. Le pratiche silvicolturali indigene si fondano tutte sul massimo di sostenibilità e rinnovabilità delle diverse forme e funzioni delle foreste e degli alberi. Questa cultura comunitaria della silvicoltura è stata tramandata di generazione in generazione, attraverso la partecipazione ai processi di rinnovamento della foresta e di estrazione dei mezzi di sostentamento dagli ecosistemi forestali. Purtroppo i diversi saperi sviluppatisi insieme con i vari usi della foresta nell'alimentazione e in agricoltura furono eclissati dall'introduzione della silvicoltura “scientifica”, che considera la foresta solo come fonte di legname a fini commerciali e industriali. I legami tra foreste e agricoltura furono spezzati, e la funzione della foresta come fonte di cibo non fu più neanche percepita. La “silvicoltura scientifica” nelle sue attuali forme è un sistema di sapere riduzionista, che ignora le complesse relazioni all'interno della comunità della foresta e tra la vita delle piante e le altre risorse naturali come l'acqua e il suolo. Il suo modello di utilizzazione delle risorse si basa sulla crescita della “produttività”, derivante da una base sempre più ridotta, che riguarda solamente il legname. Al contrario, per le tribù e le altre comunità della foresta la produttività di un ecosistema complesso si misura in termini di erbe, tuberi, fibre, ricchezza genetica, ecc., elementi inutili, improduttivi e superflui dal punto di vista del mercato. Ignorando i collegamenti sistemici dell'ecosistema forestale, questo modello d'uso delle risorse genera instabilità nell'ecosistema e porta a un uso non produttivo delle risorse naturali su scala locale. La distruzione dell'ecosistema forestale e delle molteplici funzioni delle sue risorse interferisce a usa volta con gli interessi economici di quei settori della società che dipendono dalla foresta per la loro sopravvivenza, e cioè dal suolo, dall'acqua, dal cibo, dal foraggio, dal combustibile e dal fertilizzante. La caratteristica principale delle monocolture non è solo sopprimere le alternative, ma anche la possibilità delle stesse. La diversità è il carattere 136
distintivo della natura e il fondamento della stabilità ecologica. Diversi ecosistemi danno luogo a forme di vita e culture diverse. La coevoluzione delle culture, delle forme di vita e degli habitat mantiene intatta la diversità biologica del pianeta. Per Vandana Shiva diversità culturale e diversità biologica si tengono, e l'erosione della biodiversità avvia una reazione a catena. La scomparsa di una specie è connessa con l'estinzione d'innumerevoli altri specie, con le quali la prima è interrelata attraverso le catene alimentari, fatti che l'umanità ignora totalmente. Le varietà introdotte con la monocoltura azzerano la diversità delle colture tradizionalmente cresciute, e attraverso l'erosione della diversità i nuovi semi diventano un meccanismo d'introduzione e di accelerazione degli infestanti. La varietà indigene o razze specifiche locali sono invece resistenti alle malattie e agli insetti nocivi del posto. Anche quando si verificano certe malattie, alcuni ceppi possono risultarne colpiti mentre altri hanno la capacità di sopravvivere. La rotazione dei raccolti aiuta anch'essa nel controllo degli infestanti: dato che molti insetti nocivi sono specifici di piante particolari, la diversificazione delle colture nelle stagioni e negli anni determina una forte riduzione delle popolazioni d'insetti. Piantare lo stesso raccolto su vaste aree, anno dopo anno, incoraggia invece la crescita degli insetti. I sistemi di produzione basati sulla diversità possiedono dunque una protezione intrinseca. La distruzione della diversità è legata alla creazione delle monocolture, e con la creazione delle monocolture l'organizzazione autoregolantesi e decentrata dei diversi sistemi lascia il posto agli input esterni e al controllo esterno e centralizzato. Sostenibilità e diversità sono ecologicamente interconnesse perché la diversità determina molteplici interazioni, capaci di sanare le turbative ecologiche intervenute in qualsiasi parte del sistema. La non sostenibilità e l'uniformità significano che la turbativa in una parte si trasferisce in tutte le altre. Invece di essere delimitata, la destabilizzazione ecologica tende a essere amplificata. Strettamente legata alla diversità e uniformità è la questione della produttività. L'aumento delle rese e della produttività è stata determinante per l'introduzione della uniformità e della logica della catena di montaggio. L'imperativo della crescita genera quello della monocoltura. Ma la crescita è, in larga misura, una categoria socialmente determinata, carica di valori. I diversi sistemi hanno produzioni e rese molteplici, e buona parte delle produzioni ritornano nel sistema permettendo la produzione “a basso livello di input esterni” senza ricorrere al potere di acquisto, al credito e al capitale. Il bestiame e i raccolti si aiutano a mantenere la propria produttività simbioticamente e in modo sostenibile. Oltre alla stabilità ecologica, la diversità assicura forme diversificate di sostentamento e risponde a bisogni molteplici, tramite adattamento reciproco. I sistemi di produzione omogenei e unidimensionali
rompono la struttura comunitaria, eliminano le persone da molte occupazioni e rendono la produzione dipendente da input e mercati esterni. E questo crea vulnerabilità e instabilità politica ed economica, perché sia il fondamento della produzione sia i mercati delle merci diventano ecologicamente instabili. L'importanza del discorso effettuato da Vandana Shiva è quello di mostrare come la riduzione della diversità sia un pericolo collettivo, e di come questa possa verificarsi non solo in alcune pratiche specifiche quali l'agricoltura o la silvicoltura, ma sia una manifestazione culturale generale che bisogna contrastare. La valorizzazione della diversità o la monocoltura sono atteggiamenti mentali, che trovano poi riscontro nelle pratiche quotidiane. Ad esempio, ad effettuare lo stesso collegamento monocoltura-rischio, è stato John Quarterman, analizzando il sistema delle telecomunicazioni della città di New York durante l'attacco alle Twin Towers l'11 settembre 200176. Il sistema telefonico era gestito da una sola compagnia (una monocoltura), mentre vi erano molti Internet Service Provider (ISP) da cui accedere ad Internet. Come risultato dell'attacco, la rete telefonica collassò, mentre l'accesso ad Internet continuò ad essere disponibile. Come in una piantagione a monocoltura non resisterebbe all'attacco di un insetto infestante, anche la rete delle telecomunicazioni non resisterebbe ad un attacco terroristico. Viceversa, la diversità di un campo e di un sistema delle telecomunicazioni garantiscono la stabilità in caso di attacco.
5.11. Intelligenza collettiva Le comunità Open Peer-to-Peer, basandosi sulla diversità dei propri partecipanti, garantiscono un antidoto alla diffusione delle monocolture della mente. Anche le stesse religioni Open Source, sebbene possano apparire pittoresche, celebrano la diversità delle esperienze come strumento per raggiungere la Verità77. Ciò che fanno le comunità Open Peer-to-Peer, nei casi di maggiore espansione, quando riescono a coinvolgere un ampio numero di partecipanti, è costruire una “intelligenza collettiva”. La valorizzazione della diversità viene vista da un punto di vista etico-antropologico da Pierre Levy78, che, collegandola con le nuove tecnologie delle telecomunicazioni (e Internet in particolare), propone lo sviluppo di una intelligenza collettiva. Per Levy, infatti, a differenza delle innovazioni tecnologiche del passato, che erano sviluppate e dirette a livello locale, grazie alle telecomunicazioni ora siamo in grado di pensare collettivamente come utilizzare le telecomunicazioni per migliorare la società. Le gerarchie burocratiche (fondate sulla scrittura statica), le monarchie mediatiche (che si reggono sulla televisione e il sistema dei media) e 76 Quarterman (2002) 77 http://www.yoism.org/ 78 Levy (1996)
le reti dell'economia internazionale (che impiegano il telefono e le tecnologie del tempo reale) mobilitano e coordinano solo parzialmente le intelligenze, le esperienze, le tecniche, i saperi e l'immaginazione degli esseri umani. Ecco perché si pone con particolare urgenza la questione dell'invenzione di nuovi meccanismi di pensiero e di negoziazione, che possano far emergere vere e proprie intelligenze collettive. Per Levy, "se ci impegnassimo sulla strada dell'intelligenza collettiva, inventeremmo progressivamente le tecniche, i sistemi di segni, le forme di organizzazione sociale e di regolazione che ci permetterebbero di pensare insieme, di concentrare le nostre forze intellettuali e spirituali, di moltiplicare le nostre immaginazioni e le nostre esperienza, di negoziare in tempo reale e a ogni livello le soluzioni pratiche ai problemi complessi In un'epoca che dobbiamo affrontare"79. denominata "società della conoscenza" o anche network society basata sull'informazionalismo, la prosperità delle nazioni, delle regioni, delle imprese e degli individui dipende dalla loro capacità di navigare in quello che Levy chiama "Spazio del Sapere". La potenza ormai deriva dalla gestione ottimale delle conoscenze, siano esse tecniche, scientifiche o appartengano all'ambito della comunicazione o ancora abbiano a che fare con la relazione "etica" con l'altro. Più i gruppi umani riescono a costituirsi in collettivi intelligenti, in soggetti cognitivi aperti, capaci di iniziativa, d'immaginazione e di reazione rapida e meglio si garantiscono il successo in un ambiente circostante altamente competitivo. A lungo termine, tutto dipende dalla flessibilità e dalla vitalità delle nostre reti di produzione, di transazione e scambio dei saperi. Il totalitarismo ha fallito di fronte alle nuove forme di esercizio mobile e cooperativo delle competenze, perché, secondo Levy, era incapace di intelligenza collettiva. La nascita di una intelligenza collettiva non riguarda soltanto il grande spostamento delle economie occidentali verso il terziario, ma un movimento molto più profondo, di ordine antropologico. L'intelligenza collettiva di cui parla Levy è un progetto globale le cui dimensioni etiche ed estetiche sono importanti almeno quanto gli aspetti tecnologici e organizzativi. Questa visione dell'avvenire si organizza intorno a due assi complementari: quello del rinnovamento del legame sociale tramite il rapporto della conoscenza e quello dell'intelligenza collettiva propriamente detta. Che cos'è l'intelligenza collettiva? "È un'intelligenza distribuita ovunque, continuamente valorizzata, coordinata in tempo reale, che porta a una mobilitazione effettiva delle competenze"80. Il fondamento e il fine dell'intelligenza collettiva sono il riconoscimento e l'arricchimento reciproco delle persone, e non il culto di comunità feticizzate. Il coordinamento in tempo reale delle intelligenze 79 Ibidem pp.19-20 80 Ibidem p.34 137
implica dispositivi di comunicazione che, al di là di una certa soglia quantitativa, dipendono obbligatoriamente dalle tecnologie digitali dell'informazione. I nuovi sistemi di comunicazione possono offrire ai membri di una comunità i mezzi per coordinare le loro interazioni nello stesso universo virtuale di conoscenza. Se si vogliono mobilitare le competenze è necessario almeno identificarle. E per reperirle, bisogna riconoscerle in tutta la loro diversità. Oggi i saperi ufficialmente riconosciuti rappresentano solo una minima parte di quelli reali. Il problema del riconoscimento è fondamentale, poiché ha come fine non solo una migliore gestione delle competenze nelle imprese e nelle collettività in genere, ma implica anche una dimensione eticopolitica. Nell'era della conoscenza non riconoscere l'altro nella sua intelligenza, significa negargli la sua reale identità sociale, alimentare il suo risentimento e la sua ostilità, contribuire ad aumentare l'umiliazione, la frustrazione dalle quali trae origine la violenza. Al contrario, quando si valorizza l'altro in base al ventaglio diversificato dei suoi saperi, gli si permette di identificarsi in modo nuovo e positivo, si contribuisce a motivarlo, a sviluppare in lui, in contraccambio, sentimenti di riconoscenza che facilitano, di conseguenza, il coinvolgimento soggettivo di altre persone in progetti collettivi. Una intelligenza collettiva valorizza quindi la diversità personale. Il sapere dell'altro non può ridursi a una somma di risultati o di dati. Il sapere è anche un saper vivere, è inscindibile dall'atto di costruire e abitare un mondo e incorpora il tempo lungo della vita. L'indispensabile ascolto dell'altro non può ridursi alla costruzione di un sapere che ricalchi il suo, al puro e semplice assorbimento della sua abilità o delle informazioni che possiede. L'apprendimento in senso forte, è anche affrontare l'incomprensibilità, l'irriducibilità del mondo dell'altro, congiunta al rispetto che si ha di lui. La valorizzazione della diversità prende quindi la forma di un rapporto Peer-to-Peer. Ogni individuo, qualunque sia la sua posizione sociale attuale, qualunque sia il giudizio rilasciato dall'istituzione scolastica su di lui, rappresenta per gli altri un'occasione di apprendimento. "Per la mia esperienza di vita, il mio percorso professionale, le mie pratiche sociali e culturali, e poiché il sapere è coestensivo alla vita, offro delle possibilità di conoscenza a una comunità. [...] Non sono interscambiabile. Ho un'immagine, una posizione, una dignità, un valore personale e positivo nello Spazio del sapere. Tutti gli esseri umani hanno il diritto di vedersi riconoscere un'identità di sapere. Lo Spazio del sapere inizia a vivere nel momento in cui si sperimentano relazioni umane fondate su questi principi etici di valorizzazione degli individui a partire dalle loro competenze, di trasformazione effettiva delle differenze in ricchezza collettiva, di integrazione in un processo sociale dinamico di scambio di saperi, nel quale ciascuno sia riconosciuto in tutto e per tutto, e non sia bloccato nei propri percorsi di apprendimento da 138
programmi, prerequisiti, classificazioni a priori o pregiudizi sui saperi nobili o non nobili"81. In breve, l'ideale dell'intelligenza collettiva implica la valorizzazione tecnica, economica, giuridica e umana di un'intelligenza distribuita ovunque, al fine di innescare una dinamica positiva di riconoscimento e di mobilitazione delle competenze. Ma soprattuto non va confusa con progetti "totalitari" di subordinazione degli individui in comunità trascendenti. In un formicaio, gli individui sono "ottusi", mancano di una visione d'insieme e sono ignari del modo in cui ciò che fanno si connette con gli atti degli altri individui. Ma benché le formiche isolate siano "stupide", la loro interazione produce in comportamento manifesto globalmente intelligente. Si aggiunga che il formicaio possiede una struttura assolutamente fissa, che le formiche sono rigidamente divise in caste e sono interscambiabili al loro interno. Il formicaio rappresenta il contrario dell'intelligenza collettiva. In un collettivo intelligente, la comunità si dà esplicitamente come obiettivo la negoziazione costante dell'ordine delle cose, del suo linguaggio, del ruolo di ciascuno, la suddivisione e la definizione degli oggetti, la reinterpretazione della propria memoria. Niente è fisso, e tuttavia non regnano il disordine e il relativismo assoluti, poiché gli atti sono coordinati e valutati in tempo reale in base a un ampio numero di criteri, a loro volta costantemente ridefiniti rispetto al contesto. Interagendo con diverse comunità, gli individui che animano lo Spazio del sapere, lungi dall'essere membri intercambiabili di caste immutabili, sono al contempo singolari, molteplici, nomadi e in perenne metamorfosi (o apprendimento, il che è lo stesso). Per Levy questo progetto di costruzione della intelligenza collettiva comporta un nuovo umanesimo che include e amplia il "conosci te stesso" in direzione di un "impariamo a conoscerci per pensare insieme" e generalizza il "penso dunque sono" in un "noi formiamo un'intelligenza collettiva, dunque esistiamo come comunità significativa". Si passa dal cogito cartesiano al cogitamus. Lungi dal fondere le intelligenze individuali in una sorta di magma indistinto, l'intelligenza collettiva è un processo di crescita, di differenziazione e di mutuo rilancio delle specificità. L'immagine dinamica che emerge dalle sue competenze, dai suoi progetti e dalle relazioni che i suoi membri intrattengono all'interno dello Spazio del sapere, costituisce per un collettivo una nuova modalità di identificazione aperta, viva e positiva. Inoltre, nuove forme di democrazia, più adatte alla complessità dei problemi contemporanei rispetto alle forme rappresentative classiche, potrebbero allora vedere la luce82.
81 Ibidem p.33 82 Ibidem pp.37-38
Con un altro percorso (interessandosi infatti di organizzazione aziendale), anche Weick giunge a parlare di intelligenza collettiva, o meglio, mente collettiva83. L'aspetto innovativo del suo pensiero sta nel sostenere l'equivalenza tra i processi cognitivi di creazione del senso (sensemaking) e i processi mentali e sociali dell'organizzazione (organizing). Creare senso e organizzare sono esattamente la stessa cosa. La tesi di Weick è che la logica dell'affidabilità impone alle organizzazioni di attivare dei processi mentali collettivi più sviluppati di quelli presenti nelle organizzazioni operanti secondo i criteri di efficienza. Ma che cosa si deve intendere per processi mentali collettivi? Il cervello consiste di una estesa rete di unità molto semplici di elaborazione e che la conoscenza dipende dai modelli di connessione esistenti tra quelle unità. Input informativi complessi possono essere codificati e compressi da unità semplici a patto che queste siano riccamente connesse tra loro. L'attività di ogni unità dipende dall'attività delle unità vicine, connesse alla prima da legami eccitatori o inibitori che variano a seconda del proposito (design) e/o del processo di apprendimento. Questa tesi concorda con l'idea di Weick di un parallelismo tra l'organizzazione e la mente. Così come la mente può essere raffigurata come un'organizzazione reticolare di neuroni, anche le organizzazioni possono essere raffigurate come delle menti dove i singoli soggetti svolgono un ruolo analogo a quello svolto dalle unità neuroniche. Dei soggetti relativamente semplici possono essere messi in grado di apprendere input complessi se si connettono tra loro in modi che ricordano le reti neurali. Se i singoli soggetti possiedono delle conoscenze che non sono mutualmente esclusive ma che si sovrappongono tra loro, è più facile ottenere azioni efficaci e prestazioni coscienziose. La tesi di Weick è che le organizzazioni preoccupate da problemi di affidabilità devono favorire lo sviluppo di menti collettive per agire in modo coscienzioso, attento, coerente, ostinato e intelligente. A differenza di una prestazione abituale, una prestazione coscienziosa comporta dei processi di apprendimento che portano a migliorare e non semplicemente a replicare le prestazioni precedenti. La mente collettiva nasce nell'interazione pragmatica e orientata a un fine di vari soggetti. Se tutti i soggetti coinvolti contribuiscono, rappresentano e subordinano con cura le loro azioni, queste potranno essere interpretate come delle operazioni volte a sviluppare una mente collettiva.
azioni dei singoli dipende dall'interazione tra i know-how individuali. Non va nemmeno scordato che la mente collettiva, proprio perché è il risultato di interazioni sociali, è una conquista precaria. Si fa molto più in fretta a dissolvere una mente collettiva piuttosto che a costruirla. Quando l'interconnessione coscienziosa è visibile, premiata, discussa e conservata in storie vivide, è probabile che i nuovi membri la apprendano come stile di lavoro e la incorporino nella definizione del loro ruolo. Ciò che quindi fanno le comunità Open Peer-toPeer è costruire una intelligenza (o mente) collettiva, dove le diversità individuali vengono valorizzate e utilizzate, dove l'appartenenza ad una comunità non prescrive l'adesione ad una identità comune monolitica, una monocoltura della mente. Attraverso una intelligenza collettiva, possono essere costruite organizzazioni in grado di risolvere problemi complessi in maniera adattativa. Ad esempio, nel caso di Keen.org84 i partecipanti sono sia persone in cerca di consulenza da parte di esperti, sia potenziali esperti: ciò che fa la piattaforma è rendere possibile la ricerca ed identificazione delle conoscenze distribuite. Oppure l'organizzazione Honey Bee Network85, che si propone di mettere in rete fra loro tutte le persone creative impegnate in elaborare soluzioni a problemi locali, facilitando la condivisione di conoscenze e quindi l'apprendimento collettivo. In questo caso la costruzione di una intelligenza collettiva basata sulla diversità si pone come esplicito obiettivo la critica ad un modello di sviluppo basato su una monocoltura della mente, che prescrive un approccio top-down. E nello stesso caso di Linux (e di tutti i software open source), è la diversità dei partecipanti che porta alla risoluzione dei problemi emergenti: da differenti prospettive si effettuano differenti analisi e si propongono differenti soluzioni. Le comunità Open Peer-to-Peer possono essere utili per interventi di sviluppo locale non solo grazie alla costituzione di capitale sociale, ma anche al riconoscimento e alla valorizzazione del capitale intellettuale distribuito. Per Levy "la capacità di costituire e ricostituire rapidamente collettivi intelligenti diventerà l'arma decisiva dei bacini regionali di abilità specifiche in competizione entro uno spazio economico su scala mondiale"86. Una intelligenza collettiva prodotta da comunità Open Peer-to-Peer mobilita e allo stesso tempo arricchisce (grazie ad un confronto paritario, Peer-to-Peer) il capitale intellettuale individuale.
La superiorità di una mente collettiva rispetto a una pluralità di menti individuali sta nella capacità di affrontare eventi inattesi con molta maggiore efficacia. Nella mente collettiva, sebbene le attività restino individuali, il referente diventa un campo socialmente strutturato e la coscienziosità delle 83 Weick K., (1993), "Collective Mind in Organizations: Heedful Interrelation on Flight Decks", Administrative Science Quarterly, 38, pp.628-652
84 p.258 85 pp.332-334 86 Levy (1996) p.26 139
140
6. Reti collaborative per lo svolgimento di attività
6.1. Comunità attorno ad attività Si può notare, esaminando i casi esistenti, che le comunità Open Peer-to-Peer si formano al fine di soddisfare alcune esigenze a cui né lo Stato né il mercato riescono o sono intenzionati a fare. E spesso le forme con cui Stato e mercato cercano di soddisfare queste esigenze sono inadatte, portando così ulteriormente necessità di attivazione. La soluzione di queste esigenze avviene grazie ad una attività collettiva, su base collaborativa. Si può quindi dire che le comunità Open Peer-to-Peer si formano, si sviluppano ed evolvono attorno ad una attività, mirata alla soddisfazione delle proprie esigenze. Ovviamente una comunità non deve per forza organizzare una attività che rientra in un solo tipo, ma anche più attività oppure una attività complessiva le cui operazioni rientrano poi in differenti tipi. Oltre a queste attività, per così dire più “specifiche” di ogni comunità (tabella 5), le comunità devono organizzare altre attività che sono basilari, antecedenti alle attività specifiche. Queste attività infatti sono necessarie per la discussione collettiva su quali attività specifiche intraprendere: possono essere considerate come attività di “infrastruttura” (tabella ). Lo svolgimento delle attività infrastruttura permette quindi lo svolgimento delle attività specifiche: la distribuzione di informazioni permette la discussione e la comunicazione; la distribuzione di beni fisici permette la condivisione di beni fisici e attività svolte su di loro; la “distribuzione” di persone permette ai partecipanti spostamenti e viaggi. Le attività organizzative si trovano quindi ad un gradino più alto rispetto a quelle infrastruttura: sono necessarie per la organizzazione di una comunità, ma spesso molte comunità Open Peer-to-Peer svolgono queste attività specifiche
attività di infrastruttura
attività ma non svolgono altre attività specifiche. Per lo svolgimento delle attività specifiche sono invece necessarie sia le attività infrastruttura che quelle organizzative. Per poter comprendere appieno le caratteristiche generali condivise delle comunità Open Peer-to-Peer, è possibile utilizzare una teoria sviluppata appositamente per lo studio delle attività umane: la Teoria dell'Attività (Activity Theory). Comprendendo come avvengono le attività svolte dalle comunità Open Peer-to-Peer, possiamo comprendere il loro funzionamento e le loro caratteristiche generali, dato che le comunità Open Peer-to-Peer si formano esclusivamente per lo svolgimento di una o più attività. La Teoria dell'Attività sottolinea il carattere situato dell'azione umana, evidenziando come gli obiettivi e lo svolgimento dell'azione, dato lo scopo generale dell'attività a cui appartiene, siano costruiti e negoziati continuamente in funzione delle condizioni locali con cui interagisce.
6.2. Azione situata e attività La dipendenza di una azione dalla situazione e dalle circostanze specifiche in cui avviene è un concetto chiave di un recente filone di studi sull'attività umana definito in termini generali come “teoria della situatività”1. Il nuovo paradigma della'”azione situata”, che ha come principale teorizzatrice l'etnometodologa Lucy Suchman, richiama essenzialmente ad un cambiamento di prospettiva nell'analisi del comportamento umano che non considera più l'azione come l'esecuzione pedissequa di un piano stabilito a priori, ma come un adattamento plastico alle caratteristiche peculiari della situazione e delle circostanze.
•
organizzare attività economiche di scambio e distribuzione;
•
produrre contenuti;
•
svolgere ricerche;
•
progettare;
•
agire sulla dimensione locale;
•
sviluppare altre comunità;
•
distribuire:
•
informazioni;
•
beni fisici;
•
persone;
Tabella 5: Attività delle comunità Open Peer-to-Peer 1
Sangiorgi (2004) 141
Il paradigma “dell'azione situata” prende quindi le distanze dall'approccio tradizionale delle scienze cognitive e sociali che promuovono un'analisi del comportamento umano separato dall'ambiente in cui avviene e sottolinea invece la stretta dipendenza e quindi inseparabilità dell'azione dell'uomo dalle circostanze materiali e sociali. La prospettiva dell'azione situata considera ogni corso d'azione come dipendente dalle sue circostanze materiali e sociali. Invece di separare l'azione dalle circostanze in cui essa si verifica e di rappresentarla come l'esecuzione di un piano razionale, l'approccio dell'azione situata intende studiare come le persone usino le circostanze per sviluppare un corso d'azione. Oggetto di interesse dell'etnometodologia, da cui deriva in gran parte il paradigma dell'azione situata, è la comprensione delle modalità con cui i membri della società raggiungono nelle interazioni sociali quotidiane la comprensione delle azioni reciproche, attraverso un incessante processo di interpretazione e negoziazione. La situazione in cui si svolge l'azione rappresenta quindi l'insieme delle risorse che l'attore utilizza per trasmettere il significato della propria azione così come per interpretare le azioni degli altri attori; le situazioni, come immensi database e insiemi di opportunità, non sono preesistenti rispetto agli attori, ma sono costantemente costruite da essi, in base alle loro competenze e ai loro scopi, sia sul piano cognitivo che su quello pratico. La prospettiva dell'azione situata, con la sua necessità di “situare” e non di astrarre il comportamento umano, risponde inoltre ad una crescente consapevolezza dell'inadeguatezza delle metafore, prevalentemente di origine cognitiva, che privilegiano una interpretazione dell'azione umana quotidiana che separa l'uomo dall'ambiente, i processi mentali interni dagli eventi del mondo esterni, l'attore dal contesto sociale. Accanto ad una lettura dell'azione umana come continuamente negoziata in situ e mediata dalle risorse contestuali (materiali e sociali), la “teoria della situatività” evidenzia infine un altro aspetto: le azioni individuali non possono essere comprese considerando solo i fattori immediatamente presenti nella situazione o contenute nelle persone che agiscono in queste situazioni, ma devono essere lette come socialmente, culturalmente e storicamente situate. Le azioni sono quindi l'attuazione momentanea e contingente di un preesistente contesto socioculturale storicamente determinato, che deve essere considerato nell'analisi di qualsiasi azione umana. L'azione umana (in particolare l'interazione sociale) è il risultato di un processo continuo e situato di negoziazione del significato e quindi di adattamento alle circostanze concrete della situazione in cui avviene. Il presupposto alla base della lettura dell'azione umana come negoziata in situ risiede nel capovolgimento della prospettiva adottata tradizionalmente dalla scienza cognitiva; invece di considerare i “piani mentali” come prescrizioni per 142
l'azione da compiere, vengono descritte come risorse deboli e vaghe, repertori di risorse possibili, variamente utilizzati a seconda delle circostanze specifiche che l'uomo si trova ad affrontare. La prospettiva dell'azione situata considera i piani come rappresentazioni razionali dell'azione, come strumenti per ragionare sull'azione da svolgere o su quella appena svolta e non come meccanismi generativi dell'azione stessa. I piani, sinonimi di azioni dotate di scopo, esistono, ma si tratta quindi di piani attivati, negoziati e rivisti nel corso dell'azione e non invece formulati precedentemente e al di fuori di essa. Ciò in realtà non esclude l'esistenza di scopi e piani generali meno negoziabili e meno sensibili alle situazioni; l'improvvisazione e la flessibilità dei piani a breve termine è una risorsa chiave per la realizzazione di progetti e scopi a medio-lungo termine che investono maggiormente l'identità dell'attore e che quindi tendono a mantenersi inalterati. Il fatto che l'azione umana non possa essere pianificata e prevista in anticipo, ma che sia il risultato di una negoziazione e di una adattamento alle condizioni locali in cui avviene, evidenzia come l'oggettività delle nostre azioni sia qualcosa di raggiunto e costruito e non qualcosa di dato e determinato. L'uomo si confronta quotidianamente con un mondo che deve interpretare per poter agire invece che un ambiente al quale rispondere automaticamente. Gli uomini agiscono verso gli oggetti (fisici, sociali o astratti) sulla base del significato che quegli oggetti hanno per loro; un significato che non è però intrinseco all'oggetto, ma emergente dal processo di interazione tra le persone: è visto come una creazione sociale, continuamente modificato attraverso un processo di interpretazione con il quale le persone interagiscono con gli oggetti stessi. Questo continuo processo di interpretazione ha un particolare valore nelle interazioni sociali quotidiane, dove gli attori, sia che agiscano individualmente, collettivamente o come agenti di una organizzazione, nel momento in cui si incontrano devono necessariamente rendere conto ed interpretare le azioni dell'altro per formare la propria azione. Attraverso un doppio processo di indicazione delle azioni da svolgere e di interpretazione delle indicazioni fatte dall'interlocutore, gli attori sono in grado di adattare reciprocamente le proprie linee di azione congiunte ripetitive e socialmente consolidate. Gli attori devono continuamente adeguare le proprie linee di comportamento e ogni istante di interazione è il risultato di una negoziazione situata. La situatività dell'azione sociale oltre ad evidenziare il carattere negoziato del significato e dell'interazione umana, porta in primo piano i legame indissolubile tra l'attore e le risorse, materiali e sociali, del contesto. In direzione opposta alla tradizione delle scienze cognitive, la teoria della situatività cerca di spiegare le relazioni esistenti tra l'azione umana e il sistema socio-
culturale e privilegia come oggetto di indagine le attività quotidiane così come si svolgono in contesti culturalmente definiti. Nel momento in cui il comportamento umano viene studiato nei contesti della vita quotidiana e non in esperimenti di laboratorio, le metafore cognitive fondate sulla separazione tra “dentro” (mente) e “fuori” (ambiente) perdono il proprio valore e la propria utilità, mentre emerge un nuovo approccio che legge la cognizione come un complesso fenomeno sociale: le risorse contestuali, materiali e sociali, non sono più lette come stimoli esterni di un'attività cognitiva interna, ma come veri e propri “veicoli del pensiero” facenti parte quindi di un sistema allargato che unisce la persona al suo ambiente. Per quanto vi siano diverse concezioni di “cognizione distribuita”, la valorizzazione del ruolo svolto dai fattori contestuali ha portato al comune intento di formulare nuove unità di analisi che siano in grado di rappresentare la natura distribuita e mediata dell'agire umano.
6.3. Teoria dell'Attività La Teoria dell'Attività, attraverso i Sistemi di Attività, propone una visione molto simile. Per la Teoria dell'Attività la mediazione sociale si traduce nella partecipazione ad un Sistema di Attività con le sue comunità, regole e divisione del lavoro che, come gli strumenti, fanno da tramite nella relazione dell'uomo col mondo esterno. La mediazione sociale si traduce inoltre in un continuo processo di apprendimento e di creazione di nuova conoscenza: i cambiamenti nella conoscenza e nell'azione attivano necessariamente processi di apprendimento situati e mediati dall'uso del linguaggio e dall'interazione sociale in generale. Secondo la Teoria dell'Attività, il contesto dell'azione risulta formato dalla relazione storicamente costituita tra le persone occupate in attività socialmente e culturalmente determinate e il mondo con cui interagiscono. Il Sistema di Attività (fig.46) rappresenta l'unità di analisi per lo studio del comportamento umano, una sorta di “mappa concettuale” che evidenzia i luoghi principali attorno ai quali la cognizione umana è distribuita e attraverso cui l'azione umana è mediata: i soggetti che agiscono ed interagiscono e gli oggetti a cui l'azione è diretta, gli artefatti culturali (sia materiali che simbolici) che mediano l'azione, la comunità in cui l'azione si svolge secondo delle regole e una divisione del lavoro. Questa unità di analisi proposta presenta due importanti elementi. Da una parte utilizza la nozione di azione o di attività come ponte concettuale per superare la tradizionale separazione tra individuo ed ambiente, tra mente e corpo; l'azione stessa diventa una unità di analisi in grado di incorporare, nella sua descrizione, sia l'individuo agente che il suo ambiente culturalmente definito. Dall'altra parte sottolinea la
natura distribuita e mediata dell'azione umana integrando nelle proprie definizioni un contesto principalmente costituito da risorse materiali e da risorse sociali. La mediazione tramite risorse materiali non si limita a considerare gli artefatti come supporto fisico esterno all'azione dell'uomo, ma ne sottolinea la duplice natura materiale e concettuale; l'artefatto è concettuale in quanto, come prodotto dell'uomo, porta con sé la storia della propria evoluzione, i modelli comportamentali e culturali che lo hanno generato e plasmato. Nella sua duplice natura concettuale e materiale un artefatto condiziona l'azione umana sia abilitandola e supportandola che inibendola, vincolandola alla propria conformazione e potenzialità di utilizzo. La Teoria dell'Attività si riferisce, più che ad una teoria unica e strutturata, ad un approccio interdisciplinare alle scienze umane, ad un insieme di punti di vista e concetti per lo studio dell'attività umana originatosi a partire dalla psicologia russa degli anni '20; il nucleo originario della Teoria dell'Attività risiede infatti nel lavoro di tre psicologi russi, Vygotsky, Leont'ev e Luria, conosciuti come la troika, fondatori della cosiddetta culturalhistorical psychology. La scuola sovietica, ricollegandosi all'opera di Marx ed Engels, propose il concetto di attività come elemento risolutore ed unificante delle contraddizioni alla base della riconosciuta crisi della psicologia dell'inizio secolo. Attorno al concetto centrale di attività si sono sviluppati i contributi al framework teorico della Teoria dell'Attività fino ai giorni d'oggi. Lo sviluppo della Teoria dell'Attività può essere articolato in tre generazioni2: la prima generazione centrata attorno al pensiero di Vygotsky e il suo concetto di mediazione secondo cui l'azione umana è rappresentata dalla triade di soggetto, oggetto e artefatto mediante; la seconda generazione attorno al lavoro di Leont'ev che, oltre a fornire una sintesi del pensiero di Vygotsky, introduce la dimensione sociale dell'attività umana, delineando l'importanza della divisione del lavoro come mediazione tra l'azione del singolo e la collettività; e la terza generazione nella quale emerge un interesse non solo per il cosiddetto sviluppo verticale verso higher psychological functions, ma anche per quello orizzontale o interculturale. Quest'ultima generazione ha focalizzato il proprio interesse sullo studio dell'interazione tra sistemi di attività (Engeström) e culture differenti (Luria, Cole) sviluppando ulteriormente il concetto di contraddizioni originariamente proposto da Il'enkov3. La singola azione umana non viene quindi letta come unità discreta ed isolata, ma riceve significato dal suo essere parte di un Sistema di Attività collettivo socialmente e storicamente generato; a sua volta l'azione individuale contribuisce dal basso alla continua creazione e riproduzione dei Sistemi di Attività. 2 3
Engeström (1987) Idem 143
Le azioni di un medico, per esempio, acquisiscono significato se contestualizzate all'interno di un Sistema di Attività ospedaliero socialmente e storicamente determinato, all'interno di una comunità di pratica caratterizzata da un sistema integrato di artefatti, regole e organizzazione del lavoro; nello stesso tempo le azioni del medico, svolte in interazione con i diversi componenti del sistema, possono generare od esplicitare delle contraddizioni potenzialmente risolvibili attraverso un cambiamento che coinvolge la collettività. Le attività sono infatti sistemi instabili ed eterogenei in continua costruzione e cambiamento; sono formate da una moltitudine di elementi, voci e punti di vista, da persone che costruiscono insieme una situazione a partire da competenze, interessi, linguaggi ed esperienze differenti e quindi necessariamente conflittuali. La Teoria dell'Attività sottolinea il carattere situato dell'azione umana, evidenziando come gli obiettivi e lo svolgimento dell'azione, dato lo scopo generale dell'attività a cui appartiene, siano costruiti e negoziati continuamente in funzione delle condizioni locali con cui interagisce. Il modello del Sistema di Attività, unità di analisi dell'attività umana, descrive gli elementi principali attraverso i quali l'azione umana è mediata ovvero gli artefatti (mediazione strumentale) e la comunità (mediazione sociale) con cui il soggetto individuale o collettivo interagisce secondo regole, implicite o esplicite, e una divisione del lavoro, ovvero l'organizzazione di ruoli e compiti. Il Sistema di Attività non è una realtà statica. Le azioni individuali nel loro adattamento reciproco generano un processo di cambiamento incrementale così come possono attivare una profonda trasformazione qualitativa a cui tutto il sistema deve gradualmente adattarsi. Il Sistema di Attività rappresenta il contesto da cui la singola azione deriva il proprio significato, così come l'attività è costantemente ridefinita e costruita attraverso lo svolgimento locale delle singole azioni. Per questo motivo la comprensione e l'analisi dell'azione umana non può limitarsi ad una ricostruzione del suo svolgimento situato, ma deve leggere la sua manifestazione temporanea all'interno del Sistema di Attività o contesto di appartenenza e come attuazione di una evoluzione storico-culturale di tipologie ideali di attività. Secondo Daniela Sangiorgi4 il Sistema di Attività si presta potenzialmente ad integrare e descrivere le caratteristiche emerse dell'azione umana; è potenzialmente adattabile a diverse tipologie di attività umana e a diversi fini applicativi, tra cui anche attività propriamente progettuali; infine propone un approccio di intervento di natura partecipatoria fortemente radicato nell'analisi contestuale (approccio bottom up). Queste caratteristiche motivano ulteriormente l'utilizzo di tale approccio, che potrebbe rivelarsi utile per interventi progettuali mirati a comunità Open Peerto-Peer e alle loro attività. 4
Sangiorgi (2004)
144
6.4. La struttura gerarchica dell'attività Uno dei contributi più significativi di Leont'ev al costrutto teorico della Teoria dell'Attività è stata l'articolazione del concetto di attività in livelli gerarchici ed interrelati. Di fronte all'insufficienza di unità di analisi psicologica basata sull'azione individuale mediata, Leont'ev distingue il concetto di attività dalla sequenza di azioni di cui è composta, ciascuna orientata ad un obiettivo, ma complessivamente operante per il perseguimento dello scopo superiore dell'attività. L'emergere di azioni orientate ad obiettivi viene fatta risalire al passaggio degli uomini alla vita di società dove l'emergenza anche della più semplice divisione tecnica del lavoro conduce necessariamente all'isolamento di risultati separati, che sono raggiunti da partecipanti distinti all'interno di un'attività collettiva, ma che non soddisfano di per sé i loro bisogni. L'attività è una opera collettiva, sistemica, caratterizzata da una struttura di mediazione complessa. Nella Teoria dell'Attività, l'attività rappresenta il concetto motivante più alto: descrive ciò che gli individui o gruppi stanno cercando di compiere e quali siano i risultati verso cui tendano. All'interno della attività troviamo le azioni, svolte con il fine di raggiungere determinati obiettivi che porteranno il singolo individuo o il gruppo a raggiungere il risultato finale dell'attività. Ad ogni modo, una attività non può essere ridotta a semplici azioni. Le azioni hanno una vita relativamente breve e hanno un inizio ed una fine ben definibili. I Sistemi di Attività si evolvono invece su lunghi periodi socio-storici, spesso prendendo la forma di istituzioni od organizzazioni. Oltre all'articolazione dell'attività in sequenze di azioni Leont'ev introduce il livello sottostante delle operazioni, determinate dalle condizioni contestuali; a parte gli aspetti intenzionali dell'azione che indicano cosa l'attore vuol fare, ogni azione ha un aspetto operativo determinato dalle circostanze che definisce come concretamente ed effettivamente l'azione venga svolta. Le operazioni sono quindi dei comportamenti, assorbiti così profondamente, che non richiedono un impegno cosciente per l'esecuzione. Le operazioni sono risposte automatiche alle condizioni percepite riguardo all'oggetto dell'attività e alle azioni. Le differenze percepite tra lo stato corrente dell'oggetto e il risultato desiderato forniscono la motivazione per i singoli individui o per i gruppi a sviluppare obiettivi ed azioni, con il fine di trasformare l'oggetto nei risultati desiderati. La definizione dei tre livelli di attività, azione ed operazione non porta a una rigida visione dell'Attività umana. L'attività è vista infatti come un processo in continua trasformazione dove un'attività può perdere il proprio motivo e diventare consecutivamente un'azione o viceversa, un'azione può acquisire propria forza indipendentemente e diventare attività, oppure essere proceduralizzata e diventare una operazione inconscia.
Questo aspetto può essere facilmente illustrato quando consideriamo l'esempio di un bambino che apprende l'alfabeto. Inizialmente, tutti gli sforzi del bambino sono orientati verso come controllare la penna, affinché questa tracci i segni desiderati sul foglio. Con l'aumentare dell'abilità in questo gesto, l'obiettivo successivo è riuscire ad unire lettere in semplici parole. Quindi il bambino compone, con le parole, alcune frasi. Una volta che queste capacità sono acquisite, le attività di scrittura delle lettere e delle parole non rappresentano più delle attività, ma diventano delle operazioni automatiche che il bambino utilizza per compiere attività ben più complesse, come scrivere un saggio o un diario. L'attività è inoltre indipendente dal contenuto e può essere realizzata in differenti modi ed essere composta da diverse sequenze di azioni.
più semplice e piccola unità che preservi ancora l'essenziale unità e qualità di ogni attività complessa; l'attività deve essere analizzata nelle sue dinamiche e trasformazioni, nella sua evoluzione e cambiamento storico; l'attività deve essere analizzata come un fenomeno contestuale ed ecologico; l'attività deve essere analizzata come un fenomeno mediato culturalmente.
A sua volta un'azione può essere strumentale a realizzare più attività. Se questo si traduce in una certa flessibilità per la descrizione di fenomeni evolutivi, diventa però impossibile fare una generale classificazione di cosa sia un'attività o di cosa sia un'azione essendo di volta in volta determinate da chi è il soggetto o l'oggetto di quella particolare situazione. La Teoria dell'Attività rappresenta quindi un modello iterativo. Il processo di qualsiasi attività richiede un andamento ciclico tra le operazioni svolte e l'oggetto di interesse, comparandoli con i risultati desiderati in una valutazione continua. Questo ciclo di feedback non è limitato al singolo individuo, ma è esteso a tutta la comunità di cui questo fa parte. Attraverso la costituzione di una comunità, l'attività viene suddivisa in parti che possono essere svolte più facilmente, in cui i membri si specializzano.
6.5. Il Sistema di Attività come unità minima di analisi dell'attività umana La cultural-historical psychology ha proposto come unità di analisi del comportamento umano l'attività umana; Vygotsky propone come unità di analisi l'azione orientata ad un oggetto e mediata tramite strumenti culturali e segni, ma non integra la nozione di mediazione sociale nel modello teorico, cosa che verrà fatta da Leont'ev con la distinzione tra attività collettiva ed azione individuale. Yriö Engeström, principale esponente della scuola finlandese, evidenzia come in realtà i due concetti chiave di mediazione sociale e di mediazione strumentale non siano stati portati in un unico modello che possa superare ed integrare il triangolo di Vygotsky. Ciò richiede invece, a suo parere, la formulazione di una idea iniziale o cell che rappresenti una base condivisa per l'articolazione della teoria nelle sue diverse forme. Alcuni principi guida per la costruzione di questa struttura base dell'attività umana sono i seguenti: l'attività umana deve essere rappresenta nella sua
Fig. 46: Evoluzione dell'attività animale in attività umana (Fonte: Engeström 1987)
Il modello base viene quindi costruito e descritto da Engeström attraverso un'analisi dell'evoluzione dell'attività dall'originale forma animale all'attuale forma culturale umana. L'attività animale, rappresenta come una collettiva “metodologia di sopravvivenza” delle specie nel tentativo di risolvere le contraddizioni tra natura e popolazione, evolve ad una forma superiore nel momento in cui si testimoniamo delle “rotture” nella relazione tra i tre poli: la “sopravvivenza individuale” è spezzata dall'introduzione degli strumenti, la “vita sociale” dall'introduzione di tradizioni e regole collettive e la “sopravvivenza collettiva” dalla divisione del lavoro. L'effettiva evoluzione culturale umana avviene però nel momento in cui queste “rotture” o “mediatori emergenti” divengono “determinati da fattori unificati” e quando quello che era naturale ed ecologico diventa economico e storico5.
5
Engeström (1987) 145
Fig. 47: Modello del Sistema di Attività (Fonte: Engeström 1987)
Il modello proposto diventa quindi un Sistema di Attività (Activity System) (fig.46) nel quale le attività di adattamento originali si trasformano in attività di consumo, mentre l'introduzione degli elementi mediatori collega il consumo alle tre principali attività della società umana contemporanea quali la produzione, la distribuzione e lo scambio. Ogni triangolo può essere letto come una attività a se stante, ulteriormente scomponibile, ma fortemente interrelata agli altri triangoli del modello in un “tutto sistemico”. Gli elementi del sistema di Attività così rappresentato richiamano le definizioni e i concetti chiave della culturalhistorical psychology. Secondo il modello del Sistema di Attività, il soggetto coincide con l'individuo o sottogruppo che viene scelto come punto di vista per analizzare l'azione che è orientata ad un oggetto materiale o immateriale (idea o un piano), che verrà a sua volta “manipolato” e trasformato nell'output finale con il supporto di strumenti fisici o simbolici. L'azione del soggetto avviene all'interno di comunità che comprende più individui o sottogruppi che condividono lo stesso oggetto e che si distinguono da altre comunità. Accanto alla relazione mediata da strumenti tra soggetto e oggetto, vengono a delinearsi altre due relazioni mediate: la relazione tra soggetto e comunità mediata dalle regole e la relazione tra l'oggetto e la comunità mediata dalla divisione del lavoro. Le regole possono essere sia norme esplicite che implicite, convenzioni, abitudini che influenzano il comportamento del singolo all'interno della comunità; la divisione del lavoro, invece, si riferisce alle forme sia esplicite che implicite di organizzazione dell'attività della comunità e può riguardare sia la divisione orizzontale dei compiti che quella verticale che concerne il potere e lo status. Uno dei ruoli principali della comunità, nella Teoria dell'Attività, è quello di creare le regole. Le regole informano i singoli individui riguardo all'oggetto 146
dell'attività e quali siano i risultati desiderati. Le regole informano i singoli individui sulla posizione che ricoprono nella comunità, di quali conseguenti aspettative vengano investiti e su cosa debbano fare sull'oggetto. Anche se la Teoria dell'Attività dimostra come l'individuo venga modificato dalla società in cui è situato, esso può sempre scegliere liberamente quali regole seguire e come farlo. Il singolo individuo valuta le regole che riceve e ne può suggerire delle nuove. Le regole possono essere di tipo illuminativo e di tipo prescrittivo: nel primo caso forniscono al singolo individuo una prospettiva da cui guardare l'attività; nel secondo caso prevengono il singolo individuo dal cercare regole alternative per la soluzione dei problemi6. Il Sistema di Attività non è una realtà statica, ma è in continuo movimento e trasformazione a seconda di come i singoli elementi si modifichino ed evolvano e di come l'attività venga rinegoziata nel tempo: i compiti possono cambiare, le regole possono venire reinterpretate e quello che inizialmente era l'oggetto può trasformarsi all'interno del sistema divenendo un risultato, uno strumento o una regola. Le trasformazioni a cui è soggetto un Sistema di Attività nel tempo sono dovute essenzialmente al fatto che le attività non sono unità isolate, ma sono più come nodi all'interno di reti formate da altri Sistemi di Attività che si incrociano e si influenzano a vicenda. Un Sistema di Attività non si trova mai isolato, ma interagisce con una rete di altri Sistemi di Attività. Ad esempio, riceve regole e strumenti da alcuni Sistemi di Attività (ad esempio, il management), e produce risultati per altri Sistemi di Attività (ad esempio, i clienti). In questo modo, un Sistema di Attività viene influenzato da forze esterne, che vengono acquisite e poi modificate come fattori interni. Tuttavia non sono le influenze esterne, di per sé, a causare cambiamenti ed eventi incomprensibili all'interno dell'attività, ma il loro ingresso nel 6
Waite (2005)
Sistema di Attività. In questo modo, il Sistema di Attività agisce costantemente tra contraddizioni interne ed esterne. Per capire queste contraddizioni, bisogna espandere il Sistema di Attività fino ad includere almeno un altro Sistema di Attività interagente (fig.49). Queste contraddizioni si manifestano generalmente sotto forma di rotture, crolli, interruzioni, problemi che disturbano il normale svolgersi dell'attività e che il sistema deve risolvere. Per questo motivo le contraddizioni sono viste come una risorsa centrale per l'evoluzione e lo sviluppo dei Sistemi di Attività nel tempo e nel corso della storia. A partire dal lavoro di Ilyenkov, Engeström7 riassume le contraddizioni in quattro livelli. La contraddizione primaria è interna ad ogni elemento del sistema e riguarda il contrasto tra valore di scambio e valore d'uso che caratterizza la struttura socio-economica del capitalismo, come nel caso di un dottore che vive personalmente la contraddizione tra l'obiettivo di curare e aiutare i pazienti e la visione del paziente come fonte di guadagno. La contraddizione secondaria riguarda le relazioni tra gli elementi del Sistema di Attività, come nel caso di una rigida divisione del lavoro che impedisce l'evolvere del Sistema di Attività nell'utilizzo di strumenti più avanzati. La contraddizione terziaria si manifesta quando un oggetto o scopo culturalmente più avanzato è introdotto nell'attività come nel caso, per esempio, del tentativo di introdurre un nuovo modello di terapia in un ospedale in cui domina un approccio medico tradizionale. La contraddizione quaternaria infine riguarda le relazioni e i possibili contrasti emergenti tra il Sistema di Attività centrale e i cosiddetti Sistemi di Attività confinanti. Le attività confinanti possono essere di diverso tipo: le attività-oggetto che acquisiscono ed incorporano i risultati del Sistema
di Attività centrale; le attività che producono gli strumenti utilizzati dal Sistema di Attività centrale; le attività che producono soggetti che formano i soggetti dell'attività centrale; le attività che producono le regole adottate dal Sistema di Attività centrale. L'analisi e la valutazione degli effetti delle contraddizioni nei Sistemi di Attività e i conseguenti processi di sviluppo ed adattamento sono temi centrali nella lettura dinamica ed evolutiva dell'attività umana. Inoltre Engeström, con l'analisi della cellula, propone lo studio di quello che viene definito un ciclo espansivo ovvero il percorso di generazione collettiva di Sistemi di Attività socialmente e culturalmente nuovi8. Un ciclo espansivo è caratterizzato inizialmente da processi prevalentemente di interiorizzazione e socializzazione nei quali nuovi membri della comunità acquisiscono le competenze necessarie per integrarsi nel sistema, seguiti da processi di esternalizzazione, dove generalmente i singoli individui rispondono creativamente a contraddizioni interne al sistema e attivano un processo collettivo di individuazione di soluzioni. L'esternalizzazione raggiunge l'apice quando viene generato un nuovo modello di attività che si stabilizza a sua volta tramite processi di internalizzazione.
6.6. Comunità Open Peer-to-Peer e Sistema di Attività Dunque la Teoria dell'Attività, attraverso il modello del Sistema di Attività può essere utilizzata per analizzare e descrivere il funzionamento delle comunità Open Peer-to-Peer. In questo modo sarà possibile comprendere quali siano i meccanismi organizzativi più promettenti relativi ad un determinato ambito, problema o attività. Tutti i casi riscontrati di comunità Open Peer-to-Peer seguono sì dei principi comuni, ma hanno una
Fig. 48: Sistema di Attività e contraddizioni (Fonte: Engeström 1987) 7
Engeström (1987)
8
Idem 147
propria identità molto forte, che viene sviluppata autonomamente. Ciò significa che bisognerebbe descrivere ogni caso per poterlo comprendere fino in fondo, un modello generale non sarebbe esaustivo. Open Source e Peer-to-Peer hanno sì delle forti caratteristiche di base, ma, permettendo una partecipazione aperta e paritaria, permettono anche lo svolgimento di attività personalizzate. In altre parole, Open Peer-to-Peer non significa una singola forma organizzativa rigida e da applicare in ogni circostanza. Significa utilizzare i principi fondamentali secondo le proprie esigenze, e condividere con gli altri partecipanti i risultati. In questo modo le forme organizzative più adatte possono essere sviluppate e condivise.
obiettivi e con che relazioni intepersonali lo stia facendo. Le relazioni artefatti-divisione del lavororegole sono invece condivise all'interno della comunità (e anche tra comunità) e dicono con che strumenti, regole e ruoli si stia agendo. Inoltre l'utilizzo del Sistema di Attività è un modo per capire come possano funzionare queste comunità nonostante il fatto che molto spesso i partecipanti non hanno relazioni sociali antecedenti. In che modo quindi si possa formare e condividere una fiducia reciproca, che permette lo svolgimento dell'attività.
Fig. 49: Due sistemi di attività interagenti (Fonte: Engeström 1987)
Nel software Open Source ogni partecipante può modificare il codice sorgente per le proprie necessità e condividere i risultati con gli altri partecipanti: potrebbe darsi che le modifiche apportate interessino anche altri. Allo stesso modo, le comunità vengono sviluppate autonomamente secondo le proprie esigenze, e i risultati condivisi, di modo che chiunque li necessiti possa utilizzarli e migliorarli a sua volta. La stessa cosa avviene per le licenze: ne sono state sviluppate molte, che possono essere prese ad esempio e modificate per particolari esigenze. Nelle comunità Open Peer-toPeer la organizzazione della comunità viene quindi vista in maniera molto simile al codice sorgente. Da più versioni differenti, più probabilità di incontrare la soluzione più adatta. Non si dimentichi che le comunità Open Peer-to-Peer rappresentano un modo per valorizzare la diversità. È possibile allora qui considerare brevemente solo i punti più importanti, quelli più diffusi, che sono stati sviluppati nelle comunità Open Peer-to-Peer. Il concetto importante qui è che con il Sistema di Attività è possibile analizzare (e quindi trarne ispirazione) una comunità Open Peer-to-Peer. Cosa si comprende analizzando le comunità Open Peer-to-Peer attraverso il Sistema di Attività? Innanzitutto che le relazioni soggetto-oggettocomunità dipendono dal punto di vista con cui si osserva la situazione (ovvero: chi è il soggetto), e che quindi varerà non solo da comunità a comunità ma anche all'interno di una comunità stessa. Sono queste le caratteristiche specifiche di ogni comunità (o meglio: soggetto), che dicono perché una certa comunità si stia attivando e verso quali 148
In questo senso aumentano la propria importanza gli elementi comunità-regole-divisione del lavoro, in quanto sono le caratteristiche condivise da tutti i partecipanti che più sono state sviluppate dalle comunità Open Peer-to-Peer. In altre parole: le comunità Open Peer-to-Peer, per ovviare alla mancanza di relazioni sociali antecedenti (e quindi di fiducia e capitale sociale su cui basare l'attività), si sono dotate di un insieme di regole, strutture di reputazione e ruoli ben sviluppati, e che rappresentano quindi gli elementi che più possono prestarsi ad essere portati in altri ambiti. Sono infatti queste le caratteristiche che più di altre gestiscono l'attività: le caratteristica del soggetto, oggetto e artefatti dicono invece quali siano gli obiettivi e gli strumenti per raggiungerli (e variano quindi da comunità a comunità). È possibile comunque vedere una breve sintesi degli elementi più comuni, considerando soprattutto l'ambito delle comunità di sviluppo di software Open Source, che rappresentano i casi di comunità Open Peer-to-Peer "originali" (cioè da cui si è estesa la diffusione di questi elementi) e maggiormente analizzati.
6.6.1. Soggetto Anche se i soggetti variano da comunità a comunità, e quindi da attività ad attività (ma, all'interno di una attività, da azione ad azione), vi possono essere riscontrate delle caratteristiche comuni che spiegano la partecipazione attiva ad una collaborazione collettiva. Innanzitutto ogni soggetto ha pari diritti e le relazioni che si instaurano sono di tipo paritario, Peer-to-Peer.
Dire che ogni persona è posta sullo stesso livello equivale a dire che ha la medesima importanza, qualsiasi che siano le conoscenze e capacità che possa apportare. In una comunità Open Peer-toPeer le conoscenze e capacità non derivano da titoli, ma da ciò che si dimostra di saper fare e di sapere: anche le conoscenze e capacità non riconosciute ufficialmente possono ottenere una ottima considerazione. Non è un caso infatti che Charles Leadbeater e Paul Miller, parlando dei ProAm, includano anche comunità Open Peer-to-Peer9. Ciò che sta alla base della possibilità di partecipazione, oltre agli artefatti necessari per comunicare, sono motivazioni e il possedimento di conoscenze e capacità, ma anche la voglia di ottenerle attivandosi e partecipando ad una comunità Open Peer-to-Peer. Non è un caso che la maggior parte dei partecipanti alle comunità di software open source siano esperti programmatori: possedere (o desiderare di possedere) le conoscenze appropriate per l'attività di programmazione delle comunità Open Peer-to-Peer di software open source è il primo requisito per attivarsi10. Oltre alle conoscenze e capacità possedute, la partecipazione alle comunità Open Peer-to-Peer avviene in presenza di una motivazione personale. Certamente le motivazioni possono essere le più svariate (e spesso più motivazioni si rafforzano e portano alla cooperazione, in un ciclo di retroazione positiva), ma possono esserne identificate alcune costanti: • avere una passione per l'attività che la comunità Open Peer-to-Peer svolge: gli hacker adorano programmare, architetti e designer progettare, supporter ascoltare un preciso tipo di musica (come nel caso Neubauten.org), e quindi la loro partecipazione avverrà con più facilità in quelle attività che soddisfano queste passioni; • desiderare la partecipazione ad una nuova forma di cooperazione: spesso il solo desiderio di partecipare in un progetto cooperativo nuovo e promettente è sufficiente per spingere all'attivazione; • far parte di una comunità: molti partecipanti si attivano anche solo per il desiderio di far parte di una comunità, condividere un'identità comune con altre persone, stringere legami sociali, ottenere una reputazione. Confrontandosi con altre persone, i partecipanti ottengono una reputazione all'interno della comunità in base alle proprie conoscenze e capacità; migliorare le proprie conoscenze e • capacità: confrontandosi con gli altri partecipanti si condividono le conoscenze e capacità, che quindi possono essere diffuse ed acquisite. Spesso la propria professione richiede alcune determinate conoscenze e capacità che possono essere acquisite partecipando all'attività di determinate comunità Open Peer-to-Peer (così avviene 9 Leadbeater, Miller (2004) 10 Kim (2003)
•
•
•
•
•
per il software open source ma potrebbe accadere anche per architetti e designer); migliorare le condizioni della propria dimensione locale: molto spesso le comunità Open Peer-to-Peer si occupano direttamente di migliorare le condizioni delle specifiche dimensioni locali dei partecipanti, e in questo caso questa motivazione è sufficiente per attivare i partecipanti; ottenere aiuto per un proprio progetto: una comunità Open Peer-to-Peer molte volte può nascere da una iniziativa personale, un progetto ideato ma che necessita della partecipazione di persone per svilupparsi a dovere. In questo caso è il “fondatore” della comunità Open Peer-to-Peer che deve fornire una ragionevole promessa di sviluppo futuro11; seguire un proprio principio etico personale: i partecipanti possono fornire un apporto personale perché le proprie convinzioni etiche li spingono a farlo. Un esempio è la condivisione di informazioni e risorse, oppure aiutare chi necessita aiuto o migliorare le condizioni locali; ottenere una soluzione ad un problema che altrimenti né Stato né mercato possono fare (o sono intenzionati a fare): la maggior parte delle comunità Open Peer-to-Peer nascono per risolvere un problema specifico che non trova altrimenti soluzione; ricevere un beneficio economico: sebbene la maggior parte delle comunità Open Peer-to-Peer non preveda la generazione di benefici economici, alcune si pongono come obiettivo dare luogo ad una attività economica socialmente sostenibile. Non sempre quindi la partecipazione è totalmente gratuita.
Ad esempio, nel caso Neubauten.org, le motivazioni dei partecipanti sono quella di continuare ad ascoltare nuova musica incisa dagli Einstürzende Neubauten12, intervenire direttamente nel processo artistico, conoscere i musicisti, conoscere altri supporter. Nel caso Solar Roof, le motivazioni a partecipare sono date dal desiderio di diffondere idee e comportamenti sostenibili, migliorare le condizioni locali specifiche, migliorare le proprie capacità progettuali, conoscere altre persone. Nel caso BBC Action Network la motivazione principale è risolvere un problema locale e conoscere le persone con lo stesso interesse per poterlo fare. Nelle comunità sportive che sviluppano autonomamente le proprie attrezzature sportive le motivazioni riguardano avere attrezzature sportive non presenti sul mercato o altamente 11 Raymond (1998) 12 Senza il progetto Supporter's Project il gruppo avrebbe smesso di incidere musica nel 2000. La partecipazione dei supporter è quindi necessaria per permettere la continuazione della loro passione, ascoltare cioè la musica del gruppo 149
personalizzate, fare parte di una comunità in cui conoscere persone ed ottenere reputazione, migliorare le proprie capacità agonistiche. Nei casi della Grameen Bank, dabbawalla e Amul la motivazione principale è data dalla possibilità che la formazione di ampie comunità dà ai partecipanti di svolgere una propria attività lavorativa con condizioni vantaggiose. Nel caso del software open source, le principali motivazioni riscontrate13 sono quelle riportate nei grafici 3 e 4. Yochai Benkler14 propone una spiegazione di natura economica alla sostenibilità dei progetti Open Source basati sulla partecipazione volontaria. Per Benkler le comunità che noi chiamiamo Open Peerto-Peer svolgono attività di common-based peer production, ovvero una produzione collettiva basata sulla condivisione e sulla parità dei partecipanti. Per essere motivata alla partecipazione, una persona deve aspettarsi dei benefici monetari, sociali oppure edonistici (nel senso del piacere derivante dalla semplice creazione o azione). Ad esempio, una persona può preparare una cena per altre persone per ottenere benefici economici, il piacere di cucinare in sé, oppure per il piacere di mangiare in compagnia. La combinazione di queste motivazioni porta alla scelta di attività e ruoli diversi, come lavorare in un ristorante o preparare una cena per amici. La ricezione di benefici monetari può essere considerata sia positiva che negativa: in alcuni casi può essere sinonimo di corruzione (ad es. un giudice può ottenere dei benefici monetari se scrive un articolo per un giornale, ma non può riceverli durante un processo). I benefici complessivi derivano da una combinazione di questi fattori: quindi ogni persona considera l'opportunità e le modalità di partecipazione in base ai benefici totali e non solo a quelli economici. Oltre alle diverse motivazioni personali, si può capire che emergeranno più facilmente fenomeni di peer production quando questi riusciranno a motivare meglio del mercato o delle imprese, oppure motivare meno ma il contributo totale verrà assicurato da un numero maggiore di persone. Benkler, parlando di peer production, si riferisce a quei casi in cui l'attività si basa su apporto volontario e non orientato ad attività economiche: in queste, infatti, il ritorno economico può bastare a garantire la partecipazione. Ma nei casi di peer production, le condizioni necessarie alla loro emergenza sono due: una struttura dell'attività modulare (con moduli di piccole dimensioni), dove una remunerazione da parte del mercato sarebbe troppo costosa, ma dove ricompense edonistiche e socio-psicologiche possono essere positive; una attività dove il valore dei benefici economici è di limitate dimensioni se comparato ai benefici edonistici e socio-psicologici. L'estrema diversità di motivazioni riscontrabili nelle comunità Open Peer-to-Peer permettono alle collaborazioni a larga scala di convertire i problemi 13 Kim (2003) 14 Benkler (2002) 150
legati alla motivazione in problemi legati alla collaborazione. In altre parole, il problema non è motivare le persone a partecipare (vi sono molti modi per farlo), ma coinvolgerne un numero elevato, dove anche un minimo contributo, moltiplicato per il numero dei partecipanti, porta ad un risultato complessivo notevole. Parafrasando la legge di Linus elaborata da Raymond15, Benkler sostiene che “dato un numero sufficientemente ampio di contributi, gli incentivi monetari diretti, necessari per raccogliere i contributi, sono di poco conto”16. Una attività di peer production, basata su apporti volontari non retribuiti, non è limitata dal costo totale o dalla complessità del progetto, ma dalla sua modularità, dalla sua granularità (ossia la dimensione dei moduli) e dai costi della integrazione fra i moduli. Per modularità Benkler intende una proprietà di un progetto (ossia la attività di una comunità Open Peer-to-Peer) di essere diviso in componenti più piccoli (i moduli), che possono essere prodotti indipendentemente ed in tempi differenti prima di essere assemblati fra loro. Se i moduli sono indipendenti, i partecipanti possono scegliere come e quando contribuire in maniera indipendente, massimizzando così la loro autonomia e flessibilità nel definire le caratteristiche della propria partecipazione. Con granularità Benkler si riferisce alla dimensione dei moduli, in termini di tempo e impegno necessari da parte di un partecipante per produrli. Il numero di possibili partecipanti è inversamente proporzionale alla dimensione del contributo a scala minore necessario a produrre un modulo utilizzabile. Le dimensioni dei moduli sono certamente dipendenti dalle caratteristiche dell'attività complessiva (e dalla loro produzione indipendente), e definiscono il minimo impegno necessario per partecipare ad una attività. Se questo minimo impegno è abbastanza basso, gli incentivi necessari per produrre quel determinato modulo sono di poco conto e quindi un ampio numero di partecipanti può contribuire. Più piccole sono le dimensioni di ogni modulo, maggiore è il numero di possibili partecipanti. Sotto queste condizioni, secondo Benkler una attività viene svolta più efficacemente con processi di peer production. Indipendentemente dalle dimensioni dei moduli, la loro eterogeneità in dimensioni può aumentare la sua efficienza, permettendo ai partecipanti differenti livelli di contribuzione per differenti livelli di motivazione. Il rimanente ostacolo ad un efficace processo di peer production risiede nell'integrazione dei moduli in un prodotto finito, che avviene attraverso due operazioni: controllo della qualità dei moduli e unione di questi nell'attività complessiva.
15 Raymond (1998) 16 Benkler (2002) p.434
Grafico 3: Motivi per partecipare in una comunitĂ di software Open Source (Fonte: Kim 2003 )
Grafico 4: Benefici maggiori ricavati dalla partecipazione in una comunitĂ Open Source (Fonte: Kim 2003)
151
Affinché una attività sia portata avanti con processi di peer production economicamente sostenibili, la funzione di integrazione deve essere poco costosa oppure essa stessa abbastanza modulare per essere prodotta con un processo iterativo di peer production. Nei processi di peer production l'integrazione viene risolta in quattro modi: • iterativo peer production della funzione integratrice stessa (come la moderazione e la meta-moderazione in Slashdot); • soluzioni tecniche insite nella piattaforma (come nel caso del software su cui si basa Slashdot o Mars Clickworkers); • una organizzazione sociale regolamentata da norme (come in Wikipedia); • una reintroduzione limitata della gerarchia o del mercato solamente per l'integrazione (come avviene nel caso del kernel di Linux).
6.6.2. Oggetto ed artefatti per raggiungere gli obiettivi Mentre gli obiettivi variano da comunità a comunità (sono infatti la caratteristica specifica di ogni comunità, quella che la identifica attraverso l'attività), si può osservare come l'oggetto dell'attività sia quasi sempre una informazione, anche quando il risultato finale riguarda beni materiali. Si è visto infatti che le comunità Open Peer-to-Peer sono apparse ora in quanto solo ora ora è possibile distribuire rapidamente informazioni standardizzate in (quasi) ogni luogo. Come accennato precedentemente, le tre caratteristiche fondamentali per il funzionamento di una comunità Open Peer-to-Peer sono: 1. la produzione di informazioni (o comunque una loro centralità), che devono essere accessibili, modificabili e distribuibili: per la loro natura di beni non rivali, le informazioni possono essere condivise e riutilizzate in infiniti modi. La natura delle informazioni permette quindi la collaborazione collettiva; 2. la standardizzazione delle informazioni, che permette la facilità di comunicazione nella collaborazione collettiva; 3. l'utilizzo di reti che possano distribuire queste informazioni, le quali a loro volta dovranno tenere conto delle caratteristiche delle reti, al fine di poter essere distribuite e scambiate con facilità. La maggior parte delle comunità Open Peer-to-Peer svolge attività riguardanti informazioni, sia attraverso lo sviluppo e utilizzo di software, sia attraverso la produzione di contenuti, la progettazione, ma anche in attività riguardanti beni materiali come i dabbawalla le informazioni (cioè i codici utilizzati per identificare i contenitori e il loro percorso) hanno un ruolo fondamentale. In questo modo le comunità Open Peer-to-Peer rappresentano una modalità promettente di gestione della conoscenza.
152
Come nell'elemento dell'oggetto, anche gli artefatti utilizzati dipendono da comunità a comunità, anche se vi possono essere degli artefatti più comunemente utilizzati. Più in generale, gli artefatti utilizzati dipendono dall'oggetto dell'attività, dato che beni materiali e beni immateriali richiedono differenti artefatti, e i vari tipi di informazione richiedono differenti artefatti. È possibile qui fare una distinzione tra artefatti high tech e artefatti low tech, ossia tra artefatti basati sulle ICT oppure basati su metodi convenzionali di trasmissione delle informazioni. L'importanza della presenza di casi di comunità Open Peer-to-Peer che utilizzano artefatti low tech è che dimostrano che le forme di organizzazione delle comunità Open Peer-to-Peer non dipendono esclusivamente dalle ICT, ma possono anche essere applicate in contesti caratterizzati da scarse risorse economiche o tecnologiche. E dimostrano anche che queste forme di organizzazione non richiedono necessariamente ingenti investimenti economici, dato che gli artefatti low tech sono economici per la loro stessa natura, mentre gli artefatti high tech utilizzati sono quelli già presenti e facilmente accessibili (come ad esempio wiki, blog, e-mail, chat, ecc.). Le comunità Open Peer-to-Peer dimostrano quindi che non sono necessarie tecnologie sofisticate per affrontare problemi complessi, ma che solo rappresentano degli strumenti in grado di coinvolgere un numero elevato di partecipanti rendendo più semplice e rapida la coordinazione reciproca. A dimostrazione della centralità delle informazioni e quindi dei mezzi di comunicazione, si ricordi che per la Teoria dell'Attività gli artefatti possono essere sia strumenti fisici che mentali, cioè linguaggi e conoscenze. Le informazioni non solo rappresentano l'oggetto dell'attività, ma anche i suoi strumenti: in questo modo le comunità Open Peer-to-Peer rappresentano una modalità promettente di approccio all'informazionalismo. Può essere importante notare come tra gli artefatti (intesi in senso ampio) possano rientrare anche gli eventi che le comunità organizzano affinché i partecipanti possano incontrarsi, decidere come svolgere l'attività, conoscersi e sviluppare relazioni sociali. Questi incontri possono essere a frequenza settimanale o mensile (come nel caso della Grameen Bank o dei Self-Help Groups), oppure una frequenza minore, annuale (come avviene nel caso delle comunità di sviluppo di software Open Source attraverso gli sprint oppure nel concerto-evento al Palast der Republik per Neubauten.org). In tutti questi casi l'evento di ritrovo svolge una funzione di ancorare maggiormente la comunità e la sua attività alle condizioni locali, fisiche: le persone fisiche, le caratteristiche locali.
6.6.3. Regole Per quanto riguarda le regole che le comunità Open Peer-to-Peer si danno per auto-organizzarsi, bisogna considerare tre punti: l'etica a cui
aderiscono, i meccanismi con cui regolano il comportamento individuale e formano le regole specifiche, le forme legali con cui stabiliscono la cooperazione. Infatti le regole specifiche che ogni comunità si dà derivano dall'etica a cui aderiscono; da questa poi vengono formulate le regole specifiche attraverso determinati processi e formalizzate in licenze per avere una protezione legale alla collaborazione collettiva. Le regole rappresentano forse l'elemento maggiormente sviluppato e caratteristico, quello maggiormente mutuato da ambiti esterni al software. È quindi importante considerarle in maniera più approfondita perché mostrano come le comunità Open Peer-to-Peer rappresentino una rottura con la società attuale e le regole che vengono date per scontate (o meglio: come rappresentino la proposta di regole già diffuse nel passato ma ora in crisi).
6.6.3.1. L'etica Hacker del lavoro, del denaro e della rete 6.6.3.1.1. Hacker appassionato
come
L'aspetto fondamentale è quindi l'etica a cui le comunità Open Peer-to-Peer aderiscono, e da cui poi si generano le regole specifiche, formulate attraverso determinati processi e in determinate forme legali.Per le comunità Open Peer-to-Peer, possiamo dire generalmente che esse si basano su una forma di etica particolare, differente dall'etica del lavoro attuale, denominata etica hacker. Per una definizione di hacker, si può consultare il Jargon file17 (o 'file di gergo'), che è essenzialmente un vocabolario del gergo usato dagli hacker e dai professionisti dell'ICT, ma che contiene anche definizioni e regole di buona educazione da rispettare in rete (netiquette). La Netiquette, parola derivata dalle parole della lingua francese etiquette (buona educazione) e net (rete) o network, è un insieme di regole che regolano il comportamento di un utente su un newsgroup, mailing list o e-mail in genere. Il rispetto della netiquette non è imposto da alcuna legge, ma si fonda su una convenzione ormai di generale condivisione. Sotto un aspetto giuridico, la netiquette è spesso richiamata nei contratti di fornitura di servizi di accesso da parte dei provider. Il mancato rispetto della netiquette comporta una generale disapprovazione da parte degli altri utenti della Rete, con frequentemente un isolamento del soggetto "maleducato" e talvolta la richiesta di sospensione di alcuni servizi utilizzati per compiere atti contrari ad essa (solitamente la e-mail e usenet)18. 17 Si veda http://it.wikipedia.org/wiki/Jargon_File. La versione attuale, mantenuta da Eric Raymond, è consultabile a questo indirizzo: http://www.catb.org/~esr/jargon/. Una versione tradotta in italiano è presente a questo indirizzo: http://jhanc.altervista.org/ 18 http://it.wikipedia.org/wiki/Netiquette
Per questo documento gli hacker sono persone che "programmano con entusiasmo", che ritengono che "la condivisione delle informazioni sia un bene positivo di formidabile efficacia, e che sia un dovere etico condividere le loro competenze scrivendo free software e facilitare l'accesso alle informazioni e alle risorse di calcolo ogniqualvolta sia possibile". Questa è stata l'etica degli hacker fin da quando, nei primi anni '60, un gruppo di appassionati programmatori del MIT iniziò ad autodefinirsi in questo modo. Gli hacker stessi hanno sempre riconosciuto l'applicabilità dei loro metodi su scala più ampia. Non a caso il "file di gergo" precisa che un hacker è sostanzialmente "un esperto o un entusiasta di qualsiasi tipo. Si può anche essere hacker dell'astronomia, per esempio". In questo senso, una persona può essere un hacker senza avere mai nulla a che fare con i computer. Charles Leadbeater e Paul Miller19, ad esempio, prendono spunto dalla etica hacker per dire che i Pro-Am sono dotati di una etica simile, una etica Pro-Am. Per loro infatti l'etica hacker dovrebbe essere confinata al mondo dell'informatica, dato che il termine hacker proviene da quel contesto. In realtà hacker, secondo gli stessi hacker, non deve essere considerato strettamente legato all'informatica ma a chiunque abbia una passione e cerchi di eccellere in essa impegnandosi attivamente nell'apprendere conoscenze e capacità. Inoltre, utilizzare il termine hacker sottolinea il fatto che questa rivoluzione Open Source e Peer-to-Peer derivi proprio dall'ambito informatico, anche se poi diffusa in altri ambiti. In seguito, a partire dalla metà degli anni '80, per i media il termine è diventato sinonimo di criminale informatico: è proprio in questo periodo che si assistette alla diffusione dei primi virus e ai tentativi di intrusione nei sistemi informatici/informativi per provocare danni. Per evitare di venire confusi con coloro che attuano queste attività criminali, gli hacker hanno cominciato a chiamare queste persone cracker.
6.6.3.1.2. Etica Hacker ed etica protestante Il merito della comprensione della portata rivoluzionaria dell'etica hacker va a Pekka Himanen, che intravede il legame intercorrente tra etica hacker ed etica protestante del lavoro (descritta da Max Weber nel suo libro “L'etica protestante e lo spirito del capitalismo” pubblicato nel 190520). Per Weber l'etica del lavoro e del denaro tipica del capitalismo proviene direttamente dai valori dell'etica della religione protestante, che si sono quindi diffusi in tutta la società. Allo stesso modo, Pekka Himanen vede l'etica hacker come una nuova etica del denaro e del lavoro adatta per la network society, in grado di 19 Leadbeater, Miller (2004) 20 Max Weber, Die protestantische Ethik und der 'Geist' des Kapitalismus. Una versione in lingua inglese è accessibile al seguente indirizzo: http://www.ne.jp/asahi/moriyuki/abukuma/weber/worl d/ethic/pro_eth_frame.html 153
correggere le rigidezze e gli estremismi dell'etica del lavoro protestante, quale analizzata da Weber. Questo passaggio non è casuale, se si considera una condizione comune all'emergenza di queste due etiche. Certamente, sia l'etica protestante sia l'etica hacker sono nate in un contesto ricco di variabili specifiche, ma, nella nostra analisi, risulta interessante considerare il fatto che entrambe siano legate alla diffusione di informazioni, in un momento storico in cui le nuove tecnologie permettevano invece una loro ampia diffusione. Nel caso della Riforma Protestante, infatti, vi erano stati molti movimenti di riforma della Chiesa, ma l'opera di Lutero21 ebbe una importanza cruciale grazie alla sua rapida diffusione. Due elementi, più di ogni altra cosa, contribuirono al rapido successo delle idee di Lutero: l'interesse generale che suscitava questa disputa, giacché trattava tematiche molto sentite dalla popolazione, vicine quindi alle sue esigenze materiali e spirituali; in secondo luogo la stampa a caratteri mobili, inventata in quegli anni da Gutenberg, che consentì la stesura e la diffusione in migliaia di copie delle tesi luterane e dei successivi scritti. Tra le varie teorie religiose di Lutero22, una è importante per questa analisi. Per Lutero, in materia di fede l'unico riferimento per il cristiano è costituito dalla Bibbia (il principio della sola scrittura), e nessuno ha il diritto di proclamarsi esclusivo interprete del sacro testo. Tra la Bibbia ed i singoli fedeli non deve esistere alcuna mediazione. Ogni singolo fedele è chiamato a rafforzare la propria fede studiando direttamente la Scrittura sotto la guida dello Spirito Santo. Oltre alle conseguenze di carattere teologico, questo principio mette in discussione il primato della chiesa del vescovo di Roma, che non risulta fondata né sul diritto divino né sul Vangelo, ma è istituzione umana, di origine storica. Ogni credente è sacerdote per se stesso - il principio del sacerdozio universale dei credenti - e può accedere direttamente alla scrittura. Per concretizzare questa convinzione, egli tradusse la Bibbia in tedesco, in modo da renderla accessibile alla popolazione. In questo modo il “codice sorgente” della religione, che era tenuto “proprietario”, in un linguaggio non comprensibile (il latino) e non accessibile, venne diffuso e condiviso. Potrebbe essere una semplice coincidenza, ma bisogna comunque notare l'importanza della condivisione delle informazioni tra le persone. Con il fenomeno del movimento Open Source, le informazioni vengono nuovamente rese accessibili, in un linguaggio comprensibile, attraverso nuove tecnologie. Per un hacker, il computer in sé è intrattenimento, intendendo che un hacker programma perché trova la cosa di per sé interessante, emozionante e piacevole. Si tratta di un atteggiamento comune: gli hacker programmano perché le loro sfide della programmazione rivestono un interesse intrinseco. I problemi relativi alla programmazione suscitano 21 http://it.wikipedia.org/wiki/Lutero 22 http://it.wikipedia.org/wiki/Luteranesimo 154
nell'hacker una genuina curiosità che lo spinge a imparare ancora di più. L'attività degli hacker è anche qualcosa di gioioso e questo perché spesso tutto ha origine da sperimentazioni fatte per gioco; talvolta questa giocosità si manifesta anche nella vita quotidiana. Lo stesso atteggiamento può essere rintracciato anche in qualsiasi altro contesto della vita: per esempio tra gli artisti, gli artigiani e i "professionisti dell'informazione", dai manager agli ingegneri, ai lavoratori dei media e agli stilisti. Essere hacker non ha a che fare con alta tecnologia ma con l'abilità e con la dedizione per ciò che si fa. Considerati da questo punto di vista, gli hacker possono essere visti come un eccellente esempio di un'etica del lavoro più generale - a cui Pekka Himanen dà il nome di etica hacker del lavoro - che sta prendendo piede nella network society, in cui il ruolo dei professionisti dell'informazione si sta ampliando. Se usiamo un'etichetta coniata dagli hacker per esprimere questo tipo di atteggiamento, è quindi importante notare che potremmo parlarne anche senza fare il minimo riferimento al mondo dell'informatica. L'emergenza dell'etica hacker rappresenta una sfida sociale che sta mettendo in discussione quell'etica del lavoro protestante che da lungo tempo governa le nostre vite e che tuttora mantiene una salda presa su tutti noi. La nota espressione "etica protestante del lavoro" deriva naturalmente dal famoso saggio di Max Weber L'etica protestante e lo spirito del capitalismo. Weber colloca il concetto di lavoro come dovere alla base dello spirito capitalistico che ebbe inizio nel XVI secolo. Il lavoro come una "chiamata", un'espressione che riassume efficacemente le tre attitudini base dell'etica del lavoro protestante: il lavoro deve essere visto come uno scopo in sé; il lavoro deve essere considerato come un dovere, a cui adempiere senza discussioni. Se per Himanen la progenitrice dell'etica hacker del lavoro è l'accademia, per Weber l'unico precursore storico dell'etica del lavoro protestante è da rintracciarsi nel monastero. Tuttavia Weber fa notare che lo spirito del capitalismo, anche se aveva trovato nell'etica protestante la sua giustificazione essenzialmente religiosa, ben presto si emancipò da tale ambito e iniziò a operare secondo leggi proprie. È un requisito essenziale questa neutralità religiosa dell'etica capitalistica attuale. Viene chiamata protestante per l'origine, ma anche cattolici o scintoisti possono seguirla nel lavoro. La totale diffusione di questa etica protestante fa in modo che la natura stesa del lavoro non venga messa in discussione, ma venga elevato al rango di cosa più importante della vita. Visto in un contesto storico più ampio, questo ininterrotto dominio dell'etica protestante non è poi così sorprendente, purché ci si ricordi che anche se la network society differisce in modo significativo dalla precedente, la società industriale, la new economy non implica una rottura totale con il capitalismo descritto da Weber: si tratta soltanto di un nuovo tipo di capitalismo. Il lavoro è il nucleo della vita delle persone, e lo sarà anche nel prossimo futuro. La stessa network society non mette in discussione
l'etica protestante i cui meccanismi, sostenuti dal principio guida del lavoro, continuano a essere dominanti. Considerata in questo contesto generale, la radicalità dell'etica hacker consiste nella proposta di uno spirito alternativo alla network society - uno spirito che mette in dubbio l'etica protestante dominante, è questa l'unica occasione in cui gli hacker diventano veramente dei cracker (cercando, cioè, di aprire una falla nel “sistema” socioeconomico). Questa idea del lavoro era completamente sconosciuta alla chiesa preprotestante. Prima della Riforma gli ecclesiastici si preoccupavano di porsi domande come: "Esiste una vita dopo la morte?", ma nessuno di loro si interroga sul lavoro dopo la vita. Il lavoro non era tra i più alti ideali della chiesa: Dio stesso aveva lavorato per sei giorni e finalmente il settimo si era riposato. Questo era anche il principale obiettivo umano: in Paradiso, come di domenica, la gente non avrebbe dovuto lavorare. Lo scopo della vita era la domenica. La Riforma protestante, in termini allegorici, ha spostato il centro di gravità della vita dalla domenica al venerdì. L'etica protestante ha reindirizzato l'ideologia al punto di capovolgere il Paradiso con l'Inferno: nel momento in cui sulla Terra il lavoro è diventato uno scopo di per sé, gli ecclesiastici hanno trovato difficile immaginare il Paradiso come un luogo di semplice svago, e il lavoro non poteva più essere considerato una punizione infernale. Avere un'occupazione significa avere una chiamata, un incarico, un compito speciale e particolare da svolgere. Se l'etica hacker -intesa come generica sfida sociale- viene inserita in questo ampio contesto storico, è facile trovare punti di contatto con l'etica preprotestante. In questo senso si potrebbe dire che per gli hacker lo scopo della vita è più vicino alla domenica che al venerdì. Ma, si deve notare, soltanto più vicino: in definitiva quella degli hacker non è la stessa etica preprotestante del lavoro, che immagina una vita paradisiaca in cui non si fa nulla. Gli hacker vogliono realizzare le loro passioni, e sono pronti ad accettare anche il fatto che perfino la ricerca di compiti interessanti potrebbe non rappresentare il perfetto stato di beatitudine. Per gli hacker la parola passione descrive il tono generale della loro attività, anche se il suo soddisfacimento potrebbe essere un gioco divertente in tutti i suoi aspetti. Appassionata e creativa, l'attività degli hacker comporta anche del duro lavoro. Gli sforzi servono per la creazione di qualsiasi cosa, anche piccola. Se necessario, gli hacker sono pronti anche per le parti meno interessanti ma indispensabili per la creazione di un insieme. Il duro lavoro e la costanza diventeranno una sorta di gioco intenso.
6.6.3.1.3. Etica Hacker, tempo e denaro Un'altra dimensione fondamentale che caratterizza il modo di lavorare degli hacker è la loro relazione con il tempo. Per gli hacker, che prediligono un
ritmo di vita individualistico, una libera relazione con il tempo è sempre stata una loro caratteristica. Nel suo famoso saggio, Weber enfatizza la connessione organica tra i concetti di lavoro e di tempo, includendo un particolare senso del tempo nel suo concetto di etica del lavoro protestante: "il tempo è denaro". Lo spirito del capitalismo è sorto da questo atteggiamento nei confronti del tempo. Quando si pensa al prevalente rapporto con il tempo della network society, è ovvio che, nonostante la new economy differisca sotto molti altri aspetti del vecchio capitalismo industriale, nei riguardi dell'ottimizzazione del tempo segue in larga misura i precetti dell'etica protestante. La vecchia etica protestante, incentrata sul lavoro, già implicava il fatto che non ci fosse tempo per il gioco durante il lavoro. Nella società dell'informazione l'apoteosi di questa etica la si può ritrovare nel fatto che l'ideale ottimizzazione del tempo viene estesa perfino alla vita al di fuori del luogo di lavoro. Le pressioni ottimizzatrici sulla vita lavorativa - o sui venerdì, se usiamo questa allegoria- oggi sono così forti da iniziare a eliminare l'altro polo dell'etica protestante, la giocosità del tempo libero, ovvero della domenica (si parla infatti di venerdizzazione della domenica). Dopo che la vita lavorativa è stata totalmente ottimizzata, l'esigenza di ottimizzazione viene estesa a tutte le altre attività. Nell'economia dell'informazione, la vita intera è stata ottimizzata nella maniera tipica (ma non in tempi precedenti) del lavoro. Ma oltre all'ottimizzazione del tempo incentrato sul lavoro, l'etica protestante ha introdotto l'idea di un tempo lavorativo regolare come centro della vita. L'auto-organizzazione è andata perduta ed è stata relegata a ciò che resta dopo il lavoro. Al centro della vita sta il lavoro regolarmente ripetuto, che organizza tutti gli altri usi del tempo. Ma questa nuova flessibilità non conduce automaticamente a un'organizzazione del tempo più olistica. Infatti, la tendenza dominante nell'economia dell'informazione sembra essere rivolta verso una flessibilità che porta al rafforzamento della centralità del lavoro, magari distribuendo il tempo libero all'interno dell'attività lavorativa. Se si usano le nuove tecnologie per favorire la centralità del lavoro, tecnologie come quelle del telefono cellulare conducono facilmente a una dissoluzione del confine tra lavoro e tempo libero incentrato sul lavoro. Sia l'ottimizzazione sia la flessibilità del tempo tendono a far diventare il sabato sempre più simile al venerdì. Ma questo non è inevitabile: gli hacker ottimizzano il tempo per avere più spazio per il divertimento, e questo atteggiamento è stato condiviso dagli hacker fin dai tempi del MIT negli anni '60. Nella versione hacker del tempo flessibile, momenti diversi della vita come il lavoro, la famiglia, gli hobby ecc., sono combinati meno rigidamente, in modo tale che il lavoro non sia sempre al centro della vita. Il punto di vista dell'hacker è che l'uso delle macchine per l'ottimizzazione e la flessibilità del tempo dovrebbe condurre a una vita meno meccanizzata, ottimizzata e routinaria. Quando l'ideale degli hacker di un uso del tempo maggiormente autodeterminato si realizza, il venerdì (la settimana 155
lavorativa) dovrebbe diventare più simile al sabato (il riposo) di quanto non lo sia stato tradizionalmente. Storicamente, ancora una volta questa libertà di auto-organizzazione del tempo ha il suo predecessore nell'accademia, dove le persone potevano organizzare il proprio tempo: non avere la responsabilità del proprio tempo veniva associato a uno stato di prigionia o schiavitù. Soltanto nei monasteri l'attività era legata all'orologio, quindi, ancora una volta, il precedente storico dell'etica protestante può essere trovato in tale ambito. gli schemi della vita devono essere ripetuti sempre alla stessa ora e alla stessa maniera. venivano assegnati orari precisi per tutto. La fonte più importante di produttività dell'economia dell'informazione è la creatività, e non è possibile creare cose interessanti in condizioni di fretta costante o con un orario regolare dalle nove alla cinque. Quindi, per ragioni puramente economiche, è importante permettere la giocosità e gli stili di creatività individuali, dal momento che, nell'economia dell'informazione, la cultura della supervisione si rivolta facilmente contro gli obiettivi che si è prefissata. La dimensione etica richiesta è molto importante: stiamo parlando di una vita degna di essere vissuta. La cultura della supervisione dell'orario di lavoro di lavoro considera gli adulti come persone troppo immature per essere responsabili delle proprie vite. Presuppone che in qualsiasi impresa o agenzia governativa esistano soltanto poche persone che siano sufficientemente mature per assumersi le proprie responsabilità, e che la maggioranza degli adulti non è in grado di farlo senza una guida continua fornita da un ristretto gruppo di autorità. In una cultura del genere la maggior parte degli esseri umani si trova condannata all'obbedienza. Al contrario, gli hacker hanno sempre rispettato l'individuo e sono sempre stati anti autoritari. L'etica hacker ci ricorda anche -data la riduzione del valore individuale e della libertà che si verifica in nome del "lavoro" - che la nostra vita è qui e ora. Il lavoro è una parte della nostra vita in continuo divenire, nella quale ci deve essere spazio anche per altre passioni. Innovare le forme di lavoro è una questione di rispetto non soltanto nei confronti dei lavoratori ma anche per gli esseri umani in quanto tali. Gli hacker non fanno proprio l'adagio "il tempo è denaro" quanto "la vita è mia". Si comprende come l'etica hacker possa essere inserita a pieno titolo nel processo di individualizzazione. Nel descrivere questa dimensione del vecchio spirito capitalistico, l'etica del denaro protestante,per Weber il suo bene supremo, "è guadagnare denaro, sempre più denaro". Nell'etica protestante, sia il lavoro sia il denaro sono visti come fini a se stanti. La novità della new economy non consiste nel rifiutare il vecchio obiettivo dell'accumulo di denaro. Nella new economy il lavoro è ancora un valore autonomo, ma subordinato al denaro, cioè la capacità di 156
accumulare ricchezza: il risultato finanziario del lavoro prodotto da un'azienda (i suoi dividendi) sta diventando meno importante della sua crescita di capitale, dell'incremento di valore delle azioni. Il rapporto tra lavoro e capitale si sta sposando a favore del capitale. In questo modo si passa dalla frugalità protestante al consumismo autogratificante attuale. Oltre a rafforzare l'importanza del denaro, la new economy analogamente potenzia l'idea di proprietà, centrale nel vecchio spirito capitalistico, estendendola anche, in modo senza precedenti, all'informazione. Nell'economia dell'informazione, le aziende realizzano i loro profitti cercando di possedere le informazioni tramite brevetti, marchi di fabbrica, accordi di non divulgazione e altri mezzi. In rigido contrasto con questa rivitalizzata etica del denaro protestante, l'originale etica hacker enfatizza l'apertura. C'è la convinzione che la condivisione dell'informazione sia un bene di formidabile efficacia, e che la condivisione delle competenze, scrivendo free software, sia per gli hacker un dovere etico. Se storicamente il precursore del controllo sul libero flusso delle informazioni è il monastero (dove la spinta alla libertà di informazione veniva considerata un vizio), i precedenti storici dell'etica hacker sono l'accademia e l'etica scientifica (l'Accademia di Platone si basava sull'idea di synusia, l'azione concertata nella quale la conoscenza viene condivisa liberamente). In linea con questi principi etici, molti hacker distribuiscono apertamente i risultati della loro creatività affinché altri li usino, li testino e li sviluppino ulteriormente. In un'epoca in cui la motivazione economica è diventata preponderante e ha portato alla limitazione all'accesso a una quantità sempre maggiore di informazioni, è sorprendente leggere le motivazioni addotte dagli hacker per un progetto così imponente come quello di Linux, in cui il denaro non è una forza propulsiva e anzi ciò che viene creato viene distribuito agli altri. Nella nostra società, imbevuta di etica protestante, il lavoro è effettivamente una fonte di accettazione sociale. Perfino quando il lavoro in sé non implica un'interazione personale, l'accettazione sociale (oltre il semplice motivo di guadagnarsi da vivere) resta un'importante motivazione per il lavoro. Naturalmente, quasi in ogni tipo di lavoro anche il bisogno di appartenenza trova la propria espressione all'interno delle particolari circostanze sociali del luogo di lavoro, in quanto le persone hanno l'opportunità di partecipare ai cambiamenti sociali sia con i colleghi che con i clienti: ma i legami sociali che si formano all'interno del lavoro sono ancora più importanti dato che l'aumentare del tempo di lavoro toglie opportunità di creare legami nel tempo al suo esterno. Nella comunità degli hacker le motivazioni sociali giocano un ruolo importante, ma in modo differente. Non si può davvero capire il motivo per cui alcuni hacker usino il loro tempo libero per sviluppare programmi da offrire ad altri, senza
considerare la presenza di forti motivazioni sociali. Raymond afferma che questi hacker sono motivati dalla forza del riconoscimento tra pari23. Per questi hacker il riconoscimento all'interno di una comunità che condivide una passione è più importante e più intensamente soddisfacente del denaro, proprio come lo è per gli studiosi dell'accademia. La differenza decisiva rispetto all'etica protestante è che per gli hacker è importante che il riconoscimento tra pari non sia un sostituto della passione: deve venire come risultato di un'azione appassionata, della creazione di qualcosa di socialmente prezioso per questa comunità creativa. Nel caso dell'etica protestante spesso avviene l'opposto: le motivazioni sociali spesso servono a distrarre l'attenzione dall'idea che già di per sé il lavoro debba richiedere la realizzazione di una passione. E il risultato è che l'enfasi posta dall'etica protestante sulle forme sociali del lavoro diventa un doppio surrogato: per la mancanza di vita sociale al di fuori del lavoro e per l'assenza di passione nel lavoro in sé. È questo legame tra il livello sociale e quello passionale che rende così efficace il modello degli hacker, che realizzano qualcosa di molto importante a partire da profonde motivazioni sociali. In questo senso gli hacker contraddicono lo stereotipo di asocialità che è stato spesso loro assegnato e che non si è mai rivelato particolarmente fondato. Per gli hacker nella vita la motivazione organizzativa di base non è il lavoro o il denaro, ma la passione e il desiderio di creare insieme qualcosa di socialmente prezioso. Ciò detto, non si deve pensare che l'attitudine nei confronti del denaro della maggioranza degli hacker consista in una sorta di utopia paradisiaca o implichi una qualche avversione fondamentale nei suoi confronti. Originariamente, l'etica hacker si poneva innanzitutto il problema di quale posto assegnare al denaro in quanto motivazione e quali tipi di influenza sulle altre motivazioni dovessero essere evitati. Gli hacker non sono ingenui, non sono ciechi dinnanzi al fatto che in una società capitalistica è effettivamente molto difficile essere completamente liberi, a meno di avere sufficiente capitale individuale: è esattamente lavorando per qualcun altro che una persona può non essere libera di basare il proprio lavoro sulla passione personale, che si perde il diritto di determinare i propri ritmi di vita, e che l'ideale di apertura non è più nelle mani dell'individuo. Ci sono molti esempi di hacker che hanno scelto il "capitalismo hacker". Ma si crea una tensione intrinseca nell'introdurre l'idea di hacking all'interno di un capitalismo molto tradizionale. I significati originari dei termini capitalismo e hacker vanno in direzioni diverse. Conformemente all'importanza del denaro nell'etica protestante, lo scopo supremo del capitalismo sta nella crescita del capitale. L'etica del lavoro hacker, d'altro canto, enfatizza un'attività appassionata e libera da schemi. Anche se teoricamente è possibile conciliare entrambi gli scopi, la tensione tra di essi viene spesso risolta in pratica abbandonando l'hacking e seguendo le linee guida dell'etica
protestante. Un esempio è la Microsoft: inizialmente partita da una hacker, la motivazione del profitto ha preso il sopravvento sulla passione. Siccome l'hacking capitalistico condivide con l'etica protestante lo scopo di massimizzare il denaro, questo fondamento è destinato a influenzare e alla fine a dominare l'etica del lavoro di un'impresa. Quando il denaro diventa di per sé il fine principale, la passione non è più il criterio essenziale per le scelte di lavoro. I progetti vengono selezionati soprattutto sulla base della promessa di maggior profitto. Il riconoscimento, allora, viene determinato dalla posizione di potere raggiunta: la propria posizione all'interno dell'organizzazione e la ricchezza personale. Nonostante l'apparente tono anticapitalistico, in realtà l'hacking di Stallman non si oppone al capitalismo in quanto tale. L'etica del denaro hacker di Stallman non è contraria a far soldi, ma soltanto al far soldi chiudendo le informazioni agli altri. In tal senso, viene proposto un nuovo tipo di economia libera di mercato: libera in un senso molto più profondo rispetto al normale vocabolario capitalista, ma pur sempre un'economia capitalista. Nell'approccio etico di Stallman la domanda che sta alla base è: "La pratica di questa società di limitare le informazioni è davvero eticamente sostenibile?". Ricevere l'informazione prodotta da tutti gli altri e negare tutta l'informazione prodotta da sé implica un dilemma etico che si aggrava con il progredire dell'età dell'informazione, dal momento che una parte sempre più ampia del valore dei prodotti deriva dalla ricerca che ne sta alla base. La domanda che sorge da questa forma estrema di etica hacker è la seguente: può esistere una libera economia di mercato in cui la competizione non sia basata sul controllo delle informazioni ma su altri fattori, un'economia in cui la competizione sia su un livello differente (e naturalmente, non soltanto per il software)? Nel rispondere alla domanda, non dovremmo cavarcela con una soluzione semplice, e sbagliata, dicendo che si tratta di una nuova forma di comunismo, che abbiamo già visto non funzionare. Non si tratta veramente di comunismo: il comunismo implica un modello di autorità centralizzata, il comunismo è una formula di economia statalista, e ciò è estraneo agli hacker. Oltretutto, quando l'etica hacker del lavoro si oppone alla centralità del lavoro nel capitalismo si contrappone anche alla stessa caratteristica presente nel comunismo. Si deve ricordare che, malgrado le loro principali differenze, sia il capitalismo sia il comunismo si basano storicamente sull'etica protestante. Tutte le forme di etica hacker del denaro implicano invece una sfida a tutti i sistemi esistenti. La comunità hacker non è sempre unita nella sua risposta a queste grandi domande, ma soltanto nell'aver dato l'avvio di questo dibattito su questioni che stanno al cuore dell'economia dell'informazione, cosa che già di per sé rappresenta una sfida radicale.
23 Raymond (1998) 157
6.6.3.1.4. Etica Accademia
Hacker
ed
Per Himanen una possibile allegoria per il modello Open Source è rappresentata dall'accademia. Anche gli scienziati mettono a disposizione liberamente il loro lavoro affinché gli altri lo usino, lo testino e lo sviluppino ulteriormente. La loro ricerca è basata sull'idea di un processo aperto e autoregolato. Questa idea di autoregolazione è una continuazione della synusia dell'Accademia platonica, che comprendeva anche l'idea dell'avvicinamento alla verità attraverso il dialogo critico. L'etica scientifica richiede un modello in cui le teorie vengano sviluppate collettivamente, e i loro difetti percepiti e gradualmente eliminati per mezzo di una critica fornita dall'intera comunità scientifica. Naturalmente, gli scienziati hanno scelto questo modello non solo per ragioni etiche, ma anche perché nel tempo si è dimostrato il modo più efficace per creare un sapere scientifico. La ragione per cui il modello open source degli hacker originari funziona così efficacemente va ricercata nel fatto che – oltre a realizzare le loro passioni tramite le motivazioni derivanti dal riconoscimento dei pari, come avviene per gli scienziati – in larga misura esso si adegua a un modello accademico ideale aperto, che storicamente è il più adatto alla creazione di informazioni. Più importanti di un qualsiasi risultato finale sono le informazioni sottostanti o la catena di discussioni che hanno prodotto la soluzione. Nondimeno, l'etica scientifica non riguarda soltanto i diritti, ma ha anche due obblighi fondamentali: le fonti devono essere sempre citate (il plagio è eticamente aborrito) e la nuova soluzione non deve essere tenuta segreta ma resa pubblica a beneficio della comunità scientifica. Il soddisfacimento di questi due obblighi non è richiesto dalla legge, ma dalle forti sanzioni morali interne alla comunità scientifica. Secondo questo modello, la normale ricerca scientifica fornisce continuamente nuove aggiunte (“versioni di sviluppo”) a ciò che è già stato ottenuto, e dopo aver testato i miglioramenti la comunità scientifica li accetta come parti del proprio corpus di conoscenze (“versioni stabili”). Molto più raramente si ha una totale rivoluzione di paradigma. Inoltre, sia il modello accademico sia quello degli hacker hanno una struttura di divulgazione caratteristica. La ricerca è aperta a tutti, ma in pratica i contributi divulgati dalle pubblicazioni scientifiche più attendibili vengono selezionati da un più ristretto gruppo di giudici. Eppure questo modello è progettato per garantire, a lungo termine, che sia la verità a determinare il gruppo di giudici, piuttosto che il contrario. Come il gruppo di giudici accademici, il gruppo di giudici del network degli hacker mantiene le sue posizioni solo fintanto che le sue scelte corrispondono alle scelte meditate dell'intera comunità dei propri pari. Se un gruppo di giudici non è in grado di fare questo, la comunità lo scavalca e crea nuovi canali. Ciò
158
significa che fondamentalmente la posizione dell'autorità è aperta a tutti ed è basata soltanto sui risultati: nessuno può acquisire una posizione permanente. Nessuno può assumere un ruolo in cui il proprio lavoro non possa essere giudicato dai pari, proprio come le creazioni di qualsiasi altra persona. Gli hacker portano con forza al centro dell'attenzione il fatto che, nell'età dell'informazione, ancora più importante dei singoli risultati scientifici è il modello accademico aperto che permette la creazione di quegli stessi risultati. Si tratta di un'intuizione fondamentale. Infatti, è talmente importante che la seconda grande ragione del successo pratico del modello degli hacker sembra consistere nel fatto che il loro metodo di apprendimento è modellato allo stesso modo in cui si sviluppano i nuovi software. Una cosa che effettivamente può essere considerata come la frontiera del loro apprendimento collettivo. Così il loro modello di apprendimento ha gli stessi punti di forza del modello di sviluppo. Il “tipico” processo di apprendimento hacker inizia con l'individuazione di un problema interessante, quindi lavoro per risolverlo usando fonti diverse, e poi sottomettono la soluzione a test prolungati. Un punto di forza fondamentale del modello di apprendimento hacker sta nel fatto che ciò che uno di essi impara poi lo insegna agli altri. Quando un hacker studia il codice sorgente di un programma, spesso lo sviluppa ulteriormente, di modo che altre persone possano imparare da questo lavoro. Intorno ai vari problemi si sviluppa una discussione continua, critica, evoluiva. La ricompensa per la partecipazione a questa discussione è il riconoscimento dei pari. Il modello di apprendimento aperto degli hacker viene definito da Himanen come “accademia della Rete”. È un ambiente di apprendimento in continua evoluzione creato dagli stessi hacker, dove gli insegnanti sono spesso quelli che hanno appena imparato qualcosa. E ciò è utile, perché sovente qualcuno da poco impegnato nello studio di un argomento ha maggiori possibilità di insegnarlo ad altri, rispetto all'esperto che non ne ha più familiarità quotidiana e ha, in un certo senso, perso la padronanza dei meccanismi di pensiero tipici dei neofiti. Per un esperto, immedesimarsi con chi sta imparando qualcosa richiede livelli di semplificazione ai quali spesso resiste per motivi intellettuali. E non necessariamente l'esperto può trovare soddisfacente insegnare i concetti base. Al contrario, uno studente potrebbe ritenerla un'attività estremamente gratificante, dal momento che, di regola, non gli vengono offerte sufficienti opportunità di usare il proprio talento. Ancora una volta questo modello hacker tende ad assomigliare all'Accademia di Platone, in cui gli studenti venivano non considerati obiettivi per la trasmissione di conoscenza ma compagni di apprendimento (syntheis). Nella concezione accademica, il compito principale dell'insegnamento era quello di rafforzare l'abilità dei discepoli nel porre problemi, nello sviluppare linee di pensiero e avanzare critiche. Con il
risultato che ci si riferiva metaforicamente all'insegnante come a una levatrice: l'arte dialettica, cioè, viene paragonata da Socrate a quella della levatrice: come quest'ultima, il filosofo di Atene intendeva "tirar fuori" all'allievo pensieri assolutamente personali, al contrario di quanti volevano imporre le proprie vedute agli altri con la retorica e l'arte della persuasione. L'idea socratica è che lo scopo dell'insegnamento sia quello di aiutare la persona a imparare, a essere in grado di porre delle domande. In questo caso, il docente diventa enabler delle conoscenze del discepolo, e non provider. Il senso etico dell'originale modello accademico e di quello hacker, ben riassunta dalla idea di Platone secondo la quale l'individuo libero non deve essere forzato ad apprendere una disciplina, è totalmente diverso da quello del monastero, il cui spirito è rappresentato dalla regola monastica di Benedetto: “parlare e insegnare spetta al maestro, tacere e ascoltare si addice al discepolo”24. Oltre a quello del lavoro e del denaro esiste un significativo terzo livello dell'etica hacker che può essere chiamato netica, o etica del network. Questa espressione si riferisce al rapporto tra gli hacker e le reti della network society in un'accezione più ampia rispetto al più familiare netiquette. E neppure in questo caso tutti gli hacker condividono i valori della netica nel loro insieme, valori che tuttavia appaiono strettamente collegati nel loro significato sociale e in relazione all'etica hacker. La prima parte della netica riguarda il rapporto tra gli hacker e i network mediatici come la Rete: per gli hacker sono fondamentali i diritti nel cyberspazio come la libertà di parole e la privacy, e sono contro una regolazione dello spazio elettronico di tipo totalitario. Gli hacker socialmente consapevoli sottolineano il fatto che la tecnologia di crittazione non deve soltanto soddisfare i bisogni di segretezza dei governi e delle attività commerciali, ma anche di proteggere gli stessi individui dai governi e dalle attività commerciali. Per gli hacker la libertà di espressione e la privacy sono stati ideali importanti, e la Rete si è sviluppata coerentemente su questi principi. Il bisogno di organizzazioni apposite è nato negli anni '90 quando i governi e le imprese si sono interessate alla Rete su vasta scala, cercando di imprimerle uno sviluppo in una direzione opposta a quella degli ideali hacker. In casi di stati totalitari, i poteri forti sono in grado di controllare i media, specialmente quelli tradizionali e centralizzati, come stampa, radio e televisione. Naturalmente cercano anche di acquisire il controllo sui contenuti della Rete, nonostante in pratica questa appaia un'impresa decisamente più ardua, a causa della struttura decentralizzata della Rete. Per tale ragione la Rete è diventata un medium importante per la libera espressione individuale nelle società totalitarie. E gli hacker, che hanno creato questo medium, dall'e-mail ai newsgroup al web, hanno aiutato i dissidenti in varie parti del mondo a usare la Rete. 24 cit. a p.65 in Himanem (2001)
6.6.3.1.5. I sette valori dell'etica Hacker In conclusione, per Pekka Himanen i sette valori fondamentali della network society e dell'etica protestante sono sette: denaro, lavoro, ottimizzazione, flessibilità, stabilità, determinazione e misurabilità dei risultati. Anche l'etica hacker ruota attorno a sette valori, seppur differenti. Il primo valore-guida nella vita degli hacker è la passione, vale a dire un'occupazione intrinsecamente interessante che stimola l'hacker facendolo divertire mentre la mette in pratica. Il secondo valore guida è la libertà: gli hacker organizzano le loro vite non seguendo gli schemi di una giornata lavorativa routinaria e costantemente ottimizzata, ma in termini di flusso dinamico tra il lavoro creativo e le altre passioni della vita, nel cui ritmo resta sempre uno spazio per il gioco. L'etica del lavoro hacker consiste nel mescolare la passione con la libertà. Nell'etica del denaro hacker ciò che più impressiona è che molti hacker seguono ancora l'hacking originario, nel senso che non vedono il denaro come valore di per sé, ma motivano la propria attività con gli obiettivi del valore sociale e dell'apertura. Questi hacker vogliono realizzare la loro passione insieme agli altri, e creare qualcosa di valore per la comunità ed essere perciò riconosciuti dai loro pari. E permettono che i risultati della loro creatività vengano usati, sviluppati e testati da chiunque, in modo tale che tutti possano imparare agli altri. Anche se gran parte dello sviluppo tecnologico di questa età dell'informazione è stata raggiunta all'interno di un contesto capitalista tradizionale e di progetti governativi, una parte significativa di esso come i personal computer e la Rete, non esisterebbero senza quegli hacker che hanno condiviso con altri le loro creazioni. Un altro aspetto chiave dell'etica hacker è l'attitudine nei confronti del network, ovvero la netica, definita dai valori dell'attività e della responsabilità. L'attività in questo contesto comprende la fattiva e completa libertà di espressione, la privacy, per proteggere la creazione di uno stile di vita individuale e il rifiuto di una ricezione passiva in favore del perseguimento attivo della propria passione. In questo caso, responsabilità significa preoccuparsi per gli altri come scopo in sé e implica il desiderio di liberare la network society da quella mentalità della sopravvivenza che quasi ineluttabilmente scaturisce dalla sua logica. Fa parte di questo tipo di approccio anche l'obiettivo di far partecipare tutti al network, di sentirsi responsabili per le conseguenze a lungo termine della network society e di aiutare direttamente coloro che sono stati lasciati ai margini della sopravvivenza. Si tratta di sfide tuttora aperte, e resta da vedere se in questo caso gli hacker possano esercitare un'influenza profonda come quella che hanno avuto sugli altri due livelli. Un hacker che vive su tutti e tre i livelli secondo l'etica che gli è propria – lavoro, denaro, 159
netica – ottiene il più alto rispetto da parte della comunità. Infine, laddove riesca a rispettare il settimo e ultimo valore ottiene una vera e propria consacrazione. È la creatività, l'uso immaginativo delle proprie capacità, il continuo sorprendente superarsi e il donare al mondo un nuovo contributo che abbia un reale valore. Per l'etica protestante la creatività non ha un'importanza fondamentale, e le sue tipiche creazioni sono le agenzie governative e le imprese commerciali modellate sul monastero. Nessuna delle due incoraggia l'individuo a impegnarsi in attività creative. Dal punto di vista hacker, la centralità del tempo libero può essere altrettanto indesiderabile della centralità del lavoro. Gli hacker intendono fare qualcosa di significativo, vogliono creare. Se evitano un lavoro che non offre l'oro l'opportunità di essere creativi, considerano il tempo libero in quanto tale come uno stato ideale inadeguato. Gli hacker non credono che il tempo libero sia automaticamente più significativo del tempo lavorativo. La desiderabilità di entrambi dipende da come vengono realizzati. Ai fini di una vita significativa, il dualismo lavoro/tempo libero deve essere del tutto abbandonato. Il significato della propria esistenza non può essere cercato nel lavoro o nel tempo libero, ma deve scaturire dalla natura dell'attività in quanto tale, dalla passione, dal valore sociale, dalla creatività. Grazie alla sua enfasi sulla creatività, l'etica hacker deve in ultima analisi essere considerata distinta sia da quella protestante sia da quella preprotestante. Situandosi tra il lavoro e il tempo libero, rappresentano uno spirito genuinamente nuovo.
6.6.3.1.6. Etica Hacker economia del dono
ed
L'etica Hacker non solo rappresenta una sfida all'attuale etica, ma anche l'espressione di una differente forma di scambio, paritaria, denominata economia del dono. Guardando alla storia, all'evoluzione del Free e Open Source Software, ai rapporti fra i produttori e utilizzatori, si trovano molte analogie con il modello di economia basata sullo scambio antico di doni, ossia attraverso la reciprocità, contrapposto invece all'attuale modello basato sul mercato. Il mercato rappresenta quel processo che ottimizza l'allocazione e la ripartizione di risorse scarse per soddisfare i bisogni. Presuppone uno scambio di beni con beni e on servizi secondo un astratto valore di equivalenza rappresentato da un prezzo. La reciprocità è un principio di regolazione economico e sociale proprio dei sistemi istituzionali precedenti la regolazione del mercato. Riguarda la comunità e l'economia domestica: è una relazione che lega molte persone attraverso uno scambio durevole di doni o rapporti di cooperazione. Le relazioni non sono neutre come nel caso del mercato, ma il legame sociale che si costituisce è per così dire contestualizzato e orientato in modo specifico, non è indipendente dalle caratteristiche dei singoli soggetti coinvolti. 160
Oggi l'inadeguatezza di un modello improntato a una pura logica di mercato, la crisi del welfare state, l'importanza delle risorse intellettuali, di conoscenza e di reti di relazioni nel produrre un utile economico e sociale hanno riacceso l'interesse per forme di regolazione sociale in disuso come la reciprocità, finalizzate alla creazione di un'attività economica radicata in una relazione sociale, caratterizzata da forma di cooperazione e di solidarietà. E hanno messo in evidenza l'importanza di un modello economico che integri principi economici, sociali e redistributivi: un modello economico che costituisce il nucleo di un'economia solidale. In essa rientra un modello di produzione del software alternativo a quello delle grandi imprese monopolistiche, in quanto si basa su un sistema di scambio cooperativo diffuso che oggi, grazie alle strutture di rete e, in particolare, a Internet, è in continua espansione. Nel suo saggio sul dono scritto nel 1924 Marcel Mauss25, attraverso una rassegna della letteratura etnologica conosciuta al suo tempo, mette in risalto come in tutte le società tradizionali arcaiche la regola sociale fondamentale alla base dell'ordine e dell'organizzazione sociale non fosse il contratto e lo scambio mercantile, ma il dono. Esso rappresenterebbe una forma particolare di scambio, caratterizzata da una natura collettiva, da finalità non puramente utilitaristiche e dall'essere inserito in un insieme di obblighi sociali. Mauss spiega che i soggetti che procedono allo scambio non si impegnano come singoli individui, ma si obbligano, scambiano e contrattano in nome di un interesse e di un dovere morale collettivo e di carattere generale. Infatti, proprio in virtù della logica che guida lo scambio dei beni improntata a un principio di natura etica e non utilitaria, l'atto dello scambio presenta un valore in sé di pari importanza a quello dell'oggetto che viene scambiato. E questo segna la grande differenza con il commercio mercantile, in cui il valore materiale concreto del bene scambiato costituisce il motore principale dell'azione. Nel dono la forma dello scambio assume un significato più importante dell'equivalenza del valore concreto dei beni scambiati, come conseguenza del fatto che l'aspetto economico delle relazioni è profondamente inserito in un legame sociale. A differenza dello scambio mercantile, nel dono si offre anche quello che si ha di più prezioso. Nel dono la forma dello scambio assume un significato più importante dell'equivalenza del valore concreto dei beni scambiati, come conseguenza del fatto che l'aspetto economico delle relazioni è profondamente inserito in un legame sociale. Ciò non toglie che la circolazione dei doni costituisca un elemento essenziale per incrementare il valore del bene che circola. 25 Mauss M. (1923-24), Essai sur le don. Forme et raison de léchange dans les sociétés archaïques,in Année sociologique, ns, t. 1, pp. 30-186
Tuttavia, mentre nello scambio mercantile e anche nella redistribuzione gli elementi accrescitivi sono la pura circolazione e la distribuzione, nel dono il fattore qualificante non è dovuto né al mero interesse né a obblighi coercitivi o a manifestazioni di potere. Anche se esistono, queste dimensioni non sono quelle prevalenti. Il dono e la sua circolazione sono insieme espressione e strumento di coesione di un legame sociale; di conseguenza la cosa donata porta una traccia del suo donatore, del suo luogo di origine, e possiede una storia specifica e unica. Nel dono non sono le leggi del mercato e della concorrenza a regolare i rapporti fra le persone, né le regole formali imposte da una gerarchia come nella redistribuzione, ma donatori e donatari sono vincolati da una obbligazione morale allo scambio reciproco inscritto in una prescrizione sociale. Si è quindi in presenza di un rapporto di tipo Peer-toPeer. Mentre nel commercio lo scambio è immediato e viene regolato attraverso il contratto, il dono disegna un rapporto che continua in un cielo infinito. L'ingresso in una relazione di scambi di doni implica un indebitamento perenne, un coinvolgimento in relazioni personali che limitano la libertà di interrompere a proprio piacimento la relazione. Se lo scambio di doni non risponde a un principio meramente utilitario quali ragioni spingono a donare, quali sono i principi di economicità che ne costituiscono il fondamento? Qual è infine l'utilità che deriva da un'obbligazione di reciprocità? Oltre al piacere di donare in sé, lo spirito del dono, si trovano ragioni di ordine strutturale ed economico. Una delle esigenze alla base di questo contratto sociale primitivo è quella di mantenere la pace con la parte avversa e di rafforzare il legame all'interno del gruppo dei donatori, di stringere delle alleanze. Il trasferimento consensuale dei beni da un individuo a un altro avrebbe la funzione di trasformare questi da nemici in partner e alleati. Il dono è dunque uno strumento essenziale per avviare e consolidare strategie di collaborazione, garantendo cioè la fiducia necessaria. Ma oltre, a queste, le spiegazioni più diffuse sono di ordine socioeconomico. L'economia del dono sarebbe propria di una “economia dell'abbondanza”, in cui una consistente quantità di ricchezze si accompagna a una bassa densità della popolazione. Nelle società primitive, dove il problema della scarsità delle risorse non esisteva o non era così pressante per lo sviluppo, il ricorso al dono avrebbe costituito un mezzo per attenuare lo scarto fra la quantità delle risorse esistenti e la loro concentrazione in determinati gruppi sociali. Il dono sarebbe in questo caso uno strumento di redistribuzione della ricchezza fra i membri della comunità, una forma per garantire e stabilire un obbligo sociale di partecipazione diffusa alle ricchezze esistenti. Il suo carattere di elargizione spontanea ne avrebbe segnato la differenza con la forma di raccolta imposta e successivamente distribuita da un'autorità.
Altri studi antropologici, che non considerano società dell'abbondanza le società primitive, individuano in una economia basata sul dono un efficace strumento per massimizzare le risorse esistenti e la loro gestione. Il dono rappresenterebbe una forma primitiva di contratto sociale che verrebbe a fornire una garanzia e una risorsa contro il pericolo di scarsità dei beni. Quindi il meccanismo di regolazione basato sul dono favorirebbe una più equa distribuzione delle risorse e rappresenterebbe un rimedio contro la scarsità. Questo sistema di scambi di doni non è, quindi, semplicemente l'espressione di una generosità gratuita, di un istinto fraterno originario. Esso risponde a un'obbligazione che trova il fondamento e la garanzia di adempimento in gratificazioni e in sanzioni collettive, che rendono atti apparentemente volontari conformi a regole sociali. Sono queste norme che prescrivono il carattere dello scambio e rendono, quindi, il dono solo apparentemente libero e spontaneo, e ne disegnano anche il contenuto complesso e ambivalente. Il dono quindi non rappresenta una idea di gratuità, ma di un diverso modello di scambio. Nel suo noto saggio sul dono Marcel Mauss, infatti, lo qualifica come una forma di scambio fondata sulla reciprocità (ossia Peer-to-Peer) personalizzata e differita della triplice obbligazione di dare, ricevere e restituire. Ciò significa dire che il dono presuppone un qualche tipo di restituzione, non immediata, non comportante il ritorno di un bene di uno stesso tipo, non rispondente quindi al principio di equivalenza dello scambio. Chi dona implicitamente accetta il rischio di una non restituzione e chi riceve liberamente contraccambia, a sua discrezione. Il saggio di Mauss mette anche in evidenza come alla distanza nel tempo di un modello di reciprocità generalizzata fra donatori e donatari assicurerà un'equivalenza degli scambi per il mantenimento di una relazione di reciprocità. Donare è conveniente, anche se non a breve termine.
6.6.3.2. Le licenze 6.6.3.2.1. La licenza contratto sociale
come
La collaborazione collettiva risulta regolata da un vero e proprio “contratto sociale”: le licenze. Sebbene queste riguardano non le forme di collaborazione ed organizzazione, ma l'utilizzo dei risultati, rappresentano comunque quale saranno i possibili utilizzi dei risultati della collaborazione collettiva. Rappresentano quindi la “promessa”, gli “obiettivi”, che la collaborazione collettiva si propone di raggiungere: cosa si promette a chi vuole partecipare, quali traguardi bisogna raggiungere per chi già partecipa. Oltre quindi alle specifiche regole di ogni comunità Open Peer-to-Peer, le licenze rappresentano la base legale, la difesa da attacchi esterni e dalla appropriazione indebita dei risultati. 161
Numerose licenze sono oggigiorno disponibili, riguardanti l'ambito software ma non solo, anche opere artistiche quali testi, musiche, immagini, ecc.: è possibile oggi intraprendere una attività Open Peer-to-Peer riguardante qualsiasi tipo di informazione (e quindi di disciplina e scopo finale). Inoltre, se necessario, le licenze esistenti possono fornire da ispirazione per la stesura di specifiche licenze. Per comprendere il funzionamento delle licenze, è possibile consultare il libro Copyleft & opencontent - l'altra faccia del copyright di Simone Aliprandi26, che offre una estensiva e completa descrizione della filosofia Open Source in relazione alla disciplina legislativa. Secondo Aliprandi, l’idea di una tutela giuridica su un’opera software non si è affermata in modo parallelo e graduale rispetto alla diffusione del software stesso ma in modo direttamente proporzionale non tanto allo sviluppo della produzione software, quanto piuttosto all’interesse che il mercato ha man mano dimostrato verso questo settore. La scelta ovviamente fu determinata dai crescenti interessi economici che necessariamente si andavano a formare attorno al mercato del software. Aliprandi infatti ricorda che “la funzione primaria di tutti gli apparati giuridici di proprietà intellettuale è quella di creare dei diritti esclusivi di sfruttamento in modo da poter da un lato garantire un profitto al titolare di tali diritti, dall’altro (in una più ampia prospettiva di politica del diritto) di incentivare la creatività e l’inventiva in generale. Tutelare un frutto dell’ingegno e della creatività, sia esso un’invenzione o un’opera espressiva, significa soprattutto tutelare ed incoraggiare gli investimenti compiuti per la sua realizzazione”27. Le aziende d’informatica, che verso la fine degli anni ’70 iniziarono a voler tutelare i loro cospicui investimenti, potevano servirsi dei meccanismi tradizionali del diritto industriale, facenti capo ai due diversi modelli del diritto d’autore e del brevetto: il primo concepito originariamente per le creazioni di tipo artistico-espressivo, il secondo invece per le invenzioni di carattere tecnicoindustriale. Mentre il diritto d’autore mira a proteggere solo la forma espressiva dell’opera (ovvero la modalità con cui l’autore trasmette un messaggio, sia esso in forma letteraria, musicale, figurativa, multimediale etc.), la tutela brevettuale mira a proteggere il contenuto dell’invenzione (ovvero l’idea o il procedimento che sta alla base dell’invenzione). Aliprandi sottolinea come ciò, tuttavia, non significhi che ad una stessa opera non possano essere applicate in sovrapposizione entrambe le tutele. Esse infatti non si escludono a vicenda, ma anzi apportano diversi gradi e meccanismi di protezione: per esempio, il diritto d’autore ha una maggior durata nel tempo ed è applicabile automaticamente a partire dal mero atto della creazione; il brevetto ha una durata minore, richiede una formalizzazione, ma una volta 26 Aliprandi (2005) 27 Ibidem p.30 162
perfezionato può consentire una protezione più efficace a causa della sua estensione al contenuto e al procedimento28. Il software rappresenta un caso controverso. Fino al momento della sua comparsa, il confine fra opere tecnico-funzionali e opere espressive era sempre stata piuttosto pacifica; con il suo arrivo, però, il mondo del diritto si trovò di fronte ad un’entità molto più difficile da inquadrare e che si collocava proprio a cavallo delle due categorie di opere dell’ingegno. A livello dottrinale più che a livello pratico, infatti, a creare dubbi era proprio una caratteristica peculiare del software: la sua funzionalità, ovvero la sua vocazione di opera destinata alla soluzione di problemi tecnici; caratteristica questa che lo avvicinerebbe ineluttabilmente alla categoria delle invenzioni dotate di industrialità. D’altro canto, però, il software appare carente del requisito della materialità considerato da alcuni come condicio sine qua non per la brevettabilità. Storicamente, inoltre, la tutela brevettuale venne vista con diffidenza dalle imprese produttrici di hardware: esse temevano che tale prospettiva avrebbe attribuito uno eccessivo potere alle aziende di software e reso il mercato dell’hardware schiavo delle loro scelte di mercato29. Per le imprese produttrici di hardware, infatti, il software non era che un prodotto secondario, un corollario dei loro prodotti di punta: non avevano nessuna intenzione di organizzare attività commerciali basate sul software, tant'è che per molto tempo distribuivano, con l'hardware e il codice binario, anche il codice sorgente. Data la sussistenza dei diritti esclusivi derivante dalla tutela d’autore, in base ai cardini del diritto privato è necessario che l’autore del software stipuli un contratto con l’utente nel quale definisca di quali prerogative si spogli e di quali quindi possa essere investito l’utente, ovviamente per contro di un corrispettivo (stante la patrimonialità di tali diritti). Una prassi di questo tipo, basata cioè su contratti stipulati ad hoc per ogni situazione o soggetto, poteva aver ragion d’essere solo nell’era "primordiale" dell’informatica, quando la figura del programmatore era assimilabile ad un libero professionista chiamato alla progettazione di un sistema informatico specifico per un centro di ricerca. Dal momento dell’ingresso del software nella schiera dei beni di consumo, gli autori iniziarono a stilare dei contratti di portata generale in cui esprimevano i termini della distribuzione e della riproduzione del software su cui essi vantavano i suddetti diritti esclusivi: nacque così il tipo contrattuale della licenza d’uso di software30. Il software, a seconda del grado di libertà che il titolare dei diritti di tutela decide di attribuire agli utenti della sua opera, può essere classificato all’interno di un insieme di definizioni, che sono 28 Ibidem p.31 29 Idem 30 Ibidem p.33
ovviamente da intendersi in modo piuttosto elastico. In una scala di valore che parte da un grado minimo di libertà per l’utente verso il grado massimo, al primo scalino abbiamo prevedibilmente il software proprietario, con le sue molteplici e sovrapposte forme di distribuzione. Le più diffuse sono: il software commerciale proprietario, che prevede l’acquisto della licenza d’uso del prodotto o per avviarne l’uso (solitamente per mezzo di parole-chiave che permettono di superare i meccanismi di crittazione) o addirittura per entrare in possesso del supporto materiale (CD-ROM o floppy-disk). Ci sono poi le versioni di prova, chiamate trial version (versioni di prova) o demo, nelle quali il programma si presenta privo di alcune funzionalità, oppure completo ma con una possibilità di utilizzo limitata nel tempo (in questo caso di parla anche di shareware); tutto ciò sempre attuato mediante meccanismi automatici di crittazione. Scaduto il periodo di prova, solitamente il programma invita l’utente ad acquistare la licenza per poterne continuare l’uso. Abbiamo anche il caso sicuramente meno diffuso - dei programmi ADware, i quali mostrano durante l’uso alcuni banner pubblicitari; i costi di licenza quindi sono coperti in via indiretta dalle aziende inserzioniste. Infine si parla di freeware, riferendosi a un software commerciale completo che però viene ceduto in uso gratuito per motivi promozionali, o in base a contratti che puntano più che altro sull’aspetto della manutenzione e della customizzazione. Sullo scalino centrale si trova invece il fenomeno del software libero e aperto (Free Software e Open Source software) basato sul meccanismo del copyleft. Sul terzo e ultimo scalino, quello col massimo grado di libertà per l’utente, troviamo infine il public domain software (software di pubblico dominio), ovvero un software non solo distribuito gratuitamente e liberamente, ma addirittura privo di ogni annotazione di copyright, tanto da occultarne anche la paternità (il cosiddetto aspetto ’morale’ del diritto d’autore). Uno strumento dunque regalato alla conoscenza, di cui chiunque è libero di fare ciò che vuole senza alcun limite derivante da licenza.
6.6.3.2.2. Copyleft La scelta del public domain dovrebbe essere quella che garantisce la maggior libertà di diffusione e di adattabilità e perciò dovrebbe rappresentare il modello più calzante con l'indirizzo etico della Free Software Foundation. E infatti è così, ma solo in linea di principio: asciare il software in un regime di pubblico dominio comporta che chiunque possa farne ciò che vuole; ma pubblico dominio in questo caso non vuol dire "proprietà di tutti" intendendo "tutti" come "comunità organizzata", bensì intendendo "tutti" come "ciascuno". Di conseguenza, ciascuno potrebbe anche attribuirsi arbitrariamente i diritti esclusivi di tutela e iniziare a distribuire il software da lui modificato come se fosse software proprietario, criptando il
sorgente e misconoscendo la provenienza pubblica del software, senza che nessuno possa agire nei suoi confronti. Una simile prospettiva avrebbe presto vanificato gli scopi del progetto GNU, con il rischio oltretutto di vedere defraudato il lavoro dei numerosi sviluppatori che vi avevano aderito con spirito di dedizione e gratuità. Bisognava escogitare una soluzione per far sì che ogni affiliato del progetto fosse a sua volta tenuto a mantenere lo stesso grado di libertà sul lavoro da lui svolto. Per Aliprandi questa è stata forse la idea più geniale ed interessante di Stallman: egli capì che l’arma più efficace per difendersi dalle maglie troppo strette del copyright (così come si è evoluto negli ultimi anni) stava nel copyright stesso. Per rendere dunque un software veramente e costantemente libero è sufficiente dichiararlo sotto copyright e poi riversare le garanzie di libertà per l’utente all’interno della licenza, ribaltando così il ruolo della stessa e creando un vincolo di tipo legale fra la disponibilità del codice e le tre libertà fondamentali: di utilizzo, di modifica e di ridistribuzione.
Fig. 50: Copyleft
Come già aveva fatto per l’etimologia di GNU, Stallman cercò di attribuire a questo criterio un nome emblematico; e lo fece sfruttando un gioco di parole, anzi un doppio gioco di parole. Scelse l’espressione copyleft che, a seconda dei significati che si danno alla parola left, trasmette una duplice idea: un’idea di ribaltamento degli stereotipi del copyright tradizionale, se s’intende left (sinistra) come contrario di right (destra); ma anche e soprattutto un’idea di “libertà d’azione” dato che left è il participio passato di leave, cioè “lasciare”, “permettere”31. Una traduzione (un po' forzata) di copyleft potrebbe essere “permesso di copia”, ma nella traduzione italiana si perde irrimediabilmente il senso del duplice gioco di parole, dato che non si può cogliere l’idea di ribaltamento. Quest’ultima sfumatura semantica è stata poi evidenziata con un’ulteriore gioco di parole: gli hacker della Free Software Foundation amano apporre, ironicamente, sui propri lavori la nota presente in fig.50 ovvero, "copyleft - tutti i diritti rovesciati" con una © rovesciata a sinistra invece del canonico "copyright (C) - all rights reserved" (cioè, "copyright - tutti i diritti riservati"). Dopo tale annotazione venivano poi elencati (alla stregua di una licenza d’uso) tutte le libertà di cui l’utente era ufficialmente investito e veniva rimarcato l’obbligo di mantenerle intatte in futuro nei confronti degli altri utenti. Il copyleft consiste quindi nel convertire le licenze d’uso, da decalogo 31 Per le implicazioni giuridiche e le prospettive del concetto di copyleft si veda la ottima analisi di Aliprandi (2005) pp.98-122 163
degli obblighi dell’utente, in una sorta di "statuto" dei suoi diritti, intoccabili nel tempo e invariabili presso terzi. Aliprandi aggiunge una ulteriore precisazione: nel caso di opere (software o non software) distribuite sotto licenze copyleft è improprio parlare di “tutela del diritto d'autore”. Infatti è il diritto che tutela l’opera, non la licenza; al massimo la licenza chiarisce i termini di distribuzione dell’opera allentando (a certe condizioni e secondo la volontà dell’autore) le maglie dell’impostazione standard prevista dall’attuale sistema di copyright. Quindi è più corretto parlare di opera “distribuita” sotto licenza copyleft oppure “disciplinata” da una licenza copyleft oppure “opera in regime di copyleft”.
6.6.3.2.3. GPL Stallman stesso, con la consulenza di alcuni colleghi hacker e giuristi, nel 1989 volle redigere il testo base della licenza da apporre ai programmi GNU. Lo fece lasciando immancabilmente trasparire gli intenti ideologici del progetto anche nelle parole di quello che invece sarebbe potuto rimanere un testo di tipo tecnico-giuridico, franco da certe connotazioni. Venne chiamata GNU General Public License, più conosciuta per il suo acronimo GPL. Già dalle prime righe si può notare quindi che si tratta di un documento che basa tutta la sua essenza ed efficacia sul copyright, a differenza di ciò che si può pensare comunemente. Lo si coglie pure dal fatto che lo stesso testo della GPL viene dichiarato inequivocabilmente tutelato da copyright da parte della Free Software Foundation Inc., organizzazione identificata inequivocabilmente con tanto di città, via e numero civico. Successivamente si riporta una nota, che è poi l’essenza del concetto di copyleft inteso però solamente come “permesso di copia”: "chiunque può copiare e distribuire copie letterali di questo documento, ma non ne è permessa la modifica"32. Quest’annotazione preliminare è ovviamente resa necessaria al fine di evitare che il destinatario della licenza ne possa stravolgere la funzione primaria cambiandone i contenuti e alterandone la disciplina a suo piacimento; quindi, sotto questo aspetto, unico soggetto autorizzato a rilasciare modifiche o addirittura nuove versioni è la FSF, in posizione di detentrice dei diritti di copyright33.
6.6.3.2.4. LGPL Le prime applicazioni della GPL hanno fatto però emergere un problema di tipo pratico, derivante proprio da una caratteristica specifica e peculiare della licenza: la sua “viralità”. In pratica tutto il codice sviluppato per funzionare in associazione con software GPL dev’essere a sua volta coperto 32 http://www.gnu.org/copyleft/gpl.html 33 Per una accurata analisi della licenza, si veda Aliprandi (2005) pp.37-38] 164
da GPL, pena la caducazione dell’intera licenza. Ma bisogna tenere presente che il software non è un’entità statica e monolitica, bensì un insieme fittissimo di altri software, se per software intendiamo una serie di istruzioni impartite al computer. Perciò è possibile che nel modello "a cascata" di ridistribuzione del software libero, grazie alla disponibilità del codice sorgente completo e alla possibilità di modifica garantite dalla GPL, qualche sviluppatore voglia scorporare il pacchetto software e rielaborarne solo una parte, oppure decida di fare interagire un software di derivazione libera con un software proprietario. Aliprandi porta come esempio le librerie: esse sono delle "raccolte di funzioni" precompilate (dette routine), funzionali al software che lo incorpora ma da esso ben distinguibile. Quindi un’eccessiva rigidità (come per certi versi è quella della GPL) può risultare controproducente allo sviluppo di software libero: uno sviluppatore GNU che vuole creare una libreria sotto i parametri del copyleft sa che successivamente gli sviluppatori di software proprietario non potrebbero usarla e quindi la libreria perderebbe gran parte del suo potenziale. Proprio per questo motivo, dopo che molti collaboratori del progetto GNU fecero notare tale difficoltà, la Free Software Foundation decise nel 1991 di stilare una seconda licenza, chiamata LGPL, Library General Public License34. È dunque una licenza apposita per il caso delle librerie, che si presenta come una versione della GPL alleggerita però di alcune restrizioni (per questo infatti è stata recentemente rinominata “Lesser GPL”, ovvero “GPL attenuata”). Ovviamente la Free Software Foundation "diffida" chiunque ad usare questa licenza per software che non siano librerie, pena l’esclusione del programma così distribuito dalla "famiglia" del software libero.
6.6.3.2.5. BSD Sulla scia dei segnali di successo raccolti nell’ambito della comunità hacker (e non solo) dalla licenza di Stallman, cominciarono a diffondersi altre licenze per software che - pur con funzioni e criteri diversi - si ispiravano al modello individuato dalla FSF. Un esempio importante è dato dalla BSD License35, che ha le sue radici, negli anni d’oro della scienza informatica, in un progetto che potrebbe essere considerato addirittura come precedente al progetto GNU. L’acronimo BSD si riferisce alla Berkley Standard Distribution, ovvero la versione di Unix sviluppata negli anni '70 dalla prestigiosa università californiana con il modello di libera condivisione tipico dell’epoca. Quando poi (alla fine degli anni '80) la compagnia produttrice di software AT&T decise di commercializzare Unix ci fu un’inversione di tendenza e ovviamente le nuove versioni del sistema operativo contenevano codice BSD inframmezzato da codice proprietario. Dunque gli sviluppatori originari della BSD separarono il proprio codice dal resto del sistema 34 http://www.fsf.org/licensing/licenses/lgpl.html 35 http://opensource.org/licenses/bsd-license.php
operativo; si impegnarono poi a “riempire i buchi” e, una volta trasformata la BSD in un sistema operativo completo e indipendente, iniziarono a ridistribuirla sotto una nuova singolare licenza rilasciata dalla University of California (appunto la BSD license). Costoro dopo qualche anno (nel 1993) si organizzarono nel "FreeBSD Project" con lo scopo di coordinare lo sviluppo del software e di rilasciarne le versioni aggiornate. La prima versione (1.0) risale al 1993, mentre nel 1999 si era già giunti alla versione 3.0. Si tratta di una licenza piuttosto asciutta, senza componenti ideologiche o programmatiche e parti esemplificative, i cui termini risultano sintetici e essenziali e la cui applicazione si risolve nell’inserimento di una breve nota standard da inserire nei file che s’intendono tutelare con la licenza. La nota (detta template, ovvero “sagoma”) deve riportare il nome di chi detiene il copyright (owner), l’organizzazione a cui egli appartiene e l’anno di realizzazione. Il testo della licenza prosegue poi specificando che, del software così tutelato, sono permesse la ridistribuzione e l’utilizzo in forma sorgente o binaria, con o senza modifiche, ma solo se vengono rispettate tre condizioni: • le ridistribuzioni del codice sorgente devono mantenere la nota sul copyright; • le ridistribuzioni in forma binaria devono riprodurre la nota sul copyright, l’elenco delle condizioni e la successiva avvertenza nella documentazione e nell’altro materiale fornito con la distribuzione; • il nome dell’autore non potrà essere utilizzato per sostenere o promuovere prodotti derivati dal software licenziato, senza un apposito permesso scritto dell’autore. In fine si trovano gli avvertimenti (disclaimer) sull’assenza di garanzia e sullo scarico di responsabilità, che ricalcano grossomodo lo schema dei loro corrispondenti all’interno della GPL. Tuttavia questa licenza presenta una caratteristica più problematica, ovvero la possibilità di usare il codice da essa tutelato per sviluppare software proprietari: aspetto che la pone al di fuori del paradigma di copyleft, poiché non è garantita la trasmissione all’infinito dei diritti da essa concessi, i quali si interrompono nel momento in cui il codice diventa proprietario. T uttavia, storicamente, le dispute più accese riguardanti la BSD non derivavano da questa caratteristica (d’altronde l’importante era che venisse dichiarato esplicitamente che non si trattava di software libero nel senso voluto dalla FSF), bensì quella che venne chiamata la "clausola pubblicitaria". La clausola obbligava l’utente a "dare esplicito riconoscimento all’Università [Berkeley] nelle eventuali inserzioni pubblicitarie previste per i programmi derivati"36. Ma col tempo alcuni sviluppatori aggiunsero alla clausola i nomi di altre organizzazioni che avevano sostenuto lo sviluppo del software, comportando che dovessero 36 cit. in Aliprandi p.40
essere citati sempre più soggetti nelle inserzioni. Questo ingombrante effetto a catena portò nel 1999 l’università californiana a decidere di eliminare quella clausola dalla versione ufficiale della licenza. Più o meno identica alla BSD nella struttura e nello spirito generale è la MIT License, che prende il nome dal noto centro di ricerca del Massachusetts.
6.6.3.2.6. Mozilla La licenza caratterizzante il progetto Mozilla37 risulta interessante per la sua rilevanza storica: può essere vista come la prova generale antecedente la nascita del termine Open Source. Quando la Netscape decise di diffondere il sorgente del suo prodotto di punta, il Netscape Navigator, dovette fare i conti con una situazione abbastanza diversa da quella in cui si trovava il progetto GNU: quest’ultimo infatti aveva degli intenti propagandistici e no-profit che non potevano armonizzarsi invece con la realtà di una grande azienda. Bisognava quindi "liberare il sorgente" senza però rendere il software un effettivo software libero, nel senso voluto dalla Free Software Foundation, dato che non si voleva precludere la possibilità di inframmezzarlo con codice di natura proprietaria; bisognava anche appurare se qualcuna delle licenza già comparse sul mercato fosse stata adeguata al tal fine. I grandi nomi impegnati in questo progetto (ovvero Torvalds, Raymond e O’Reilly) consultarono esperti di informatica, diritto e marketing, prendendo in esame le caratteristiche delle licenze GPL, LGPL e BSD. La conclusione fu che era giunto il momento di stilare una nuova apposita licenza, che, a detta dei loro promotori, si sarebbe posta come un primo tentativo di compromesso fra i criteri giuridicoideologici del software libero tradizionale e lo sviluppo a livello aziendale di software a sorgente aperto. Nacque così la Netscape Public License (NPL), il cui testo venne diffuso a titolo informativo in un newsgroup telematico per testare il livello di gradimento da parte degli utenti: era il 5 marzo 1998. Da subito il feedback ricevuto da tutta la comunità Open Source si rivelò estremamente critico: la licenza infatti, con una certa contraddittorietà, riservava alcuni privilegi al detentore originario dei diritti nella distribuzione del codice sorgente; essa dava a Netscape il privilegio di porre sotto un’altra licenza le modifiche fatte al suo software, perciò l’azienda poteva tenere come private quelle modifiche, approfittarne per migliorare il software e rifiutarsi di ridistribuire il risultato; per di più veniva riservata a Netscape anche la possibilità di redigere versioni aggiornate della NPL, alla stregua di quanto faceva la Free Software Foundation con la GPL (con la differenza che la Free Software Foundation era un’organizzazione no-profit e non un’impresa con interessi economici).
37 http://www.mozilla.org/ 165
Preso atto di questi punti critici, i coordinatori del progetto seppero rivisitare la loro impostazione. Il 21 marzo infatti venne diffusa una nuova licenza, libera da quei privilegi che avevano generato tante critiche: la Mozilla Public License (MPL), che prese il suo nome stravagante da un nomignolo usato scherzosamente dagli sviluppatori della Netscape; essa era stata predisposta per operare "all’interno della NPL" ed era identica a quest’ultima tranne che nella mancanza dei privilegi. Il codice di Navigator fu dunque pubblicato per la prima volta il 31 marzo 1998 sotto licenza NPL; il codice da qui derivato poteva invece essere sotto MPL (o sotto ogni altra licenza compatibile) e quindi poteva essere inserito (in grado variabile) all’interno di un pacchetto di software commerciale. In questo modo il Progetto Mozilla riusciva finalmente ad assecondare il duplice intento di diffusione a sorgente aperto e di proficua strategia aziendale.
6.6.3.2.7. Open Source Nel 1998 la diffusione di software sotto licenze diverse dal concetto tradizionale di licenza d’uso era diventata una prassi ormai radicata e la scelta "illuminata" di Netscape rappresentò l’avvenuta maturazione dei tempi per una - per così dire istituzionalizzazione dell’Open Source. Le più rappresentative e carismatiche personalità della comunità emergente cominciarono a cogliere la necessità di fare chiarezza (anche da un punto di vista giuridico) sul fenomeno che avevano strenuamente sostenuto e pensarono di organizzarsi in gruppi di lavoro e associazioni che coordinassero i vari progetti e ne mantenessero alta la visibilità. Una volta costituite tali organizzazioni e confermata la loro credibilità a livello internazionale, esse iniziarono un’opera di cernita, commento e consulenza sui testi delle licenze che via via si trovavano in circolazione, segnalando quali fossero le più indicate a determinate finalità: una sorta di "patrocinio", una certificazione di conformità allo spirito dei vari progetti. I primi a muoversi in questo senso furono proprio alcuni degli artefici di Mozilla, i quali sotto la guida di Eric Raymond costituirono la Open Source Initiative con lo scopo appunto di farsi supremi custodi e garanti del concetto di “software Open Source”. Come base per questo progetto, la OSI raccolse i suoi esperti di informatica e di diritto per stilare una sorta di documento-decalogo in cui venissero delineati gli standard secondo i quali un software potesse essere definito Open Source: la Open Source Definition, ovvero la “definizione di open source”. Fedele alla sua vocazione di "statuto dei diritti dell’utente" questo testo focalizza la centralità di tre diritti primari che la tipologia di distribuzione del software deve rispettare: • il diritto di fare copie del programma e di ridistribuirle liberamente; • il diritto di accesso al codice sorgente; • il diritto di poter intervenire sul programma e modificarlo. 166
Dunque la Open Source Definition (OSD) non è un modello di licenza per software open source (come qualcuno potrebbe pensare) bensì una specifica di quanto è ammesso in una licenza software perché possa essere considerata Open Source"; secondo Aliprandi può esser vista, in un certo senso, come una "licenza per le licenze"38. Dopo una breve introduzione che ammonisce il lettore a non considerare “Open Source” come semplice sinonimo di “disponibilità del sorgente”, il documento si estrinseca in 10 sezioni che da un lato chiariscono e riconfermano alcuni principi cardine del software libero, dall’altro ne creano alcuni indipendenti ed appositi per il concetto di Open Source. L’obiettivo della OSI era trasformarsi in una specie di "consorzio" che vigili sulla corretta interpretazione e applicazione della Open Source Definition, attribuisca una certificazione ai prodotti che ne rispettavano i principi e apponga su di essi un marchio di garanzia. Inizialmente è stata richiesta la registrazione dell’espressione "Open Source" come marchio, ma l’autorità americana a ciò preposta non l’ha accettata poiché troppo generica e descrittiva; la OSI ha dunque optato per il meno equivocabile "OSI certified", cioè "certificato dalla OSI". La OSI quindi non solo consente l’uso dell’espressione Open Source per i software che rispettino i criteri della OSD, ma autorizza su di essi l’apposizione ufficiale del marchio registrato; si crea così un riconoscimento più forte di quello che abbiamo simbolicamente chiamato "patrocinio", espressione più calzante per la prassi utilizzata dalla Free Software Foundation. È quindi possibile rileggere le principali licenze di software presentate alla luce dei criteri della Open Source Definition, rilevando quattro fondamentali aspetti: • la possibilità che il codice (sotto quella particolare licenza) venga miscelato con codice di matrice commerciale; • la possibilità che le modifiche apportate al codice siano mantenute, senza quindi essere restituite all’autore originale; • la possibilità che il codice così realizzato venga liberamente ri-licenziato da chiunque; • la permanenza di alcuni privilegi speciali sulle modifiche per chi detiene il copyright originale. Anche la Free Software Foundation, dall’alto della sua posizione privilegiata (e unanimamente riconosciuta) di prima custode della libertà nel software, ha da sempre sfruttato la visibilità e la credibilità derivatele da un a personalità come Stallman per guidare gli utenti di software verso una corretta qualificazione del concetto di software libero. I meccanismi con cui questa organizzazione ha conferito il suo benestare (o "patrocinio") alle diverse licenze in circolazione, sono però piuttosto diversi da quelli prescelti dalla Open Source Initiative. Per prima cosa la Free Software Foundation non usa come modello di riferimento 38 Aliprandi (2005) p.43
un documento-manifesto quale può essere considerato la OSD, bensì una vera e propria licenza che funge - ma solo in seconda battuta anche da manifesto: ovvero la GPL, che viene "solennemente" elevata al grado di licenza del ’free software’ per eccellenza. Essa diventa in tal modo l’unica vera licenza che realizza appieno le quattro libertà basilari previste dalla “free software definition” 39: • la libertà di eseguire il programma, per qualsiasi scopo (libertà 0); • la libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1); • la libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2); • la libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne possa trarre beneficio (libertà 3). Ovviamente l’accesso al codice sorgente è considerato come prerequisito essenziale alla ’libertà 1’ e alla ’libertà 3’.
libero del software e sviluppo libero della relativa documentazione. L’idea di diffondere un’opera non software (principalmente un’opera letteraria) con gli stessi criteri della licenza GPL cominciò a prospettarsi già ai primi sviluppatori e promotori del progetto GNU, i quali erano soliti annotare di volta in volta le modifiche tecniche che apportavano al software libero anche sul relativo file di testo con le istruzioni tecniche. Fin quando lo sviluppo del software rimaneva in fase sperimentale, la modifica dei manuali d’istruzioni non dava grandi problemi, essendo anch’essi in via di redazione; la situazione si faceva più intricata quando veniva rilasciata una versione definitiva del software in un pacchetto (completo di manuale) pronto per la distribuzione al pubblico. Infatti in questo passaggio, il software era un’opera già completa e definita che però godeva delle libertà derivatele dai termini della licenza GPL, ovvero il “permesso di copia” e la possibilità di modifica; il relativo manuale invece sottostava alla tutela tradizionale per le opere letterarie tecnico-scientifiche, quindi senza le fondamentali libertà della GPL.
6.6.3.2.8. Licenze per opere non software: Creative Commons
Da ciò scaturiva una situazione di fastidiosa incoerenza con l’etica hacker e soprattutto di paradossalità pratica, dato che le varie versioni modificate, che sarebbero derivate dal software libero originario, non avrebbero potuto accompagnarsi ad un manuale altrettanto aggiornato e modificato. Ad esempio, uno sviluppatore che avesse aggiunto una funzionalità al software libero originario (possibilità garantitagli dalla GPL) non avrebbe potuto però aggiungere un’apposita sezione al manuale senza violare i diritti di copyright dell’autore originario del manuale. Alla fine degli anni ’90 con la grande diffusione di Linux e l’affacciarsi del software libero sul mercato globale, la questione della non modificabilità dei manuali d’informatica sarebbe risultata una grave pecca per un fenomeno che doveva fare da modello per un nuovo paradigma di diffusione delle conoscenze qual era il movimento Open Source. Alcuni sviluppatori iniziarono dunque ad applicare
Per comprendere l'emergenza delle principali licenze riguardanti opere non software, bisogna tenere conto dell'estrema versatilità delle tecnologie digitali nel memorizzare testi, immagini, suoni. Le nuove tecnologie dell'informazione, infatti, permettono la digitalizzazione di quasi tutti i tipi di opera, e le reti informatiche ne permettono una rapida distribuzione attraverso la copia delle informazioni. Copia che è (ed è ancora) al centro di dibattiti sulla sua legalità o meno, e quindi sulla necessità di licenze particolari. Il fatto che l'input per l’applicazione dei principi di libertà di copia e di modifica alle opere non software provenga dall’ambito informatico non dipende semplicemente dalla particolare disposizione culturale ed etica della comunità hacker, ma anche da un nesso di praticità e convenienza fra sviluppo
licenze
può essere miscelato con software commerciale?
le modifiche possono essere mantenute private e non restituite all'autore originale?
può essere rilicenziato chiunque?
contiene privilegi speciali sulle modifiche per chi detiene il copyright originale?
GPL
no
no
no
no
LGPL
sì
no
no
no
BSD
sì
sì
no
no
NPL
sì
sì
no
sì
MPL
sì
sì
no
no
Dominio pubblico
sì
sì
sì
no
39 Aliprrandi (2005) Tabella 6: Carateristiche delle principali licenze di Free e Open Source Software (Fonte: Aliprandi 2005) 167
licenze
è una licenza di software libero?
è compatibile con la gpl?
è nello spirito del copyleft?
GPL
sì
sì
sì
LGPL
sì
sì
Non del tutto
BSD originale
sì
no
no
BSD modificata
sì
sì
no
NPL
sì
no
poco
MPL
sì
no
Non del tutto
non è una licenza
sì
no
Dominio pubblico
Tabella 7: Principali licenze di Free e Open Source Software e spirito copyleft
la licenza GPL (quindi una licenza nata per il software) anche alla documentazione relativa al software e successivamente anche ai testi divulgativi dei vari progetti Open Source. Questa crescente necessità di malleabilità e libertà di diffusione della manualistica e dell’altro materiale divulgativo relativo al software libero, spinse la Free Software Foundation a redigere una nuova apposita licenza: venne chiamata “GNU Free Documentation License (FDL), ovvero “Licenza per documentazione libera del progetto GNU”, e la sua prima versione (la 1.1) comparve nel marzo 2000. Il testo, già ad un primo sguardo, mostra di ricalcare fedelmente lo stile e la struttura della GPL, in modo preminente per ciò che riguarda alcuni rilievi programmatici; risulta invece (rispetto alla sua capostipite) meno influenzata da considerazioni propagandistiche. Il Preambolo ci chiarisce immediatamente gli scopi della nuova licenza, cioè "rendere un manuale, un testo o altri documenti utili e funzionali, liberi nel senso di assicurare a tutti la libertà effettiva di copiarli e ridistribuirli, con o senza modifiche, a fini di lucro o meno"40. Successivamente, uscendo dalla sfera programmatica e avvicinandosi alle implicazioni pratiche e giuridiche dell’applicazione della licenza, si dice che essa "prevede per autori ed editori il modo per ottenere il giusto riconoscimento del proprio lavoro, preservandoli dall’essere considerati responsabili per modifiche apportate da altri"41. Una prospettiva così innovativa e interessante per tutto il mondo della comunicazione non poteva rimanere relegata alla distribuzione di documentazione relativa al software libero, come d’altronde gli stessi compilatori della FDL avevano intuito. Dalla seconda metà degli anni ’90 (ovvero gli anni del successo di Linux e della GPL) nel giro di pochi anni infatti molti autori ed editori di opere multimediali pensarono di applicare il paradigma delle licenze software anche ad opere del tutto prive di carattere tecnico-funzionale e rivolte piuttosto alla pura sfera della creatività artisticoespressiva. E’ evidente però che in questo passaggio alle opere di tipo narrativo, poetico, musicale, grafico, cinematografico non poteva 40 Aliprandi (2005) p.71 41 Idem 168
attuarsi una semplice trasposizione di paradigmi come poteva invece avvenire per la manualistica tecnico-informatica. Il trattamento di queste opere doveva tenere conto appunto della loro diversa vocazione di opere destinate a veicolare messaggi di tipo emozionale, a trasmettere sensazioni e ad esprimere spiccatamente la personalità dell’autore, in modo non comparabile ad un’opera funzionale o compilativa. In primo luogo, nell’ambito delle opere artisticoespressive l’aspetto della malleabilità e della loro indiscriminata modificabilità passa decisamente in secondo piano, prevalendo piuttosto quello della libera e gratuita distribuzione. Ad esempio, per le strette implicazioni con la sensibilità individuale dell’autore di cui abbiamo parlato, molti compositori di brani musicali hanno optato per licenze che incoraggiassero la massima libertà di copia, ma che limitassero la possibilità di intervenire sull’opera senza il loro esplicito consenso. Lo stesso può dirsi per le opere poetiche o figurative. In opere di questo tipo ci si allontana inevitabilmente dai principi di disponibilità e apertura del sorgente (che risultano poco calzanti alla realtà del fenomeno), per concentrarsi piuttosto sulla libertà di copia e sulla trasparenza dei formati; di conseguenza sarebbe forse il caso di non parlare più di ’open source’, ma semplicemente di "copyleft". Nel 2001 ha preso il via un progetto che si rivelerà presto uno dei più ambiziosi in fatto di libera diffusione delle conoscenze e della creatività in generale, addirittura più ambizioso del progetto GNU e della Open Source Initiative per l’ampiezza del panorama cui si rivolge: si tratta del progetto Creative Commons il cui sito ufficiale è Esso nasce www.creativecommons.org42. dall’iniziativa di alcuni nomi di spicco nell’ambito della scienza della comunicazione e della proprietà intellettuale, fra cui James Boyle, Michael Carroll, Eric Eldred e soprattutto Lawrence Lessig, docente presso la facoltà giuridica di Stanford e già grande studioso delle implicazioni giuridiche del software libero. 42 Esistono anche altre iniziative dedicate alla formulazione di licenze per opere artistiche, si veda Aliprandi pp.87-93
Il nome del progetto intende riecheggiare il titolo di un famoso saggio pubblicato nel 1968 dall’economista Garret Hardin e intitolato The tragedy of the commons43. In breve, Hardin sostiene che i “beni comuni” (commons) sono destinati per loro natura a perire, poiché ciò che è di tutti non riceve la stessa tutela che invece riceve un bene privato dal suo proprietario; dunque per preservare e fare aumentare il valore di questo bene è giusto affidarne la gestione esclusiva ad un unico soggetto: è questa l’essenza del concetto di proprietà privata. Tale assunto, se può essere vero per i beni materiali/consumabili, non è detto sia vero per i beni immateriali come la conoscenza e la creatività. Basti pensare alla ben nota massima di George Bernard Shaw secondo cui "se tu hai una mela e io ho una mela, e ce le scambiamo, allora tu ed io abbiamo sempre una mela ciascuno. Ma se tu hai un’idea ed io ho un’idea, e ce le scambiamo, allora abbiamo entrambi due idee"44. E’ per questo che molti degli esponenti di Creative Commons, primo fra tutti Lawrence Lessig, in occasione degli eventi di sensibilizzazione amano parlare di comedy of the commons, proprio a sottolineare che, nel caso di beni come questi, il loro valore aumenta nel momento in cui più persone possono avvalersene. Da qui proviene l’input per l’attivazione del progetto: l’idea è quella di dar vita ad una collettività di creazioni artistiche libere, al di là delle ottiche di guadagno tipiche del classico paradigma di proprietà intellettuale. Tuttavia l’apparato di principi del progetto non si pone in polemica con il mondo dell’imprenditoria culturale (sia essa editoria, produzione discografica, produzione cinematografica) la quale persegue legittimamente dei profitti, tutelando i suoi cospicui investimenti per mezzo del diritto d’autore, ma vuole che questo non si trasformi necessariamente in un’arma a doppio taglio a scapito dei singoli artisti indipendenti. Come è giusto che sia tutelata la struttura imprenditoriale, è però anche giusto che venga tutelata la libertà d’espressione di colui che, magari solo in via estemporanea, vuole esprimere artisticamente la propria personalità, senza voler necessariamente entrare nelle maglie del mercato dell’editoria. Anche qui, come nell’impostazione del progetto GNU, non si tratta di ingaggiare una guerra indiscriminata contro il copyright, bensì solo di ridimensionarne alcuni aspetti problematici e adattarne la visuale al nuovo contesto di comunicazione digitale e telematica, con un particolare sguardo per la crescente multimedialità. Il tipo di opere abbracciate dal concetto di “libera espressione” è intuibilmente molto più ampio di quello di “libera diffusione delle conoscenze”; difatti il progetto Creative Commons si occupa di incentivare e raccogliere opere di ogni tipo, da quelle letterarie (sia tecnico-scientifiche, sia 43 Hardin G. (1968), The Tragedy of the Commons, in Science, vol. 162. 44 cit. in Aliprandi (2005) p.81
narrative o poetiche) a quelle musicali, da quelle figurative in generale a quelle cinematografiche. Inoltre il progetto intende realizzare un immenso database di opere concesse in libera condivisione e s’impegna a sviluppare un ampio catalogo di lavori di alta qualità su diversi media, e promuovere un’etica basata sulla condivisione, l’educazione del pubblico e l’interazione creativa. Le licenze Creative Commons rappresentano una serie di sfumature intermedie fra il regime di copyright tradizionale (che ha un’applicazione automatica e standard) e il regime di public domain.
Fig. 51: Logo Creative Commons
Per raggiungere gli obbiettivi prefissati, il gruppo di giuristi del progetto Creative Commons ha redatto un set di undici licenze ispirate ai modelli proposti dalla Free Software Foundation, chiamate coerentemente "Creative Commons Public Licenses" (CCPL) e rilasciate pubblicamente nel dicembre 2002. Esse sono il risultato dell’unione di quattro caratteristiche-base (rese graficamente con specifici segni, come si vede nella figura 52), le quali, a seconda delle loro diverse combinazioni, attribuiscono alle varie licenze differenti funzioni giuridiche: • la caratteristica attribution si riferisce all’obbligo di rendere merito all’autore originario dell’opera e quindi di citarlo in ogni utilizzazione dell’opera; • la caratteristica no derivs indica il divieto di apporre modifiche all’opera e quindi di crearne opere derivate; • la caratteristica non commercial vieta l’utilizzo dell’opera per scopi commerciali; • la caratteristica share alike, che letteralmente si traduce con 'condividi allo stesso modo', indica invece l’obbligo di applicare alle opere da essa derivate lo stesso tipo di licenza dell’opera originaria (è lo stesso fenomeno del trasferimento ad libitum del copyleft). Per una questione logica, la caratteristica dello share alike è incompatibile con quella del divieto di opere derivate: infatti non avrebbe senso vietare le opere derivate e nello stesso tempo rendere obbligatorio un determinato trattamento per le opere derivate. Di conseguenza le combinazioni che si ottengono (che sono anche i nomi inglesi delle varie licenze) risultano essere: • Attribution45; • Attribution-NoDerivs46; • Attribution-NonCommercial-NoDerivs47;
45 http://creativecommons.org/licenses/by/2.5/ 46 http://creativecommons.org/licenses/by-nd/2.5/ 47 http://creativecommons.org/licenses/by-nc-nd/2.5/ 169
• • •
Attribution-NonCommercial48; Attribution-NonCommercial-ShareAlike49; Attribution-ShareAlike50.
In base alle proprie esigenze, dunque, un autore può scegliere liberamente sotto quale particolare regime di licenza distribuire la propria opera. Tutte le licenze Creative Commons si presentano in una triplice enunciazione: una versione sintetica (Common deed), facilmente comprensibile al grande pubblico degli utenti ("a human-readable summary") e nella quale vengono semplicemente elencati i diritti e gli obblighi trasmessi dalla licenza; una versione più dettagliata (Legal code), redatta in linguaggio giuridico, che ricalca gli schemi tipici delle licenze fin qui esaminate (principalmente della FDL) e che fa da testo ufficiale di riferimento per qualsiasi controversia legale; e infine una versione elettronica (Digital code) che permette a motori di ricerca ed altre applicazioni di identificare la tua opera in base alle condizioni di utilizzo specificate dalla licenza. Indipendentemente dalla loro categoria funzionale, tutte le CCPL hanno in comune la libertà di copiare, distribuire, mostrare ed eseguire in pubblico l’opera. Sono invece condizionate ai peculiari termini della licenza scelta le altre due libertà fondamentali, cioè "realizzare opere derivate" dall’opera licenziata e "attribuire all’opera un uso commerciale". Tutte le licenze (nelle versioni sintetiche) dopo l’elencazione delle libertà e delle relative condizioni, riportano due raccomandazioni: la prima è riferita alla certezza del regime di licenza applicato in ogni fase della distribuzione e il suo testo letterale è: "per qualsiasi riutilizzo o distribuzione, dovete dire chiaramente quali sono i termini di licenza di quest’opera"51; la seconda è riferita alla derogabilità in via contrattuale delle previsioni della licenza e il suo testo letterale è: "ciascuna di queste condizioni può essere tralasciata qualora abbiate ricevuto il permesso dell’autore"52. Infine in ogni licenza si ricorda che il diritto di fair use e altri diritti non sono in nessun modo influenzati dagli effetti della licenza. Inoltre, sempre sul sito ufficiale, si spiega con quali accorgimenti pratici scegliere, scaricare ed utilizzare la licenza: ad esempio, nel caso di opera diffusa via Internet, si consiglia di inserire nel sito anche un "bottone", che riporti il logo Creative Commons e la dicitura some rights reserved, ovvero alcuni diritti riservati (in richiamo della tradizionale espressione all rights reserved, “tutti i diritti riservati”); questo sarà anche un link che rimanderà alla licenza prescelta nella sua versione sintetica, la quale a sua volta rimanderà alla versione Legal Code; infine vengono fornite le righe di codice per l’attivazione della versione Digital Code. 48 49 50 51 52
http://creativecommons.org/licenses/by-nc/2.5/ http://creativecommons.org/licenses/by-nc-sa/2.5/ http://creativecommons.org/licenses/by-sa/2.5/ Aliprandi (2005) p.83 Idem
170
Infine, dalla fine del 2003 esistono anche alcune licenze specifiche per la condivisione di opere musicali: la Sharing Music CCPL e la Sampling CCPL. Al di là della redazione e del costante aggiornamento delle licenze e della raccolta e promozione delle opere diffuse liberamente, Creative Commons ha attivato alcune iniziative settoriali tra cui icommons, che mira all’internazionalizzazione del progetto Creative Commons, promovendo e sostenendo la formazione di organizzazioni simili negli altri paesi del mondo e coordinandone l’attività.
attribution
share alike
no derivative works
non commercial Fig. 52: Simboli Creative Commons
Fig. 53: Creative Commons, some rights reserved
6.6.4. Comunità All'interno del Sistema di Attività, con l'elemento comunità, si intende l'insieme delle persone con cui il soggetto preso in esame interagisce in un dato momento. È quindi un concetto relativo al contesto di studio; tuttavia in questa analisi , dato che si è considerato il soggetto come un generico partecipante, è possibile considerare la comunità come una generica forma di comunità, ossia come la forma di organizzazione che le comunità Open Peer-to-Peer generalmente assumono. È già stato detto infatti come queste reti collaborative che si formano tra i partecipanti diano luogo a delle comunità e non ad organizzazioni aziendali come tradizionalmente considerate. Anche se molti casi di comunità Open Peer-to-Peer danno luogo ad attività economiche, essi si organizzano sempre come comunità, ossia come reti orizzontali, non gerarchiche, la cui forma
è data dalle relazioni di reputazione e non da quelle di potere. La struttura della rete è quindi un fenomeno emergente, bottom-up, che nasce dall'attribuzione di un certo grado di reputazione ad ogni partecipante da parte degli altri partecipanti. Si ha quindi un processo di peer review53, ossia recensione o revisione paritaria, dove ogni azione viene votata dagli altri partecipanti. E spesso vi sono meccanismi di moderazione delle votazioni e di meta-moderazione (ossia moderazione delle moderazioni), come nei casi di Slasdot e Kuro5hin: in questo modo i processi decisionali sono veramente decentralizzati, ed ogni partecipante ha voce in capitolo in ogni decisione. Sarà poi la sua correttezza o bravura a fornirgli una maggiore reputazione e quindi maggiori probabilità di essere ascoltato oppure di rivestire ruoli più importanti o impegnativi. In questo modo le azioni più corrette e che portano maggiori vantaggi alla comunità portano ad una maggiore reputazione di chi le ha eseguite, che guadagna così una maggiore influenza all'interno della comunità. Le comunità Open Peer-to-Peer non sono caratterizzate da gerarchie, ma ciò non significa che non vi siano posizioni preminenti al suo interno: le posizioni di potere (gerarchia) impongono un comportamento alle persone, mentre le posizioni di reputazione consigliano i comportamenti indicano quali siano le direzioni più promettenti. Molto spesso il desiderio di ottenere una reputazione tra pari è anche tra i motivi principali per la partecipazione54. Molti ricercatori55 hanno così notato come le comunità Open Source (e quindi anche molte comunità Open Peer-to-Peer) si organizzino con una struttura orizzontale caratterizzata da un centro gravitazionale dove la "forza gravitazionale" che muove i partecipanti verso il centro o verso l'esterno è la reputazione56. Questa struttura è simile a quella identificata da Lave e Wenger57 nelle comunità di pratica e denominata Legitimate Peripheral Participation (LPP). Le comunità Open Peer-to-Peer hanno quindi una 53 Il termine peer review nasce nell'ambito della comunicazione scientifica, dove la selezione degli articoli degni di pubblicazione avviene tramite un processo di revisione paritaria (in inglese chiamata peer review), cioè una valutazione fatta da specialist di pari livello. Gli editori e le agenzie di finanziamento usano la revisione paritaria per selezionare le proposte ricevute. Questo processo inoltre costringe gli autori ad adeguarsi agli standard della loro disciplina. Pubblicazioni e premi che non abbiano subito una revisione paritaria sono generalmente guardati con sospetto dai ricercatori e dai professionisti di molte discipline (Fonte: http://it.wikipedia.org/wiki/Peer_review) 54 Raymond (1998) 55 Crowston, Howison (2005), Madanmohan (2002), Nakakoji, Yamamoto, Nishinaka, Kishida, Ye (2002) 56 Per una analisi dell'importanza della reputazione nell'ambito Open Source, sia tra partecipanti che tra comunità e imprese si veda Watson (2005) 57 Lave, Wenger (1991)
struttura radiale, dove si susseguono, dall'esterno verso l'interno, vari livelli caratterizzati da una reputazione ed impegno maggiori per chi vi si trova. Ad ogni livello può corrispondere un determinato ruolo (si può accedere ad un ruolo solo se in possesso di una determinata reputazione), oppure uno stesso ruolo può essere visto con una struttura centripeta basata sulla reputazione (vi sono vari livelli di reputazione all'interno di uno stesso ruolo, ognuno caratterizzato da un impegno e mansioni differenti). È quindi utile corretto ragionare in termini di livello di reputazione ed impegno: andando verso il centro aumenta l'impegno da parte dei partecipanti e la loro reputazione. Si muovono verso il centro grazie al fatto che il loro impegno aumenta la loro reputazione, ed aumentano il proprio impegno per mantenere o aumentare la propria reputazione. Di questo modo si viene a formare un ciclo di retroazione positivo che spinge i partecipanti ad impegnarsi con crescente intensità. L'evoluzione di una comunità Open Peer-to-Peer è quindi determinata da due fattori: l'esistenza di membri motivati ad acquisire una notevole influenza, e il meccanismo interno alla comunità che permette e incoraggia il continuo ricambio all'interno dei livelli di reputazione e quindi dei ruoli. Possono quindi essere riscontrati alcuni livelli tipici di reputazione/impegno: • partecipante inattivo: beneficia dei risultati ottenuti dalla comunità senza effettuare alcun impegno personale. Può essere presente in molti casi di comunità Open Peer-to-Peer, soprattutto quando l'obiettivo è la produzione di informazioni (Software Open Source, Wikipedia, Ohmynews, ecc.) oppure la fornitura di un servizio (i clienti dei dabbawalla o di Amul, ad esempio). Pur non internvenendo direttamente nell'attività, essi sono molto importanti, perché sono in grado di aumentare l'importanza della comunità e della sua attività, attraverso un effetto di rete (network effect). Nel caso del software Open Source essi utilizzano il software attirati dalla gratuità, qualità, adattabilità e rapidità di sviluppo. Fuori dal contesto del software, i partecipanti inattivi beneficiano dell'attività della comunità ma sono i membri con il minore impegno, anche se comunque fondamentali per l'esistenza della comunità. L'importanza che ha Wikipedia non deriva solo dai partecipanti che si attivano nel suo sviluppo, ma anche da chi la utilizza e ne diffonde la notizia dell'esistenza. Un numero elevato di utenti costituisce un forte incentivo alla partecipazione da parte dei partecipanti più attivi. Nel caso dei dabbawalla, i clienti non possono essere considerati attivi (non svolgono alcun ruolo nel trasporto dei cibi) ma sono importanti in quanto senza di essi l'attività di dabbawalla non esisterebbe. Ad ogni modo, la presenza e l'importanza dei
171
•
•
•
•
partecipanti inattivi dipende fortemente da caso a caso; partecipante periferico: contribuisce all'attività della comunità occasionalmente, ad esempio presentando caratteristiche nuove e roìichieste al progetto di un software. I suoi contributi sono irregolari, su un periodo di coinvolgimento breve, e spesso rappresenta la prima fase di attivazione di un nuovo partecipante all'interno della comunità; partecipante attivo: contribuisce all'attività della comunità regolarmente. È questo il caso del tipico partecipante, su cui si basa l'attività della comunità; partecipante del nucleo centrale: è responsabile per la coordinazione e gestione dello sviluppo della comunità. Questi partecipanti sono stati attivi nella comunità per un periodo temporale relativamente lungo e hanno apportato contributi significanti. Svolgono anche il ruolo di intermediari tra il Leader (se presente) e gli altri partecipanti, per ridurre il numero di informazioni che questi deve processare (come nel caso di Linux)58; leader: solitamente chi ha fondato la comunità o ideato il progetto che questa sviluppa. È responsabile della visione della comunità e della direzione generale. Può anche non essere presente: in questo caso i suoi compiti vengono portati avanti dai membri del nucleo centrale. I partecipanti del nucleo centrale e il leader rappresentano infatti i livelli con massima
reputazione ed impegno, in grado di indicare le direzioni più opportune per la comunità grazie alla propria esperienza. Non a caso in queste due posizioni vi si trovano spesso i fondatori delle comunità, in quanto sono i partecipanti caratterizzati dalla maggior esperienza della comunità e del suo ambito di azione. La presenza di un leader non deve confondere: il loro status di leader è differente da quello delle gerarchie, in quanto non dirama ordini ma consigli, e la sua posizione può modificarsi nel corso del tempo. Nella teoria LPP, infatti, una comunità professionale evolve ricreandosi ogni qualvolta che nuovi partecipanti periferici diventano partecipanti pienamente integrati attraverso un processo di apprendimento in cui acquisiscono le capacità e conoscenze presenti nella comunità attraverso l'interazione con i suoi partecipanti e lo svolgimento di azioni. Il libero accesso al codice sorgente permette ai nuovi membri di una comunità di software Open Source l'accesso alle conoscenze elaborate dalla comunità e fissate nel codice e la possibilità di lavorare con gli altri partecipanti. Leader e nucleo centrale possono comunque cambiare nel tempo, permettendo così la espressione delle differenti esigenze presenti all'interno della comunità. Inoltre, le caratteristiche tipiche delle comunità Open Peer-to-Peer garantiscono che un leader, se presente, oppure un nucleo centrale non si trasformino mai in una dittatura.
Fig. 54: Livelli di reputazione e impegno in una comunità Open Peer-to-Peer 58 Kuwabara (2000) 172
Da un lato, il leader o nucleo centrale sanno che non devono effettuare azioni che possano alienare loro la simpatia dei partecipanti, in quanto senza di essi non esisterebbe la comunità. Dall'altro, i partecipanti sono spinti a non uscire dalla comunità e fondarne una simile dall'etica Hacker, che considera questa pratica, detta forking59, come una azione negativa e da rifiutare. I partecipanti, infatti, possiedono le caratteristiche e le conoscenze utilizzabili per poter fondare una nuova comunità, ma facendo ciò romperebbero lo spirito di condivisione tipico della etica Hacker e quindi delle comunità Open Peer-to-Peer. In questo modo leader e nucleo centrale e i restanti partecipanti si auto-organizzano, decentralizzando le decisioni ma centralizzando la reputazione, considerata lo strumento con cui aiutarsi per effettuare le decisioni.
6.6.5. Divisione del lavoro Un'altra caratteristica importante delle comunità Open Peer-to-Peer è di come esse suddividano l'attività fra i propri partecipanti, soprattutto in ragione del fatto che pochi di questi si conoscono e possono quindi sapere chi sa fare meglio cosa, o più generalmente chi dispone delle risorse più adatte per un determinato compito. Sono due le caratteristiche fondamentali che garantiscono una divisione del lavoro sostenibile da parte di partecipanti che non si conoscono, e potenzialmente di un loro numero elevato. La prima riguarda l'istituzione di ruoli "relativamente standardizzati" e "modificabili", nel senso che ogni comunità basa la propria attività su ruoli in minima misura predefiniti e descritti nei minimi termini (ossia minimamente standardizzati), di modo che qualsiasi partecipante, anche un nuovo membro senza esperienza, possa capire come agire e quindi farlo autonomamente. La partecipazione poi in questi ruoli è libero e viene portata avanti in maniera autonoma da ogni partecipante, secondo le proprie capacità e disponibilità: in questo senso i ruoli sono "modificabili", nel senso che ogni partecipante svolgerà sì il ruolo come viene richiesto dalla comunità, ma lo farà in maniera del tutto personale. Come detto prima, le comunità Open Peer-to-Peer sono un ottimo esempio dell'attuale processo di individualizzazione e attivazione: in questo senso valorizzano l'autonomia personale e la diversità. I ruoli presenti nelle comunità analizzate differiscono da caso a caso. Infatti i ruoli derivano da una divisione del lavoro della comunità, e quindi sono legati al tipo di attività che la comunità porta avanti. Comprendere i ruoli di una comunità di software Open Source può permettere di capire come venga divisa l'attività della comunità, e anche se in altri campi di applicazione questi cambino, alcune caratteristiche rimangono simili. Nell'ambito del software Open Source sono molto importanti quei ruoli addetti al controllo del codice 59 http://en.wikipedia.org/wiki/Code_fork
(reader), alla segnalazione degli errori (bug reporter) e alla loro riparazione (bug fixer). Da alcuni casi non appartenenti al software (Grameen Bank, Open Health, BBC Action Network), si può invece notare alcuni ruoli, non presenti nelle comunità software, invece costanti nel caso sia molto importante la dimensione locale della comunità. Questi ruoli sono principalmente due: agenti e mentori. Gli agenti agiscono da intermediari, soprattutto quando non sono utilizzabili artefatti high tech; i mentori invece sono persone, con una lunga esperienze di partecipazione nell'attività della comunità, il cui ruolo è condividere le proprie conoscenze ed esperienze con i membri più recenti. La seconda caratteristica riguarda l'auto-selezione dei partecipanti rispetto alla partecipazione prima e al tipo di ruolo poi. Una comunità Open Peer-toPeer presenta dei ruoli da svolgere, ma saranno i partecipanti che decideranno se e come partecipare, in base alle proprie conoscenze. fornisce una spiegazione della Benkler60 sostenibilità economica dei processi di autoselezione per il rivestimento dei ruoli, all'interno di una comunità di ampie dimensioni, basate sulla produzione collaborativa di informazion. Bisogna ricordare che Benkler considera queste comunità come una forma di organizzazione differente dai mercati e dalle gerarchie, una forma di organizzazione che denomina peer production. La sua ipotesi centrale è che il capitale intellettuale dei partecipanti è estremamente variabile e difficilmente individuabile. Le persone hanno differenti conoscenze, capacità, storie, culture e motivazioni che influenzano profondamente il loro modo di lavorare e relazionarsi con altri partecipanti. La creatività è quindi molto difficile da standardizzare e specificare. Mentre una approssimazione può essere fatta nei mercati o nelle imprese attraverso titoli di studio, referenze, ecc. in una grande comunità di persone in continua evoluzione, caratterizzata quindi da una costante incertezza, è difficile riuscire a controllare queste caratteristiche. Quando poi ci si ricorda che queste caratteristiche sono fondamentali nella produzione di conoscenza e quindi partecipazione all'attività della comunità, allora si comprende l'importanza dei processi con cui vengono assegnati i ruoli. Un modello di produzione distribuita di informazioni permette una migliore identificazione dei partecipanti con le caratteristiche adatte per ricoprire un determinato ruolo in un determinato intervallo temporale. Le continue interazioni e comunicazioni tra i vari partecipanti li porta ad una conoscenza reciproca e quindi alla capacità di comprendere se le proprie capacità sono quelle richieste per un determinato ruolo oppure sono quelle di un altro partecipante. Sebbene sia i mercati che le imprese incentivino processi di auto-selezione, spesso la loro rigidità non porta ad un utilizzo ottimale di questi processi. Ovviamente, processi di auto-selezione non sono 60 Benkler (2002) 173
mai accurati e vi possono essere degli errori di comprensione. È questa l'importanza dei processi di peer review, ovvero di revisione tra gli utenti. Le possibilità sono due: processi di peer review per la conferma dei ruoli (come Slashdot, Kuro5hin) oppure l'utilizzo di molti partecipanti per una sola azione, che comporta una ridondanza dei risultati e una loro analisi statistica (come in NASA Mars Clickworkers). Sebbene l'utilizzo di più partecipanti per una stessa azione possa essere considerata una forma di gestione non ottimale delle risorse umane, questa pratica è invece utile nella gestione di comunità di ampie dimensioni per favorire uno sviluppo dell'attività senza dover applicare uno stretto controllo sulle azioni. Dato che la maggior parte dei partecipanti contribuisce alla comunità nel proprio tempo libero, queste sono quindi risorse umane che altrimenti non sarebbero state utilizzate in progetti collettivi. Secondo, e probabilmente più importante, la ridondanza fornisce valori importanti in termini di robustezza e innovatività di un sistema. Essendo impegnate differenti persone nella produzione dello stesso modulo, il sistema produttivo ne guadagna in robustezza contro errori occasionali, e in un numero maggiore di differenti approcci creativi per affrontare uno stesso problema. In questo modo si assisterà ad un modello di sviluppo delle innovazioni di tipo evoluzionista dove differenti alternative vengono presentate e selezionate dai partecipanti, come anche Kuwabara aveva segnalato precedentemente. Questi meccanismi riducono l'incertezza associata con la probabile presenza di azioni incorrette o direttamente volte alla sabotazione. La presenza dei fraintendimenti che i partecipanti hanno delle proprie abilità e il costo correlato di eliminazione di questi fraintendimenti fanno parte dei costi di transazione associati con questo particolare tipo di organizzazione, simili a quelli associati al controllo della qualità nei mercati e nelle imprese. Per Benkler l'auto-selezione dei ruoli (che vede abbinata alla suddivisione dell'attività in moduli caratterizzati da dimensioni limitate) è più vantaggiosa delle normali forme di organizzazione del mercato e delle imprese, quando il numero dei partecipanti è elevato, cosa assai frequente nelle comunità Open Peer-to-Peer. I modelli organizzativi del mercato e delle imprese si basano sulla proprietà di un insieme ben definito e delimitato di risorse che vengono messe a disposizione ad un numero ben definito di agenti che svolgono progetti ben definiti. In altre parole, tutte le attività, le risorse e il numero dei partecipanti sono fissi e predeterminati, senza possibilità di variazione. Al contrario, una organizzazione di peer production mette a disposizione un numero non definito di risorse ad un numero non definito di partecipanti, che possono sviluppare un numero di progetti alternativi non definito a priori. La variabilità delle caratteristiche individuali suggerisce a Benkler che ogni risorsa possa essere utilizzata più o meno produttivamente da ogni partecipante e la produttività generale della comunità aumenterà con l'aumentare del numero di risorse e di 174
partecipanti fino a giungere ad un insieme totalmente aperto in cui tutte le risorse sono disponibili a tutti i partecipanti. Anche se in una gerarchia il vertice può possedere le informazioni necessarie per affidare un compito o un ruolo predefinito ad un determinato agente in una attività predefinita, in una comunità Open Peer-to-Peer i costi di transazione necessari per mettere in contatto quel determinato agente con quella determinata risorsa possono essere troppo onerosi se comparati rispetto al guadagno che si otterrebbe se il partecipante più vicino a quella risorsa, anche se non il più adatto, la utilizzasse. La forma di organizzazione tipica delle comunità Open Peer-to-Peer è quindi adatta in quei contesti caratterizzati da un'alta incertezza e variabilità nel tempo: sono i partecipanti ad auto-organizzarsi nell'utilizzo delle risorse e nello svolgimento dei compiti, senza una direzione dall'alto (gerarchica) ma seguendo consigli basati sulla reputazione. Non è un caso che Eric Raymond descriva la organizzazione tipica dei progetti Open Source come un bazaar, se paragonata a quella delle tradizionali imprese, che vede come l'organizzazione tipica della progettazione e costruzione di una cattedrale. Nel suo saggio The Cathedral and the Bazaar61 ('La Cattedrale e il Bazaar') egli infatti descrive la nascita di Linux contrapponendo i due modelli organizzativi, in una metafora che, seppur criticata, ha avuto molto successo, divenendo una sorta di Manifesto per il movimento Open Source. Ad ogni modo, rappresenta l'inizio della comprensione dei meccanismi del software Open Source ed è molto importante perché, nonostante Raymond sia un hacker, egli si rende conto che Linux non rappresenta una innovazione tecnologica ma sociologica. Per Raymond la cattedrale viene costruita con un progetto a priori, monolitico, di tipo top-down, mente il bazaar è caratterizzato dalla mancanza di un progetto a priori, dal rumore causato dalla partecipazione di un numero elevato di persone, ognuna che segue un percorso differente. Mentre la cattedrale rappresenta un progetto chiuso, ossia non accessibile, il bazaar rappresenta la massima apertura, in cui gli utenti vengono trattati come coprogettisti da Linus Torvalds. Nel modello del bazaar, infatti, l'ideazione è aperta a tutti, e fin dall'inizio le idee sono messe a disposizione per essere testate dagli altri. La molteplicità dei punti di vista è importante: quando le idee vengono ampiamente diffuse in fase iniziale, possono sempre beneficiare di aggiunte esterne e di critiche da parte degli altri, mentre quando una cattedrale viene presentata nella sua forma definitiva le sue fondamenta non possono essere più cambiate. Nel modello a Cattedrale il programma viene realizzato da un numero limitato di "esperti" che provvedono a scrivere il codice in quasi totale isolamento. Il progetto ha una suddivisione gerarchica molto stretta e ogni sviluppatore si preoccupa della sua piccola parte di codice. 61 Raymond (1998)
Le revisioni si susseguono con relativa lentezza e gli sviluppatori cercano di rilasciare programma il più possibile completi e senza bug. Nel modello a Bazaar il codice sorgente della revisione in sviluppo è disponibile liberamente, sin dall'inizio (anzì, questa disponibilità è un prerequisito), gli utenti possono interagire con gli sviluppatori e se ne hanno le capacità possono modificare e integrare il codice. Lo sviluppo e decentralizzato e non esiste una rigida suddivisione dei compiti un programmatore di buona volontà può modificare e integrare qualsiasi parte del codice.
può essere di tre tipi63: Exploration-Oriented (orientata alla sperimentazione), Utility-Oriented (orientata alla produzione di software pronto da utilizzare), Service-Oriented (orientata ai servizi). •
In sostanza lo sviluppo è molto più anarchico e libero, da qui il nome di modello a Bazaar. La tesi centrale di Raymond è che "Dato un numero sufficiente di occhi, tutti i bug vengono a galla". Questa affermazione viene chiamata da Raymond la "Legge di Linus" e ritenuta il motivo centrale del successo del progetto del kernel Linux. Prima dell'avvento di Linux si riteneva che ogni progetto di una certa complessità avesse bisogno di essere adeguatamente gestito e coordinato altrimenti si riteneva che il progetto sarebbe collassato sotto il peso di moltissime revisioni e modifiche prodotte da più persone e tra di loro incompatibili. Il progetto Linux invece riuscì a dimostrare che questo non accedeva e che anzi col crescere del numero di sviluppatori anche la qualità e l'affidabilità del software migliorava. Il modello a Cattedrale è un modello tipico delle aziende commerciali. Queste normalmente non rilasciano il codice sorgente e una nuova revisione del programma può richiedere anni mentre il modello a Bazaar è un modello che si è molto diffuso nell'ambiente del software libero dato che consente a ogni utente di essere un beta tester62 dei programmi. Lo stesso utente può modificare e integre il programma se lo desidera. Questo consente un rapporto stretto tra utilizzati e programmatori, un rapporto paritario che ben si adatta alla filosofia del software libero. Consente inoltre un attento controllo del codice in modo da eliminare rapidamente la maggior parte dei bug, cosa impossibile per un software prodotto con la modalità a Cattedrale dove solo un numero limitato di persone lavora sul codice. La modalità a cattedrale è la stessa metodologia di sviluppo che viene utilizzata dagli sviluppatori delle enciclopedie commerciali dove un numero limitato di esperti si preoccupa di compilare tutte le voci. La modalità a bazaar invece è quella utilizzata dalla Wikipedia dove ogni lettore se lo desidera può integrare e migliorare i contenuti e dove la verifica delle modifiche apportate al testo è gestita dagli stessi utenti. Ad ogni modo, una comunità di software Open Source (e quindi potenzialmente anche le comunità Open Peer-to-Peer), possono assumere differenti forme di organizzazione. In relazione ai propri obiettivi, una comunità di software Open Source 62 Chi prova un software alla ricerca di errori, prima che questo venga immesso sul mercato
•
•
Exploration-Oriented (ad es. Software GNU): questo tipo di comunità si pone l'obiettivo di spostare in avanti lo stato dell'arte della programmazione software, sperimentando nuove applicazioni e metodologie attraverso la condivisione di conoscenze e la collaborazione tra partecipanti. È quindi molto simile alla cultura del mondo accademico e scientifico, e il codice rappresenta quindi il risultato delle ricerche. La qualità del codice sorgente è quindi molto elevata, e spesso si ha la presenza di Leader esperti che mantengono uno stretto controllo sul progetto affinché raggiunga gli obiettivi prestabiliti. I contributi dei partecipanti vengono inclusi solo se sono attinenti alle caratteristiche e regole del progetto. La organizzazione di questo tipo di comunità è quindi molto più simile a quella "a cattedrale", e il suo successo dipende fortemente dalla visione del leader. Ad ogni modo, se la comunità è convinta della necessità di un cambiamento di direzione que il leader non vuole intraprendere, si può avere una scissione e la creazione di un'altra comunità di progetto (forking); Utility-Oriented (ad es. Linux): questo tipo di comunità si pone l'obiettivo di colmare un a carenza di programmi che permettono una determinata funzionalità. La maggior parte di queste comunità sono nate per l'esigenza di creare un determinato programma non esistente. L'obiettivo è quindi non di utilizzare il codice sorgente come una ricerca scientifica, ma come uno strumento pratico, e questa scelta comporta una grande importanza della rapidità di sviluppo. Questo tipo di organizzazione è l'esempio migliore di "bazaar" e mancanza di centralizzazione del controllo. Anche per questo fatto si assiste ad un alto numero di scissioni e formazioni di nuove comunità, dato che le esigenze pratiche possono essere molto differenti fra i vari utenti e a volte anche in contrasto fra loro; Service-Oriented (ad es. Server Apache): l'obiettivo di queste comunità è quello di fornire servizi affidabili a tutte gli stakeholder del mondo del software Open Source, e cioè i membri delle comunità di software Open Source e gli utenti finali dei software sviluppati. Dato che il numero degli stakeholder è molto più ampio del numero dei membri delle comunità di software, qualsiasi cambiamento deve essere valutato attentamente in modo da non generare effetti indesiderati per alcuni stakeholder. Questo tipo di comunità è
63 Nakakoji, Yamamoto, Nishinaka, Kishida, Ye (2002) 175
quindi molto conservatore, ma con una organizzazione né "a cattedrale" né "a bazaar". Sebbene l'organizzazione "a cattedrale" permetta un forte controllo centrale sul progetto da parte del Leader, le sue visioni non rispecchiano necessariamente quelle di tutti gli stakeholder coinvolti; il tipo di organizzazione "a bazaar" incoraggia troppi cambiamenti rapidi, che potrebbero portare a effetti indesiderati per alcune categorie di stakeholder se non considerati attentamente. Per questo motivo le comunità service-oriented hanno una propria organizzazione tipica dove un nucleo centrale di membri controlla la direzione che prende lo sviluppo del progetto e non vi è un Leader. Qualsiasi cambiamento viene accettato dopo una votazione a maggioranza tra i membri del nucleo centrale: una organizzazione a Consiglio (Council). Sebbene questa forma di organizzazione porti a una centralizzazione del controllo, questo non è mai assunto da una sola persona e gli stessi membri del nucleo centrale non sono fissi ma cambiano secondo un criterio meritocratico. È importante considerare questi tipi di comunità perchè portano a forme di evoluzione e organizzazione differenti, e una comunità può, lungo la sua vita, evolvere e cambiare l'obiettivo. Ad esempio una comunità exploration-oriented puà divenire una comunità service-oriented semplicemente perchè il leader ha smarrito la capacità di elaborare una visione di successo o perchè il progetto è diventato troppo complesso per poter essere controllato da una sola persona. Comunità utility-oriented possono trasformarsi in comunità service-oriented quando i progettisti di funzioni in competizione formano un gruppo per lo sviluppo di un progetto che soddisfi tutte le necessità. Sebbene tutti i progetti di software Open Source non partano da zero ma da un programma esistente, questa necessità si fa sentire in modo maggiore in una comunità service-oriented, dove i partecipanti devono essere motivati maggiormente. Le comunità exploration-oriented e utility-oriented possono avere una rapida evoluzione, trasformandosi in una comunità service-oriented, arrivando a una fase di crescita lenta ma stabile. Una evoluzione rapida puè accadere con l'apparire di nuove esigenze che il progetto deve soddisfare, ridando luogo a comunità utility-oriented o exploration-oriented. Raggiunto un grado di soddisfazione delle esigenze, la trasformazione in comunità service-oriented può garantire una stabilità del programma, ma il percorso può essere ancora seguito in fasi cicliche.
176
Fig. 55: Evoluzione delle comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002)
tipo
obiettivo
organizzazi one
evoluzione del progetto
struttura della comunità
punti critici
esempi
exploratio nOriented
condvisione delle conoscenze delle innovazioni
controllo centrale "a cattedrale"
un progetto singolo con una consultazione della comunità
leader e molti lettori del codice
soggetta a scissioni
GNU , Jun Perl
controllo decentralizz ato "a bazaar"
versioni multiple dello stesso progetto coesistono e sono in concorrenza reciproca
molti partecipanti periferici e inattivi
difficoltà nella scelta della direzione del progetto
membri del nucleo centrale al posto di un Leader, molti partecipanti inattivi
minor grado di innovazio ne
utilityOriented
serviceOriented
soddisfare esigenze personali
fornire servizi affidabili
controllo centrale "a Consiglio"
un progetto singolo dove le modifiche vengono apportate dopo uno stretto controllo
Linux (escludend o il kernel, sviluppato in comunità exploration -oriented)
Apache server
Tabella 8: Tipi di comunità Open Source (Fonte: Nakakoji, Yamamoto, Nishinaka, Kishida, Ye 2002) 177
Solar Roof attività
BBC Action Network
progettare e produrre componenti architettonici fornire strumenti ed informazioni per affinché sostenibili, costruendo reti fra partecipanti, centri possano essere svolte campagne di pressione locali di promozione situati in università ed imprese pubblica da parte dei cittadini per migliorare le condizioni locali
soggetto designer, architetti, ingegneri ed imprese interessati alla sostenibilità
BBC, cittadini che desiderano risolvere alcuni problemi locali, istituzioni
oggetto
progetto di componenti architettonici sostenibili
informazioni necessarie per l'organizzazione di campagne di pressione
risultato
sviluppare e diffondere componenti architettonici permettere ai cittadini che lo desiderano la sostenibili in modo da migliorare le condizioni locali organizzazione di campagne di pressione pubblica e quindi diffondere pratiche sostenibili per sensibilizzare la società su problemi locali
artefatti
sito web (wiki, informazioni)
sito web (informazioni, spazio personale ad ogni utente, motore di ricerca di altri utenti)
condivisione delle informazioni, riconoscimento della paternità dei progetti, contribuire ad enti non profit
non svolgere campagne politiche o commerciali, non insultare
regole
comunità progettisti, imprese, cittadini, università, istituzioni
cittadini britannici, istituzioni
divisione progettisti, produttori, agenti locali (in centri locali), gestione del sito web, coordinatore di campagne, del gestione del sito web organizzatore di gruppo, responsabile delle lavoro pubbliche relazioni, coordinazione dei nuovi membri, tesoriere, mentore livelli di reputazio ne
•
leader: Richard Nelson
•
nucleo centrale: BBC
•
nucleo centrale: pioneers
•
•
membri attivi: progettisti ed imprese che partecipano attivamente
membri attivi: cittadini che cercano di organizzare campagne
•
membri periferici: cittadini che sono alla ricerca di campagne cui aderire
•
membri periferici: compratori e distributori dei componenti architettonici sviluppati
Tabella 9: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Solar Roof e BBC Action Network
178
Neubauten.org attività
comporre, registrare, distribuire, eseguire esecuzioni musicali
Terra Madre costruire una rete fra tutti gli attori delle comunità del cibo
soggetto Einstürzende Neubauten, supporters, webmaster, tecnici
produttori, trasformatori, distributori, ristoratori, consumatori di alimenti (la comunità del cibo), università, agenti Slow Food
oggetto
composizioni, registrazioni audio-video
prodotti alimentari e informazioni correlate
risultato
gli Einstürzende Neubauten riescono a realizzare e distribuire registrazioni musicali a livello professionale senza la intermediazione di etichette discografiche, con un ritorno economico sufficiente
le comunità del cibo riescono a produrre e distribuire alimenti con qualità (del prodotto e del contesto locale) in maniera sostenibile (ambientale, economica, sociale)
artefatti
sito web (chat, webcast, forum), concerti
artefatti per la produzione, distribuzione e consumo dei beni alimentari, lingue differenti, mezzi di comunicazione, sito web, ecc.
pagamento di una quota per entrare nel ruolo di supporter, non distribuire gratuitamente le registrazioni ricevute
regole varie relative alla produzione (ad es. relative alla agricoltura biologica), alla trasformazione (ad es. divieto di utilizzo di additivi), alla distribuzione (ad es. gestire scambi equi), valorizzare la diversità (biologica e culturale), ecc.
regole
comunità ascoltatori di musica, mercato discografico
produttori e distributori di alimenti, consumatori
divisione gestione del sito web, gestione dei concerti, gruppo produttori, distributori, trasformatori, ristoratori, del musicale, sound engineer, tesoriere, ascoltatore venditori, consumatori, università, agenti Slow Food lavoro livelli di reputazio ne
•
leader: Einstürzende Neubauten
•
leader: Carlo Petrini
•
nucleo centrale: webmaster, tecnici
•
nucleo centrale: Slow Food
•
membri attivi: supporter attivi in discussioni collettive, organizzazioni di progetti collaterali,
•
membri attivi: membri attivi nella produzione e distribuzione di beni alimentari e informazioni correlate
•
membri inattivi: supporter periferici
•
membri inattivi: membri che si limitano ad acquistare i prodotti delle comunità del cibo
Tabella 10: Comunità Open Peer-to-Peer descritte con i Sistemi di Attività e i livelli di reputazione: Neubauten.org e Terra Madre
179
180
seconda parte: facilitazione dell'auto-organizzazione Open Peer-to-Peer
181
182
1. Il design per facilitare l'emergenza delle reti collaborative
1.1. Design e creatività distribuita Il concetto di creatività rimanda alla capacità di produrre idee o cose nuove, oppure, in un'ottica più limitata forse ma più corretta, alla capacità di trovare nuove relazioni tra le idee e le cose e di trovare nuovi modi per esprimerle. Il carattere di novità, di allontanamento da schemi e modi tradizionali, è in ogni caso il tratto distintivo del prodotto che consegue al processo creativo. In psicologia, il modo più corretto per affrontare il problema della creatività è quello di considerarla come una componente del pensiero: parlando quindi, più precisamente, di pensiero creativo, ed intendendo con questo termine una particolare modalità con cui il pensiero procede rispetto ad altre modalità nell'opera di risoluzione di problemi (problem solving)1. Che vi sia un legame tra creatività e design è un concetto estremamente diffuso e la cui trattazione richiede un differente contesto per l'ampiezza del tema. Si può considerare un esempio classico di come la creatività sia importante per il design. Per Bruno Munari2 la creatività è una caratteristica discriminante tra arte e design, tra artista e designer: il primo opera con la fantasia, il secondo con la creatività. Per Munari "la fantasia è una facoltà dello spirito capace di inventare immagini mentali diverse dalla realtà nei particolari o nell'insieme; immagini che possono anche essere irrealizzabili praticamente", mentre la creatività è "una capacità produttiva dove fantasia e ragione sono collegate per cui il risultato che si ottiene è sempre realizzabile praticamente"3. Per Munari "con la creatività il designer, dopo aver analizzato il problema da risolvere, cerca una sintesi tra i dati ricavati dalle varie componenti per trovare una soluzione ottimale inedita, dove ogni singola soluzione sia fusa con le altre secondo il modo che si ritiene migliore per giungere ad un equilibrio totale4. La creatività riveste quindi un ruolo importante nell'attività di design, e quindi non è conveniente disinteressarsi dei casi di creatività distribuita, di cui è stata riconosciuta la capacità di affrontare problemi complessi e di proporre approcci progettuali alternativi. Sebbene il design sia naturalmente portato ad interessarsi di creatività, il fenomeno dei casi di creatività distribuita lo portano a considerare un fatto nuovo: non è più la sola fonte di creatività. Riconoscere 1 2
capacità
creative
(e
progettuali)
Aa vv (1988), Grande dizionario enciclopedico, UTET, Torino Munari, (1971) p..87
all'esterno della propria disciplina porta il design ad una ridefinizione, che lo mette in grado di creare reti collaborative basate sulla creatività. Reti che, per avere successo, devono essere aperte alla partecipazione (Open) e considerare tutti gli attori ad un livello paritario (Peer-to-Peer), dove quindi le loro capacità e conoscenza sono legittimate nella collaborazione, a prescindere da riconoscimenti istituzionali (quali lauree, diplomi, ecc.). La costruzione di reti collaborative basate sulla creatività permette la generazione di processi progettuali dove conoscenze e capacità vengono condivise, con il risultato di ottenere una velocità maggiore. La condivisione di conoscenze e capacità permette infatti a tutti gli attori di non dover "reinventare la ruota" (reinventing the wheel)5, ossia di non dover sprecare tempo e risorse su progetti già risolti da altri. Un esempio dell'importanza di costruzione di reti collaborative basate sulla creatività è dato dal rapporto design-sostenibilità. Il design si sta confrontando con il tema della sostenibilità da tempo. Infatti, se si descrive la transizione verso la sostenibilità ambientale come un grande processo di de-materializzazione dei processi produttivi e di consumo, si comprende come il design possa avere un ruolo attivo in questo processo, di cui è uno dei protagonisti. Dato un risultato, quindi, occorre ridurre al massimo le quantità di materia ed energia necessarie per raggiungerlo. In questo ambito si parla dunque di ecodesign: dati i prodotti esistenti sul mercato, occorre organizzarne il processo produttivo nel modo più eco-efficiente, riducendo al massimo il consumo di risorse ambientali (materiali ed energetiche) legate alla sua produzione ed al suo impiego. Nel recente passato su questo terreno, il terreno dell’eco-efficienza di prodotto, è stato fatto molto ed i prodotti di oggi sono in generale assai più eco-efficienti di quelli di 20-30 anni fa. Considerando i singoli prodotti, dunque, si può dire che si sia effettivamente raggiunto il disaccoppiamento tra valore generato e risorse ambientali consumate. Questa strategia ha però mostrato rapidamente i suoi limiti. Infatti, se pure il peso ambientale dei singoli prodotti è diminuito, il consumo complessivo di risorse ambientali dei paesi industrializzati continua a salire. La crescita della quantità dei prodotti messi sul mercato è stata molto maggiore di quella della loro eco-efficienza individuale: si sono prodotti beni più eco-efficienti 3 4 5
Idem Ibidem p.97 http://en.wikipedia.org/wiki/Reinventing_the_wheel 183
ma se ne sono prodotti molti, molti di più di prima. L’eco-efficienza di prodotto è stata una condizione necessaria ma non sufficiente per fare dei passi concreti verso al sostenibilità. Si è pensato quindi di non considerare più solamente l’eco-efficienza dei singoli prodotti, ma di spostare l’attenzione su sistemi più ampi di prodotti e servizi. E questo nella convinzione che, ottimizzando in termini ambientali non solo i singoli prodotti, ma degli insiemi di prodotti, servizi e processi produttivi, fosse possibile ottenere gradi più elevati di ecoefficienza, a livello di sistema. Tuttavia, il procedere verso l’economia dell’informazione e dei servizi, così come oggi sta avvenendo, non sta affatto portando a ridurre i consumi totali di materiali, di energia e di risorse ambientali in generale. E’ vero infatti che informazione e servizi, in quanto tali, sono entità immateriali, ma ciò che serve per erogarli non lo sono affatto. Inoltre spesso l'accesso ai servizi non sostituisce il consumo dei prodotti. Si ha avuto anche qui un caso di rebound effect: l’effetto boomerang per cui il risultato effettivo di iniziative che apparivano virtuose per l’ambiente in realtà prova di essere nocivo. Come la de-materializzazione dei prodotti ha portato alla produzione di una maggiore quantità di prodotti, anche la fornitura di servizi al posto di prodotti ha portato ad un aumento spropositato della loro offerta. Il passaggio verso un’economa dell’informazione e dei servizi, effettuato con i modi di pensare correnti tende a rendere ancora più pesante l’impronta ecologica delle nostre attività. Per effettuare il passaggio verso un’economia dell’informazione e dei servizi riducendo il rischio dell’effetto boomerang, occorre prendere in considerazione non solo i singoli prodotti che si miniaturizzano e/o i singoli servizi che si virtualizzano, ma dei sistemi socio-tecnici più ampi in cui sia possibile provare a prevedere il gioco delle reciproche influenze tra innovazione tecnica e cambiamenti culturali e comportamentali. La questione della praticabilità dell’approccio sistemico rimanda, secondo Manzini6 a quella della costruzione di partnership orientate ad un risultato, e la generazione di nuove visioni sul benessere. Affinché le tematiche della sostenibilità non siano percepite come parte del problema, ma come parte della soluzione del problema occorre guardare in modo diverso la società, i temi che in essa emergono, i modi per affrontarli, tenendo conto delle motivazioni dei diversi attori sociali implicati. Tutto questo pone le imprese nella necessità di operare in forme nuove, costruendo dei sistemi di partnership confrontandosi non solo con le potenzialità dell’innovazione tecnica ma anche con quelle dell’innovazione sociale. È necessaria inoltre l'elaborazione di nuovi concetti di benessere, dato che quelli attuali basati sulla proprietà di prodotti o sull'accesso di servizi, così come formulati ora, sono insostenibili. Nuovi concetti di benessere possono modificare il comportamento delle persone, senza che queste percepiscano la tematica della sostenibilità come una privazione, ma anzi come un aumento di benessere. La sostenibilità quindi come un 6
Manzini (2006a)
184
obiettivo auspicabile e non solo necessario. Un nuovo concetto di benessere basato sulla qualità del contesto di vita e basato su soluzioni con un potenziale di de-materializzazione e di rigenerazione. In questo contesto, si comprende l'importanza per quei casi di creatività distribuita che Manzini chiama comunità creative, che rappresentano una discontinuità nei confronti del sistema attuale. Questi casi mostrano che, fin da ora, è possibile fare dei passi verso la sostenibilità. Inoltre, anticipando esempi concreti di quello che potrebbe essere “normale” in una società sostenibile, alimentano la conversazione sociale e la generazione di visoni condivise su questo tema. In questo modo esprimono, in modo esplicito o implicito, delle domande di prodotti e di servizi, inedite possibilità di mercato nello sviluppo di soluzioni sostenibili. Possono quindi essere lo stimolo per delle innovazioni sistemiche ed il banco di prova per lo sviluppo di una nuova generazione di prodotti e servizi. In questo modo, pongono anche un’altra domanda, più profonda e di lungo periodo, relativa ad un più generale riorientamento del sistema produttivo e di consumo. È quindi chiaro come il design si stia interessando alle comunità creative, in quanto possono rappresentare esperimenti per lo sviluppo e la diffusione di prodotti e servizi più sostenibili in un più ampio processo di apprendimento sociale. Il caso delle comunità creative e delle ricerche che il mondo del design sta svolgendo su di esse7 sono un esempio di come il design possa interessarsi a comunità che rappresentano un fenomeno di creatività distribuita. Rappresentando una richiesta di nuovi prodotti e servizi, chiedono interventi progettuali mirati. In questo modo il design passa dal considerare esclusivamente un attore (l'impresa o l'utente) a considerare anche un insieme di attori che costituiscono una comunità (quindi una rete orizzontale di attori). Inoltre, le forme di organizzazione sviluppate dalle comunità Open Peer-to-Peer vengono viste come un'opportunità di incontro con i comportamenti sostenibile sviluppati dalle comunità creative. Sono questi due mondi che si sono sviluppati senza molti contatti, ma la cui collaborazione Manzini vede come promettente per il futuro, in grado di rinforzasi a vicenda e porre le basi per una società multi-locale8. Se si prende come definizione di creatività quella data da Henri Poincaré nel 1929, "Creatività è unire elementi esistenti con connessioni nuove, che siano utili"9, un intervento di design in grado di unire, in reti collaborative, persone che condividono una stessa motivazione e desiderio di attivarsi per soddisfarla, è quindi un esempio di creatività.
7 8 9
EMUDE, si veda http://www.sustainable-everyday.net Manzini (2006b) cit. in http://it.wikipedia.org/wiki/Creativit%C3%A0
1.2. Open Peer-to-Peer come opportunità di incontro tra design e sviluppo locale Mentre la relazione tra design e creatività è ampiamente riconosciuta, la relazione del design con la dimensione territoriale è invece un punto controverso, sviluppato solo recentemente. Tradizionalmente, infatti, il design (soprattutto l'industrial design) si è occupato di artefatti slegati dalla dimensione locale: ne sono indirettamente una espressione, ma non se ne interessano direttamente. Certamente l'operato dei designer risulta influenzato dalla propria appartenenza ad una particolare cultura locale10, ma è sempre mancata una consapevolezza di un approccio progettuale direttamente rivolto alle condizioni locali. Un progetto, insomma, capace di influenzare la condizione locale, ad una dimensione più ampia del semplice contesto d'uso di un prodotto. Per il design di prodotti infatti l'interesse per una dimensione locale si limita al contesto d'uso da parte dell'utente, che si immagina come uguale per tutte le regioni del mercato in cui viene inserito. Eliminando le condizioni specifiche locali, un prodotto può essere distribuito (venduto) in un'area geografica più ampia. Questa tendenza del design alla riduzione della varianza della dimensione locale deriva da molti fattori. Innanzitutto, il focus centrato su un singolo prodotto influenza la prospettiva di visione, dato che l'attenzione riguarderà sempre una dimensione a livello micro. Inoltre, nascendo con la Rivoluzione Industriale, ne assume i caratteri di rottura con la tradizione e le comunità locali, che subiscono un cambiamento radicale a causa dell'inurbazione in massa. Non è un caso, quindi, che il movimento Arts and Crafts, critico rispetto alla Rivoluzione Industriale, riproponga un forte legame con la tradizione artigianale locale. Considerando poi come la modernità abbia attuato una sistematica riduzione della complessità per poter espandere e sviluppare mercati e produzioni, si comprende l'ulteriore astrazione che caratterizza il design nella prima parte del Novecento. La grande serie diventa la dimensione ideale del design, che realizza prodotti standard, progettati per un ipotetico uomo medio, esportabili in tutto il mondo. In questo periodo, quindi, l'interesse del design per la diversità sia locale che umana si trova al limite storico, e la rottura con elementi della tradizione sarà meno intensa in quei paesi in cui l'industrializzazione è avvenuta con ritardo e minore impatto, permettendo la sopravvivenza di competenze artigianali. Un esempio è dato dai paesi scandinavi, dove il legno ha continuato ad essere l'elemento tradizionale utilizzato nella produzione di oggetti e dove si ha assistito ad una maggiore collaborazione designer-artigiani11. 10 Come sostiene Vandana Shiva, tutte le culture sono locali in quanto generate in uno specifico contesto locale caratterizzato da specifici valori e tradizioni locali 11 De Fusco (1985)
Dalla nascita dell'industrial design fino alla fine del fordismo, dunque, il disegno industriale ha avuto poca considerazione per la dimensione locale, se non un debole legame con le tradizioni artigianali; resta tuttavia il fatto che un intervento progettuale di design che riguardi la dimensione locale non sia stato preso in considerazione. Ma con il postfordismo ritorna un interesse verso la dimensione locale, che si riflette anche nel design. Un primo riconoscimento che il design può avere una influenza sulla dimensione locale viene dal successo dei distretti industriali e dal loro legame con il design. Soprattutto in Italia, dove il fenomeno ha assunto la sua forma più completa, e dove il legame con il design italiano ha costituito forme di sinergia che hanno portato a successi commerciali in tutto il mondo. Ad un livello più profondo il design è infatti una espressione delle caratteristiche locali (conoscenze, abilità, risorse fisiche) ma di cui non si interessa e che influenza solo indirettamente. L'unica dimensione locale è sempre stata quella del mercato di distribuzione o produzione: il design è quindi un vantaggio competitivo da esportazione (ad esempio, si pensi alla fama del "design italiano", o del "Made in Italy"). Ma questa importanza come vantaggio competitivo ha portato al riconoscimento di carattere sistemico dell'azione del design all'interno del contesto sociale ed economico del paese. Il sistema nazionale del design si regge attorno al sistema di competenze storicamente sedimentate entro quelle forme di organizzazione produttiva territoriale che hanno caratterizzato lo sviluppo e il consolidamento del sistema economico. La pratica del design è diffusa all'interno del territorio italiano in giacimenti di competenze (competenze, conoscenze e capacità sedimentate nel tempo sul territorio). Sono queste quindi delle considerazioni recenti che riconoscono una importanza del disegno industriale come influenza dello sviluppo di determinate aree geografiche, in base alla sua capacità di fornire un vantaggio competitivo ad attività economiche. Ma il design comincia ad essere utilizzato per influenzare la dimensione locale nei decenni '80 e '90, attraverso programmi di marketing urbano e di city corporate identity. Qua, più che dal product design, il ruolo è assunto dal graphic design, che propone la comunicazione dell'identità urbana come veicolo per l'attrazione di capitali esterni. In questo caso l'identità diventa un bene da vendere: identity as a commodity. La dimensione locale viene quindi valorizzata attraverso la progettazione del suo brand, fino ad arrivare alla progettazione della dimensione locale come brand in sé12. Tuttavia questo approccio può essere altamente riduttivo o addirittura nocivo per la dimensione locale, che è molto più complessa e stratificata rispetto ad un normale prodotto da vendere, tradizionale tema progettuale del design (sia product che graphic). 12 Piccinno (2004) 185
Per assistere ad una riflessione ben articolata sul possibile ruolo del design per la dimensione locale bisogna attendere l'inizio del XXI secolo, con due programmi di ricerca, uno europeo (SPARK! DESIGN AND LOCALITY) e l'altro italiano (ME.Design), indirizzati a questo tema. Programmi di ricerca che non hanno esaurito l'interesse per la relazione design-dimensione locale, dato che un altro programma simile (DOTT) si trova in fase di preparazione. Esistono nuove e più proficue modalità di connessione tra design ed economie locali? Ci si trova di fronte alla necessità di rispondere a quesiti di grande attualità, in un momento in cui si assiste a rilevanti fenomeni di cambiamento delle forme di organizzazione sociale e territoriale della produzione (vedi ad esempio la profonda mutazione in atto nei distretti industriali); si apre dunque lo spazio, qualche anno fa totalmente insospettato, per un design generatore di competenze, strumenti, metodologie capaci di indicare nuove soluzioni possibili (e sostenibili) di sviluppo per le economie locali.
1.2.1. Spark!
difficoltà specifiche presenti oggi nelle comunità e municipalità locali. In collaborazione con le municipalità e con la partecipazione dei cittadini, il contenuto dei workshop ha enfatizzato il valore sociale, economico ed educativo della cultura, in particolare con l'arte e il design come nuove forme di espressione culturale per la new economy. Come risultati di queste sperimentazioni, emerge un cambiamento nelle caratteristiche del designer, che comincia a spostare la propria prospettiva da quella indirizzata solamente ad oggetti ed edifici, ad una più attenta verso flussi, ritmi, scambi, transazioni e connessioni. Più che progettare oggetti, comincia a progettare situazioni: attività, contesti, eventi ed incontri. Il tema di discussione non è più rivolto a prodotti, ma a come i concetti di ospitalità, convivialità e benessere possano declinarsi nelle differenti comunità locali. Un approccio progettuale aperto e collaborativo, che sperimenta con la storia, le conoscenze insite e situate in un certo contesto. Per John Thackara il servizio più importante che un designer o un artista possa fornire ad una comunità è lo stimolo necessario affinché questa cominci a sviluppare una visione condivisa del futuro13.
Il primo programma di ricerca, "SPARK! DESIGN AND LOCALITY", ideato nel settembre 2001 e terminato nel 2004 nel contesto dell'associazione Cumulus (European Associations of Universities and Colleges of Art, Design and Media), è un progetto basato sul principio di progettare per comunità (designing for communities). Invece di utilizzare l'approccio tradizionale di progettare prodotti per imprese, la progettazione per comunità (ossia insediamenti socio-economici di persone in una determinata area) riguarda la progettazione di servizi in situ. In questo progetto sono stati organizzati cinque workshop in cinque differenti località europee, al fine di promuovere un nuovo tipo di creatività nei designer enfatizzando il crescente ruolo della cultura nello sviluppo socioeconomico di comunità e municipalità locali. Questi cinque località (Forssa nel sud-ovest della Finlandia, Valdambra vicino ad Arezzo in Italia, Narva-Jõesuu nell'Estonia dell'est (sul confine russo), Cray Valley a sud-est di Londra nel Regno Unito e Nexø sull'isola di Bornholm in Danimarca) sono state proposte da altrettante cinque università di arte, architettura e design europee. Le università erano: • University of Art and Design, Helsinki; • Estonian Academy of Arts, Tallin; • Politecnico di Milano, Facoltà del Design; • Ravensbourne College of Design and Communication in Chislehurst, London; • Aarhus School of Architecture.
1.2.2. ME.Design
Nei cinque workshop, studenti provenienti da differenti università hanno esplorato e creato, assieme ai loro insegnanti, attraverso la combinazione delle loro esperienze professionali e della loro immaginazione, scenari che mostrano direzioni possibili che portino lontano dalle
Fino a quel momento ci si era posto il problema di analizzare il contributo che il design può dare al potenziamento della competitività delle imprese (valorizzando il prodotto, la comunicazione e il servizio); con ME.Design si è aperto un mondo
Più di 90 ricercatori della rete SDI | Sistema Design Italia, centinaia tra cittadini, amministrazioni locali, enti, associazioni ecc. e soprattutto un folto gruppo di giovani designer: questo è il bilancio di una ricerca, ME.Design, durata due anni, e che ha voluto, per la prima volta a livello nazionale, indagare il tema del design per lo sviluppo locale. La ricerca ha esplorato tale relazione a partire da contesti territoriali ben precisi, ovvero quelli che hanno una relazione sociale e culturale con il Mediterraneo; c'è stato poi un momento di sperimentazione concreta che ha riguardato, in particolare, territori individuati a livello nazionale. Il progetto di una ricerca sul design per l'area del Mediterraneo nasce dalla considerazione che i territori che si affacciano su questo mare sono stati a partire da epoche antichissime grandi serbatoi generatori di risorse progettuali di singolare qualità e unicità. In questo scenario il design rappresenta forse oggi una delle espressioni più aggiornate di questa particolare dimensione creativa, capace di rappresentare ed enfatizzare contenuti di qualità della vita, valori legati al patrimonio naturale, alle ricchezze artistiche, alla tradizione manifatturiera, al gusto. L'obiettivo principale della ricerca è stato quello di analizzare le potenzialità del design (sia in termini di capacità e strumenti, sia in termini di attività e specifiche) al servizio dello sviluppo locale.
13 Thackara (2004) p.19 186
quasi inesplorato che vede questa disciplina cimentarsi con il problema della valorizzazione delle risorse, materiali e immateriali, del territorio. La ricerca ME.Design ha messo a punto una action research specifica per il design, cioè un processo di azione-riflessione-verifica attraverso il quale premesse teoriche sono verificate e validate con una sperimentazione sul campo. A partire da una analisi della letteratura relativa alla ricerca-azione sviluppata in campi extra-disciplinari (quali la sociologia, la pedagogia, ecc.) sono stati realizzati approfondimenti mirati per capire ed individuare le specificità di un processo di ricerca-azione applicato al design. L'esito di queste azioni è stata la produzione di un "kit metodologico" proprietario della rete Sistema Design Italia che la comunità di ricercatori ha condiviso e utilizzato nella sperimentazione. In particolare ME.Design ha proposto di attivare la sperimentazione sul campo attraverso i workshop di progetto. Sono stati avviati sette workshop realizzati in altrettanti contesti territoriali a livello nazionale: Valdambra (AR), San Remo (IM), Mantova, Morcone (BN), Ustica (PA), Reggio Calabria, Napoli. I workshop sono stati svolti in contesti differenti tra loro per caratteristiche ambientali, per dimensione territoriale, per attori coinvolti, per la natura degli obiettivi da raggiungere. Le azioni legate al workshop hanno infatti obiettivi differenti in relazione alla natura del progetto: dalla creazione di reti di relazione, alla definizione di strategie di comunicazione, all'ideazione di prodotti e servizi per il territorio e alla loro definizione. Questi sette casi rappresentano un campione significativo di ambiti rispetto ai quali evidenziare un ruolo specifico del design come attivatore e potenziatore delle risorse disponibili a livello locale. In questi casi il design ha giocato un ruolo di attivatore e facilitatore per la creazione di servizi di ospitalità, la valorizzazione dell'identità urbana, la valorizzazione di beni culturali diffusi, il potenziamento di produzioni di artigianato artistico, la destagionalizzazione del turismo, la valorizzazione di produzioni tipiche, il rafforzamento di aree distrettuali. Se da un lato la ricerca ha portato a risultati di carattere teorico sul ruolo che il design ha o può avere nei progetti di valorizzazione dei contesti locali (il design mette in campo capabilities di natura strategica, organizzativa, comunicativa, ecc.) dall'altra sono stati raggiunti risultati concreti: la natura di questi risultati non è strettamente legata ai progetti realizzati nei workshop, ma alla crescita di consapevolezza, da parte degli attori del territorio, delle potenzialità di ognuno dei contesti locali e di come, attraverso un'azione di design, tali potenzialità possano essere espresse attraverso progetti concreti. Naturalmente la consapevolezza che il design, nelle sue molte espressioni contemporanee e nella sua grande estensione operativa, dal design del prodotto al design dei servizi, possa rappresentare un potente acceleratore per lo sviluppo dei contesti locali, deve ancora affermarsi in modo compiuto e raggiungere quegli enti e quelle istituzioni di
governo che localmente sono chiamati oggi a prendere determinate decisioni. Le esperienze che la ricerca "ME.Design" e la mostra succesiva "Medesign. Forme del mediterraneo" presentano, mostrano come sia possibile e sia proficuo che il design si occupi di sviluppo locale, configurandosi come disciplina attiva ed adeguata ad affrontare il compito dell'innovazione. È cresciuta quindi la consapevolezza dell'importanza dell'elemento territoriale, cruciale non solo quando si affronta il tema di un design al servizio di contesti produttivi maturi (singole imprese, distretti, sistemi di piccole e medie imprese) ma anche quando l'obiettivo è quello della valorizzazione di un sistema complesso di risorse umane, culturali, naturali, produttive, ecc., che di un territorio possono costituire i fattori prevalenti di sviluppo. Il valore dell'innovazione portata dal design può oggi, di fatto, essere un potente motore per rafforzare quei sistemi che fondano la loro crescita sulla disponibilità e la messa a sistema di risorse legate ai beni culturali, alle risorse agro-alimentari, al paesaggio, a forme di turismo sostenibile, all'artigianato, alla piccola impresa, ecc.
1.2.3. DOTT – Designs Of The Time L'interesse per una relazione più stretta tra design e dimensione locale non si è esaurita con i programmi di ricerca SPARK! e ME.Design. È ora in fase di preparazione DOTT (Designs Of The Time), un programma di 10 anni per la promozione del design a livello regionale nel Regno Unito, organizzato dal Design Council. Il punto centrale di questo programma è supportare ed incoraggiare il design come punto centrale del successo economico e sociale futuro del Regno Unito. Attraverso un approccio partecipatorio si promette di stimolare un cambiamento a lungo termine in ogni regione. Il programma non intende proporre soluzioni precostituite, ma di permettere alla popolazione di sviluppare le proprie visioni e i propri scenari che questa immagina per il proprio futuro. In questo modo i cittadini britannici avranno la possibilità di intervenire negli interventi progettuali riguardanti la propria dimensione locale. Ogni due anni il Design Council collaborerà con una regione o nazione differente all'interno del Regno Unito, con l'obiettivo di migliorare la vita della nazione attraverso il design. Il primo evento, nel 2007, riguarderà la regione dell'Inghilterra del nord-est, e sarà costituito da tre elementi: • Commissioni Pubbliche di Design, dove i cittadini potranno votare e selezionare i progetti che team di designer avranno sviluppato in collaborazione con le autorità locali, il governo nazionale, i fornitori di servizi pubblici ed enti privati. In questo senso verrà istituita, verso la fine del 2007, una premiazione denominata "Creative Community Awards"; • un programma educativo che coinvolge gruppi di tutte le età al fine di esplorare 187
•
come il design possa migliorare tutti gli aspetti della vita quotidiana. In questo modo un folto numero di giovani designer imparerà ad utilizzare il design in modo innovativo, per risolvere i problemi quotidiani che le persone sperimentano; un programma di eventi di promozione del design, come esposizioni e concorsi.
1.3. Design per comunità Open Peer-to-Peer e design per sviluppo locale Si è visto come le comunità Open Peer-to-Peer rappresentino una opportunità per dare luogo a processi di sviluppo locale, direttamente o indirettamente. Questa caratteristica le rende molto promettenti, perché non solo grazie a loro è possibile risolvere un problema specifico, ma dare luogo a processi rigenerativi e valorizzativi riguardanti la dimensione locale. È quindi utile capire come il design possa indirizzarsi verso di loro, alla luce delle recenti esperienze di studio del rapporto design-dimensione locale quali SPARK! e ME.Design. In queste ricerche sono stati elaborati i primi strumenti per svolgere interventi progettuali indirizzati verso la dimensione locale, in modo che si generino e si sviluppino processi di sviluppo locale: per fare ciò, gli interventi progettuali elaborati si rivolgono alle comunità locali e alle caratteristiche locali. Sono quindi strumenti per comprendere come un intervento progettuale di design possa rivolgersi a comunità e riconoscere ed utilizzare risorse locali.
grado di supportare i processi che la comunità gestisce. Parlare di sviluppo locale attraverso il progetto di design significa modificare il campo di riferimento dell'attività progettuale: passare da un singolo attore (l'utente, l'impresa) ad un contesto, il territorio, e rilevare le peculiarità che lo definiscono oggetto del progetto: esso può infatti essere considerato come un ambiente in cui le dimensioni materiali e immateriali, umane, fisiche, sociali ed economiche tendono a fondersi. Il design che agisce per lo sviluppo locale e nel territorio deve far riferimento a questo insieme di risorse (economiche, umane, sociali, fisiche, storicoculturali, ambientali), affrontandone la natura particolare e i limiti specifici: ciò può essere realizzato attraverso una prima definizione complessiva che può essere rintracciata nel concetto dinamico di capitale territoriale. L'azione del design a scala territoriale è quindi un'attività progettuale che ha come fine quello di promuovere "processi sistemici di innovazione (sociale, economica, tecnologica) attivati a partire dalla specificità delle risorse locali (il capitale territoriale e sociale che insiste su quell'area) attraverso l'uso di livelli disciplinari differenti (il riferimento è al design strategico, al design della comunicazione, al design di artefatti) e con diversi focus d'azione (sociale, economico, culturale, ecc.)"16.
Il design, in tutte le sue forme, è una attività intimamente legata al concetto di dar forma a qualcosa: interessandosi al livello locale, questo qualcosa non è unicamente riferito al progetto di artefatti materiali, ma comprende in senso più ampio il dar forma a intuizioni, pensieri, culture, saperi e conoscenze che stanno nel territorio e lo connotano14. Per Maffei e Villari "lo scopo della traduzione progettuale di risorse, valori e contenuti è quindi di rendere visibile la specificità territoriale attraverso un processo di materializzazione di prodotti, servizi, strategie. In questo caso il progetto può essere perciò considerato sia come un'attività che ha lo scopo di definire artefatti fisici, sia come azione finalizzata alla creazione di artefatti che hanno natura immateriale, di natura comunicativa o organizzativa come per esempio il progetto di servizi o come la definizione di strumenti operativi e concettuali utili a supportare i processi di natura progettuale, relazionale, negoziale"15. Un intervento progettuale indirizzato verso comunità Open Peer-to-Peer può quindi interessare artefatti fisici ma anche immateriali, riguardanti l'organizzazione delle comunità attraverso la fornitura di strumenti (prodotti, servizi, comunicazione). Un intervento progettuale in
Inoltre, sempre secondo Maffei e Villari, "riferendosi al tema dello sviluppo locale, il campo d'azione del designer si amplia: non solo il progettista è chiamato a dar forma agli artefatti, ma contribuisce inoltre a dar forma alla comunità di soggetti e alle modalità con cui essa sperimenta il progetto, attraverso strumenti, linguaggi, competenze, forme organizzative innovative. In questo senso il designer è in grado di abilitare i contesti e le comunità locali a comunicare, immaginare, progettare, sviluppare in maniera condivisa dei percorsi innovativi di sviluppo locale"17. Si vede allora come un approccio progettuale dedicato alle comunità Open Peer-toPeer debba ricollegarsi alle recenti ricerche sulla relazione design-sviluppo locale, condividendone lo stesso interesse verso le comunità. Per Maffei e Villari, la complessità della dimensione locale rende l'azione di design "caratterizzata da una condizione partecipativa a livello locale: ovvero dalla necessità dall'esistenza di una comunità correlata al progetto stesso (che potremmo definire una comunità di pratica designbased) che necessita di differenti livelli di abilitazione al progetto, a partire da quelli che riguardano competenze e linguaggi (quindi il comunicare e agire all'interno del processo progettuale) fino agli strumenti operativi più specifici. Le premesse perché si possa concretizzare un cambiamento sul territorio si basano quindi su situazioni che hanno una forte componente relazionale e sociale: il progetto nasce e si sviluppa in contesti in cui la dimensione di
14 Maffei, Villari (2004) p.89 15 Idem
16 Idem 17 Ibidem p.93
188
cooperazione e negoziazione è una parte fondamentale, proprio per il sistema complesso di interessi e di realtà che compongono e identificano il sistema18. Per un intervento progettuale rivolto a comunità Open Peer-to-Peer, quindi, un approccio partecipativo è quindi fondamentale, per poter soddisfare tutte le differenti motivazioni ed esigenze; inoltre, pare una conseguenza logica che sia aperto alla partecipazione, dato che si rapporta con comunità aperte alla partecipazione. In questo punto, si può dire che, negli interventi progettuali rivolti a comunità Open Peer-to-Peer, la comunità Open Peer-to-Peer e i progettisti vengono a far parte di una comunità progettuale più ampia. Secondo Maffei e Villari19, affinché il design si possa interessare al territorio deve seguire le seguenti condizioni: 1. la condizione di situatività (la dipendenza dal contesto dell'azione di design). L'azione di design parte dalle condizioni specifiche di un territorio; esso è un sistema vasto e articolato di risorse, spesso immateriali e non trasferibili, in quanto intimamente legate a tradizioni, valori e ad un ambiente socio-culturale particolare. La miscela di questi fattori cambia continuamente nel tempo e dunque l'azione progettuale è collegata fortemente alle caratteristiche situate del territorio, inteso come un mix dinamico specifico; 2. la condizione di path dependency (la dipendenza dall'azione di design dalla storia del progetto). L'incertezza dell'azione legata alle caratteristiche territoriali è vincolata alla sua natura processuale che si realizza attraverso differenti livelli e tempi decisionali ed operativi, che coinvolgono in maniera complessa l'insieme di attori che prendono parte al processo progettuale. L'azione di progetto è dunque influenzata da un grado di incertezza che dipende dalla stessa storia del progetto e che si riferisce sia agli obiettivi sia agli strumenti dell'azione di design; 3. la condizione di multi-attore (la dimensione collettiva dell'azione di design). L'azione progettuale a scala territoriale è attività plurale condotta da un insieme di soggetti di natura differente (istituzionale, culturale, economica, sociale, professionale), ognuno dei quali svolge un ruolo preciso. Essa è condotta dunque da una comunità (definita design community) all'interno della quale ognuno dei soggetti agisce con un bagaglio di competenze proprie e con un ruolo definito; allo stesso tempo, ognuno dei soggetti svolge anche un ruolo nel contesto territoriale rispetto ad una comunità più ampia (che potremmo definire comunità generale). L'azione di design sul territorio 18 Ibidem pp.89-90 19 Ibidem pp.90-91
4.
può dunque essere paragonata ad un processo di interazione e scambio tra design community e comunità generale su obiettivi e modalità/strumenti per raggiungerli. Le condizioni perché si svolga il processo progettuale nascono perciò da una condivisione di linguaggi, background e strumenti che si realizza attraverso il dialogo e il confronto tra le comunità in questione; la condizione di multi-livello (le differenti scale d'intervento dell'azione di design). L'azione progettuale a scala territoriale agisce contemporaneamente su dimensioni problematiche e su scale progettuali differenti, da quella planetaria sino a quelle regionali, d'area, urbane che interagiscono con diverse sfere legate alla vita quotidiana degli individui e all'organizzazione dei cicli di produzione e riproduzione delle risorse. È necessario dunque considerare il territorio attraverso una prospettiva progettuale multi-scala.
Un intervento progettuale rivolto alle comunità Open Peer-to-Peer deve portare estrema attenzione alle caratteristiche specifiche, la situazione da cui prende forma la comunità. In quest'ottica risulta promettente l'utilizzo della Teoria dell'Attività per l'analisi delle comunità Open Peer-to-Peer, dato che rappresenta uno strumento d'analisi sistemico e vicino all'analisi dell'azione situata. Un approccio che tiene conto della complessità della situazione e del suo percorso storico, della molteplicità degli attori coinvolti (non solo i membri della comunità ma anche il rapporto con la società esterna) e dei differenti livelli di intervento (individuale, locale, globale). Inoltre, dalla recente esperienza ME.Design Maffei e Villari20 delineano tre livelli principali che ricorrono nel processo di design a scala territoriale: 1.
il livello di costruzione del sistema (degli attori e delle competenze di progetto): in questo livello l'azione del design si focalizza sulle dimensioni strettamente legate agli obiettivi e alle modalità di organizzazione e di azione della design community. Essa riguarda quindi la messa a sistema della rete di soggetti coinvolti nel processo di design a livello locale, la costruzione dei loro sistemi di relazioni, l'individuazione delle competenze e dei ruoli, e dunque, l'organizzazione e la definizione del quadro di riferimento rispetto al quale poter realizzare il progetto sul territorio. Le attività del designer sono quindi correlate alla costruzione di un linguaggio comune, di un sistema comunicativo e organizzativo che possa essere di supporto alla costruzione del consenso e della fiducia tra i soggetti coinvolti. È necessario in questa fase, infatti, costruire e identificare gli obiettivi e gli strumenti specifici di supporto al loro
20 Ibidem pp.91-93 189
2.
3.
ragionamento; il livello di definizione della strategia di progetto: in questo livello l'azione del design contribuisce a definire le linee guida relative ai campi di azione in ci è possibile identificare soluzioni progettuali concrete. Il designer può in questo caso proporre scenari di progetto per la valorizzazione dei contesti locali, individuare e visualizzare nuove aree di opportunità, proporre strumenti per facilitare la costruzione di visioni di progetto comuni e condivise sia dai soggetti della design community, sia dai soggetti esterni (la comunità generale). Il design in questo caso partecipa alle costruzioni delle linee guida rispetto alle quali orientare le soluzioni progettuali e comprende inoltre la definizione dell'insieme di strumenti e artefatti che fungono da supporto al processo stesso; il livello di definizione del sistema-prodotto territoriale: questo è il livello che può essere considerato più vicino alle attività usuali che l'azione di design propone. Il designer svolge la propria attività quando i ruoli dei soggetti coinvolti nel processo progettuale e la rete di relazioni è stabile e strutturata, e le linee guida di riferimento del progetto sono sviluppate e visualizzate. L'azione del progettista riguarda quindi la definizione e la concretizzazione di artefatti, servizi e sistemi di comunicazione che aggiungano valore al sistema territoriale in un'ottica di sviluppo locale. Il designer in questo caso agisce come risorsa specifica all'interno della design community insieme alle altre competenze coinvolte di natura economica, sociale, amministrativa, legislativa, manageriale, ecc. Proponendo soluzioni che supportino iniziative concrete a livello territoriale [...].
Nel nostro caso i tre livelli possono rappresentare una fase di analisi dei partecipanti, delle loro competenze e di come tendono a formarsi naturalmente le relazioni fra loro. E questa analisi può avvenire solo stringendo rapporti e individuando linguaggi e strumenti comuni al fine di sviluppare un discorso collettivo. Vi è poi una fase di definizione delle direzioni in cui si può intervenire, ossia di formulazione di un concept iniziale del progetto, da cui poi si svilupperà interattivamente il progetto finale. Infine, vi è una fase di vera e propria progettazione di artefatti, servizi e sistemi di comunicazione. Un ruolo importante ha il design anche nel valorizzare l'identità della comunità. L'identità non è un oggetto che si possiede, per chi vive in un certo contesto l'identità è un connotato trasparente. L'identità (culturale, in particolare) è definita da un osservatore, in genere esterno, attraverso distinzioni linguistiche. Non si può parlare di individuazione o espressione dell'identità ma di costruzione dell'identità: l'identità culturale è 190
categoria di giudizio e attribuzione. Da questo punto di vista il design può svolgere un ruolo importante perché, osservando con distacco e talvolta dall'esterno i contesti, è in grado di operare delle distinzioni, di proporle e aiutare le istituzioni e la comunità locale a co-produrre la propria identità21. Per Zurlo l'identità fornisce un senso alla comunità, una cornice in cui questa può agire di conseguenza.
1.3.1. Il capitale territoriale come oggetto della progettazione In conclusione, il design che agisce a livello locale può essere considerato come attività disciplinare che ha come oggetto del progetto il complesso sistema di risorse che costituiscono il complesso patrimonio territoriale. L'attività progettuale riferita ai contesti locali presenta alcune specificità rispetto alla "disciplina classica". Per il design, l'azione a questa scala è dunque22: • rivolto ad un specifico territorio, contestualizzata dunque rispetto ad un sistema di risorse specifico, alle condizioni (umane, sociali, economiche, culturali, politiche, ecc.) che contraddistinguono un'area; • è un'attività che si confronta con una del progetto, dimensione complessa rispetto al processo, ai tempi e ai risultati, proprio per la molteplicità di variabili che entrano in gioco in un'attività a scala territoriale; • è attività che agisce ed ha valore se messa in relazione e collaborazione con altri saperi e competenze; • l'azione progettuale agisce su scale differenti contemporaneamente e livelli di progetto, su quella umana del singolo individuo, sulla società, sino al rapporto con il "globale". Il fenomeno con il quale si confronta la disciplina del design quando amplia e modifica l'orizzonte delle sue attività, agendo sulla scala locale, non può che essere trattato in termini di complessità e in maniera sistemica. Lo stesso tipo di approccio servirà anche per affrontare le comunità Open Peer-to-Peer, alla luce della loro complessità intrinseca. Il design per comunità Open Peer-toPeer avrà le seguenti caratteristiche: • le comunità Open Peer-to-Peer, quando fortemente legate alla dimensione locale, devono essere contestualizzate in un determinato territorio, caratterizzato da specifiche caratteristiche; • è un'attività che si confronta con la complessità della società attuale e con la complessità delle comunità Open Peer-toPeer; • deve essere affiancata da altri saperi e competenze, proprio per poter affrontare la complessità. In particolare, saperi e 21 Zurlo (2004) 22 Villari (2003)
•
competenze in grado di analizzare l'aspetto sociologico delle comunità Open Peer-to-Peer; l'azione progettuale avverrà su più scale, dalle interazioni fra partecipanti all'interno della comunità, alle interazioni fra comunità in reti globali.
Come elaborato quindi nella ricerca ME.Design, l’oggetto del progetto del design a scala locale è il capitale territoriale, il "complesso degli elementi (materiali e immateriali) a disposizione del territorio, che possono costituire punti di forza o veri e propri vincoli a seconda degli aspetti presi in considerazione"23. Il capitale territoriale è un’entità dinamica che trae la propria crescita e sviluppo dalla capacità di integrare in modo armonico e coerente i diversi componenti del capitale. Esso corrisponde alla descrizione analitica dell'idea che si fanno del territorio coloro che sono alla ricerca di un margine di manovra per agire. Tale concetto è pertanto legato alla nozione di progetto e territorio, nonché alla ricerca di competitività territoriale. La crescita e lo sviluppo del capitale nella sua totalità si definisce nel complesso sistema di connessioni e interazioni che quel capitale è in grado di attivare, perseguire e sostenere con altri capitali territoriali, nodi di una rete articolata che mette in relazione il territorio che essi rappresentano con altri territori. In ME.Design si è scelto di visualizzare il capitale territoriale attraverso la metafora di un insieme di layer sovrapposti. Questa metafora ha consentito di porre le basi per l'avvio di una sperimentazione sul campo: il punto di partenza per tale attività è stato l'affermare che non può esserci sviluppo locale se non vi è una integrazione tra le risorse, una sorta di avvicinamento progressivo tra i piani. A partire da una risorsa chiave per il territorio, identificata come porta di accesso, attraverso un progetto strategico è possibile avviare un processo di integrazione progressiva di tutte le risorse disponibili. Tanto più i piani si avvicinano l'un l'altro tanto più c'è integrazione e sviluppo; al contrario, iniziative che aumentano questa distanza, producono una perdita di capacità di valorizzazione e quindi di innovazione24. In ME.Design il capitale territoriale è stato descritto come l'insieme integrato di 5 risorse chiave, rappresentate dai cinque layer: • il know-how e le competenze, cioè la padronanza delle tecnologie e le capacità di ricerca e sviluppo, la cultura e l'identità, i valori condivisi, gli interessi comuni ecc.; • le risorse umane, gli uomini e le donne che risiedono nel territorio, gli emigrati e coloro che lo abbandonano, le caratteristiche demografiche della popolazione, le attività e le imprese (dimensione delle imprese, filiere, ecc.); • le risorse fisiche e la loro gestione, in particolare le risorse naturali (rilievi, sottosuolo, suolo, flora e fauna, costa, 23 Castelli, Villari (2003) 24 Simonelli, Vignati (2004)
• •
entroterra, fiumi, laghi, ecc.), gli impianti e le infrastrutture, il patrimonio storico e architettonico; forme di governance, le politiche, gli operatori collettivi e la gestione degli affari pubblici del territorio; i mercati e le relazioni con l'esterno, in particolare la presenza di prodotti locali sui diversi mercati, la partecipazione delle imprese a reti promozionali o di scambio, la creazione di network in grado di amplificare le potenzialità locali ecc.
Fig. 56: Capitale territoriale (Fonte: Simonelli, Vignati 2004)
È possibile vedere come le comunità Open Peer-toPeer si rivolgano, direttamente o indirettamente, al capitale territoriale insito nella dimensione locale in cui agiscono: • know-how e identità: le comunità Open Peer-to-Peer rappresentano un giacimento di conoscenze specifiche (know-how) che danno loro luogo e che vengono da esse ulteriormente sviluppate attraverso la condivisione. Vi sono anche altri elementi condivisi che definiscono l'identità di una comunità Open Peer-to-Peer (ad esempio le motivazioni, gli artefatti, i linguaggi utilizzati, ecc.), ma la condivisione di un determinato set di conoscenze la definisce fortemente (ad esempio, sono le conoscenze relative al funzionamento di un sistema operativo e alla programmazione che danno luogo all'identità della comunità di sviluppo di Linux, e non altre). Ed è proprio la struttura di comunità che dà loro una forte identità, condivisa fra i partecipanti; risorse umane e attività: le comunità Open • Peer-to-Peer si formano per svolgere attività che coinvolgano il più alto numero possibile di partecipanti, valorizzando la loro diversità come fonte di successo per l'attività comune. Le comunità Open Peerto-Peer rappresentano quindi un ottimo esempio di attività in grado di ricercare e valorizzare risorse umane; • risorse fisiche: benché abbiano una forte attenzione alle informazioni, le comunità Open Peer-to-Peer sono attente anche verso risorse fisiche. Innanzitutto per gli artefatti con cui organizzano e svolgono le proprie attività, risorse fisiche la cui 191
•
•
mancanza non avrebbe permesso la nascita della comunità (ad esempio, il contenitore per alimenti con il suo specifico codice nel caso dei dabbawalla, computer e connessioni ad Internet nel caso di Linux); forme di governance: le comunità Open Peer-to-Peer propongono esse stesse nuove forme di governance (a bazaar), e ne richiedono anche da parte delle istituzioni politiche. Le comunità Open Peer-to-Peer rappresentano forme di organizzazione orizzontali, decentralizzate e basate sulla condivisione e reciprocità, che richiedono forme di governance orizzontali e decentralizzate (per permettere loro una auto-organizzazione effettiva) e basate sulla condivisione (leggi troppo restrittive sul diritto d'autore non permetterebbero loro di svolgere una attività); relazioni con l'esterno: le comunità Open Peer-to-Peer, costruendo legami fra loro a lunga distanza, sono in grado di dare vita a reti collaborative orizzontali che si ampliano a partire dalla dimensione locale. Sono infatti un modo per gestire legami a corto raggio con legami a lungo raggio, collegando la dimensione locale con la dimensione globale, per una più efficace condivisione delle informazioni e quindi dei problemi da risolvere. La loro presenza in un determinato contesto locale dà luogo a comunità multilocali, che possono dare luogo a processi di sviluppo locale "liberando" il locale dal suo isolamento.
Un progetto indirizzato verso comunità Open Peerto-Peer riguarderò anche il loro capitale territoriale, che comprende anche il loro capitale sociale (suddiviso fra i vari layer). Affinché quindi un intervento progettuale rivolto verso comunità Open Peer-to-Peer porti a processi di sviluppo locale, bisogni accertarsi che questi layer vengano tutti presi in considerazione e legati fra loro strettamente. Affinché, poi, lo sviluppo sia veramente duraturo, questo deve essere autosostenibile25 ossia deve ricercare "regole insediative (ambientali, urbanistiche, produttive, economiche, ecc.) che risultino di per sé produttive di omeostasi locali e di equilbri di lungo periodo fra insediamento umano e sistemi ambientali"26. Per Magnaghi27 la ricostruzione della comunità è l'elemento essenziale dello sviluppo autosostenibile: la comunità che "sostiene se stessa" fa sì che l'ambiente naturale possa sostenerla nella sua azione; l'azione conservativa (anche di valori ambientali) che non promani dalla fiducia interna e dalla self-reliance è destinata a creare resistenze e fallimenti".
a disposizione. Egli utilizza un concetto differente da quello di capitale territoriale, il patrimonio territoriale. Ogni territorio ha un suo patrimonio di valori territoriali, eredità della sua storia sociale e naturale. Sono questi valori associati con le caratteristiche dell'ambiente fisico (ecosistemi modificati nel tempo dall'intervento umano), l'ambiente costruito (eredità storica, infrastruttura, sistemi produttivi e loro prodotti e reti di servizi) a l'ambiente antropico (ad esempio il tessuto sociale e le sue forme organizzative, visione condivise e know-how produttivi). Ad ogni modo, questi valori territoriali non sono ancora risorse, nel senso che non sono ancora in grado di dare luogo a strategie di sviluppo. Affinché ciò accada questi beni devono essere riconosciuti come risorse. La consapevolezza di un determinato bene territoriale come una risorsa potenzialmente utilizzabile deve crescere all'interno della comunità locale. Questa prospettiva mette in primo piano un concetto fondamentale: il capitale territoriale di un determinato territorio deriva dalla consapevolezza della comunità locale delle risorse potenziali presenti nella propria dimensione locale. Ogni risorsa territoriale è quindi una entità complessa basata su due componenti fondamentali: un patrimonio (costituito da uno o più beni territoriali) e la capability delle comunità locali, ossia il riconoscimento delle risorse potenziali e l'abilità di renderle tali, utilizzandole e coltivandole affinché il loro uso sia sostenibile28. Per poter esistere nel tempo, una risorsa deve essere scoperta, valorizzata e appropriatamente coltivata. Un bene territoriale preesistente deve essere portato all'attenzione attraverso il riconoscimento della sua potenzialità come risorsa in un dato contesto sociale, tecnologico ed economico. Modi e strumenti devono essere trovati per trasformare un bene da risorsa potenziale in risorsa effettiva. Infine, affinché questa risorsa non si deteriori, deve essere utilizzata in modo sostenibile. Deve essere coltivata in modo di produrre nuovi beni senza consumare il capitale iniziale e senza causare la deteriorazione del bene territoriale su cui si basa. La valorizzazione di una risorsa locale è un processo di apprendimento collettivo (social learning process) attraverso cui una comunità può divenire consapevole delle proprie possibilità ed imparare a riconoscere ed utilizzare le sue risorse in modo sostenibile. Per Ezio Manzini questo processo di apprendimento è un'ampia attività di design i cui protagonisti sono gli attori sociali che operano nel territorio. Il suo obiettivo è quello di costruire una strategia per la valorizzazione e la rigenerazione delle risorse locali.
L'analisi di Magnaghi è importante perché mette in relazione diretta la comunità con le risorse che ha
La scoperta, la valorizzazione e la coltivazione delle risorse rappresentano la fase fondamentale di un processo più ampio che può essere definito come costruzione sociale di un progetto di sviluppo locale. Ne consegue che il primo passo che una
25 Magnaghi (2000) 26 Ibidem pp.76-77 27 Ibidem p.91
28 La capability può essere definita come l'attitudine a trasformare i vincoli in opportunità di sviluppo e risorse disponibili. Fonte: Castelli, Villari (2003)
192
comunità deve effettuare per poter dare luogo ad un processo di sviluppo locale è quello di riconoscersi come una risorsa, come un potenziale agente di cambiamento. La comunità e il progetto co-evolvono condizionandosi a vicenda nel bene e nel male. Da queste considerazioni si evince ulteriormente come la nascita di comunità Open Peer-to-Peer sia importante, dato che possono permettere la scoperta, valorizzazione e la coltivazione delle risorse territoriali, riconoscendole come tali.
1.4. Designer: da fornitore a facilitatore Un intervento progettuale rivolto verso comunità Open Peer-to-Peer deve quindi tenere in conto le caratteristiche del contesto in cui questa si trova, tra cui anche le caratteristiche territoriali. Benché molte comunità Open Peer-to-Peer non si rivolgano direttamente alla propria dimensione locale, questa finirà sempre con l'influenzarne l'operato, fornendo le risorse da cui gli attori possono attingere. Anche in una comunità totalmente basata su uno spazio virtuale (ad esempio, come nel caso del software Open Source), gli attori agiscono per la propria condizione locale (la mancanza di un particolare programma nel proprio computer), attraverso le risorse a cui hanno accesso (oltre alle risorse online, anche le risorse locali come università, biblioteche, ecc.; non a caso molti esempi di comunità Open Peer-to-Peer sono nati in un contesto universitario, caratterizzato dall'abbondanza e dalla facile accessibilità di molte risorse). E le risorse sono tali perché riconosciute dai membri della comunità; questa è una ulteriore ragione per dare loro una maggiore opportunità di partecipazione diretta al processo progettuale, in quanto sono in grado, meglio di altri, di riconoscere le risorse utilizzabili. È quindi intervento progettuale che si avvale della partecipazione di un numero potenzialmente elevato di partecipanti, attraverso un processo complesso caratterizzato dal suo specifico percorso (path dependency), orientato ai vari livelli di interazione: tra partecipanti, tra partecipanti e comunità, tra comunità e comunità, tra comunità ed enti esterni, tra comunità e società. Bisogna quindi adottare un approccio progettuale basato sulla partecipazione, in grado quindi di basarsi sulle conoscenze che gli attori hanno del contesto di intervento progettuale al fine di rendere il progetto finale più aderente alla realtà. D'altronde, un progetto per una comunità caratterizzata dalla massima apertura alla partecipazione, non può che essere partecipativo. Se ci si occupa di casi di creatività distribuita, questa va riconosciuta prima di poterla "utilizzare", condividendo con essa il ruolo di "autore" del progetto. Si può quindi affermare che un intervento progettuale rivolto a comunità Open Peer-to-Peer deve essere esso stesso Open Peer-to-Peer, basato
sulla partecipazione della comunità al progetto (open: aperto alla partecipazione), ai cui membri viene riconosciuto un ruolo paritario (peer-to-peer: riconoscimento delle competenze e conoscenze altrui) e attivo. Ogni progettazione sarà quindi una co-progettazione29; in questo modo, si riesce a far leva sulla "intelligenza collettiva" non solo per risolvere un problema, ma anche per l'intervento progettuale stesso. Il designer viene così ad assumere un ruolo specifico negli interventi progettuali rivolti a comunità Open Peer-to-Peer. Grazie alle sue competenze, può fornire le condizioni ottimali affinché prenda forma un'attività, e fornire gli strumenti di autoorganizzazione a queste comunità, ricoprendo più un ruolo di enabler che di provider. Non più la semplice progettazione di prodotti o soluzioni finite, ma il supporto a comunità in grado di sviluppare soluzioni adatte alle proprie caratteristiche. In questo caso, enabler può essere visto come provider di soluzioni abilitanti per le comunità30. Una soluzione abilitante è un processo che permette ad un attore (una persona o una comunità) di ottenere un risultato adottando una specifica strategia; è quindi un processo che, grazie all'utilizzo di appropriati prodotti, servizi e conoscenze, permette agli attori una certa autonomia nella realizzazione delle soluzioni finali31. La fornitura di soluzioni abilitanti rientra nella filosofia delle comunità Open Peer-to-Peer: vengono fornite loro le condizioni minime affinché la comunità si formi, si organizzi e sviluppi una sua attività, grazie alla quale troverà autonomamente soluzioni per specifici problemi. Il designer occupa quindi un ruolo di enabler dell'attività della comunità, di facilitatore della sua emergenza e del suo sviluppo. È questo un concetto antichissimo, espresso nel detto cinese "dai un pesce ad un uomo e lo sfamerai per un giorno. Insegnagli a pescare e lo sfamerai per la vita intera"32, ma che nella modernità è stato spesso accantonato in favore della fornitura di soluzioni finite. Ovviamente, per far sì che la comunità non esaurisca le risorse che utilizza, la soluzione deve essere sostenibile, ossia deve permetter il raggiungimento di un risultato sostenibile attraverso una strategia sostenibile, attenta alla qualità del contesto e potenzialmente rigenerante33. In questo modo è possibile che le comunità Open Peer-to-Peer diano luogo a processi di sviluppo locale autosostenibili, in grado di valorizzare, conservare e coltivare le risorse locali senza diminuire la loro qualità e quantità. Un designer si trova naturalmente in grado di agire da facilitatore, dato che le sue competenze lo hanno portato ad essere in grado di stabilire 29 Leadbeater e Cottam parlano di co-creazione dei servizi 30 Manzini (2006c) 31 Manzini (2006a) p.5 32 Attribuito a Laozi (IV sec. a.C.) Fonte: http://en.wikiquote.org/wiki/Laozi 33 Manzini (2006a) p.6 193
connessioni tra utenti ed imprese, mediando quindi tra differenti interessi. Grazie alle sue capacità di visualizzazione e di anticipazione, può gestire la compresenza di interessi multipli e discordanti, ricordando allo stesso tempo i vantaggi che derivano dalla collaborazione collettiva. Nella complessità della società attuale, l'importanza delle comunità Open Peer-to-Peer risiede nella loro capacità di risolvere autonomamente problemi complessi. È chiaro che, con comunità che rivestono un ruolo attivo, un designer deve riconoscere loro questo ruolo, fornire le proprie competenze e conoscenze, per permettere loro di trovare il modo migliore di risolvere problemi complessi. Una organizzazione gerarchica, lineare, riduttiva, non riesce ad affrontare la complessità della società, mentre una comunità che si autoorganizza, influenzata dal contesto ma non controllata, attraverso le interazioni dei propri membri, è più flessibile nello svolgimento delle proprie attività. Un designer deve quindi fornire una struttura di supporto minima affinché siano i partecipanti a organizzarsi autonomamente. Il senso di autenticità della partecipazione, cioè della vera influenza delle proprie azioni e decisioni, rappresenta il migliore incentivo alla partecipazione stessa. Il punto fondamentale del ruolo di facilitatore è quello di aiutare i partecipanti a breve termine evitando di renderli dipendenti nel lungo termine. Le caratteristiche del ruolo di facilitatore sono le seguenti: 1. il facilitatore è uno dei partecipanti e questo già vale a modificare l'ubicazione e l'identificazione del problema. In questo modo porta anche lui una prospettiva diversa; 2. il facilitatore non sa con precisione che cosa sta cercando (“qual è il problema?”), non ha ipotesi prestabilite da dimostrare perché auspica che un soluzione originale emerga dall'analisi collettiva del problema. Il suo progetto è un esperimento aperto. 3. il facilitatore sente la necessità morale di arrivare ad una soluzione, anche modificando le proprie concezioni ed opinioni; 4. non conoscendo il risultato, il facilitatore rischia di incorrere nella confusione e nel conflitto. La garanzia sta nel rimanere in stretto contatto con la situazione concreta (cioè il contesto), nell'essere obiettivo e preciso nell'osservazione e nell'ascolto nonché rigoroso nell'analisi; 5. un facilitatore non è un allenatore (trainer) in quanto non guida la comunità verso uno specifico obiettivo o direzione;
2.
3. 4.
soggetti coinvolti; l'adattabilità di tempi, modi e strumenti alle caratteristiche personali e professionali dei soggetti coinvolti e del contesto in cui si svolge il processo; per cui, anche se guidato da una metodologia precisa, ogni progetto possiede un proprio profilo e produce risultati distinti; la valorizzazione delle capacità e delle risorse disponibili localmente; il sistematico coinvolgimento di tutti gli attori attivati nell'analisi e nella valutazione del processo e dei risultati raggiunti.
Ne consegue che il designer, come facilitatore di un processo di progettazione partecipata dovrebbe: 1. prestare attenzione non solamente a che cosa fa, ma soprattutto a come e quando lo fa; 2. essere trasparente, chiaro e realistico durante il processo; 3. servirsi di una gamma di azioni e strumenti diversificati e mantenuti nel tempo; 4. privilegiare la comunicazione interpersonale e faccia a faccia; 5. utilizzare approcci che toccano il cuore (con i sentimenti, l'estetica, ecc.), la testa (con il rigore scientifico e la professionalità) e le mani (con interventi concreti grazie ai quali è possibile intravedere cambiamenti rapidi, anche se piccoli); 6. fornire costantemente una anticipazione dei vantaggi finali, in modo da mantenere costante l'interesse per la collaborazione; 7. aiutare i partecipanti a decidere le regole fondamentali e a seguirle; 8. favorire una partecipazione attiva anche da parte di quei membri che sono meno portati ad esporsi pubblicamente. In pratica, deve "costruire" uno spazio dove tutti i partecipanti si sentano a proprio agio; 9. non deve favorire un partecipante o una idea; 10. non deve permettere che i partecipanti trascurino un tema complesso solo per la difficoltà incontrata; 11. non deve cercare di indirizzare la comunità verso una direzione che solo lui ritiene auspicabile.
Un approccio progettuale dove il designer è un facilitatore si basa sulle seguenti caratteristiche34: 1. la condivisione, fin dall'inizio, della natura e dello scopo del processo da parte di tutti i
L'applicazione di una tale strategia, come è stato verificato in moltissimi casi, permette di raggiungere obiettivi generali35: 1. il rafforzamento del senso di appartenenza della comunità al luogo in cui vive; 2. il consolidamento dei principi della democrazia diretta (incoraggiando il senso di responsabilità dei cittadini verso le cose e gli spazi pubblici); 3. un incremento della motivazione, della comprensione e del divertimento; 4. una diminuzione dei conflitti tra le parti a fronte di progetti più condivisi;
34 Lorenzo (1998)
35 Idem
194
5.
6.
7.
8.
9.
il conseguimento di una maggiore efficienza (contenimento dei costi) e di una maggiore efficacia (più consonanza tra prodotti e bisogni della comunità); uno scambio proficuo tra chi abita la città (e ne conosce esigenze e dinamiche) e chi la progetta e la gestisce (ne conosce processi e regole); l'acquisizione di una più alta consapevolezza circa i reali bisogni della città, sia da parte degli amministratori e dei tecnici, sia da parte degli abitanti; una qualità di progettazione più sofisticata (cioè più ecologica,flessibile e incrementale); un effetto moltiplicatore che propaga l'applicazione di questa strategia anche in altri contesti, a volte non previsti.
195
196
2.
Progetto e comunità: la piattaforma
2.1. Architettura, urbanistica e comunità locali Per capire come possa essere sviluppato un approccio progettuale rivolto a comunità Open Peer-to-Peer, conviene analizzare quali altre discipline progettuali abbiano affrontato il tema della comunità e come abbiano risolto un approccio progettuale a lei indirizzato. Ci si trova infatti in una situazione in cui il tema della "progettazione di comunità" non sia stato affrontato dal design, se non recentemente nei programmi di ricerca sul rapporto design-sviluppo locale oppure nella progettazione di comunità online. Tradizionalmente, infatti, le discipline progettuali che si sono interessate ad una progettazione rivolta verso comunità sono state architettura e urbanistica. Certamente il tema della partecipazione nelle discipline dell'architettura e dell'urbanistica è sconfinato, ciò che qui interessa è capire in che modo abbiano risolto il tema del "progetto della comunità" e come abbiano sviluppato un approccio progettuale basato sulla partecipazione della comunità. Bisogna infatti capire come sia possibile "progettare una comunità", cioè in che modo si possa indirizzare un intervento progettuale, su quale oggetto "progettabile". Ovviamente, le riflessioni teoriche sul ruolo dell'architettura e dell'urbanistica nel miglioramento delle condizioni locali sono numerose, ciò che è importante sottolineare è che ciò che progettano è lo spazio di insediamento della comunità. Per l'architettura e l'urbanistica, anche se lavorano a scale differenti, quando intervengono su una comunità questa è sempre una comunità locale, cioè una comunità insediata in una specifica area geografica. Un intervento progettuale architettonico o urbanistico riguarda la organizzazione spaziale delle attività e delle relazioni, sia sociali che economiche, nel senso che lo spazio viene predisposto in modo da facilitare la loro formazione e svolgimento. L'oggetto della progettazione non è quindi l'attività o le relazioni sociali in sé, ma il substrato fisico in cui poi queste si sviluppano. Architettura ed urbanistica non intervengono direttamente su attività e relazioni, ma indirettamente, e quando lasciano loro un campo di autonomia ridotto, i progetti si rivelano un completo o quasi fallimento. Il Corviale, progettato da Mario Fiorentino nel 1973 e ultimato nel 1982, è un perfetto esempio di un progetto sviluppato a tavolino secondo un'idea architettonica affascinante senza però tenere in conto delle esigenze ed aspirazioni degli abitanti, delle loro radici culturali e dei loro modi di vivere,
dei probabili effetti sulla comunità (violenza, estraniamento), tanto meno del clima locale. Sulla collina raggiungibile dalla via Portuense, priva di collegamenti razionali da Roma, fu costruito un edificio in linea lungo un chilomentro, alto undici piani, accoppiato ad un altro edificio minore. All'interno alloggi per cinquemila persone, distribuiti in un nastro colossale di cemento, scandito da cinque torri. Ad ogni piano una rete di scale buie e di camminamenti deserti. Una galleria centrale, dritta e lunga quanto il colosso, progettata per accogliere studi professionali, agenzie, negozi1. Un naufragio noto anche attraverso le cronache televisive è anche quello del quartiere ZEN (Zona Esterna Nord) di Palermo, progettato da Vittorio Gregotti nel 1969, iniziato nel 1976, realizzato lentamente senza i servizi previsti, senza scuole, asili, campi sportivi, centro di quartiere2. Certo, questi insuccessi sono dovuti in gran parte al fatto che la costruzione degli edifici è avvenuta con gravi ritardi e e la erogazione dei servizi previsti è avvenuta solo in parte. Ma sono un esempio di come, quando la progettazione limita l'autonomia di relazioni ed attività, queste riescono comunque ad auto-organizzarsi modificando il progetto stesso3. Sono un esempio di come una progettazione di tipo top-down e centralizzata non sia in grado di affrontare la complessità di una comunità e di come questa risponda modificando il progetto in modo bottom-up e decentralizzato. Architettura e urbanistica danno forma agli spazi che verranno utilizzati da relazioni ed attività, ma questi, senza una partecipazione attiva, non possono essere dei luoghi. Secondo Giancarlo de Carlo4 un luogo è "uno spazio abitato. Senza lo spazio non può esserci luogo, ma lo spazio in sé non basta a fare luogo, perché uno spazio diventa luogo se e quando è esperito, usato, consumato e perennemente trasformato dalla presenza umana. Un luogo è tanto più luogo quanto è più plurale, e cioè quanto meno è specializzato perché la specializzazione asciuga la capacità di cambiare, di adattarsi, di bilanciare il proprio consumo, di acquisire ulteriore significato oltre quello attribuito. Il suo intervento si ricollega all'opera di Marc Augé5, il quale si chiede se la nostra società non stia distruggendo il concetto di luogo, così come si è configurato nelle società precedenti. Il luogo infatti ha tre caratteristiche: è identitario e cioè tale da contrassegnare l’ identità di chi ci abita; 1 2 3 4 5
Fazio (2000) Idem Duzzi (2005) De Carlo (2004) Augé M. (1993), Nonluoghi. Introduzione ad una antropologia della surmodernità, Eleuthera, Milano 197
è relazionale nel senso che individua i rapporti reciproci tra i soggetti in funzione di una loro comune appartenenza; è storico perché rammenta all’ individuo le proprie radici. Si assiste, secondo Augé, alla massiccia proliferazione di non-luoghi (caratterizzati dal fatto di non fornire identità, di non essere storici, di non essere relazionali) frutto di tre eccessi tipici dell'età contemporanea (eccesso di informazione, di immagini, di individualizzazione). I non luoghi, individuati con acutezza da Marc Augé, sono i nodi e le reti di un mondo senza confini. Per De Carlo è forse possibile ridare un senso di luogo ai non luoghi, ma solo grazie alla introduzione di nuove attività e relazioni da parte delle persone, in modo da "modificare" il progetto esistente, utilizzandolo per un altro scopo. È fenomeno questo osservato in tutta Europa, Corviale compreso6. Melissa Mean e Charlie Tims7 sviluppano una considerazione simile nel loro libro People Make Places. In seguito ad una ricerca di un anno sugli spazi pubblici di tre città inglesi, Cardiff, Preston e Swindon, Mean e Tims giungono alla conclusione che sia più opportuno considerare lo spazio pubblico non come uno spazio fisico predeterminato, ma come una esperienza creata dalle interazioni che avvengono tra le persone e il luogo. In altre parole, per Mea e Tims lo spazio pubblico non è dato in maniera predefinita e predeterminata dai progettisti, ma viene coprodotto attraverso il coinvolgimento attivo dei cittadini. Ciò che rende lo spazio uno spazio pubblico è la sua condivisione da parte di differenti gruppi di persone. Il grado di condivisione e di carattere pubblico di uno spazio può essere misurato in termini di "abilità a fornire una piattaforma per la creazione di differenti tipi di esperienze da parte di differenti cittadini"8Uno spazio pubblico co-creato è caratterizzato da una fiducia reciproca dei cittadini e dall'apertura alla diversità di persone e attività. La co-produzione impedisce inoltre la frammentazione dello spazio pubblico fra differenti attori isolati fra loro: data la capacità di autoorganizzazione che la co-produzione permette, gli spazi diventano flessibili e adattabili a differenti esigenze. Attraverso la co-produzione uno spazio pubblico fornisce una piattaforma per processi di scambio, di interazioni e di flusso di informazioni, vitali per il funzionamento di una città. Per Mean e Tims9 gli spazi pubblici possono quindi essere visti come "servizi pubblici auto-organizzanti", che forniscono uno spazio condiviso in cui si possano creare beni e valori non producibili singolarmente. Per Mean e Tims la co-produzione è l'unico modo in cui è possibile permettere una fruizione dello spazio pubblico a tutti i cittadini che, avendo motivazioni, necessità e capacità differenti, 6 7 8 9
Abramovic et al. (2003), Duzzi (2005) Mean, Tims (2005) Ibidem p.52 Ibidem p.9
198
reagiscono in maniera differente. Così come Mean e Tims parlano di co-produzione dello spazio pubblico come un servizio pubblico condiviso, Hilary Cottam e Charles Leadbeater parlano di servizi pubblici co-creati10, in modo da valorizzare ed utilizzare le risorse distribuite geograficamente e fra i cittadini in maniera flessibile. In architettura ed urbanistica, quindi, una progettazione rivolta verso una comunità non progetta le sue relazioni, ma il suo substrato fisico, l'infrastruttura o la piattaforma (come la chiamano Melissa Mean e Charlie Tims) per l'emergenza delle interazioni e delle relazioni reciproche tra le persone. La comunità stessa ha un ruolo attivo nella co-progettazione (o co-produzione o cocreazione), e la sua partecipazione rappresenta una maggiore probabilità che il progetto elaborato sia più adatto alle sue esigenze. Nell’ambito delle politiche urbane e i processi di trasformazione il concetto di partecipazione fa riferimento alle possibilità concesse al cittadino, alla comunità locale di influire sui processi stessi e sulla loro gestione. L’assunzione di un approccio partecipativo rappresenta un vantaggio in termini d’efficacia, efficienza e sostenibilità degli interventi. “La scala della partecipazione” di Arnstein del 1969 classifica gli approcci possibili alla partecipazione partendo dalla totale esclusione del cittadino dal processo per arrivare alla situazione in cui la progettazione e la gestione di una trasformazione è totalmente in mano ai cittadini11. Risalendo la scala i cittadini acquistano potere reale d’influire sulle decisioni e i cambiamenti che li riguardano. La scala mette in luce anche che “poca partecipazione” (gli ultimi due gradini) può significare “falsa partecipazione”: soltanto i primi tre scalini rappresentano un vero potere dei cittadini. Questa scala ha quindi il pregio di mostrare chiaramente l'importanza e l'efficacia delle varie forme di partecipazione. Per classificare la partecipazione, è possibile utilizzare una scala simile proposta da Nabeel Hamdi e Reinhard Goethert all'interno dell'approccio progettuale Action Planning12 dove viene classificata in base al grado di coinvolgimento della comunità nel processo progettuale (fig.57). In base a questa scala Nabeel Hamdi e Reinhard Goethert propongono uno strumento per classificare e scegliere strumenti e strategie in base alla fase progettuale e al tipo di partecipazione desiderato. È questo strumento una semplice matrice, dove sull'asse verticale vengono posti i gradi di partecipazione e su quello orizzontale le fasi progettuali. In questo modo il progettista può analizzare, per ogni fase progettuale, quale livello di partecipazione è auspicabile e quale siano gli strumenti più adatti. Questa matrice si basa su un concetto fondamentale: la partecipazione della comunità non è un obiettivo in sé, ma uno strumento 10 Cottam, Leadbeater (2004) 11 Arnstein (1969) 12 Hamdi, Goethert (1997)
orientato ai migliori risultati per la comunità stessa. Non è detto, infatti, che la partecipazione porti necessariamente a buoni risultati, anche se può dare maggiori probabilità. Grazie a questa matrice è possibile comprendere quando la partecipazione è auspicabile o necessaria. In questo modo la matrice è uno strumento di gestione del processo progettuale (a process design tool). All'interno di questi differenti livelli possono essere utilizzate differenti strategie di comunicazione con la comunità13, anche in base al tipo di progetto da sviluppare14, attraverso dei principi fondamentali15. Sono questi strumenti e principi che sono stati elaborati nel corso di decenni e possono anche essere consultati in casi pratici di intervento progettuale di design rivolto a comunità Open Peer-to-Peer. Per descrivere i differenti gradi della scala della partecipazione, Nabeel Hamdi e Reinhard Goethert utilizzano la metafora dell'agente esterno (outsider), il cui grado di coinvolgimento varia in relazione al grado di coinvolgimento della comunità.
13 Http://www.communityplanning.net/methods/methods .htm 14 http://www.communityplanning.net/scenarios/scenario s.htm 15 Http://www.communityplanning.net/principles.htm 199
potere ai cittadini
controllo ai cittadini potere delegato partnership
partecipazione irrisoria
consultazione informazione assecondamento
non partecipazione
trattamento terapeutico manipolazione
Tabella 11: Scala della partecipazione (Fonte: Arrnstein 1969)
Fig. 57: Matrice dei livelli di partecipazione in un intervento progettuale (Fonte: Hamdi, Goethert 1997)
200
È un agente esterno in quanto non riuscirà mai a comprendere pienamente la comunità e le sue esigenze, ma può aiutarla come facilitatore concordando la relazione fra i loro ruoli. I cinque gradi possono quindi essere descritti attraverso la relazione agente esterno – comunità (fig.58): 1. nessun coinvolgimento: l'agente esterno è l'unico responsabile di tutti gli aspetti della progettazione, con nessun coinvolgimento da parte della comunità. Solitamente ciò accade quando le circostanze richiedono conoscenze sofisticate. È un approccio molto rischioso, in quanto il progetto potrebbe non corrispondere alle caratteristiche della comunità, ma permette una notevole rapidità di sviluppo; 2. coinvolgimento indiretto: è questo un livello simile al precedente, ma in questo caso l'agente esterno raccoglie informazioni sulla comunità da fonti indirette (cioè, non direttamente dalla comunità). La scelta di questo livello di partecipazione necessita di due condizioni: la disponibilità di sufficienti informazioni affidabili sulla comunità e il possesso di capacità di analisi delle informazioni da parte dell'agente esterno. In questo livello il rischio di un progetto non corrispondente alla comunità è inferiore rispetto al livello precedente, ma non è conveniente in situazioni in rapido cambiamento; consultativo: l'agente 3. coinvolgimento esterno elabora il progetto sulla base di informazioni ricevute direttamente dalla comunità; effettua poi proposte e sollecita commenti e reazioni da parte della comunità. È questo un livello poco adatto alla ricerca di suggerimenti da parte della comunità, ma appropriato se si ricerca l'approvazione di una idea o proposta; 4. coinvolgimento con controllo condiviso: a questo livello la comunità e l'agente esterno interagiscono ad un livello paritario, dove entrambi sono in possesso di risorse e capacità che possono essere utili all'altro. In questo caso sono entrambi stakeholder del progetto; 5. coinvolgimento con pieno controllo: la comunità controlla il processo progettuale e l'agente esterno diventa una risorsa, osservando la comunità e fornendo un supporto professionale quando necessario. Per vedere alcuni esempi16, si considerino le fasi di progetto proposte da Hamdi e Goethert: 1. initiate (inizio): analisi della situazione e prima elaborazione degli obiettivi; 2. plan (pianificazione): decisione dei dettagli del progetto attraverso la definizione di attività precise, risorse ben definite e budget stabiliti; 3. design (progettazione): sviluppo dei dettagli; 4. implement (esecuzione): il progetto viene eseguito; 16 Hamdi, Goethert (1997) pp.73-76
5.
mantain (manutenzione): fase di lungo termine in cui il progetto eseguito viene controllato e modificato (cioè, riparato) se necessario.
Ad esempio, la partecipazione in progetto architettonico o urbanistico tradizionale presenta la matrice della fig.59. La pianificazione avviene a differenti livelli, come reazione ad una pressione proveniente dalla comunità. La partecipazione della comunità diminuisce lungo le fase, fino a ritornare attiva nella manutenzione del progetto eseguito. Un esempio di partecipazione basato su un lavoro a basso costo fornito dalla comunità è espresso con la fig.60, dove il controllo viene mantenuto dall'agente esterno, mentre il lavoro necessario per eseguire il progetto deriva dalla comunità. Non sempre questa modalità di partecipazione ha successo, in quanto le attività che deve svolgere derivano dagli agenti esterni in maniera top-down, e la comunità diventa più un service contractor che un partner in development. Una partecipazione solamente formale è quella rappresentata dalla fig.62, dove la comunità viene coinvolta solo nella fase di pianificazione e solamente a titolo consultativo. In questo caso la partecipazione della comunità serve solamente ha dare l'assenso ad un progetto predefinito in altra sede e a poi svolgere la manutenzione una volta eseguito. Nel processo di progettazione Action Planning, così come descritto da Hamdi e Goethert la partecipazione della comunità è molto più rilevante rispetto ai tradizionali approcci, e può essere espressa come nella fig.. L'attività progettuale viene avviata su pressione della comunità, che nella prima fase ha anche il ruolo importante di scremare le prime proposte. In questo modello, le autorità mantengono poi il controllo sulla esecuzione e manutenzione degli aspetti più tecnici (caselle in alto a destra), mentre le comunità vengono coinvolte solo informalmente (caselle in basso a destra). Entrambi comunque collaborano dove le proprie capacità e conoscenze lo permettono (caselle centrali a destra). Bisogna notare come in questo modello la fase di pianificazione risulti la più critica e quindi basata su un controllo condiviso: infatti, tutte le fasi successive dipenderanno da questa fase. La stessa modalità di progettazione Action Planning può essere rimodellata in modo da assumere una maggiore rapidità di sviluppo, così come viene presentato nella fig.. Si noti come l'inizio dell'intervento progettuale sia sempre bottom-up e la pianificazione sia condivisa. La progettazione vede ovviamente un ruolo maggiore agli agenti esterni, in quanto depositari di conoscenze progettuali specifiche e risorse adatte; in questo senso anche la fase di esecuzione vede un ruolo esclusivo degli agenti esterni, in grado di eseguire il progetto con maggiore rapidità. Infine, la manutenzione del progetto richiede sempre un ruolo di entrambi gli attori, anche se non collaborativo. 201
Fig. 58: Progettisti e comunitĂ nella matrice della partecipazione (Fonte: Hamdi, Goethert 1997)
Fig. 59: Livelli di partecipazione in un processo progettuale convenzionale (Fonte: Hamdi, Goethert 1997)
202
Fig. 60: Livelli di partecipazione in un processo progettuale basato sul lavoro a basso costo (Fonte: Hamdi, Goethert 1997)
Fig. 61: Livelli di partecipazione in un processo progettuale svolto con l'obiettivo della rapiditĂ (Fonte: Hamdi, Goethert 1997) 203
Fig. 62: Livelli di partecipazione formali in un processo progettuale (Fonte: Hamdi, Goethert 1997)
Fig. 63: Livelli di partecipazione in un processo progettuale di Action Planning con l'obiettivo della rapiditĂ (Fonte: Hamdi, Goethert 1997) 204
2.2. Web design e comunità virtuali Si è quindi visto quali siano alcuni punti fondamentali della progettazione architettonica e urbanistica, i più importanti per questa discussione. Ma le comunità Open Peer-to-Peer si configurano non solo come comunità locali, ma anzi come comunità multilocali, ossia una combinazione di comunità locali e globali allo stesso tempo. Ciò che permette alle comunità locali di entrare a far parte di una comunità globale è, quasi sempre, l'utilizzo di ICT e altre tecnologie della comunicazione. Sono quindi comunità locali e reali e comunità globali e virtuali, allo stesso tempo. Si può quindi vedere come sia stata considerata fino ad ora la progettazione di comunità virtuali, in modo da comprendere ulteriormente come indirizzare un approccio progettuale rivolto a comunità Open Peer-to-Peer. Come nell'analisi della progettazione per comunità in architettura e urbanistica, ciò che qui interessa non sono i consigli pratici e linee guida (che possono essere consultati senza molte difficoltà), ma comprendere come il tema "progettazione di una comunità" (o meglio: "progettazione per una comunità") sia stato affrontato e risolto. Con l'emergere della New Economy, molte imprese hanno compreso l'importanza di supportare la propria attività creando comunità di utenti17. La presenza di interessi comuni rende infatti possibile utilizzare le comunità virtuali come strumenti di marketing: è stato riscontrato il crescente impiego di queste particolari modalità di aggregazione da parte dei siti commerciali per costruire, mantenere e rafforzare la fedeltà dei consumatori, e dall'altro, l'aumento dell'affluenza dei visitatori nei siti commerciali che hanno creato delle virtual communities. Queste comunità che si formano ai siti commerciali, pur essendo interessate ad ottenere informazioni sui prodotti e i servizi offerti dalle aziende, sono caratterizzate da una forte componente ludica. Il termine infotainment, uno dei neologismi legati al mondo della Rete, indica proprio questa combinazione di informazioni e intrattenimento che si coagulano attorno a certi particolari siti Web e fa riferimento alle due dimensioni più importanti delle comunità virtuali18: 1. la dimensione informativa, che può essere definita come l'importanza che gli individui attribuiscono alle informazioni di cui le aziende sono in possesso e il desiderio di accedere a queste informazioni; 2. la dimensione partecipativa, intesa come desiderio di costruire relazioni con gli altri membri di quella particolare comunità di interessi. Quando si parla di sistema di relazioni all'interno delle comunità virtuali si pensa sempre al modo in 17 Preece, Krichmar (2003), pp.38-40, Roversi (2004) p.126 18 Roversi (2004) p.126 205
cui gli utenti delle comunità interagiscono fra loro. In realtà, il primo livello di relazioni che si instaura è quello tra il singolo utente e la piattaforma informatica19. La qualità di questo tipo di relazione influenza anche l'interazione tra gli utenti. L'interfaccia logica e grafica utilizzata dalla comunità assume, infatti, una valenza strategica nel favorire la facilità di fruizione da parte di tutti gli associati. Essa deve essere chiara, deve avere un significato univoco e presentare un linguaggio iconico e testuale facilmente comprensibile dagli utenti. La metafora della città20, utilizzata da molti autori per descrivere le comunità virtuali, può essere molto utile per comprendere l'importanza di questo concetto: i cittadini devono essere in grado di spostarsi facilmente tra i quartieri della loro città virtuale. Anche quando sbagliano strada, devono essere messi in grado di recuperare agevolmente il percorso desiderato. Per questo motivo si parla di mappa dei siti web. Verso la fine degli anni novanta è quindi cominciata una riflessione progettuale più specifica per lo sviluppo di comunità online, svolta principalmente da web designer o da informatici. In questo contesto il contributo più interessante proviene dagli scritti di Jenny Preece21. L'opera di Preece rappresenta infatti una prima riflessione sulla progettazione di comunità virtuali, dato che le uniche opere esistenti trattano l'argomento solamente proponendo consigli pratici provenienti dall'esperienza lavorativa, ma senza una riflessione su quali siano le basi per la progettazione di comunità virtuali. Preece, per la progettazione di comunità virtuali, sostiene la necessità di un approccio progettuale chiamato con la definizione di participatory community-centered development o PCCD (sviluppo partecipatorio centrato sulla comunità), basato su due componenti chiave: la progettazione del software (software usability o usabilità) e la fornitura di supporto allo sviluppo sociale (sociability o socievolezza). Dato che le comunità virtuali si evolvono con maggiore rapidità e con cambiamenti più radicali rispetto alle comunità locali, i progettisti devono fornire software adatti alle esigenze dei membri e processi e meccanismi di supporto all'evoluzione sociale delle relazioni interpersonali. In questo contesto, la partecipazione dei membri della comunità nella progettazione permette lo sviluppo di software più adatti e la fornitura di un supporto alle relazioni sin dalle prime fasi di vita della comunità. Il processo di PCCD è un processo progettuale aperto all'apporto dei partecipanti e si basa su quattro fasi: 1. analisi della comunità: comprensione delle necessità sociali della comunità, delle operazioni individuali per l'effettuazione di comunicazioni e i limiti tecnici dei partecipanti; 19 Idem 20 Donath (1997) 21 Preece (2000), Preece,
Krichmar (2003)
2.
3.
4.
sviluppo di un modello concettuale dello spazio comunitario: viene elaborato un concept della comunità, e vengono selezionati e progettati i software necessari al suo funzionamento, assieme ai meccanismi di supporto alla socievolezza; progettazione della usabilità e socievolezza: in questa fase le caratteristiche di usabilità e socievolezza vengono sviluppate sino ad una condizione di sufficiente qualità; crescita della comunità: in questa fase vengono ricercati partecipanti per la comunità, affinché questa raggiunga una massa critica e sia così autosufficiente.
Per Preece22 il successo di una comunità virtuale (e quindi della sua progettazione) deriva quindi da tre fattori: la usabilità (usability), la socievolezza (sociability) e il loro effetto sulle interazioni fra i membri della comunità. Per Preece i progettisti hanno poco o nessun controllo sui membri della comunità, eccetto in alcuni casi di comunità di ecommerce dove le interazioni sono rigidamente pianificate e controllate. Ad ogni modo, i progettisti possono influire sulla comunità progettando o selezionando software con una buona usabilità e sviluppando una giusta socievolezza. Un software con una buona usabilità supporta un apprendimento rapido, un alto mantenimento delle capacità di utilizzo (nuove azioni richiedono sempre le stesse conoscenze), bassi tassi di errore ed alta produttività. L'usabilità di un software è data dalla sua coerenza (cioè l'utilizzo delle stesse procedure e immagini grafiche per le stesse azioni), dalla sua controllabilità (da parte dell'utente, al fine di poter svolgere le azioni desiderate) e dalla sua prevedibilità (permettendo così agli utenti la costruzione di un bagaglio di esperienze e conoscenze nel suo utilizzo). I progettisti non possono controllare le interazioni sociali, ma un'accurata progettazione iniziale (assieme all'usabilità del software), può incoraggiare l'evoluzione della comunità. La socievolezza ricercata dalla progettazione riguarda le interazioni sociali, ossia la presenza di regole comuni, che supportano l'obiettivo della comunità e sono comprensibili, accettabili e praticabili. Al contrario dell'usabilità, tuttavia, il concetto di socievolezza in ambito software non è stato ancora sviluppato a dovere, rimanendo un campo ancora inesplorato.
decisione deve essere presa considerando l'influenza che avrà sull'assetto sociale della comunità, ma anche in relazione alle caratteristiche tecniche del software che permette l'interazione, che detteranno le caratteristiche dei meccanismi di registrazione. Preece23 riporta nove domande che spesso i partecipanti a comunità virtuali effettuano, comparando come l'approccio per la socievolezza e l'usabilità danno loro risposta (tabelle 12 e 13 ). Dato che le comunità virtuali evolvono incessantemente, i progettisti dovranno essere in grado di effettuare cambiamenti rivedendo regolarmente le decisioni prese riguardo la socievolezza e l'usabilità. È quindi questo un approccio progettuale che, grazie alla facile modificabilità dell'infrastruttura, consiste in una revisione e modifica continua del progetto stesso, anche una volta realizzato. All'interno dell'approccio progettuale partecipato elaborato da Preece, i fattori chiave dell'usabilità sono la facilità con cui permettono il dialogo interpersonale, la visualizzazione di informazioni, il loro accesso e la loro navigazione. I fattori chiave della socievolezza sono invece l'obiettivo della comunità, le caratteristiche dei partecipanti e le regole adottate. Il successo della comunità dipende da un'accurata progettazione di questi componenti chiave. In conclusione, un progetto per comunità virtuali (e quindi per quelle comunità Open Peer-to-Peer solamente virtuali oppure per gli artefatti che permettono la partecipazione delle comunità Open Peer-to-Peer locali anche ad una comunità Open Peer-to-Peer globale virtuale) bisogna adottare un approccio progettuale che si indirizzo non verso le relazioni direttamente, ma indirettamente. Un approccio che elabori come le caratteristiche dei partecipanti, l'obiettivo della comunità e le regole adottate possono combinarsi fra loro per poter dar luogo alla socievolezza della comunità. Un approccio in cui l'infrastruttura tecnica, gli artefatti, siano progettati per la loro facilità di utilizzo (usabilità) e per la loro capacità di supportare la nascita di relazioni (sociabilità). Un approccio progettuale che permette la revisione e la modifica continua del progetto stesso, anche da parte dei partecipanti stessi.
In una comunità virtuale, socievolezza e usabilità sono strettamente interconessi (la socievolezza può essere vista come una componente dell'usabilità). La scelta di inserire meccanismi di registrazione degli utenti è un esempio che mostra questa relazione. La scelta di regolare l'accesso alla comunità attraverso la registrazione dei membri può limitare l'accesso di membri meno seri e più atti a comportamenti aggressivi, ma può anche scoraggiare possibili membri inesperti. Questa 22 Preece (2001)
23 Preece, Krichmar (2003) p.29-30 206
domande
implicazioni per la socievolezza
soluzioni per l'usabilità
perché dovrei partecipare?
considerare ciò che il titolo e il contenuto dovrebbero comunicare riguardo l'obiettivo della comunità. quali informazioni sono necessarie e come dovrebbero essere presentate?
fornire un titolo chiaro e una enunciazione concisa dell'obbiettivo. gli elementi grafici non devono distrarre dal messaggio principale
la comunità dovrebbe essere aperta o chiusa? ciò dipenderà dai temi delle discussioni e dalla necessità o meno di controllare la partecipazione
considerare l'opzione di richiedere una registrazione. se necessaria, fornire istruzioni chiare, rendere corta la procedura e assicurare che i dati personali non verranno rivelati a terzi
quale regole supportano l'obiettivo della comunità? è presente un moderatore in grado di far rispettare le regole o arbitrare le dispute? è necessario? sono necessari documenti precisi?
fornire regole chiare, concise e mostrarle dove appropriato. se è necessario un moderatore fornirgli strumenti e regole
considerare ciò di cui i nuovi membri hanno bisogno per sentirsi parte della comunità e comunicare con gli altri membri. Come possono cambiare i bisogni dei partecipanti nel tempo?
determinare quale tipo di usabilità è necessaria per i differenti gruppi della comunità
considerare i bisogni sociali della comunità? qual è l'obiettivo della comunità?
decidere come supportare le azioni necessarie per la comunicazione
mi verrà corrisposto qualcosa quando donerà qualcosa? (regole)
come può essere incoraggiata la reciprocità?
offrire risposte alle domande, offire aiuto e supporto
la partecipazione è sicura?
considerare se un moderatore o regole più rigide siano necessari per assicurare comportamenti appropriati e per supporare l'obiettivo della comunità. sono importanti sicurezza e privacy? come incoraggiare la formazione di fiducia?
trovare come: proteggere informazioni personali, rendere sicure le transazioni, supportare le comunicazioni private, proteggere da aggressioni, supportare la fiducia dando prova dei comportamenti passati
determinare quale tipo di comunicazioni una comunità di questo tipo desidera e come possono essere supportati
fornire strumenti per una comunicazione personalizzata
decidere come mantenere alto l'interesse dei membri: che cosa possono ricevere di vantaggioso?
fornire costantemente nuovi contenuti
(obiettivo)
come partecipo o esco dalla comuntà? (regole)
quali sono le regole? (regole)
come comunico con gli altri membri? (regole)
posso agire con facilità per ottenere ciò che desidero? (obiettivo)
(regole)
posso esprimermi liberamente? (obiettivo) perché dovrei continuare a partecipare (obiettivo e regole)
Tabella 12: Legame tra socievolezza e usabilità (Fonte: Preece, Krichmar 2003)
207
obiettivo
criterio progettuale
esempi di fattori determinanti per il successo della comunità
socievolezza
Obiettivo
Quanti e quali tipi di messaggi o commenti vengono inviati? Quanto la discussione riguarda il tema scelto? Quante interazioni stanno occorrendo)ì? Che reciprocità è presente tra i membri? Qual è la qualità dei contributi e delle interazioni?
Partecipanti
Quanti partecipanti sono presenti e che tipo sono? Che cosa fanno e che ruoli assumono? Quali sono le loro caratteristiche?
Regole
Quali sono le regole presenti? È necessaria una registrazione? Sono efficaci le regole? Come si incoraggia lo sviluppo delle relazioni? Quali regole incoraggiano la fiducia e in che grado sono efficaci?
usabilità
Supporto al dialogo e Quanto tempo ci vuole per imparare il supporto al dialogo e alle relazioni? alla formazione di Quanto tempo ci vuole per inviare o leggere dei messaggi, o svolgere altre relazioni azioni? Sono soddisfatti i membri? Quanti errori fanno? Sono consapevoli del supporto fornito al dialogo e alle relazioni? Visualizzazione delle informazioni
Quanto tempo ci vuole per imparare a trovare le informazioni? Sono soddisfatti gli utenti? Quanto ricordano i membri delle azioni intraprese? Possono gli utenti trovare le informazioni necessarie senza errori?
Navigazione delle informazioni
Quanto tempo ci vuole per imparare a navigare tra le informazioni presenti? Possono gli utenti accedere alle informazioni che desiderano in un tempo ragionevole? Quanto si ricordano gli utenti della navigazione effettuata? Che errori commettono e di che tipo? Quanto sono soddisfatti?
Accesso alle informazioni
Possono gli utenti accedere a tutti i componenti del software di cui necessitano? Possono farlo in un tempo ragionevole?
Tabella 13: Socievolezza, usabilità e progetto (Fonte: Preece, Krichmar 2003)
2.3. Relazioni e progetto Analizzando le discipline progettuali che si sono interessate alla progettazione per comunità, si può notare che non si orientano direttamente verso le relazioni sociali, ossia non cercano di progettare le relazioni sociali. Data la natura di comunità, ci si aspetta infatti che un buon numero di relazioni sociali (e di buona qualità) siano indice di successo di un intervento progettuale indirizzato verso comunità. Ma architettura, urbanistica e web design si rivolgono alle comunità non agendo direttamente sulle relazioni sociali, ma indirettamente, agendo sull'infrastruttura su cui queste, in seguito, prendono forma: artefatti, sia fisici (prodotti, architetture, infrastrutture urbane e comunicative) e immateriali (informazioni, procedure, regole). Bisogna capire se un approccio di design possa riguardare, oltre alle caratteristiche fondamentali che supportano l'emergenza delle relazioni, anche direttamente queste ultime. A questo proposito, è utile considerare un articolo elaborato da Carla Cipolla, in cui analizza la possibilità, da parte del design, di intervenire progettualmente sulle relazioni sociali. In particolare, basandosi sull'opera “I and thou” di Martin Buber24, Carla Cipolla cerca di analizzare e comprendere come il design possa intervenire sul turismo realizzando "relazioni di ospitalità". Martin Buber usa due espressioni, “I-Thou” (cioè io-tu) e “I-it” (cioè io-esso) per analizzare qualsiasi tipo di incontro (encounter). Secondo Buber, l'individuo diventa una persona quando stabilisce delle
“relazioni” con altri esseri umani, la relazione “ITHOU”. Questo è l'unico modo in cui un individuo può divenire una persona: la società consiste in incontro autentici tra “persone”. Una persona diventa una persona nel momento in cui entra in una relazione con un'altra persona. L'unico scopo di una relazione è l'essere in contatto con un “Thou”. La relazione “I-Thou” rappresenta quindi la caratteristica più unica dell'essere umano: è l'abilità di intrattenere relazioni faccia a faccia con l'altro, una relazione diretta in cui albergano sia il dialogo che l'incontro. Questo incontro “IThou” non richiede concetti o certezze: relazionarsi con un “Thou” comporta un'avventura sconosciuta, senza definizioni né classificazioni sicure. Quando si interagisce con “It”, invece, ci si confronta sempre con qualcosa di conosciuto in precedenza come “It” e su cui poi si potrebbe voler conoscere di più attraverso le proprie azioni. Quando ci si relaziona con un “Thou”, si ha sempre di fronte una persona che non si conosce totalmente, e di cui non si saprà mai nulla a meno che non si ascolti ciò che la presenza della persona dice e quanto la persona stessa voglia lasciar sapere di lei. Carla Cipolla visualizza le relazioni “I-Thou” e “I-IT” e le loro caratteristiche con la figura 64, che compara le differenze fra le due relazioni dal punto di vista “I”. Questa comparazione rappresenta rispettivamente: i due tipi possibili di interazione (relazione o esperienza); il momento in cui queste interazioni avvengono (nel presente o nel passato); e le caratteristiche che “l'altro” (“THOU” o “IT”) può assumere quando prende parte all'interazione (presenza od oggetto).
24 Buber M., (1923), Ich und Du 208
Fig. 64: Schema comparativo rappresentante le differenze tra la relazioni “I-THOU” e l'esperienza “I-IT” (Fonte: Cipolla 2004)
Le caratteristiche distintive delle espressioni “I-IT” e “I-Thou”, secondo Buber, risiedono principalmente nelle differenze tra una “relazione” e una “esperienza”. La relazione tra un “I” e un “THOU” è immediata; l'interazione tra di loro avviene senza l'interposizione di alcun concetto, immaginazione o fantasia. Entrambi, per l'altro, sono una pura presenza, perché è una azione che avviene solo nel tempo presente. L'esperienza tra un “I” e un “IT” non avviene nel tempo presente, neanche se le due persone sono simultaneamente presente l'una in fronte all'altra. L'esperienza “I-IT” avviene nel passato, perché è stata anticipata dai preconcetti che ognuno dei due aveva sull'alto precedentemente. L'attore “I” in una relazione “I-IT” non si trova di fronte a una presenza, ma ad un oggetto precedentemente giudicato e valutato. Il problema è che, secondo Buber, ogni “THOU” deve necessariamente divenire un “It”. Sebbene la sua presenza possa essere esclusiva (senza mediazioni o filtri), il Thou” diventa una cosa fra cose, un “IT”. La relazione diventa una esperienza e ci si trova di fronte ad un oggetto, descrivibile, decomponibile e classificabile. In questo senso, per Carla Cipolla il turismo – come industria che crea e commercializza un servizio – viene costruito per offrire una “esperienza”. Il turista compra un travel product, cioè paga per usufruire di una “esperienza” vissuta che è conforme alle informazioni presenti nel catalogo promozionale. Questi prodotti sono delle esperienze, se li visti secondo il pensiero di Buber: avvengono nel passato perché il viaggiatore vive qualcosa che è stato descritto e prefigurato prima della partenza, portando con sé concetti e classificazioni sul luogo e sulla gente precedentemente creati. Il luogo e i suoi abitanti diventano l'oggetto della esperienza di turismo. Questi concetti costruiti a priori creano un blocco (o rendono quasi impossibile) per ogni possibilità di vivere una “relazione”, perché la relazione è una pura presenza, senza anticipazioni concettuali. Allo stesso modo, il turismo rappresenta un “It” per la comunità locale, un oggetto, da cui è possibile estrarre un profitto o che rappresenta una possibilità di lavoro.
209
Usando dunque questo principio dialogico di Buber, per Cipolla l'ospitalità può essere definita una relazione, cioè una espressione “I-Thou”. La relazione “I-Thou” si stabilisce necessariamente reciproca: di conseguenza, il concetto di ospitalità si applica sia al visitatore che al visitato (guest e host), che condividono la “relazione” di ospitalità in maniera uguale. A causa di ciò, il visitatore crea necessariamente l'ospite e vice versa. Buber osserva che le modalità “I-Thou” e “I-It” non sono permanenti, ma instabili: qualsiasi permanenza può divenire un “It”, una cosa fra cose, un “oggetto”. Questo succede perché gli esseri umani hanno la capacità e la tendenza a descrivere, decomposte e classificare le cose ma anche gli altri esseri umani. Come o quando questa trasformazione abbia luogo non può essere controllato né previsto. Secondo Cipolla, il processo di design ha la capacità di “anticipazione”, dato che il designer anticipa – in un progetto o schema mentale – ciò che succederà attraverso il design dei servizi (sia articolando servizi esistenti che creandone di nuovi) per soddisfare le richieste (trasporto, cibo, dormire, visite, ecc.) In questo modo il viaggiatore adempie a delle procedure già progettate. Il tempo fondamentale di queste azioni – considerando il designer e il viaggiatore – è il passato. Quindi una esperienza “I-IT”. Infatti, le esperienze turistiche sono totalmente condotte attraverso servizi offerti, e questi servizi sono il risultato di un processo di design che ha anticipato e controllato – il più possibile – tutte le variabili coinvolte. È facile comprendere come sia possibile progettare esperienze turistiche: il problema consiste quando si considera se l'ospitalità (una relazione tra due persone) possa essere progettata. Una relazione, in senso buberiano, non può essere anticipata, in quanto avviene sempre nel presente: di conseguenza, non possono essere il risultato di un processo di progettazione. È quindi chiaro come sia impossibile progettare una relazione di ospitalità in sé, e quindi qualsiasi relazioni. Ma, secondo Cipolla, un designer può muoversi in direzione dell'ospitalità, introducendo il concetto di vulnerabilità. Il termine invulnerabilità fa riferimento alla capacità ad essere ferito, ad entrare in contatto, a scontrarsi con qualcosa o qualcuno. Nel contesto del design, la vulnerabilità può essere vista come la probabilità che un determinato prodotto possa essere mal utilizzato, non svolgere la propria funzione efficacemente, rompersi o danneggiare l'ambiente circostante; o che un servizio possa divenire inefficace. Ma queste sono solamente accezioni negative del termine, che vanno abbandonate, considerando infatti che, in senso Buberiano, una relazione può avere luogo solo grazie alla vulnerabilità di un “I” mentre si confronta con un “THOU” e vice versa. In una relazione, entrambe le persone percepiscono la propria vulnerabilità all'altro, mentre in una esperienza nessuno è vulnerabile: preconcetti e classificazioni a priori fanno da scudo. Per Cipolla, dato che le relazioni non possono essere
progettate, l'unico intervento progettuale possibile riguarda la “vulnerabilità”, vista quindi come obiettivo progettuale. Progettare la “vulnerabilità” significa fare in modo che “I” sia vulnerabile alla presenza di “THOU”, ma come “possibilità”, non come predeterminazione. Quindi, non è possibile progettare delle relazioni autentiche, ma solo progettare alcune condizioni che portino, con maggiore probabilità, alla formazione autonoma di relazioni sincere. Un approccio progettuale rivolto a comunità Open Peer-to-Peer dovrà quindi, tra le altre cose, rivolgersi indirettamente alle relazioni e direttamente alle caratteristiche (materiali e immateriali) che permettono e supportano la loro emergenza. Le caratteristiche, condivise da tutti i partecipanti, che fanno in modo che essi siano reciprocamente vulnerabili, che sentano la presenza reciproca e si riconoscano senza preconcetti.
2.4. Complessità e progetto Una rete sociale (e quindi anche le comunità Open Peer-to-Peer) è uno schema di organizzazione non lineare (quindi un sistema complesso) caratterizzato da cicli autopoietici riguardanti reti di comunicazioni. Le comunità Open Peer-to-Peer rappresentano quindi dei sistemi complessi, in cui la propria riproduzione autopoietica avviene attraverso la comunicazione. I loro elementi costitutivi sono delle comunicazioni che vengono continuamente prodotte e riprodotte da una rete di comunicazioni, e che non possono esistere se non all'interno di tale rete. Attraverso una serie di cicli di retroazione, le comunicazioni producono la cultura condivisa all'interno della rete sociale, grazie alla quale i partecipanti acquistano una propria identità condivisa di comunità. Inoltre, le comunità Open Peer-to-Peer sono anche dei sistemi complessi adattativi, nel senso che apprendono dall'ambiente e si adattano ad esso, attraverso l'auto-organizzazione. Questa, e molte altre caratteristiche, sono proprietà emergenti dalle interazioni che avvengono all'interno della rete collaborativa. In conclusione, le comunità Open Peer-to-Peer sono dei sistemi complessi, e grazie a questa loro complessità intrinseca e alla loro capacità di valorizzarla, riescono ad affrontare problemi complessi. È questa quindi una caratteristica che le rende molto interessanti. È possibile progettare questa complessità? Un comportamento complesso è progettabile o deve essere favorito? Le relazioni sociali non possono essere progettate in sé (divenendo altrimenti esperienze), ma possono essere favorite tramite la progettazione delle condizioni necessarie alla loro formazione e sviluppo. Bisogna ora capire se, oltre alle relazioni, si possano progettare anche condizioni che favoriscano l'emergere di comportamenti complessi, oppure se questi siano in un qualche modo progettabili.
Le modalità con cui un sistema complesso si autoorganizza dipendono da come siano strutturate le interazioni tra i suoi elementi, che permettono loro di entrare in relazione reciproca e di scambiare "informazioni", ossia di "organizzarsi" determinando il comportamento del sistema. Nel caso dei sistemi complessi, quest'organizzazione non è imposta dall'esterno: non vi è un supervisore, un "creatore" esterno che, con una precisa intenzionalità progettuale, prescriva come gli elementi costitutivi debbano interagire, affinché il sistema si comporti secondo i suoi desideri. L'organizzazione emerge spontaneamente, è il sistema stesso che, per così dire, la "sceglie", tra le molte possibili: per questo motivo si parla di autoorganizzazione. Al fine di assicurare alle comunità Open Peer-to-Peer la capacità di autoorganizzazione, un intervento progettuale non deve arrivare dall'esterno, calato dall'alto. Il designer deve entrare a far parte della comunità Open Peer-to-Peer; si parlava infatti, riprendendo il discorso svolto da Maffei e Villari, di una comunità progettuale contenente la comunità Open Peer-toPeer e i designer. Inoltre, se esiste un progetto della comunità ed è accessibile dai partecipanti, deve poter essere modificabile. Infatti, in una comunità Open Peer-toPeer, a causa delle amplificazioni della retroazione positiva, un partecipante non può sapere, a priori, quali azioni gli porteranno più vantaggio; deve procedere per tentativi, e deve essere pronto a correggersi, rinforzando o indebolendo le sue interazioni, o creandone di nuove con altri elementi. Ne deriva un processo di continuo e reciproco adattamento tra i partecipanti, ognuno dei quali agisce e reagisce in base alle azioni e reazioni degli altri. Questo processo modifica progressivamente l'organizzazione, finché non si giunge a quella organizzazione che garantisce un'interazione armoniosa, ed in ogni caso non conflittuale, tra i partecipanti, in risposta agli stimoli provenienti dall'ambiente esterno. Quindi un intervento progettuale rivolto a comunità Open Peer-to-Peer, per permettere l'auto-organizzazione da parte dei suoi membri, deve svolgersi lungo un processo di assestamento dove sono gli stessi partecipanti a dare forma alla comunità. L'organizzazione di una comunità non è fissa, ma una configurazione di ordine dinamico; l'autoorganizzazione è il modo in cui la comunità si adatta all'ambiente, contrastandone le azioni distruttive e salvaguardando la propria integrità. Per poter permettere l'auto-organizzazione, il "progetto della comunità" deve poter essere modificabile nel tempo, oltre che essere sviluppato dai partecipanti. Non è quindi possibile progettare direttamente l'auto-organizzazione, ma è possibile organizzare il "progetto della comunità" in modo che questa possa avere un ruolo attivo nel suo sviluppo e lo possa modificare nel corso del tempo, cambiando cioè la propria organizzazione attraverso il progetto. Inoltre, possono essere progettate le condizioni che permettono l'auto-organizzazione: cicli di retroazione (sia positivi che negativi) e l'apertura della comunità. I cicli di retroazione 210
possono essere organizzati mettendo in relazione diretta fra loro eventi, azioni, ruoli, affinché l'output di uno di questi sia l'input di un altro di questi. Un ciclo cioè dove, ad esempio, ogni ruolo produce un output che viene utilizzato come input dal ruolo successivo, fino a chiudere il ciclo. In questo modo sarà possibile amplificare l'effetto dell'attività della comunità (retroazioni positive), oppure renderlo più stabile (retroazioni negative). Ovviamente, questo intervento progettuale non può avere direttamente come oggetto le relazioni sociali, ma eventi, azioni, ruoli, che possono essere progettati più facilmente. La seconda condizione, riguardante l'apertura della comunità, viene mantenuta normalmente: le comunità sono Open Peer-to-Peer. Significa quindi basare l'attività della comunità sulla sua apertura a flussi di partecipanti, informazioni, risorse. Bisogna quindi evitare che la comunità si chiuda in se stessa. Oltre ai cicli di retroazione, si dovrà anche tenere conto dei cicli di autopoiesi: cicli, cioè, di eventi, azioni, ruoli predisposti alla ricostruzione degli elementi della comunità che sono stati "persi", "danneggiati" o "consumati". Saranno quindi cicli predisposti alla generazione e rigenerazione di informazioni e di risorse varie tra cui anche i partecipanti. Sono infatti necessari ruoli, eventi od azioni in grado di reintegrare nuovi partecipanti al posto di quelli che, uscendo dalla comunità, ne pregiudicano l'attività. L'emergenza, come l'auto-organizzazione, è un processo dinamico che emerge nel corso del tempo e caratterizza, seppur in modo differente, i sistemi complessi (e quindi le comunità Open Peer-toPeer). Un comportamento del sistema che garantisce l'auto-organizzazione, infatti, può nascere ad un certo momento come proprietà emergente. Non sempre però questo avviene. Una auto-organizzazione centralizzata non permette la nascita di un comportamento emergente, che necessità di una decentralizzazione del sistema. È la decentralizzazione delle comunità Open Peer-toPeer che permette l'emergenza di processi di autoorganizzazione e di risultati innovativi e sorprendenti quali Linux. Viceversa, un sistema caratterizzato da emergenza ma che non presenta auto-organizzazione a causa di un ordine insufficiente non riuscirà sempre ad adattarsi e ad evolversi. Mentre l'essenza della auto-organizzazione è quella di un comportamento adattativo globale che autonomamente acquisisce e mantiene un ordine crescente, l'essenza dell'emergenza è quella della nascita un comportamento globale radicalmente nuovo causato dai singoli comportamenti individuali a livello locale, ma differente da questi. Ciò che emerge non è predicibile e non ha precedenti, e rappresenta un nuovo livello di evoluzione del sistema. Non è quindi possibile progettare l'emergenza di per sé, proprio come l'auto-organizzazione25. I comportamenti complessi non sono proprietà delle singole entità e non possono essere facilmente riconosciuti o dedotti dal 25 Capra (2001) 211
comportamento di entità del livello più basso. Una delle ragioni per cui un comportamento emergente si verifica è che il numero di interazioni tra le componenti di un sistema aumenta combinatoriamente con il numero delle componenti, consentendo l'emergenza potenziale di nuovi e più impercettibili tipi di comportamento. È quindi chiaro come un intervento progettuale diretto a comunità Open Peer-to-Peer non debba cercare di ridurre il numero dei partecipanti. Certamente un alto numero di partecipanti potrebbe complicare e quindi rallentare le fasi di progettazione, ma la loro presenza è fondamentale per garantire maggiori probabilità di successo della comunità. È la organizzazione a rete decentralizzata dei comportamenti locali che causa l'emergenza di un comportamento globale, il quale a sua volta influenza i comportamenti locali. L'emergenza è quindi causata da una doppia interrelazione tra la scala locale e quella locale, in cui il controllo del sistema viene decentralizzato. Come conseguenza di questo fatto sia ha che le azioni dei singoli elementi sono controllabili, ma il comportamento del sistema non è controllabile. L'emergenza di una caratteristica o di un comportamento continuerà a svilupparsi anche se alcuni elementi vengono meno: in una rete decentralizzata, più elementi sono di pari importanza e possono sostituirsi. Al contrario, in una rete centralizzata, l'eliminazione del centro avrebbe fatto crollare l'intera rete. Un intervento progettuale rivolto verso comunità Open Peer-to-Peer deve quindi favorire la decentralizzazione delle decisioni all'interno della comunità, e fare in modo che più partecipanti possano impegnarsi nel medesimo compito. Se vi sono dei ruoli specifici progettati, questi devono poter essere ricoperti da più partecipanti, permettendo così la flessibilità della comunità. In conclusione, le caratteristiche che portano all'emergenza sono la presenza di molte interazioni, la decentralizzazione del controllo del sistema e la conseguente flessibilità degli elementi, una correlazione tra i livelli micro e macro (locale e globale): se anche una di queste condizioni vengono a mancare, non si ha l'emergenza. È quindi importante che un intervento progettuale mirato a comunità Open Peer-to-Peer si preoccupi della presenza di queste caratteristiche. Le comunità Open Peer-to-Peer possono essere viste anche come sistemi complessi adattativi, cioè sistemi in grado di adattarsi ed apprendere relazionandosi con l'ambiente esterno. Proprio questa capacità può essere vista come la principale proprietà che distingue i sistemi complessi da quelli caotici, che invece ne sono privi. Tanto i sistemi complessi quanto i sistemi caotici sono caratterizzati dalla non-linearità delle interazioni tra i propri elementi costitutivi, ma nei sistemi caotici questa non-linearità raggiunge un livello tale che l'amplificazione delle fluttuazioni prosegue senza fine, impedendo al sistema di stabilizzarsi su una forma di organizzazione adatta rispetto al suo ambiente.
A sua volta, un sistema complesso può assumere un comportamento caotico se il suo ambiente cambia troppo, o troppo velocemente: la componente caotica nel flusso di dati diventa predominante rispetto a quella regolare, e il sistema non può più "conoscere" l'ambiente e, quindi, auto-organizzarsi. Se, viceversa, l'ambiente è troppo stabile, il sistema perde la capacità di evolvere. L'ambiente deve presentare abbastanza regolarità perché i sistemi possano servirsene ai fini dell'apprendimento o dell'adattamento, ma al tempo stesso non una regolarità così grande da rendere impossibile che vi accada qualcosa. N e consegue che una comunità Open Peer-to-Peer sarà tanto più efficiente quanto più si trova immersa in una situazione intermedia tra ordine e disordine. Se il suo ambiente cambia troppo o troppo velocemente non riesce più ad adattarsi ad esso auto-organizzandosi. In questo caso la sua capacità di adattamento e di risoluzione di problemi complessi viene quindi meno. Quindi un intervento progettuale rivolto a comunità Open Peer-to-Peer sarà si aperto e paritario (open Peerto-Peer), ma se l'ambiente è troppo stabile o troppo caotico sarà il designer ad avere un ruolo maggiore nella progettazione. In questo senso, si capisce ulteriormente l'importanza delle matrici per l'analisi della partecipazione introdotte da Nabeel Hamdi e Reinhard Goethert. In questo modo sarà possibile comprendere se la partecipazione della comunità sarà efficace. In un ambiente troppo stabile, pochi partecipanti si attiveranno e prenderanno parte alla progettazione della comunità e alla sua attività: è quindi il designer che deve cercare di coinvolgere il numero minimo di partecipanti per raggiungere la massa critica. Se viceversa l'ambiente è troppo caotico, vi saranno molti partecipanti attivi, ma saranno troppi per poter dare luogo ad una discussione collettiva sulla natura della comunità: in questo caso sarà il designer a dirigere la discussione e l'intervento progettuale. In questo modo cercherà di raggiungere una situazione intermedia, dove la progettazione può essere paritaria senza pregiudicare l'esito finale. Questa caratteristica dei sistemi adattativi complessi sottolinea inoltre anche un altro aspetto, molto importante: non sempre le comunità Open Peer-to-Peer sono in grado di auto-organizzarsi. Infatti, si è portati a pensare che una comunità, sviluppato ed eseguito il suo "progetto", non abbia più bisogno del designer. In realtà potrebbe averne comunque bisogno in futuro, quando cambiamenti troppo radicali o troppo rapidi dell'ambiente pregiudicano la sua capacità di autoorganizzazione.
2.5. Supporto all'emergenza delle relazioni: Attività e piattaforme 2.5.1. Piattaforma e attività Con la intenzione di costruire una metodologia di intervento progettuale per comunità Open Peer-toPeer, al fine di costituire reti collaborative, si è cercato di capire cosa progettare di una comunità Open Peer-to-Peer e come progettarlo. Per capire ciò sono state considerate architettura, urbanistica e web design, le discipline progettuali che si sono interessate di comunità, reali e locali le prime due, virtuali e globale quest'ultima. Tutte queste discipline, anche se con notevoli differenze, hanno in comune il fatto che non progettano la comunità nella sua essenza, cioè non progettano la sua natura sociale (cioè come insieme di relazioni sociali reciproche) e di sistema complesso (cioè capacità di mostrare auto-organizzazione, emergenza, adattamento ed autopoiesi). Non progettano direttamente la natura sociale e di sistema complesso delle comunità, ma il substrato (sia materiale che immateriale) su cui poi in seguito si svilupperà la comunità, ossia si svilupperanno le sue relazioni sociali e i suoi comportamenti complessi. Si è compreso poi che una progettazione mirata a comunità deve integrare la comunità stessa all'interno del processo progettuale (progettazione partecipata) e permetterle la modifica del progetto anche una volta che è stato eseguito. Questo, per avere maggiori probabilità di successo del progetto. È stato già segnalato da altri autori come non siano progettabili relazioni sociali e complessità. Ciò che è progettabile sono le condizioni necessarie affinché relazioni e complessità emergano. Un intervento progettuale indirizzato verso comunità Open Peer-to-Peer dovrà quindi orientarsi direttamente verso quelle condizioni che permettono la nascita e l'evoluzione della comunità, condizioni che possono quindi essere riassunte nel concetto di piattaforma. È questo un termine che molti autori utilizzano in riferimento alle attività di una comunità. Ad esempio, per Mean e Tims lo spazio pubblico è una piattaforma per la nascita di esperienza da parte dei cittadini (che la co-producono con le autorità). Nell'approccio progettuale26 elaborato dal Design Council britannico, la piattaforma ha un ruolo importante. È il nucleo centrale del progetto su cui tutto il resto viene costruito, e definisce i principi fondamentali e i punti di accesso (o touchpoints). Ad esempio, nel caso della esperienza sviluppata a Kent27, la piattaforma è costituita dai mobs, i gruppi di partecipanti, il sito web wearemobs.org e la rivista mensile Your.mob. Per il Design Council la piattaforma è quindi un insieme di forme 26 Design Council (2006a, 2006b) 27 Design Council (2006a) 212
organizzative e artefatti, da cui poi altri aspetti del progetto verranno sviluppati. Questi aspetti sono i ruoli e gli strumenti. I ruoli definiscono come gli strumenti vengano utilizzati e da chi, mentre gli strumenti sono artefatti per azioni specifiche. Gli artefatti che costituiscono gli strumenti possono essere sviluppati ed utilizzati solo grazie all'esistenza della piattaforma. Ad esempio, sempre nell'esperienza sviluppata a Kent, i ruoli sono quelli di motivatore, allenatore e mobber, cioè semplice partecipante. I vari strumenti, che aiutano a creare le condizioni favorevoli per lo svolgimento e la motivazione di una attività, sono ad esempio voucher, rubriche della rivista o strumenti web che permettono la ricerca di partecipanti con simili interessi, oppure per dare inizio personalmente a un mob. L'approccio progettuale sviluppato dal Design Council è molto interessante e promettente, tuttavia non è stato elaborato fino a divenire una metodologia progettuale completa. Il concetto stesso di piattaforma, ad esempio, deriva dalle specifiche condizioni riscontrate nei due progetti (Kent e Bolton) ma è alquanto generico. Per il Design Council la piattaforma non rappresenta l'aspetto progettabile delle reti collaborative, da cui poi queste si originano e prendono la forma di comunità. La piattaforma è solo il nucleo centrale del progetto, a cui poi si aggiungono altri strumenti e ruoli.
l'insieme delle condizioni (progettabili) necessarie affinché si sviluppino caratteristiche specifiche nella comunità e che non sono progettabili perché non anticipabili (cioè relazioni sociali e comportamenti complessi a livello sistemico), ma che nascono dalla interazione tra un numero potenzialmente alto di agenti e di variabili. Si è in presenza (e in necessità) di una piattaforma ogni volta che si forma una caratteristica che deriva dalle interazioni fra un alto numero di agenti. La piattaforma permette l'emergenza di una caratteristica collettiva condivisa (fig.66). È quindi un concetto molto semplice che permette la separazione tra gli aspetti progettabili di una comunità e quelli non progettabili. Se poi, tra questi aspetti progettuali, vengono identificati artefatti progettabili dal design (cioè prodotti, servizi, artefatti comunicativi), risulta comprensibile come il design possa avere un ruolo in un intervento progettuale rivolto a comunità Open Peer-to-Peer. Nel caso delle comunità locali, la piattaforma è rappresentata dagli edifici e dalle infrastrutture e servizi urbani; nel caso delle comunità virtuali, la piattaforma è rappresentata dal sito web e dal software su cui si basa. Quindi in questi due casi, si può dire che architettura, urbanistica e web design progettino la piattaforma affinché si formi una comunità e sia in grado di auto-organizzarsi attraverso di essa. Allo stesso modo, il design progetterà una piattaforma per le comunità Open Peer-to-Peer attraverso prodotti, servizi, artefatti comunicativi. La piattaforma è quindi un concetto che identifica la comunità che si basa su di essa (una comunità locale è identificabile con gli edifici e la porzione di tessuto urbano in cui risiede, una comunità virtuale è identificabile come il sito web che utilizza per comunicare), ma questa non può essere ridotta alla sola piattaforma, in quanto risulta costituita da elementi che si formano grazie alla piattaforma ma non sono insiti in essa. La comunità è un ente molto più ricco e complesso della piattaforma.
Fig. 66: Comunità e piattaforma della comunità
Fig. 65: Open Health, Kent: relazione tra piattaforma, strumenti e ruoli (Fonte: Design Council 2006a)
L'aspetto importante di questo approccio progettuale è quello di mettere in luce il legame tra piattaforma, ruoli e artefatti. Tuttavia, è possibile elaborare una visione più completa del concetto di piattaforma, legata a interventi progettuali per comunità Open Peer-to-Peer. In questo modo la piattaforma agisce da discriminante tra gli aspetti progettabili e quelli non progettabili. In questo contesto, la piattaforma rappresenta 213
La piattaforma è quindi un concetto utile per identificare quelle condizioni necessarie affinché si sviluppino interazioni tra agenti, e che aumenta di importanza con l'aumentare del loro numero. Le condizioni necessarie, cioè, affinché l'insieme di partecipanti si trasformi in una comunità, caratterizzata da relazioni sociali e da una natura di sistema complesso adattativo. Ma, analizzando i casi di comunità Open Peer-toPeer, ci si accorge che ciò che dà loro luogo, oltre ad aspetti progettabili come prodotti, servizi, artefatti comunicativi, è lo svolgimento di una attività collaborativa collettiva.
Per una comunità Open Peer-to-Peer, una piattaforma non è semplicemente un insieme di artefatti progettabili, non esiste solo in presenza di un intervento progettuale. Per una comunità Open Peer-to-Peer, la piattaforma è rappresentata dall'attività collettiva: grazie ad essa si formano relazioni sociali e comportamenti complessi a livello sistemico. Progettare l'attività sarebbe quindi l'obiettivo progettuale. Ma l'attività deriva comunque da un processo di interazione tra un numero elevato di agenti: l'attività emerge da una discussione collettiva fra tutti i partecipanti. Ne consegue che l'attività, per generarsi e svilupparsi, ha bisogno di una sua piattaforma (fig.67). Assieme, attività e piattaforma per l'attività costituiscono la piattaforma per la comunità. La piattaforma per l'attività permette la sua nascita e svolgimento da parte dei partecipanti, entrambe rappresentano la piattaforma per la comunità, grazie alla quale si formano relazioni e comportamenti complessi a livello sistemico. Attività e piattaforma sono difficilmente distinguibili, perché la prima necessita della seconda per svilupparsi e a sua volta la modifica. Sono quindi due aspetti strettamente interconnessi e intrecciati. A questo punto è possibile chiamare “piattaforma” la piattaforma per l'attività, per evitare di generare confusioni, dato che piattaforma e attività sono quindi estremamente interconnesse che difficilmente si riesce a separarle (fig.67).
riconsidera l'attività collettiva attraverso la Teoria dell'Attività. L'attività è costituita da tre livelli, attività, azione ed operazione, che la compongono. Un attività, evolvendosi, passa da attività ad azione ed infine operazione, mano a mano sostituita da una attività più complessa. Se si considera poi le attività che le comunità Open Peer-to-Peer svolgono, ci si accorge che queste sono divise in due tipi: attività specifiche ed attività di infrastruttura. Le attività di infrastruttura sono necessarie per poter poi svolgere le attività specifiche. Queste ultime variano da comunità a comunità, mentre le prime sono molto simili: rappresentano le attività necessarie per poter organizzare e svolgere una attività collettiva precisa, caratteristica di ogni comunità.Le attività di infrastruttura si evolveranno in azioni, più o meno parallelamente all'emergere delle attività specifiche. Quando queste saranno ben sviluppate, l'attenzione della comunità si sposterà verso livelli a complessità maggiore, trasformandole in operazioni. Quando le attività di infrastruttura saranno metabolizzate, allora sarà possibile sviluppare le attività specifiche di ogni comunità, le quali poi si svilupperanno sui tre livelli possibili dell'attività. Una comunità Open Peer-to-Peer prima studierà come poter organizzare la discussione collettiva, e solo in un secondo luogo svilupperà attività più specifiche.
livello
a cosa si dirige
chi lo svolge
attività
oggetto/motiva zione
comunità
azione
obiettivo
individui o gruppi
operazione
condizioni
individui o macchine, come una routine
Tabella 14: La struttura gerarchica dell'attività (Fonte: Sangiorgi 2004) Fig. 67: Attività e piattaforma per l'attività come piattaforma per la comunità
Inoltre, le condizioni che danno luogo alla attività sono in gran parte le stesse che danno luogo alla comunità. In questo senso: se, dal punto di vista del design, si considera la piattaforma dell'attività come un insieme di artefatti progettabili, e quindi strumenti che supportano le interazioni tra i vari partecipanti, saranno gli stessi strumenti ad essere utilizzati per gestire le relazioni. E la complessità a livello sistemico deriva direttamente dalla interazione tra un numero elevato di partecipanti, ed aumenterà con lo svolgimento dell'attività. Ad esempio, se la piattaforma consta di strumenti utili per poter comunicare ed effettuare così una discussione collettiva per sviluppare l'attività, sarà sempre una discussione collettiva (o semicollettiva) che darà luogo a relazioni sociali. Questa caratteristica diviene più comprensibile se si
Ad esempio, nel caso di Terra Madre, la prima edizione è servita a mettere in contatto le Comunità del Cibo, non a sviluppare particolari attività. Sarà dalla seconda edizione che queste cominceranno ad apparire, grazie al nuovo ruolo dei ristoratori e delle università che hanno accetto di partecipare. Una piattaforma deve poter permettere lo svolgimento di tutte queste attività, azioni ed operazioni. Se le attività di infrastruttura servono per permettere una interazione tra i partecipanti (comunicare, scambiare beni materiali e immateriali, incontrarsi, ecc.), serviranno anche per la formazione di relazioni. Le relazioni, infatti, si sviluppano dopo un certo periodo in cui le attività vengono svolte, quando i partecipanti sono entrati in contatto, hanno cominciato a conoscersi, e il capitale sociale incomincia a prendere forma, attraverso la condivisione di fiducia tra partecipanti. Le relazioni si sviluppano attraverso le azioni ed operazioni necessarie per comunicare, scambiare beni, incontrarsi, ma all'interno dell'attività complessiva. 214
In questo modo, risulta che ciò che si debba progettare per le comunità Open Peer-to-Peer è la piattaforma necessaria affinché si sviluppi l'attività e l'attività stessa, se progettabile. Entrambe, infatti, rappresentano la piattaforma per la comunità. Se la piattaforma è necessaria per processi che richiedono una interazione tra un numero elevato di agenti, allora anche l'approccio progettuale rivolto alle comunità Open Peer-toPeer, basato sulla partecipazione, richiederà una piattaforma per poter essere svolto. Risulta quindi necessario, all'inizio dell'intervento progettuale, analizzare la piattaforma esistente per la discussione collettiva, grazie alla quale è possibile stabilire un contatto con i partecipanti. In questo modo si possono capire già quali siano i punti deboli e forti, e già intervenire per risolvere punti critici che non permettono la discussione designerpartecipanti, fondamentale per lo sviluppo di un progetto partecipato. Per differenti tipi di comunità si mobilitano differenti tipi di discipline progettuali. Per comunità locali, la cui piattaforma è rappresentata da edifici e infrastrutture urbane, si mobilitano urbanistica ed architettura. Per comunità virtuali, la cui piattaforma è rappresentata da un sito web e dal software che ne permette la fruizione, si mobilitano web design e programmazione. Per comunità Open Peer-to-Peer, la cui piattaforma è rappresentata dall'attività collettiva, si mobilita il design strategico, in grado di mettere a sistema prodotti, artefatti comunicativi e servizi in grado di supportarla.
2.5.2. Piattaforma: caratteristiche ed evoluzione La piattaforma è quindi l'insieme di tutte quelle condizioni che rendono possibile l'emergere dell'attività e, da questa, della comunità. Quindi la piattaforma rende possibile: 1. la ricerca e il raggiungimento di contatti tra i potenziali partecipanti; 2. la discussione fra questi di una attività specifica per la risoluzione delle proprie motivazioni; 3. lo sviluppo e lo svolgimento di una attività; 4. a seguito della discussione collettiva e dello svolgimento dell'attività, la formazione di relazioni sociali e comportamenti complessi a livello sistemico. La piattaforma è l'insieme delle caratteristiche che danno luogo allo svolgimento e gestione dell'attività. Caratteristiche che sono distribuite e condivise all'interno della rete sociale dei futuri partecipanti: tutti i partecipanti di una comunità Open Peer-to-Peer condividono un problema, delle motivazioni, dei linguaggi, degli strumenti. Come il capitale sociale, la piattaforma esiste solo quando viene condivisa. La piattaforma non è quindi un insieme di caratteristiche che può essere considerato come una monade, ma rappresenta la condivisione di 215
queste caratteristiche all'interno della rete sociale. La piattaforma ha una natura reticolare. Si è detto precedentemente che si ha la presenza (e la necessità) di una piattaforma quando ci si trova in presenza di interazioni tra agenti, soprattutto quando questi sono in numero elevato. Si può definire ora la piattaforma come l'insieme delle caratteristiche condivise tra un numero elevato di agenti che permettono loro di interagire. Ad esempio, un sito web non è una piattaforma, ma un artefatto. In questo caso, la piattaforma è data dalla condivisione nella rete sociale delle connessioni ad Internet, della possibilità di accesso al sito web, delle conoscenze necessarie per usufruirne, ecc. Non bisogna dimenticare che tra le caratteristiche condivise non solo vi saranno problemi e motivazioni, ma anche la conoscenza di come raggiungere i partecipanti (ad es. Quale sito accedere o con chi parlare). L'importanza del concetto di piattaforma è data dal fatto che, ragionando in termini di piattaforma, è possibile capire quali nodi della rete sociale condividano le condizioni necessarie per poter svolgere l'attività. In questo modo è possibile analizzare ogni nodo della rete sociale (cioè ogni persona, ogni possibile futuro membro di una nuova comunità oppure ogni membro di una comunità esistente) attraverso il Sistema dell'Attività, per l'attività che sta svolgendo. Bisogna quindi ripetere questa operazione per tutte le attività di infrastruttura e organizzative, e anche di quelle specifiche se già presenti. Un intervento progettuale di design potrà quindi intervenire più facilmente su artefatti, regole e divisione del lavoro, le caratteristiche condivise. Inoltre, non tutti questi elementi sono progettabili o devono essere progettati: artefatti, secondo la Teoria dell'Attività, possono essere anche linguaggi e infrastrutture tecniche (autostrade, telecomunicazioni, ecc.), già esistenti, non progettabili dal design ma che possono aumentare la propria condivisione grazie al design.
Fig. 68: Piattaforma descritta con il Sistema di Attività
La comunità (intesa come insieme di relazioni e come sistema complesso adattativo) e l'attività emergono dall'interazione tra i partecipanti, cioè
sono proprietà globali si originano da interazioni locali e a loro volta le influenzano. Comunità e attività sono quindi proprietà emergenti. Ma anche la piattaforma potrebbe essere vista come proprietà emergente: è una caratteristica della rete sociale nel suo complesso, quindi globale, che emerge da interazioni locali (la ricerca reciproca fra i partecipanti e il tentativo di dotarsi degli stessi strumenti per poter comunicare). Inoltre, se si utilizza la Teoria dell'Attività per descrivere la piattaforma, ne risulta che essa sarà un insieme di caratteristiche non tutte progettabili perché già esistenti oppure non direttamente "progettabili". Una piattaforma può essere costituita da strade, autostrade, edifici, mezzi di comunicazione come telefono ed e-mail, linguaggi. Tutti questi elementi non sono progettabili con un intervento di design: ciò che si può fare sono prodotti, servizi, artefatti comunicativi in grado di aumentare la condivisione di questi elementi all'interno della rete sociale. Infatti, anche se fosse possibile progettare con un intervento di design infrastrutture o mezzi di comunicazione, non avrebbe molto senso progettarli se già esistenti e già ampiamente utilizzati e condivisi. Se le attività svolte evolvono nel tempo, da attività di infrastruttura, ad organizzative, a specifiche (e, al loro interno, da attività ad azioni ed infine operazioni), ne consegue che anche la piattaforma si evolverà nel tempo. È possibile quindi supporre come una piattaforma si presenta nelle varie attività che supporta presentate precedentemente, che rappresentano anche le sue fasi di vita. Attraverso le varie fasi di evoluzione della piattaforma, questa si espande in modo tale che mano a mano siano sempre più gli elementi condivisi fra i nodi della rete. Se la piattaforma rappresenta tutte le caratteristiche necessarie per lo sviluppo e lo svolgimento di una attività, allora la precede. La prima fase della vita di una piattaforma riguarda l'attività di ricerca e raggiungimento reciproco tra i vari possibili futuri partecipanti, in modo da permettere poi la discussione collettiva. In questo momento quindi la piattaforma è costituita dalla condivisione di motivazioni e necessità (soggetto), strumenti e linguaggi utilizzati per comunicare (artefatti), che portano ad una prima forma di collettività (fig.71). Costituita una prima piattaforma, attraverso la discussione collettiva possono essere sviluppate delle regole e quindi organizzate e sviluppate le attività infrastruttura, fino a quando non emergerà l'attività specifica della comunità (con le sue azioni ed operazioni specifiche), e le attività infrastruttura non diverranno delle operazioni. In questa fase alla piattaforma si aggiunge anche la condivisione di regole atte a gestire la discussione collettiva e che formano poi l'aspetto etico della futura comunità, che verrà ad influenzare tutte le attività svolte in futuro (fig.72). Quando si sviluppa anche l'attività specifica, i partecipanti condividono tutti gli elementi della
piattaforma: in questo modo hanno tutti gli elementi specifici necessari per svolgere l'attività. La piattaforma era infatti l'insieme delle condizioni (o elementi, se descritta come Sistema di Attività) necessari per svolgere una attività: naturale che quando l'attività viene sviluppata queste siano condivise. Ma, da questo momento, si assiste alla nascita di una divisione del lavoro (cioè alla specializzazione in ruoli differenti). Le differenze fra le piattaforme di attività così aumentano, e non è possibile riscontrare una piattaforma che condivida tutti gli elementi. Gli elementi che sono condivisi, da questo momento in poi, sono le regole, gli artefatti, e la divisione del lavoro (fig.73). Le regole di una comunità, la divisione fra ruoli e gli artefatti necessari per svolgere l'attività e comunicare sono infatti condivisi fra tutti. Dato che però la piattaforma è stata descritta con un Sistema di Attività, questa quindi descrive l'attività dei singoli partecipanti. In questa descrizione gli elementi regole, artefatti, divisione del lavoro sono sempre condivisi, mentre soggetto, oggetto e comunità (cioè quali partecipanti interagiscono con il soggetto in quella attività, non la comunità nel suo complesso) dipendono dal partecipante che si sta esaminando. Quindi, mentre soggetto, oggetto e comunità dipendono dal partecipante, artefatti, regole e divisione del lavoro sono sempre uguali e condivisi fra i partecipanti: ecco perché costituiscono la piattaforma in questo momento, perché rappresentano un insieme di condizioni condivise e necessarie per lo svolgimento dell'attività. Si è visto come quindi un approccio progettuale rivolto a comunità Open Peer-to-Peer deve avere come oggetto del progetto la piattaforma della comunità, intesa come attività e sua piattaforma. Questo perché l'attività è progettabile. Prima di passare ad una analisi più approfondita del legame tra piattaforma, attività e sua progettabilità, conviene comprendere quale sia la natura della piattaforma e dell'attività, dal punto di vista del design. È emerso, in questo contesto specifico ma non solo, il cambiamento del ruolo di designer da provider a enabler. È infatti questo un cambiamento che si sta facendo avanti per molti ruoli, che prima erano preposti alla fornitura di una soluzione finita, come ad esempio le istituzioni locali. L'emergere di questo cambiamento è dovuto dalla crescente presenza di persone che reclamano il proprio ruolo attivo nella soluzione dei propri problemi, attraverso la elaborazione di soluzioni personalizzate. Per questo motivo, il design per un approccio progettuale rivolto a comunità Open Peer-to-Peer si avvale della partecipazione dei membri: per fare in modo che la soluzione finale sia il più possibile adatta alle caratteristiche specifiche dei partecipanti (sia, cioè, personalizzata). Nel caso specifico delle comunità Open Peer-toPeer, il designer diventa enabler della loro autoorganizzazione e della costituzione di relazioni sociali, attraverso la co-progettazione di soluzioni, in particolare di soluzioni abilitanti. 216
Fig. 69: La natura reticolare della piattaforma: condivisione delle caratteristiche nei nodi
217
Fig. 70: Natura reticolare della piattaforma
218
autonomia nella realizzazione delle soluzioni finali"28. Il processo è l'attività, mentre i prodotti, servizi e conoscenze possono rientrare a far parte della piattaforma per l'attività.
Fig. 71: Piattaforma iniziale
Fig. 72: Piattaforma nelle prime fasi di discussione collettiva
Finora si è parlato di piattaforma, ma questo termine non è casuale. Se le soluzioni rappresentano un insieme di processi ed artefatti (che possono essere progettati), esse possono essere di due tipi: full service o enabling platform29. Questi due tipi rappresentano due approcci profondamente differenti. Una soluzione full service fornisce una soluzione che riduce gli sforzi, il tempo e l'attenzione dell'utente necessari per ottenere un risultato. Al contrario, una piattaforma abilitante (enabling platform), rappresenta una soluzione che richiede un alto coinvolgimento dell'utente, che gli fornisce competenze, capacità ed autonomia, necessarie per portare a termine la soluzione. È chiaro quindi come la piattaforma della comunità di cui si è fino ad ora parlato è una enabling platform, cioè una piattaforma che abilita i partecipanti ad ottenere un risultato (nel caso delle comunità Open Peer-toPeer, abilita a svolgere una attività con cui ottenere un risultato). Fornire una piattaforma ad una comunità significa fornirle una soluzione abilitante; più precisamente, co-progettare con lei una soluzione abilitante. Tanto più l'utilizzatore della soluzione abilitante è esperto e motivato, tanto più semplici possono essere gli strumenti necessari e viceversa, meno l'utilizzatore è esperto più il sistema deve essere in grado di sopperire alle sue carenze, integrando ciò che egli non sa e/o non può fare e motivandolo ad agire30. Una piattaforma abilitante è quindi un insieme di elementi materiali ed immateriali (prodotti, servizi, infrastrutture, conoscenze e regole) che, introdotte in un determinato contesto, aumentano le possibilità di fornire una base per l'emergere di iniziative creative di tipo bottom-up.
Fig. 73: Piattaforma di una attività sviluppata
La piattaforma per la comunità, cioè, rappresenta quella che Ezio Manzini definisce "un processo che permette ad un attore (una persona o una comunità) di ottenere un risultato adottando una specifica strategia; è quindi un processo che, grazie all'utilizzo di appropriati prodotti, servizi e conoscenze, permette agli attori una certa
219
28 Manzini, Jegou (2003) 29 Manzini (2006a) 30 Manzini, Jegou (2003)
220
3. Dagli strumenti progettuali
di
3.1. Sistema di Attività e servizi 3.1.1. Attività e servizio Si è visto quindi come l'aspetto progettabile di una comunità Open Peer-to-Peer sia la sua piattaforma, ossia l'insieme delle caratteristiche che, condivise all'interno della rete sociale dei partecipanti della comunità, ne permettono l'emergenza. Più specificatamente, la piattaforma rappresenta l'insieme delle condizioni necessarie affinché possano avere luogo interazioni tra i partecipanti, condizioni che diventano ancora più importanti con l'aumentare del numero dei partecipanti. È quindi necessaria una piattaforma per poter discutere e sviluppare una attività, caratteristica fondamentale delle comunità Open Peer-to-Peer. A sua volta, l'attività (assieme alla propria piattaforma) diventa la piattaforma per la comunità, in quanto le relazioni sociali e la natura di sistema complesso adattativo sono conseguenze dello svolgimento dell'attività. In conclusione, ciò che un designer può progettare per una comunità Open Peer-toPeer è la piattaforma necessaria affinché si sviluppi l'attività e l'attività stessa, se possibile. Si è visto come la piattaforma può essere quindi vista come un insieme di prodotti, artefatti comunicativi e servizi (assieme ad elementi preesistenti quali linguaggi e infrastrutture); la sua progettazione quindi non presenta quindi la necessità di ulteriori elaborazioni teoriche. Sull'attività, invece, bisogna spendere una maggiore attenzione, al fine di capire in che modo sia progettabile. Una attività, per poter essere progettata con un approccio di design, può essere vista come un servizio, o meglio, come un insieme (o rete) di servizi. In questo modo, può essere progettata attraverso il design dei servizi. Un servizio può essere visto in molti modi, come prestazione, processo ed interazione, visioni che mettono in luce la sua natura di azione umana e quindi di intangibilità. Se visto come una prestazione, rappresenta un'attività che una parte può scambiare con un'altra, la cui natura è intangibile e non implica la proprietà di beni materiali. La differenza tra servizio e prodotto può essere riassunta attraverso quattro caratteristiche chiave quali l'intangibilità, l'eterogeneità, la simultaneità tra produzione e consumo e l'assenza di scorte: essendo il servizio una prestazione, non è tangibile o percepibile allo stesso modo di un prodotto; la sua performance può cambiare notevolmente nei vari contesti di erogazione e nei vari utenti (eterogeneità), soprattutto nei servizi a forte intensità umana; i servizi non possono essere
analisi
agli
strumenti
prodotti in un momento temporalmente differente da quando vengono consumati (simultaneità tra produzione e consumo) per cui non possono essere immagazzinati, rivenduti o restituiti se non conformi a quanto atteso (assenza di scorte). Il servizio è anche un processo, il risultato di una sequenza di attività identificabili, che sono il corrispettivo del processo di produzione del settore manifatturiero. Il processo di produzione di un 1 servizio è stato definito da Eiglier e Langeard con il neologismo di servuction, ossia l'organizzazione sistematica e coerente di tutti gli elementi fisici e umani dell'interfaccia cliente-impresa necessari alla realizzazione di una prestazione di servizio. Gli elementi interagenti del sistema di servuction o di erogazione sono il cliente, il supporto fisico, il personale di contatto, il sistema di erogazione interno (back office) gli altri clienti e il servizio (fig.75). L'attenzione per i momenti di interazione tra utente e la parte visibile del servizio evidenzia le dimensioni esperienziale e relazionale e sposta il punto di vista dalla parte del cliente. Infine, i servizi sono stati paragonati ad una 2 interazione , e la loro progettazione quindi alla progettazione di interazioni fra un utente ed ente erogatore, suddiviso in front office (la parte dell'ente con cui l'utente interagisce) e back office (la parte dell'ente attiva nella erogazione del servizio ma con cui l'utente non interagisce). La scelta dell'interazione come ambito di studio e come criterio di lettura deriva dalla consapevolezza che la percezione della qualità di un servizio è realizzata nei momenti di contatto o momenti della verità tra l'utente e il sistema del servizio. La qualità tecnica, relazionale, ambientale, di immagine, economica ed organizzativa di un servizio si manifestano e sono verificabili solo nel momento in cui l'utente entra in contatto col servizio, essendo prima in uno stato di potenzialità. Il paradigma dell'interazione caratterizza anche i contributi, sia teorici che pratici, che provengono dalla cultura del design. Gli architetti/designer si sono tradizionalmente occupati della progettazione dei luoghi di interazione col servizio e la nascente disciplina del design dei servizi ha focalizzato la propria attenzione sulla parte visibile del servizio, la cosiddetta interfaccia del servizio e sulle variabili 3 che influenzano la qualità dell'interazione . In questo modo, progettare un servizio significa progettare una interazione. Per Pacenti, il fulcro dell'attività di progettazione strategica del servizio sta nella definizione della “piattaforma di interazione” tra il servizio e l'utente. 1 2 3
Eiglier, Langeard (1988) Pacenti (1998) Idem 221
La piattaforma dell'interazione è il contesto (l'architettura del sistema) in cui ha luogo l'interazione tra servizio e utenti. Nella costruzione della piattaforma confluiscono i valori proposti dall'azienda, che si materializzano nella sua offerta, e la co-produzione di tali valori da parte dell'utente, che partecipa mettendo in campo il proprio impegno, le proprie risorse e le proprie competenze. La piattaforma di interazione è il luogo di incontro tra l'offerta del servizio e la partecipazione dell'utente all'interno di un contesto 4 valoriale condiviso . Si vede quindi come il concetto di piattaforma proposto, come insieme delle condizioni che rendono possibile l'interazione fra persone, si ricolleghi al campo del design dei servizi.
Fig. 75: Servuction (Fonte: Eiglier e Langeard 1988)
Inoltre, per Pacenti il front office del servizio è un'interfaccia non solo nel senso più ampio del termine – che rimanda al significato generico di “entrare in relazione” - ma soprattutto nel senso che il termine ha acquisito nella disciplina della progettazione delle interfacce. Cioè, la progettazione del sistema deputato allo scambio di informazioni con l'utilizzatore. In un artefatto, l'interfaccia rappresenta il luogo dell'interazione tra l'individuo tecnico (artefatto, artefatto digitale o comunicativo) e l'individuo umano (l'utilizzatore); analogamente l'interfaccia dei servizi viene definita da Pacenti come la la zona, l'ambito, la scena in cui hanno luogo le interazioni tra il sistema di erogazione e l'utente, che ha come attori il sistema di erogazione (che si potrebbe definire artefatto socio-tecnico) e il suo fruitore (il soggetto umano). L'introduzione del concetto di “interfaccia dei servizi” attribuisce all'area della relazione un peso determinante nella definizione della qualità del servizio stesso, dato che deve fornire all'utente il modello concettuale di utilizzo, o meglio di fruizione, del servizio stesso. Ciò che differenzia sostanzialmente il comportamento di un artefatto dall'interfaccia di un servizio, ai fini della loro progettazione, è che il grado di variazione tra lo stato potenziale e l'atto, in un servizio, comprende la mediazione dell'elemento umano. Nelle interfacce di servizi tradizionali, cioè quelli che prevedono la presenza di operatori umani, il comportamento del sistema 4
Questo ovviamente se il servizio è abilitante, mentre se è di tipo full service tenderà a ridurre il margine di azione dell'utente
222
contiene un margine di variazione superiore, dovuto all'imprevedibilità del comportamento dell'operatore umano (derivante dalle sue caratteristiche specifiche) all'atto della relazione con i singoli utenti. La letteratura dei servizi che tratta dell'interazione tra utente e sistema di erogazione del servizio coincide con un particolare filone di ricerca sul cosiddetto service encounter ovvero sul periodo di tempo durante il quale l'utente interagisce 5 direttamente con un servizio . La modalità di interazione dell'utente con il servizio può variare da servizio a servizio così come da momento a momento del processo di fruizione. L'insieme dei singoli encounter compone l'esperienza complessiva del servizio la cui qualità dipende da numerosi fattori in parte legati alle caratteristiche della situazione in cui si svolge il servizio e in parte riguardanti il contesto e le condizioni più ampi in cui sia l'utente che l'operatore (umano o artificiale) 6 agiscono . Si comprende ora perché l'attività può essere considerata un servizio. Essa infatti viene svolta attraverso una rete di interazioni tra i vari partecipanti, i quali assumono i ruoli derivanti dalla divisione del lavoro. In particolare, in una comunità Open Peer-to-Peer, conviene parlare di interazioni fra ruoli, a cui poi i partecipanti aderiranno liberamente e dinamicamente (ossia variando nel tempo) tramite processi di auto-selezione. Una attività, vista come rete di interazioni fra ruoli, allora è anche una rete di service encounter fra ruoli. Ma a differenza dai service encounter dei servizi erogati dalle imprese, i service encounter interni all'attività della comunità non hanno una distinzione tra front office e back office, ma tra un ruolo ed un altro ruolo. In un intervento progettuale rivolto a comunità Open Peer-to-Peer, quindi, non si parlerà più di front office e back office ma di ruolo A e ruolo B. L'incontro dell'utente con un servizio avviene, nella maggior parte dei casi, attraverso l'interazione col personale di contatto e in alcuni casi la valutazione della qualità del servizio e il conseguente livello di soddisfazione dipendono fortemente da questa interazione sociale. Le caratteristiche di intangibilità ed eterogeneità della performance di un servizio derivano principalmente dalla predominanza della variabile umana nella erogazione/fruizione dello stesso. L'interazione con un servizio non può essere valutata anticipatamente in quanto strettamente dipendente dall'incontro personale e contestualizzato tra utente ed erogatore. Il riconoscimento dell'importanza della dimensione umana per la qualità dei servizi ha portato quindi parte della letteratura sul service encounter a focalizzarsi sugli incontri che prevedono una interazione faccia a faccia tra utente e personale di 7 contatto . 5 6 7
Sangiorgi (2004) Ibidem Ibidem
I service encounter sono interazioni umane orientate e limitate da uno scopo, non sono altruiste, non prevedono una conoscenza pregressa della persona con cui si interagisce (stranger relationship), sono caratterizzate da una predominanza di scambio di informazioni relative all'esecuzione di specifici compiti, sono caratterizzate da ruoli predefiniti e possono prevedere una temporanea sospensione delle differenze di status sociale. Il service encounter è quindi una relazione diadica, una interazione tra 8 due soggetti . Una conseguenza importante di questa evoluzione nella lettura del servizio è stata la necessità di un approccio bottom-up, che consideri l'interazione, nella sua manifestazione situata, come l'unità primaria di analisi e che introduca metodologie e strumenti di analisi provenienti dagli studi di psicologia sociale. È in questo ambito che si inserisce l'opera di Daniela Sangiorgi, che collega il design dei servizi con la Teoria dell'Attività, in modo da risolvere la mancanza di un modello interpretativo del servizio che tenga in considerazione i principali elementi del servizio che influenzano la percezione ed il comportamento dei partecipanti all'interazione. Insomma, un un modello interpretativo in grado di contemplare la elevata complessità sociale che caratterizza un servizio. Un servizio viene descritto da Daniela Sangiorgi come un'attività formata da una sequenza di service encounter, descrivibili come sistemi di azioni situate co-prodotte nell'incontro/confronto tra il Sistema di Attività dell'utente e il Sistema di Attività dell'impresa di servizio. Portando questa definizione nell'ambito delle comunità Open Peerto-Peer, si ha che l'attività che la comunità svolge è un servizio formato da una sequenza di service encounter, descrivibili come sistemi di azioni situate co-prodotte nell'incontro/confronto tra il Sistema di Attività di un ruolo A e il Sistema di Attività di un Ruolo B. Nel caso del design dei servizi, quindi, l'oggetto di design coincide con il Sistema di Attività stesso, che diventa l'oggetto del progetto, ma anche lo strumento di analisi e progettuale. La progettazione di un servizio porta con sé una complessità di variabili il cui valore non risiede nel singolo elemento, ma nella loro integrazione e nella percezione risultante e complessiva che di essa hanno i soggetti interagenti. Ragionare in termini di Sistema di Attività supporta il progettista ad affrontare la progettazione del servizio secondo una visione sistemica, considerando il peso ed il ruolo della singola variabile all'interno dell'attività, e a leggere la stessa attività da punti di vista differenti, a seconda che del soggetto sia preso in considerazione. L'applicazione dei principi e dei concetti provenienti dalla Teoria dell'Attività influenza necessariamente la natura dell'approccio progettuale ipotizzato dalla Sangiorgi, che: • non ha come oggetto esclusivo l'interfaccia del servizio, ma colloca il service encounter 8
•
•
all'interno del sistema più ampio del servizio, anch'esso potenzialmente oggetto di progettazione, e del contesto socio-culturale dell'utente; si presta maggiormente a processi di re-design o comunque ad azioni di design che sono fortemente radicate sull'analisi dell'esistente (bottom-up); non si basa esclusivamente sulle capacità visionarie e creative del designer, ma richiede principalmente una capacità di facilitazione di processi di design collaborativi e bottom-up.
I punti fondamentali dell'ipotesi di Daniela Sangiorgi sono i seguenti: • il Sistema di Attività come linguaggio progettuale: l'utilizzo del Sistema di Attività come unità di analisi del service encounter porta ad ipotizzare l'utilizzo degli stessi elementi del Sistema di Attività come termini chiave di un “linguaggio progettuale” che accomuni e guidi tutto il processo di design dalle fasi di analisi a quelle di progetto del servizio; • il service encounter come principale risorsa per la valutazione del servizio: la lettura del service encounter come risultato dell'incontro/confronto tra il Sistema di Attività dell'utente ed il Sistema di Attività dell'impresa di servizio ed eventuali Sistemi di attività confinanti, porta a considerare il service encounter come principale risorsa per la valutazione del servizio. Il termine “confronto” sottolinea la natura negoziata dell'azione di servizio e il potenziale emergere di contraddizioni nel suo svolgimento. La valutazione della qualità di un servizio consiste quindi principalmente nell'analisi della manifestazione situata del service encounter e nel suo confronto con i Sistemi di Attività interagenti e confinanti (analisi contestuale e sistemica); • progettazione di Sistemi di Attività non conflittuali: il design dei servizi consiste nella progettazione di Sistemi di Attività che adattino e sincronizzino i Sistemi di Attività (prospettive, scopi e pratiche) degli attori che interagiranno nel servizio, ovvero di service encounter che minimizzino la possibilità di generare conflitti o che siano in grado di gestirli e risolverli in modo situato; questo processo può essere migliorato attraverso il coinvolgimento degli attori stessi nel processo progettuale (design partecipatorio); • progettazione dei livelli dell'attività di servizio: la collocazione del service encounter all'interno della struttura gerarchica dell'attività, porta ad ipotizzare che la progettazione di un servizio, anche se sviluppabile secondo percorsi differenti, consista nell'aggiunta progressiva di livelli di dettaglio: dalla definizione dell'attività di servizio (concept), alla progettazione delle singole azioni di servizio (service encounter) fino al design delle condizioni operative (specifiche).
Ibidem 223
Dunque un servizio è una attività, le cui azioni sono delle interazioni fra soggetti, cioè dei service encounter. Considerando il servizio come una attività, esso si presta ad essere descritto attraverso i livelli gerarchici proposti dalla Teoria dell'Attività. Nell'analisi e nella progettazione di un servizio non si può infatti considerare il singolo service encounter come un sistema a se stante, ma è necessario contestualizzarlo temporalmente nell'insieme di “incontri” che compongono il servizio nella sua totalità. L'articolazione in attività, azioni ed operazioni permette infatti di collocare il singolo service encounter, o azione di servizio all'interno di una sequenza di “incontri” che compongono l'attività di fruizione/erogazione complessiva; è attraverso la sequenza di service encounter (azioni di servizio) e perseguendo obiettivi parziali e contestuali che l'utente e l'operatore possono raggiungere gli scopi generali del servizio (attività). Nello stesso tempo il service encounter può essere descritto attraverso la sequenza di operazioni che lo compongono e che dipendono dalle condizioni strumentali e sociali che abilitano e contemporaneamente vincolano l'azione. La progettazione di un servizio può considerare la struttura gerarchica come una sorta di “ordine” con cui organizzare le attività progettuali. La generazione di nuove idee di servizio può partire dalla delineazione dell'attività complessiva che un utente può svolgere e degli scopi da soddisfare, per poi delineare i possibili percorsi di offerta e quindi di azioni che l'utente può seguire per poi progettare le condizioni materiali e sociali che li rendono possibili. Un percorso inverso può avvenire o quando si genera una nuova idea di servizio a partire da modalità operative di fruizione/erogazione oppure in casi di re-design dove dalla ri-progettazione delle condizioni di svolgimento si può arrivare alla revisione dei livelli superiori dell'azione e dell'attività.
Fig. 76: Struttura gerarchica dell'attività di servizio (Fonte: Sangiorgi 2004)
In questo modo, nelle comunità Open Peer-to-Peer, l'attività complessiva è costituita da un insieme di azioni (o interazioni o service encounter). Daniela Sangiorgi propone quindi un modello interpretativo del servizio (modello dell'incontro) (fig.77), 9 attraverso l'analisi dei suoi service encounter .
9
Ibidem
224
I suoi concetti chiave alla base, adattati alle caratteristiche delle comunità Open Peer-to-Peer, sono: • le azioni che compongono il service encounter sono descrivibili secondo il paradigma dell'azione sociale situata, ossia il risultato di un processo continuo di interpretazione e di negoziazione del significato della situazione con cui la persona interagisce e delle azioni degli attori sociali con cui deve costantemente allinearsi; il suo corso dipende strettamente dall'utilizzo delle risorse materiali e sociali che ne mediano e vincolano lo svolgimento e deriva il proprio significato dal contesto sociale, culturalmente e storicamente determinato, di cui è una manifestazione puntuale temporanea; • il service encounter, come azione di servizio, è analizzabile e descrivibile attraverso l'unità di analisi del Sistema di Attività che ne rappresenta i principali elementi costitutivi (soggetto, oggetto-obiettivo, artefatti, comunità, regole e divisione del lavoro) e le loro relazioni; • il service encounter deve essere letto come parte di una sequenza di altri “incontri” o azioni di servizio che compongono l'attività complessiva della comunità e descritto attraverso la sequenza di operazioni che la compongono e che dipendono dalle condizioni strumentali e sociali che abilitano e contemporaneamente vincolano il suo svolgimento; • il service encounter è il risultato dell'incontro/confronto tra il Sistema di Attività del ruolo A ed il Sistema di Attività del ruolo B ed è influenzato direttamente o indirettamente dalle relazioni con altri Sistemi di Attività confinanti. Bisogna notare come il modello dell'incontro rappresenta un punto di partenza: vi possono essere service encounter costituiti dall'interazione di più di due Sistemi di Attività. La descrizione del service encounter come azione situata, attraverso il modello del Sistema di Attività, permette di rappresentare in maniera sintetica gli elementi che determinano la variabilità della performance di un servizio. La descrizione del service encounter come incontro/confronto tra Sistemi di Attività permette invece di collocare l'azione dei soggetti interagenti (utente ed operatore) all'interno non solo della situazione di servizio, ma anche all'interno del proprio contesto socio-culturale di riferimento. Un service encounter è quindi un Sistema di Attività, costituito dall'interazione di due o più Sistemi di Attività (cioè due soggetti, due ruoli nel caso delle comunità Open Peer-to-Peer). Fare parte di un Sistema di Attività significa agire all'interno di una comunità secondo delle regole, esplicite ed implicite, e una divisione del lavoro che definiscono come le persone si debbano comportare all'interno della comunità (regole) e come debbano organizzare le proprie azioni (ruoli e compiti) per raggiungere lo scopo generale. Se questi concetti vengono trasferiti all'ambito dei servizi, le azioni dell'utente e quelle dell'operatore
(o di due ruoli) possono essere interpretate come partecipanti all'interno del Sistema di Attività del servizio, governato da regole che definiscono la modalità di interazione e il comportamento da tenere durante i service encounter e da un suddivisione dei ruoli e dei compiti che permette ad entrambi di agire sullo stesso oggetto e di raggiungere i propri scopi. L'analisi di un servizio richiede, quindi, accanto alla valutazione degli strumenti che ne mediano l'azione, l'identificazione della comunità di persone, delle regole e dell'organizzazione dell'attivita che caratterizzano ogni service encounter e l'erogazione/fruizione del servizio nella sua totalità. Ogni service encounter può essere quindi analizzato o progettato attraverso la descrizione dei seguenti componenti: soggetto: coincide con l'individuo o il • sottogruppo che viene scelto come punto di vista per analizzare l'azione di servizio. Nel caso di un service encounter i punti di vista utilizzabili sono principalmente quelli dell'utente e dell'operatore (se presente); • oggetto-obiettivo: l'oggetto, materiale o immateriale (idea, piano, problema, ecc.) è ciò a cui è orientata l'azione e che viene “manipolato” e trasformato nell'output finale. In particolare l'output finale desiderato coincide con l'obiettivo/i che il soggetto si pone nel corso dell'azione di servizio; artefatti: mediano l'azione del soggetto • verso l'oggetto e possono essere di tre tipi: • strumenti: sono supporti fisici che mediano l'azione e modificano materialmente l'oggetto a cui è diretta l'azione; • competenza: rappresenta il know-how del soggetto che viene utilizzato per agire nel servizio; • informazioni: sono i veicoli fisici o verbali (segni) distribuiti nel contesto del servizio che forniscono le indicazioni necessarie per agire ed orientarsi nel servizio; • comunità: comprende più individui o sottogruppi che condividono lo stesso oggetto e che si distinguono da altre comunità. Nel service encounter la comunità rappresenta l'insieme di persone che partecipano direttamente e indirettamente all'azione; • regole: sono sia norme esplicite che implicite (convenzioni, abitudini, valori, ecc...) che influenzano il comportamento del singolo soggetto all'interno del service encounter; • divisione del lavoro: la divisione del lavoro indica in termini generali i ruoli che il soggetto deve coprire nell'interazione col servizio e nello specifico i singoli compiti che deve svolgere per raggiungere l'obiettivo prefissato. Un aspetto importante del Sistema di attività, da considerare sia in fase analitica che progettuale, è l'interdipendenza esistente tra gli elementi del
modello (evidenziata nella figura attraverso le linee colleganti i diversi elementi). La dimensione sistemica del Sistema di Attività comporta che se un elemento del sistema subisce una modifica le ripercussioni possono riguardare tutta l'attività: se in un servizio ad esempio viene inserito un nuovo macchinario (strumento) tutto il Sistema ne viene in qualche modo influenzato, perché i soggetti che lo utilizzano devono acquisire nuove competenze e organizzare l'attività diversamente introducendo nuove regole o procedure. L'introduzione di un nuovo strumento può anche contribuire a modificare lo scopo finale dell'attività essendo aumentate le potenzialità di azione del sistema. Il service encounter oltre ad essere parte di una sequenza di azioni di servizio che compongono l'attività complessiva di fruizione/erogazione, è anche il risultato dell'incontro o interazione tra attori appartenenti a contesti differenti. In questo passaggio ulteriore è di particolare utilità un concetto chiave della Teoria dell'attività per la lettura della dimensione evolutiva dei Sistemi di Attività quale quello di contraddizione. La contraddizione deriva principalmente dal fatto che le attività non sono unità isolate, ma nodi di una rete di altri Sistemi di Attività che interagiscono e si influenzano tra di loro. Tra le tipologie di contraddizioni proposte dalla Teoria dell'Attività un particolare risulta interessante per la costruzione del modello: le contraddizioni quaternarie che si generano dall'incontro ed interazione tra attività definite da Engestrom come confinanti. Tra le attività confinanti vengono citate le attività-oggetto ovvero le attività che acquisiscono ed incorporano i risultati del Sistema di Attività centrale. Le contraddizioni (problemi, conflitti, breakdown di comunicazione, ecc.) che si generano durante i service encounter dipendono quindi dal fatto che non sempre gli elementi dei sistemi che interagiscono combaciano o si adattano reciprocamente, ma che spesso possono entrare in conflitto. Ad esempio gli scopi dell'utente possono differire da quelli dell'operatore e da quelli del sistema di servizio, le regole di fruizione possono essere eccessivamente vincolanti per le abitudini dell'utente o non adeguatamente esplicitate ecc. Per comprendere appieno l'origine delle contraddizioni che emergono durante l'interazione situata, è quindi fondamentale conoscere i Sistemi di attività di riferimento degli attori che partecipano al service encounter.
3.1.2. Progettazione del servizio/attività Per Daniela Sangiorgi il design dei servizi consiste principalmente nella definizione delle funzionalità che caratterizzano l'erogazione del servizio (cosa viene erogato), degli attori che erogano queste funzionalità (chi eroga il servizio) e delle modalità con cui queste funzionalità vengono svolte (come viene progettato), compreso i target di performance. La progettazione del servizio come attività avviene attraverso i tre livelli gerarchici dell'attivita, visti come livelli di dettaglio del progetto e fasi progettuali (fig.76): 225
1. livello attività/azione: la progettazione dell'attività complessiva del servizio caratterizza le fasi ideative e la definizione del concept di servizio; 2. livello azione/operazioni: l'articolazione del concept in azioni e operazioni di servizio caratterizza la fase progettuale di sviluppo che ha come primo output il progetto dettagliato delle azioni di servizio o service encounter; operazioni/condizioni: il progetto 3. livello dettagliato delle azioni di servizio porta alle definizioni delle condizioni materiali e sociali (elementi del Sistema di Attività) che permettono lo svolgimento delle singole operazioni e che rappresentano la base per la formulazione delle specifiche di ogni componente del servizio. I contenuti di progetto possono essere tradotti nelle attività (azioni e operazioni) che caratterizzano il sistema dell'offerta del servizio (che cosa l'utente è messo in grado di fare), nei Sistemi di Attività (soggetti collettivi o individuali) che svolgono le attività di servizio (chi) e con le sequenze di azioni di servizio (o di operazioni) attraverso cui il servizio viene erogato (come). Nel contesto delle comunità Open Peer-to-Peer, il sistema dell'offerta del servizio è l'attività che la comunità svolge (che cosa i membri possono fare collettivamente), i Sistemi di Attività (soggetti collettivi o individuali) che svolgono determinati ruoli (chi) interagendo reciprocamente attraverso sequenze di azioni (o di operazioni) attraverso cui l'attività collettiva viene svolta (come). Sangiorgi propone un unico tipo di strumento per ogni contenuto di design da utilizzare ai diversi livelli di dettaglio del progetto: la mappa del sistema (chi), la mappa dell'offerta (cosa) e la mappa dell'interazione (come). La fig. 78 visualizza il percorso di design mettendo a matrice i tre livelli e i tre contenuti di progetto. Il processo di design di un servizio può essere quindi riassunto come lo sviluppo delle mappe dei tre contenuti principali di progetto : il sistema (chi), l'offerta (cosa) e l'interazione (come) del servizio dal livello dell'attività complessiva del servizio, ai livelli di dettaglio successivi dell'azione e delle operazioni di servizio. Il contenuto di progetto riassunto dal termine chi è stato tradotto attraverso la definizione del sistema del servizio: la progettazione del sistema del servizio coincide con la definizione di quali comunità e quali attori partecipano all'erogazione del servizio, secondo quali ruoli e attraverso quali risorse. Il sistema del servizio può essere progettato a diversi livelli, a seconda che si leggano i ruoli considerando il servizio nella sua complessità o si individuino i singoli compiti all'interno delle singole azioni di servizio (in questo caso ci si riferisce agli attori). La rappresentazione e la progettazione del sistema può avvenire attraverso due tipologie di mappe: la mappa del Sistema di Attività (fig.79) e la mappa del Sistema del servizio (fig.80). La mappa del Sistema di Attività visualizza gli elementi del Sistema di Attività (azienda, team, business unit, 226
ecc.) che dovrà erogare il servizio e i Sistemi di Attività confinanti (stakeholder) in funzione del ruolo svolto rispetto all'attività del servizio. La mappa del Sistema di Attività può essere usata ad un livello di dettaglio maggiore se gli elementi descritti e visualizzati riguardano una singola azione od operazione di servizio. Il limite di questo strumento può essere il carico di informazioni rappresentato in ogni mappa e la mancanza di una visualizzazione delle relazioni spaziali, se significative (es. layout fisico) e dei flussi che avvengono tra gli attori del servizio. 10
La mappa del sistema del servizio anche se non visualizza necessariamente tutte le risorse dell'erogatore, supera il limite della mappa del Sistema di Attività in quanto è principalmente orientata a rappresentare i ruoli e i flussi che caratterizzano il sistema del servizio e che ne rendono possibile l'erogazione. Nella mappa viene delimitata una piattaforma virtuale del servizio entro la quale vengono rappresentati i soggetti che partecipano direttamente all'attività di servizio e fuori della quale invece i soggetti contribuiscono indirettamente all'attività o che ne possono influenzare il corso. Al livello dell'attività complessiva e nelle fasi iniziali di progetto i soggetti sono generalmente “soggetti collettivi” ovvero partner del progetto o potenziali stakeholder (da identificare e coinvolgere nel progetto) rappresentati attraverso icone e brevemente descritti; le relazioni e i flussi tra i soggetti sono invece rappresentati attraverso frecce numerate temporalmente seguendo il corso dell'attività del servizio e rappresentati in maniera differente a seconda che siano informazioni, soldi o prodotti. Al livello delle singole azioni ed operazioni di servizio la mappa può assumere le sembianze di un layout (se c'è un'azione che avviene in un luogo fisico), i soggetti sono individuali (clienti, personale di contatto, personale di back office, ecc.), i ruoli coincidono con i singoli compiti da svolgere e i flussi sono precisati in termini di quantità e caratteristiche distintive. Se necessario la mappa si può prestare a rappresentare una quantità di informazioni maggiori relative ai singoli elementi del Sistema di Attività che caratterizzano ogni singolo flusso ed operazione. Il sistema dell'offerta coincide con il pacchetto di servizi ovvero con l'insieme di beni fisici e benefici espliciti ed impliciti di cui l'utente può usufruire attraverso la fruizione del servizio. Questi possono essere descritti e tradotti in termini di attività che il servizio svolge o che l'utente può svolgere in interazione con il servizio per l'utilità e il beneficio dell'utente stesso. Il passaggio da un livello di dettaglio all'altro avviene rispondendo alla domanda come, ovvero “come quell'attivitàazione-operazione di servizio può essere svolta e quel beneficio raggiunto?”. Nelle fasi iniziali di sviluppo del concept, la mappa dell'offerta (fig.81) è la dimensione temporale che permette di comprendere come effettivamente l'utente interagisca col servizio e come possa fruire dei benefici del servizio. 10 Jegou, Manzini, Meroni (2003)
Fig. 77: Modello dell'incontro (Fonte: Sangiorgi 2004)
Fig. 78:Percorso progettuale (Fonte: Sangiorgi 2004)
227
Fig. 79: Mappa del Sistema di AttivitĂ (Fonte: Sangiorgi 2004)
Fig. 80: Esempio di mappa del Sistema di Servizio (Fonte: SEP)
228
La traduzione della mappa dell'offerta in sequenza di service encounter costituisce il passaggio necessario per la costruzione della mappa dell'interazione. La descrizione di come l'utente interagisce con il servizio può essere svolta a diversi livelli di dettaglio attraverso lo strumento del blueprint (fig.82). Il blueprint può essere utilizzato per descrivere l'attività complessiva od entrare nel merito delle singole azioni ed operazioni di servizio. L'elemento mancante nel formato classico del blueprint è una descrizione più dettagliata degli elementi del Sistema di Attività, generalmente limitati alle evidenze fisiche (strumenti), ai soggetti e ai ruoli. Nel descrivere ogni azione di servizio può essere invece utile a scopi progettuali individuare e segnalare quali siano le risorse necessarie ai diversi attori del servizio per svolgere le azioni descritte, ovvero quali strumenti, competenze, informazioni devono possedere o avere a disposizione, quali regole devono seguire e in quale contesto complessivo agiscono. Il ragionamento in termini di Sistema di Attività aiuta il team progettuale a non dare per scontato e quindi a non tralasciare delle variabili che possono influenzare il corso dell'azione o creare delle contraddizioni interne al Sistema di Attività. L'utilizzo del blueprint ai diversi livelli di progetto può veicolare una quantità di informazioni differente e funzionale alle esigenze delle fasi di progetto. Sangiorgi propone di passare da uno storyboard per le idee di servizio ad un blueprint semplificato per il concept di servizio fino all'elaborazione di un blueprint dettagliato per la fase di sviluppo del servizio: • il blueprint semplificato consiste nella rappresentazione della sequenza di encounter dell'attività complessiva del servizio, distinguendo il ruolo svolto dal sistema del servizio da quello dell'utente e descrivendo brevemente per ogni service encounter la soluzione o le soluzioni progettuali proposte; • il blueprint dettagliato invece entra nel merito dei compiti dei singoli attori, distinguendo attori di front office da quelli di back office, e dettaglia la soluzione di servizio attraverso gli elementi del Sistema di Attività. Il blueprint dettagliato può essere svolto a livello dell'attività, delle azioni e delle operazioni di servizio. Nel costruire il blueprint del servizio bisogna tenere presente della variabilità del servizio che si traduce sia nella rappresentazione di diversi possibili percorsi di interazione con l'utente (e quindi diversi blueprint) che nella segnalazione di punti di decisione o di possibile fallimento (failure points) nella visualizzazione del processo. Infine il blueprint può essere dettagliato ulteriormente segnalando, oltre ai possibili punti di fallimento e decisione, i target di performance, i tempi di esecuzione, i costi previsti, ecc. diventando in questo modo la base di informazioni necessarie per la scrittura delle specifiche per l'implementazione del servizio. Delineati i contenuti del progetto di un servizio
come Sistema di Attività, Daniela Sangiorgi propone quindi tre fasi di sviluppo: • analisi: la fase di analisi è finalizzata alla definizione degli obiettivi e della strategia di business su cui costruire il concept di servizio. Le azioni che caratterizzano questa fase sono di due tipi: • analisi della situazione: analisi dei Sistemi di Attività che possono essere coinvolti. Questa fase si basa sull'ipotesi progettuale che legge il service encounter come principale risorsa per la valutazione del servizio e come momento di incontro/confronto tra Sistemi di Attività interagenti (utente ed impresa di servizio), e sulla collocazione dell'attività di servizio all'interno di una rete di Sistemi di Attività confinanti che possono influenzare direttamente o indirettamente lo svolgimento. L'indagine nel caso di servizi esistenti è rivolta essenzialmente a ricostruire i Sistemi di Attività dell'impresa di servizio e del campione di utenti indagati e ad osservare il loro incontro/confronto così come si manifesta durante ogni azione situata di servizio o service encounter (come visualizzato nel modello dell'incontro); • interpretazione strategica: l'interpretazione delle informazioni raccolte consiste nell'identificazione delle contraddizioni esistenti nei Sistemi di Attività indagati, nel loro raggruppamento secondo tipologie di problematiche o di direzioni progettuali e nell'identificazione di aree di opportunità per lo sviluppo di nuovi servizi o il miglioramento di quelli esistenti. Queste rilevazioni devono essere adeguatamente documentate in quanto diventano materiale da utilizzare come stimolo per la generazione di idee nelle fasi progettuali seguenti. La fase di interpretazione dei dati raccolti può essere supportata e verificata attraverso il coinvolgimento dei soggetti indagati (se possibile) che possono confermare o meno l'analisi svolta e fornire ulteriori stimoli. Gli output di questa fase sono la documentazione di indagine, le contraddizioni emerse, le aree di opportunità e gli obiettivi di performance del futuro servizio. Tra gli strumenti utilizzabili in questa fase il modello dell'incontro e il Sistema di Attività rappresentano il framework (strumenti concettuali) che serve ad orientare le fasi di delimitazione del contesto, la scelta dei fuochi d'indagine, la riorganizzazione e visualizzazione delle informazioni seguendo gli elementi del sistema ed evidenziandone se necessario le relazioni. Questi modelli dovrebbero essere integrati con le tecniche di indagine etnografica necessarie per l'analisi dei Sistemi di Attività, con strumenti di comunicazione e visualizzazione dei dati contestuali, e con strumenti in grado di trasformare quanto indagato anche in 11 termini quantitativi (ad es. QFD) ; 11 Ibidem 229
Fig. 81: Mappa dell'offerta (Fonte: Sangiorgi 2004)
evidenze fisiche azioni dell'utente linea dell'interazione azione del personale di front office linea della visibilit Ă azione del personale di back office linea dell'interazione interna procesi di supporto
[ Zeithaml e Bitner, 2000] Fig. 82: Blueprint (Fonte: Zeithaml e Bitner 2000)
230
•
ideazione: la fase di ideazione è finalizzata alla generazione e selezione di idee e alla definizione e valutazione del concept di servizio che verrà sviluppato. Fondamentale per questa fase è il materiale raccolto proveniente dalle fasi di indagine e analisi, in quanto principale risorsa su cui vengono elaborate le idee di servizio. Questa fase si basa sul principio progettuale di “progettazione di Sistemi di Attività non conflittuali” che evidenzia come il design di servizi consista nella progettazione di Sistemi di Attività che minimizzino la possibilità di generare conflitti o che siano in grado di gestirli e risolverli in modo situato. Nel caso di ri-progettazione di un servizio esistente la generazione di idee dovrebbe essere orientata alla risoluzione delle contraddizioni emerse nella fase di analisi attraverso la modifica degli elementi del Sistema di Attività dell'impresa di servizio e del service encounter, l'azione di redesign può andare a modificare ad esempio gli strumenti a disposizione degli operatori, così come migliorarne il sistema di competenze, oppure agire sul sistema informativo a disposizione dell'utente, ecc. Le azioni di riprogettazione sia che interessino uno o più elementi del Sistema di Attività devono essere ridefinite con la consapevolezza che ogni cambiamento introdotto ha ripercussioni più o meno ampie su tutto il sistema (carattere sistemico), da cui la necessità di progettare anche la gestione e il monitoraggio del cambiamento. Nel caso di sviluppo di nuove idee di servizio il materiale raccolto è fondamentale per avere una conoscenza adeguata delle attività e delle esigenze dei futuri utenti e degli attori che saranno coinvolti nell'erogazione del servizio. Lo sviluppo di idee può essere orientato a migliorare attività esistenti risolvendone contraddizioni e conflitti, sostituirle con l'erogazione di un servizio (servizi che alleviano o relieving) o aumentare le potenzialità di azione di un utente (servizi che abilitano). Le azioni successive prevedono la valutazione delle idee emerse, la descrizione dell'idea più promettente sotto forma di concept, la valutazione di fattibilità e business analysis del concept selezionato e l'autorizzazione allo sviluppo del progetto. L'output di questa fase coincide con la descrizione del concept di servizio in termini di azioni che caratterizzano il sistema dell'offerta del servizio (cosa), di Sistemi di Attività che svolgono le attività di servizio (chi) e di sequenze di azioni di servizio, elementi del Sistema di Attività (strumenti, competenze, informazioni, regole e ruoli) e target di performance complessivi attraverso cui il servizio verrà erogato (come). Tra gli strumenti, anche in questo caso, il modello dell'incontro e il Sistema di Attività rappresentano il framework o linguaggio progettuale che guida l'elaborazione del concetto di servizio. Questi modelli dovrebbero integrarsi con gli strumenti di valutazione delle idee e del concept di servizio (es. evaluation
•
matrix), con gli strumenti di elaborazione e descrizione delle attività di servizio (blueprint) e con gli strumenti e i principi del design partecipatorio; sviluppo: la fase di sviluppo è finalizzata alla progettazione dettagliata del servizio fino alla definizione delle specifiche necessarie alla sua implementazione. Un principio chiave che deve guidare la fase di sviluppo, oltre ai livelli di progetto, è la necessità di progettare Sistemi di Attività che adattino e sincronizzino i Sistemi di Attività degli attori che interagiscono nel servizio, ovvero di service encounter che minimizzino la possibilità di generare conflitti o che siano in grado di gestirli e risolverli in modo situato. Nello stesso tempo deve essere conferito particolare rilievo al processo di apprendimento (o socializzazione) necessario sia all'utente che all'operatore per interagire in modo efficace durante l'erogazione/fruizione del servizio, processo che può essere supportato in modo situato durante il service encounter stesso o in modo separato attraverso ad esempio corsi di formazione per il personale. Questa considerazione sposta l'attenzione verso attività non direttamente coinvolte nell'erogazione del servizio (attività di supporto), ma che devono essere previste nello sviluppo del progetto per arrivare a definire un insieme di specifiche necessarie alla sua effettiva implementazione. Le azioni di questa fase consistono nella ripartizione (partitioning) delle azioni di servizio in unità di progetto più piccole e maneggevoli quali le operazioni, nella generazione di alternative di design, nella selezione delle alternative più efficaci, nella simulazione e valutazione di tutta la performance di servizio così definita e nello sviluppo delle specifiche (condizioni operative) per l'implementazione. Gli output di questa fase coincidono con il progetto dettagliato del servizio che descrive le azioni e le operazioni che caratterizzano il sistema dell'offerta del servizio (cosa), i soggetti che svolgono le singole azioni ed operazioni (chi) e le sequenze di azioni e operazioni, gli elementi del Sistema di Attività (strumenti, competenze, informazioni, regole e compiti) relativi alle singole operazioni e i target di performance delle singole azioni ed operazioni attraverso cui il servizio viene erogato (come). Le informazioni derivanti dal progetto dettagliato del servizio permettono di descrivere le specifiche (condizioni operative) per l'implementazione dei suoi singoli elementi (elementi del Sistema di Attività). Anche in questa fase il modello dell'incontro e il Sistema di Attività devono essere integrati con gli strumenti esistenti che supportano la progettazione e la visualizzazione del sistema di erogazione di servizio (come ad esempio il blueprint) e di simulazione per una valutazione complessiva della performance. La visualizzazione e simulazione sono particolarmente importanti nel momento in cui viene prevista la partecipazione di utenti e dei soggetti direttamente coinvolti nella futura 231
fasi analisi
obiettivi definizione degli obiettivi e della strategia di business su cui costruire il concept del servizio
azioni
risultati
• analisi dei Sistemi
• documentazione di
di Attività che possono essere coinvolti e influenzare direttamente o indirettamente l'azione di servizio esistente o futura (impresa di servizio, utenti, competitori, organismi istituzionali, ecc.)
indagine
strumenti
• modello del'incontro
• contraddizioni
• Modello del
• aree di opportunità
• tecniche di
emerse
• obiettivi di
performance
Sistema di Attività indagine etnografica
• mappa del Sistema di Attività
• profili • video • issue cards
• identificazione
delle contraddizioni secondo tipologie problematiche o di direzioni progettuali
• identificazione di aree di opportunità ideazione
generazione e valutazione di iedee e definizione della valutazione del concept di servizio
• generazione di idee di servizio
• valutazione delle idee emerse
• descrizione
dell'idea più promettente sotto forma di concept
• valutazione di fattibilità
• business analysis • autorizzazione allo sviluppo del progetto
descrizione del concept di servizio al livello di attività:
• chi: sistema di Attività coinvolti nell'erogazione del servizio (ruolo)
• cosa: attività migliorate, sostituite o rese possibili dal servizio
• come: sequenza di service encounter o azioni di servizio
• modello del'incontro
• modello del
Sistema di Attività
• issue cards • brainstorming • mappa del sistema di attività
• mappa del sistema di servizio
• mappa dell'offerta • storyboard e blueprint
• activity change map
sviluppo
progettazione dettagliata del servizio fino alla definizione delle specifiche necessarie alla sua implementazione
• ripartizione delle
azioni di servizio in operazioni
• generazioni di alternative di design
• selezione delle alternative più efficaci
• simulazione e valutazione di tutta la performance di servizio
• sviluppo delle specifiche (condizioni operative) per l'implementazione
progettazione dettagliata del servizio al livello delle operazioni:
• chi: attori coinvolti nell'erogazione del servizio e loro ruolo
• cosa: azioni ed operazioni rese possibili dal sistema del servizio
• service encounter dettagliati come sequenza di operazioni ed elementi del Sitema di Attività
• target di performance e specifiche per l'implementazione Tabella 15: Fasi progettuali (Fonte: Sangiorgi 2004)
232
• modello
del'incontro
• modello del Sistema di Attività
• mappa del Sistema di Attività
• mappa del sistema di servizio
• mappa dell'offerta • blueprint
dettagliato
• activity change map
• use case
azione di servizio nella fase di sviluppo e test del medesimo; in questo caso diventa ancora una volta importante integrare i modelli con i principi e gli strumenti del design partecipatorio. L'opera di Daniela Sangiorgi diventa quindi un punto di riferimento fondamentale per lo sviluppo di un approccio progettuale rivolto a comunità Open Peer-to-Peer. In questo modo, è possibile coprogettare l'attività di una comunità e la sua piattaforma, viste entrambe attraverso un Sistema di Attività. Questo anche se l'attività di una comunità Open Peer-to-Peer differisce per molti aspetti rispetto ad un servizio erogato da una impresa. In una comunità Open Peer-to-Peer si progetteranno le interazioni fra i ruoli, a cui poi i partecipanti aderiranno attraverso la autoselezione. Non sarà un problema se queste interazioni non sono adatte ad ogni partecipante: sarà lui a decidere quale ruolo è più adatto alle sue capacità e conoscenze. Se invece vi saranno dei casi in cui la progettazione di interazioni fra ruoli dovrà essere adatta a particolari partecipanti, un approccio progettuale che riprende la proposta di Sangiorgi può essere adatto allo scopo (dato che è un approccio situato). Prima di rielaborare questi concetti al fine di produrre una proposta di approccio progettuale per le comunità Open Peer-to-Peer, rimangono due argomenti da considerare. Il primo riguarda soprattutto come analizzare e visualizzare le reti di interazioni fra ruoli, ma anche le reti sociali che si vengono a formare in seguito; in questo modo è possibile osservare la situazione dell'attività e della comunità. Il secondo argomento riguarda le caratteristiche fondamentali di un approccio progettuale che riesca a considerare la complessità derivanti dalla partecipazione di un numero potenzialmente elevato di partecipanti. Si è visto infatti come anche la progettazione di una comunità Open Peer-to-Peer, per essere veramente partecipata, deve permettere un ruolo attivo ai partecipanti. È quindi necessario un approccio progettuale in grado di riuscire a coinvolgerli con successo.
3.2. Analisi delle reti sociali 3.2.1. Legami e reti Avendo a che fare con reti collaborative, è necessario considerare anche come analizzare e visualizzare queste reti: è già stato osservato come la piattaforma, oggetto del progetto assieme all'attività, debba essere considerata come un insieme di caratteristiche condivise all'interno della rete sociale. Bisogna quindi fare in modo che l'approccio progettuale rivolto verso comunità Open Peer-to-Peer si avvalga di strumenti in grado di analizzare, descrivere e visualizzare le reti preesistente e le reti che si formano nel corso del tempo: reti sociali preesistenti (ovvero: come
individuare il capitale sociale esistente per poi sfruttarlo), reti di interazioni fra ruoli/partecipanti (ovvero: come co-progettare l'attività in una rete collaborativa), reti sociali che si formano con lo svolgimento dell'attività (ovvero: valutare come l'attività sia in grado di dare luogo alla comunità in senso sociologico, capire i punti deboli della rete sociale, in modo che questi non pregiudichino lo svolgimento dell'attività). In questo contesto è quindi promettente l'utilizzo come strumento dell'analisi delle reti (network 12 analysis) , un insieme di procedure per la raccolta, il trattamento, l'elaborazione e il controllo di dati di tipo relazionale. Benché nelle scienze sociali nessuna procedura di ricerca, e tanto meno uno strumento analitico, possano essere considerati teoricamente neutrali, l'analisi delle reti sociali si presta ad applicazioni teoricamente orientate in direzioni molto diverse, allo stesso modo in cui le tecniche di analisi della matrice dei dati tradizionale possono essere utilizzate in ambiti teorici molto diversi. Il fatto che l'analisi delle reti sociali sia stata utilizzata nelle ricerche empiriche di svariate discipline conferma questa versatilità. L'analisi delle reti si trova in una posizione particolarmente felice per affrontare il problema del rapporto micro-macro (o, se si preferisce, locale-globale), poiché è in grado di trattare entrambi i livelli senza cambiare categorie analitiche. L'analisi delle reti si occupa direttamente degli elementi costitutivi della società – le relazioni tra gli attori – al contrario delle tecniche tradizionali, che si sforzano di interpretare la realtà solo indirettamente attraverso gli attributi di individui singolarmente presi. L'analisi di rete nel campo delle reti sociali permette di comprendere l'entità del capitale sociale a disposizione di ogni individuo, che può essere stimato individuando la posizione strutturale che ciascun individuo occupa nella rete di relazioni in cui è inserito. Per questo motivo è utile utilizzare questo metodo di analisi per capire quali siano le risorse già esistenti all'interno della rete sociale, come sono distribuite e come vengono aumentate o generate successivamente. A differenza degli altri metodi di analisi sociologica, la cui unità di base è il soggetto singolarmente preso, di cui vengono rilevati gli attributi individuali, nell'approccio di rete l'unità di base è rappresentata dal legame tra i soggetti, che viene definita indicando la coppia di soggetti tra cui si determina la relazione. I concetti base che permettono di analizzare i fenomeni attraverso l'analisi delle reti sono quindi: il soggetto, il legame, la relazione, il gruppo e la rete complessiva. Non ci può essere relazione senza la presenza di almeno due soggetti (diade), ma il soggetto può esistere senza relazione, come soggetto isolato, la cui caratteristica specifica è appunto il fatto di non avere rapporti con altri. La natura del soggetto, individuale o collettivo, dipende dal contesto empirico in cui viene svolta l'indagine. I soggetti più studiati sono gli individui umani a livello micro, ma l'approccio di rete si presta altrettanto bene ad 12 Chiesi (1999) 233
applicazioni macro, in cui i soggetti sono entità collettive cioè gruppi, associazioni, organizzazioni, istituzioni, imprese. Pur nella loro varietà empirica, i soggetti devono avere alcune caratteristiche per poter essere correttamente presi in considerazione nell'analisi: • devono essere oggetti discreti, cioè separabili l'uno dall'altro, in quanto dotati di confini logicamente ed empiricamente determinabili; • devono appartenere allo stesso tipo di fenomeni, cioè non devono essere eterogenei fra loro; • se i soggetti presi in considerazione appartengono a più di una categoria, queste devono essere limitate nel numero e devono possedere i requisiti di una corretta classificazione, cioè l'esaustività dell'insieme delle categorie, la mutua esclusività delle classi, l'univocità del criterio di attribuzione dei soggetti ad una classe. La presenza di due o più classi di soggetti può orientare l'analisi allo studio specifico delle relazioni tra le classi complessivamente intese quindi un modo coerente per passare dal livello micro al livello macro di indagine: in questa ottica le relazioni tra entità collettive si presentano effettivamente come nient'altro che la combinazione delle relazioni individuali tra i membri che appartengono a queste entità. In questo modo l'analisi delle reti sociali si configura un metodo di analisi adatto per comprendere reti di partecipanti, reti di gruppi di partecipanti, reti di comunità, ecc. I soggetti sono tra loro collegati da legami di vario tipo, che presentano un'estrema varietà, come scambio economico, dono, informazioni, relazioni di tipo strumentale, relazioni informali (amicizia, simpatia, ammirazione, deferenza, ostilità), relazioni formali (potere, autorità), parentela, mobilità (spaziale, sociale), ecc. Nell'analisi della rete sociale di una comunità Open Peer-to-Peer, quindi, qualsiasi tipo di relazione può essere studiato: può essere una interazione (ad esempio fra ruoli), una relazione di riconoscimento della autorità (e quindi della reputazione dei partecipanti), una relazione di condivisione (di un ruolo, oppure della piattaforma per l'attività). Data questa estrema varietà, l'analisi non può limitarsi all'individuazione della natura del legame. Una volta definito il contenuto, la sua densità e direzione devono essere in qualche modo rilevante. Le caratteristiche di base dei legami sono cinque e, in relazione al metodo di studio e visualizzazione adottato, possono essere considerate separatamente o in combinazione: • la presenza o assenza, che viene definita assegnando 1 in caso di presenza del legame e 0 in caso di assenza; • la direzione, che viene definita con una freccia; • il segno, che può essere positivo o negativo, e designa le due valenze opposte 234
di un qualsiasi atteggiamento (es. simpatia-antipatia); il peso, che può assumere valori crescenti a seconda dell'intensità del legame, misurata almeno a livello ordinale; la molteplicità, che rappresenta la frequenza dei legami tra due attori e viene designata semplicemente tracciando più di un legame tra due attori.
• •
Fig. 83: Caratteristiche che possono descrivere i legami fra i nodi (Fonte: Chiesi 1999) 13
Chiesi definisce la relazione sociale come il fascio dei differenti legami che intercorrono tra coppie di soggetti i cui corsi di azione sono reciprocamente orientati. Il passaggio dal concetto di legame a quello più complessivo di relazione introduce quindi il problema della molteplicità dei legami e dei rapporti tra essi. Una relazione può infatti essere caratterizzata dalla prevalenza di un legame, può comportare diversi tipi di legami tra loro logicamente congruenti oppure un certo grado di ambivalenza, quando legami contraddittori convivono all'interno della stessa relazione. Il concetto operativo che permette di tenere conto della varietà e numerosità dei legami in una relazione è quella di molteplicità, che designa appunto il numero dei diversi legami che intercorrono tra coppie di soggetti. L'importanza della distinzione concettuale tra relazione e legame consiste nel mettere in guardia sulla presenza del problema della distinzione tra proprietà e variabile. Le difficoltà operative e i costi della rilevazione sul campo inducono spesso i ricercatori a limitare la raccolta dei dati ad un solo tipo di legame, che viene spesso assunto come rappresentativo della intera relazione sociale. Un qualsiasi insieme di dati relativo ad una rete sociale può essere espresso in tre modi: • in forma visuale, ricorrendo a disegni che rappresentano i soggetti come punti e i legami come linee che congiungono i punti (sociogrammi); • in forma di grafo, ricorrendo alle notazioni e ai concetti della teoria matematica dei grafi; • in forma matriciale o sociometrica, ricorrendo all'algebra delle matrici.
3.2.2. Sociogrammi L'idea di disegnare una mappa (sociogramma) delle relazioni tra soggetti deriva anzitutto dal ricorso, originario nell'approccio relazionale, a termini evocativi spaziali quali centralità, periferia, 13 Idem
distanza, isolamento, confine, ecc. È quindi evidente che, da un punto di vista illustrativo, la semplice rappresentazione di soggetti collegati da linee su un piano può avere un impatto immediato e intuitivo e permette di afferrare con un colpo d'occhio la varietà morfologica delle singole relazioni e al tempo stesso l'articolazione complessiva della struttura in cui i soggetti sono inseriti. I vantaggi dell'illustrazione visuale non risiedono quindi solo nella capacità descrittiva sintetica, ma anche nelle possibilità analitiche. Lo scopo del sociogramma è quello di offrire l'immagine di una struttura sociometrica e di mettere l'osservatore in grado di determinare velocemente lo status di qualunque membro del gruppo, di identificare i leader e coloro che sono rifiutati e di ottenere indicazioni sulle combinazioni di individui, raggruppamenti e fratture in cui può essere suddivisa l'unità sociale. Applicando questo approccio, è possibile ricostruire un sociogramma disegnando su un foglio tanti punti quanti sono i soggetti presi in considerazione e tante linee che congiungono i punti, quando tra questi esiste un legame (fig. 34 e 35). Con l'aumentare del numero dei soggetti e/o legami, il problema della descrizione diagrammatica diventa sempre più impegnativo, poiché la complessità del disegno aumenta in modo più che proporzionale al numero dei soggetti e dei legami. Si manifesta quindi l'esigenza di affiancare al sociogramma una qualche statistica riassuntiva delle proprietà strutturali della rete e delle posizioni di ciascuno al suo interno. Un accorgimento risiede nel ricorrere a due livelli: uno a scala micro-sociale, che riguarda i legami interni ad un gruppo tra singoli soggetti, un altro a scala macro-sociale, che riguarda i legami esterni tra soggetti che appartengono a gruppi diversi e che permettono di costruire reti tra interi gruppi presi insieme. Un altro accorgimento consiste nel differenziare con segni i soggetti secondo l'attribuzione di modalità o caratteristiche rilevanti. Con lo sviluppo delle tecniche di grafica computerizzata è ora possibile costruire velocemente i sociogrammi e modificarli senza dovere ridisegnare tutto. Ciò permette di provare e riprovare diverse versioni grafiche e confrontarle fra loro, per scegliere quella migliore, che risponde alla necessità di minimizzare il numero delle sovrapposizioni dei legami attraverso la collocazione ottimale di ciascun soggetto rispetto agli altri. Sono state mostrate anche le potenzialità dei sociogrammi tridimensionali, utilizzando algoritmi sviluppati per altre discipline. Il ricorso alla terza dimensione permette di semplificare e rendere più evidente la disposizione dei soggetti, rispetto ad un'illustrazione bidimensionale, anche grazie alla possibilità di ruotarne la prospettiva e variare l'intensità della colorazione allo scopo di ottenere un effetto di profondità della mappa. Nonostante lo sviluppo di queste tecniche grafiche, i limiti descrittivi ed analitici del sociogramma sono immediatamente intuibili, poiché la complessità derivante dal numero delle scelte potenziali tra
soggetti aumenta in modo esponenziale rispetto al numero dei soggetti stessi, secondo questa formula: l = n (n-1), in cui l è il numero dei legami e n il numero dei soggetti. Ciò significa che aumentando i soggetti di una rete da 8 a 14, cioè del 75%, il numero dei possibili legami salirebbe da 56 a 182, cioè del 308%. Una seconda ragione che consiglia di limitare l'uso dei sociogrammi è rappresentata dal fatto che esistono molti modi di rappresentare graficamente la stessa rete (reti isomorfi). È quindi evidente che rimangono sempre notevoli margini di arbitrio della mappatura dei sociogrammi e che per reti molto complesse formati da numerosi soggetti, il metodo illustrativo e analitico del sociogramma deve considerare solo porzioni della rete, oppure considerarla ad una scala maggiore, oppure lasciare il posto a tecniche di rappresentazione più sintetiche, quali quelle statistiche e matriciali.
3.2.3. Grafi e loro caratteristiche Una rete di relazioni di qualsiasi tipo tra soggetti può essere descritta in modo formale ricorrendo alle notazioni convenzionali offerte dalla teoria dei grafi. Un grafo è costituito da un insieme di punti uniti da linee. La rappresentazione prescinde da qualsiasi regola spaziale di tipo euclideo e assume quindi come irrilevanti le proprie metriche della rappresentazione (ad esempio la lunghezza delle linee). I vantaggi del ricorso a questo linguaggio convenzionale sono i seguenti: • esso mette a disposizione un lessico preciso in grado di designare concetti utili per analizzare molte caratteristiche strutturali delle reti; • fornisce la possibilità di misurare queste caratteristiche; • la teoria dei grafi può essere considerata un insieme logicamente integrato di modelli teorici deduttivi, che possono essere usati per l'analisi di fenomeni concreti, nella misura in cui suggeriscono meccanismi o processi entro certe condizioni possono rappresentare plausibili interpretazioni della realtà empirica. Vi sono tipi differenti di grafi, determinati da quali delle cinque caratteristiche dei legami vengono prese in considerazione (fig.84 e tabella 16). Un grafo è semplice (simple graph) se le linee sono semplici collegamenti tra coppie di nodi, se cioè ciascun legame non ha alcuna direzione o è bidirezionale, e per ciascuna coppia di nodi non può passare più di un legame. Con i grafi diretti (digraphs) è possibile tenere conto della direzione del legame e quindi le informazioni contenute in questo tipo di grafo sono più ricche rispetto ai grafi semplici. I grafi diretti a loro volta possono tenere conto dell'occorrenza di legami privi di direzione, semplicemente considerandoli come bidirezionali. Una linea orientata, che descrive il legame, viene convenzionalmente disegnata come una freccia e viene definita arco (arc). I grafi segnati (signed graph) sono grafi le cui linee possono assumere un valore positivo o negativo, segnalato con un + o -. 235
Il significato di questo espediente è immediatamente intuibile. Con il segno positivo possono essere rappresentati atteggiamenti favorevoli, sentimenti di attrazione, comportamenti collaborativi, alleanze; con il segno negativo esattamente il contrario: antipatia, repulsione, inimicizia. In una diade di un grafo segnato si possono quindi avere tre distinte situazioni: una linea positiva, una linea negativa, un'assenza di linea. In un grafo segnato diretto le situazioni possibili diventano quindi nove, a seconda di tutte le possibili combinazioni di segni in relazioni simmetriche, asimmetriche e in caso di assenza di legame. Per l'analisi delle triadi è invece importante introdurre il concetto di ciclo, definito come una sequenza alternata di nodi e linee distinte tranne che per un nodo iniziale, che coincide con quello finale della sequenza. In un grafo segnato si può attribuire un segno ad un qualsiasi ciclo, moltiplicando tra loro i segni delle linee in esso comprese: il prodotto dei segni sarà positivo se tutti i segni della sequenza sono positivi o se nella sequenza esiste un numero pari di segni negativi, altrimenti sarà negativo. Se l'insieme che definisce gli attributi delle linee (o degli archi) contiene valori numerici, piuttosto che segni, si ha a che fare con i cosiddetti grafi pesati (weighted graphs), in cui il valore numerico intero della linea indica l'intensità del legame. Vi sono inoltre i grafi multipli (multigraph), che ammettono più di una linea (o arco orientato nella stessa direzione, in caso di grafo multiplo diretto) tra coppie di nodi. La sua utilità consiste nell'applicazione a casi di reti in cui si vuole contemporaneamente tenere conto di una molteplicità di legami che possono unire i soggetti. Ciò può dipendere sia dal fatto che tra coppie di soggetti viene registrata nell'unità di tempo una pluralità di contatti dello stesso tipo (in questo caso le informazioni che possono essere registrate mediante grafo multiplo corrispondono a quelle registrabili con un grafo pesato), sia dal fatto che tra coppie di soggetti vengono registrate nell'unità di tempo relazioni di natura diversa, che richiedono quindi di essere tenute analiticamente distinte. Infine, le reti di affiliazione vengono descritte nella teoria dei grafi mediante il concetto di ipergrafo, che consiste in un insieme di oggetti e in una collezione di sottoinsiemi di oggetti, tale per cui ciascun oggetto appartiene ad almeno un sottoinsieme e nessun sottoinsieme è vuoto. Il concetto di ipergrafo è più generale del concetto di grafo, che può essere definito come un ipergrafo le cui affiliazioni, riguardando sempre e solo coppie di nodi e non di associazioni di nodi, coincidono con ciascun legame tra coppie di soggetti. L'utilizzo dei grafi per la descrizione formale dei sociogrammi permette l'analisi di molte caratteristiche nelle relazioni tra soggetti (o nodi). Due nodi sono detti adiacenti se collegati direttamente. Una linea è detta incidente con un nodo (e viceversa, un nodo è incidente con una linea), se è contenuta nella coppia di nodi che la definiscono. Il grado (degree) di un nodo è dato dal numero di linee con esso incidenti e, secondo le 236
caratteristiche del grafo semplice, potrà assumere valori da 0 (caso in cui il nodo è isolato, cioè privo di legami) a g-1 (dove con g si intende l'insieme dei nodi: in questo caso il nodo è adiacente a tutti gli altri). Il grado di un nodo rappresenta una prima semplice proprietà che indica un'importante caratteristica strutturale di ciascun soggetto, poiché si può supporre che per ogni nodo un aumento del grado corrisponda ad una maggiore integrazione nella rete. Può essere pertanto utile calcolare il grado medio dei nodi di un grafo e la relativa varianza allo scopo di conoscere il livello e le differenze di integrazione tra i soggetti. Il numero massimo dei legami inscrivibili in un grafo è funzione del numero dei nodi: dato un numero di nodi g, in un grafo semplice abbiamo g(g-1)/2 possibilità di collegamento tra coppie di nodi. Questo significa anche che all'aumentare del numero dei nodi la possibilità di inscrivere legami aumenta più che proporzionalmente. La densità di un grafo è data dalla proporzione tra i legami effettivamente presenti e quelli possibili, data la numerosità dei nodi. L'indice di densità assume valori che vanno da 0 (in caso di grafo vuoto) a 1 (in caso di grafo completo, in cui il grado di ciascun nodo è g-1). Il valore dell'indice di densità può anche essere considerato come la probabilità che in un grafo due nodi estratti a caso siano tra loro adiacenti. I concetti di adiacenza, incidenza e densità sono basati sull'analisi delle relazioni dirette tra coppie di nodi. In un qualsiasi grafo una coppia di nodi può essere collegata anche attraverso legami indiretti, che passano attraverso altri nodi. La teoria dei grafi mette a disposizione concetti analitici che permettono di analizzare specificamente le proprietà di interi percorsi che possono collegare nodi non adiacenti ma indirettamente collegati. Un percorso (walk), è una sequenza di nodi e linee, che inizia con un nodo e finisce con un nodo, in cui ogni nodo è incidente con la linea che rispettivamente lo precede e lo segue nella sequenza. Per definizione, la sequenza può in parte comprendere gli stessi nodi e/o le stesse linee più di una volta, così come il nodo di partenza può essere diverso o può coincidere con quello di arrivo. La lunghezza del percorso è data dal numero di linee (legami). Un sentiero (path) è un percorso in cui nodi e linee possono essere inseriti in sequenza una ed una volta sola (il percorso non può incrociarsi o sovrapporsi). Un percorso che inizia e finisce con lo stesso nodo è chiamato percorso chiuso (closed walk). Un ciclo (cycle) è un percorso chiuso in cui ogni linea ed ogni nodo sono inseriti in sequenza una ed una sola volta, ad eccezione del nodo di origine, che coincide con quello di destinazione. È questo un concetto molto utile per individuare cicli di retroazione (sia positiva che negativa) tra partecipanti, gruppi, ruoli, comunità, ecc. Si chiama inoltre distanza (geodesic distance) il sentiero più breve tra due nodi. Il concetto di eccentricità (eccentricity) di un nodo esprime invece la distanza più lunga tra quel nodo e qualsiasi altro.
tipi di grafo
tipi di legame
grafo semplice
bidirezionale tra coppie di nodi
grafo diretto
orientato da un nodo all'altro
grafo segnato
contrassegnato con segno positivo o negativo
grafo pesato
ne viene misurata l'intensità
grafo multiplo
collegamenti plurimi tra coppie di nodi
ipergrafo
appartenenza o affiliazione
Tabella 16: Tipi di grafo e legami corrispondenti (Fonte: Chiesi 1999)
Fig. 84: Grafi
Quindi, se possibile calcolare la distanza per ogni coppia di nodi, l'eccentricità è riferibile soltanto a un singolo nodo, e riguarda il confronto sistematico delle distanze di quel nodo da tutti gli altri del grafo. Infine si chiama diametro (diameter) di un grafo l'eccentricità più lunga, misurabile per un qualsiasi nodo del grafo stesso. Il diametro può assumere valori intermedi tra 1, se il grafo è completo, e g-1 se tutti i nodi sono tra loro connessi da linee che formano un unico sentiero. I concetti di ciclo, sentiero, percorso, distanza, eccentricità e diametro permettono lo studio delle reti collaborative al fine di individuare il modo migliore di distribuire beni materiali oppure beni immateriali ma distribuiti non attraverso ICT ma da persona a persona. A differenza del concetto di densità, la cui formula può essere applicata a qualsiasi tipo di grafo, poiché richiede di sapere soltanto il numero dei nodi e quello dei legami, a prescindere dalla loro
collocazione nel grafo stesso, i concetti di percorso, sentiero, distanza, eccentricità e diametro possono essere applicati soltanto con riferimento a insiemi di nodi tra loro connessi cioè collegati direttamente o indirettamente da almeno un percorso. Queste caratteristiche variano inoltre fra i vari tipi di grafi utilizzabili: in un grafo diretto il grado di un nodo deve essere specificato allo scopo di tenere conto della direzione dell'arco. Anche i concetti di percorso e sentiero possono essere applicati ai grafi diretti, ma devono essere riformulati per tenere conto della direzione degli archi. Un percorso diretto (directed walk) è una sequenza alternata di nodi e archi tale che ogni arco ha origine nel nodo precedente e destinazione nel nodo successivo (sequenza unidirezionale). Un sentiero diretto (direct path) è un percorso diretto in cui nessun arco e nessun nodo vengono
237
inclusi più di una volta. Come nel grafo semplice, la lunghezza di un sentiero è data dal numero di archi della sequenza. Un ciclo diretto (directed cycle) è un sentiero diretto in cui la sequenza inizia e finisce con lo stesso nodo. Se non applichiamo la clausola della sequenza unidirezionale, sarà possibile enumerare una qualsiasi sequenza senza tenere conto della direzione degli archi. In questo caso si adottano i termini semi-percorso, semisentiero, semi-ciclo. Nei grafi pesati, il fatto che le linee (o gli archi in caso di grafi pesati diretti) assumano valori diversi pone dei problemi al calcolo di molte statistiche. Ad esempio il grado di un nodo dovrà dipendere non solo dal numero di linee incidenti con esso, ma dovrà tenere conto del valore delle linee. In proposito sono possibili diverse soluzioni, come la media dei valori delle linee incidenti o la loro somma, ma è chiaro che l'impiego di formule sintetiche di tendenza centrale o di dispersione dipenderà dal significato che potrà essere attribuito all'applicazione empirica del grafo pesato. In un grafo pesato la lunghezza di un sentiero o un percorso è dato dalla somma dei pesi delle linee che ne fanno parte. Anche la densità di un grafo pesato non diretto tiene conto del valore delle linee. Occorre tuttavia sottolineare che, mentre nei grafi semplici o diretti la densità è la probabilità che una qualsiasi coppia di nodi sia collegata da una linea o da un arco, nei grafi pesati la densità calcolata si riferisce piuttosto alla media dei pesi assegnati alle linee del grafo, e può quindi assumere valori superiori all'unità, anche se non tutte le coppie di nodi sono tra loro adiacenti. Il significato probabilistico della densità viene quindi perso.
3.2.4. La rappresentazione matriciale dei dati I concetti analitici della teoria dei grafi, che permettono di descrivere e analizzare le caratteristiche strutturali di una rete, possono essere adeguatamente applicati ricorrendo al calcolo delle matrici sociometriche. Queste rappresentano un'alternativa alla descrizione grafica delle reti e diventano anzi indispensabili, quando le dimensioni della rete eccedono la possibilità di illustrazione visiva o quando si vogliono applicare statistiche descrittive che richiedono calcoli lunghi e ripetitivi. Al fine di analizzare una rete sociale, si può procedere alla rilevazione dei legami in due modi: • accostando al nome di ogni soggetto il nome dell'altro o altri soggetti con cui intrattiene un qualche legame, costruendo una matrice normale; • costruendo una matrice di affiliazione, simile alla matrice caso per variabile delle inchieste tradizionali, in cui i soggetti vengono ordinati per riga e gli eventi, che creano legami tra essi, vengono ordinati per colonna.
238
Nel primo caso (tabella 17) ogni reticolo sarà descritto da (almeno) una matrice n x m, in cui n è il numero dei legami (o linee della rete) ordinati per riga e m è il numero delle caratteristiche dei legami, ordinati per colonna. Per una data rete si avrà quindi una matrice il cui numero delle righe corrisponderà al numero delle caratteristiche. Per definire una rete è comunque necessario che la matrice dei legami abbia almeno due colonne, quelle che definiscono le coppie di soggetti tra loro collegati. Per convenzione si assume che i soggetti elencati nella prima colonna siano l'origine del legame e quelli elencati nella seconda colonna siano la destinazione: in questo modo è possibile tenere conto della direzione del legame. I legami possono anche essere ricostruiti partendo dai cosiddetti dati di affiliazione, che ci informano su un numero definito di eventi a cui i soggetti hanno partecipato: la comune partecipazione può essere infatti intesa come un legame. Mario
Giuseppe
Andrea
Mario
-
1
0
Giuseppe
1
-
1
Andrea
0
1
-
Tabella 17: Semplice matrice per l'analisi dei legami (Fonte: Chiesi 1999)
I dati di questo tipo possono essere organizzati in una matrice n x m, detta matrice caso per affiliazione (tabella 18), in cui n corrisponde al numero dei soggetti, denominato con una lettera maiuscola e m al numero degli ambiti di partecipazione, denominati con una lettera minuscola. Nella matrice binaria compare il valore 1 quando un qualsiasi soggetto partecipa ad una qualsiasi associazione, altrimenti 0. I valori marginali di riga ci dicono a quante associazioni partecipa ciascun soggetto, i marginali di colonna riportano il numero dei membri di ciascuna associazione. Il calcolo dei marginali di riga e di colonna della matrice di affiliazione permette di sapere rispettivamente a quanti eventi ciascun soggetto partecipa e quanti soggetti partecipano a ciascun evento. Le matrici di affiliazione rappresentano la modalità matriciale corrente di descrizione degli ipergrafi e poiché questi costituiscono un concetto più generale di cui i grafi sono una categoria specifica, dalla matrice di affiliazione è possibile derivare altri tipi di matrice. Nulla vieta infatti di assumere che ciascun incontro o legame tra due soggetti sia esso stesso un evento, più specificamente una associazione a due. Si può allora costruire una matrice di affiliazione in cui ogni evento è costituito dal legame tra coppie di soggetti. La corrispondente matrice n X l avrà tante righe quanti sono i soggetti e tante colonne quanti sono i legami tra essi. In caso di grafo semplice, i marginali di colonna assumeranno per definizione sempre valore 2, poiché una linea unisce sempre e soltanto due nodi. I marginali di riga potranno invece variare secondo il numero di
linee incidenti con ciascun nodo. Per questo motivo una matrice di questo tipo viene definita “matrice di incidenza” (incidence matrix) (tabella 19). Chi condivide la stessa affiliazione, cioè appartiene allo stesso sottoinsieme, è in grado di attivare legami diretti con gli altri affiliati. E1
E2
E3
E4
n1
1
0
0
0
1
n2
1
1
0
0
2
n3
0
0
1
0
1
n4
0
1
0
1
2
n5
0
0
1
0
1
n6
0
0
0
1
1
n7
0
0
1
1
2
2
2
3
3
Tabella 18: Matrice di affiliazione per sette soggetti e quattro eventi (Fonte: Chiesi 1999)
modo si consideri il legame. Ciò significa che i valori espressi nel triangolo superiore destro della matrice sono identici a quelli espressi nel triangolo inferiore sinistro. Trattandosi di matrice simmetrica, i marginali di riga e di colonna sono identici e designano per ogni nodo il suo grado. Le celle poste in diagonale non contengono valori, poiché non si considera l'idea che il soggetto intrattenga o meno legami con se stesso. Nella matrice di affiliazione è una matrice di forma n X m in cui n sono i soggetti e m sono gli eventi E (tabella 18). Ciascuna riga della matrice informa sulla partecipazione o meno di un qualsiasi soggetto ad un qualsiasi evento; i marginali corrispondenti indicano quindi il numero di eventi cui un soggetto ha partecipato. Ciascuna colonna riporta i partecipanti a ciascun evento; i marginali corrispondenti indicano quindi il numero dei partecipanti. Se si utilizzano i soggetti come criterio di connessione tra gli eventi, si ottiene una matrice di adiacenza m X m (tabella 20). Se si utilizzano gli eventi come elementi di coesione tra i soggetti, si ottiene una matrice di adiacenza n X n (tabella 21). n1
n2
n3
n4
n5
n6
n7
n1
-
1
0
0
0
0
0
1
n2
1
-
0
1
0
0
0
2
n3
0
0
-
0
1
0
1
2
n4
0
1
0
-
0
1
1
3
n5
0
0
1
0
-
0
1
2
n6
0
0
0
1
0
-
1
2
n7
0
0
1
1
1
1
-
4
1
2
2
3
2
2
4
l1 l2 l3 l4 l5 l6 l7 l8 n1
1 0 0 0 0 0 0 0 1
n2
1 1 0 0 0 0 0 0 2
n3
0 0 1 0 0 0 0 0 2
n4
0 1 0 1 1 1 0 0 3
n5
0 0 1 0 0 0 1 0 2
n6
0 0 0 1 1 0 0 1 2
n7
0 0 0 0 0 1 1 1 4 2 2 2 2 2 2 2 2
Tabella 19: Esempio di matrice di incidenza per la tabella 18 (Fonte: Chiesi 1999)
La matrice di incidenza è il primo passo per la costruzione di un altro tipo di matrice, detta “di adiacenza” (adjaceny matrix o sociomatrix), che contiene anch'essa in forma analitica tutte le informazioni relative a un grafo. Per un grafo semplice la matrice di adiacenza è una matrice binaria di forma n X n, in cui n sono i nodi. Ogni riga si riferisce a ciascun nodo in un dato ordine, dal primo all'ennesimo, e questo ordine è rispettato anche per le colonne. Ogni cella della matrice può quindi assumere il valore 1 oppure 0, in caso rispettivamente di presenza o assenza di legame tra il nodo rappresentato nella riga e quello della colonna. Poiché nella matrice di adiacenza il numero delle colonne equivale a quello delle righe, essendo rappresentati i nodi del grafo sia in riga sia in colonna, la matrice di adiacenza per un grafo semplice è anche simmetrica. Infatti trattandosi di linee prive di direzione o bidirezionali, l'assenza o presenza di un legame è uguale, qualunque sia il
Tabella 20: Corrispondente matrice di adiacenza della tabella 18, considerando i soggetti (Fonte: Chiesi 1999)
I grafi che assegnano ai legami valori variabili superiori ad 1, allo scopo di indicarne l'intensità o la forza, possono essere esposti in forma matriciale assegnando a ciascuna cella il corrispondente valore. La matrice risultante non è più binaria, ma può assumere valori di cella che vanno da 0, assenza di legame, ad n, il valore massimo assegnato al legame più forte. I marginali di riga (che corrispondono a quelli di colonna in caso di grafo pesato semplice) non indicano il grado di ciascun nodo, ma la somma delle intensità dei legami incidenti con ciascun nodo. Con grafi pesati direttamente i marginali di riga e di colonna danno informazioni diverse relative rispettivamente alle scelte fatte e alle scelte subite dai soggetti. Semplici operazioni sulle matrici permettono di evidenziare alcune proprietà dei grafi. Poiché la sequenza delle righe e delle colonne di una matrice è assolutamente arbitraria e la matrice stessa non cambia permutandone l'ordine, è possibile riorganizzare la struttura della matrice sulla base di qualche criterio, come ad esempio raggruppare i
239
E1
E2
E3
E4
E1
-
1
0
0
1
E2
1
-
0
1
2
E3
0
0
-
1
1
E4
0
1
1
-
2
1
2
1
2
•
Tabella 21: Corrispondente matrice di adiacenza della tabella 18, considerando gli eventi (Fonte: Chiesi 1999)
partecipanti in base al genere (maschi e femmine). La matrice così permutata non perde nessuna delle sue proprietà e acquista una ulteriore proprietà proprietà analitica, data dalla sua ripartizione in quattro aree distinte. Se si spostano in alto e a sinistra le femmine nella matrice, l'area superiore sinistra concentrerà le informazioni relative ai legami interni alle femmine, l'area inferiore destra si riferirà ai legami interni tra maschi, l'area superiore destra riguarderà le scelte compiute dalle femmine nei confronti dei maschi e infine l'area inferiore destra si riferirà alle scelte dei maschi nei confronti delle femmine. La trasposta di una matrice (che consiste nello scambiare le righe con le colonne) consente di invertire la direzione dei legami tra i nodi di un grafo diretto. Altre operazioni elementari dell'algebra delle matrici, in particolare la moltiplicazione e l'elevazione a potenza, permettono di calcolare agevolmente la raggiungibilità di un nodo da qualsiasi altro, nonché le distanze tra qualsiasi nodo di un grafo. È possibile individuare se una qualsiasi coppia di nodi è collegata da un percorso di lunghezza data x se, elevando la matrice di adiacenza alla corrispondente potenza x, se il loro legame così ottenuto è x. Poiché il percorso più lungo inscrivibile in un grafo è dato da g-1 (dove g è il numero dei nodi), elevando a potenza g-1 volte la matrice di adiacenza siamo in grado di individuare qualsiasi percorso di distanza variabile tra 1 e g-1. I valori così ottenuti possono essere organizzati in una matrice di raggiungibilità (reachibility matrix) oppure rielaborati in una matrice di distanza (distance matrix), i cui valori al margine sono la somma delle distanze di ciascun nodo con gli altri raggiungibili. Il valore 0 indica quindi il completo isolamento, mentre il valore più basso può essere considerato un indice di centralità. Inoltre l'elevazione a potenza di una matrice serve anche a calcolare il diametro di un grafo. Partendo da una matrice, oltre a distanze e percorsi, sono possibili diverse strategie per l'analisi dei dati, raggruppabili in quattro categorie: • individuazione della posizione relativa dei soggetti nella rete, attraverso il calcolo di indici di centralità, e descrizione della struttura più o meno accentrata o gerarchizzata del reticolo nel suo insieme; • ripartizione del reticolo in gruppi di soggetti sulla base delle loro caratteristiche 240
•
o di fratture strutturali individuabili in esso; semplificazione della struttura del reticolo attraverso tecniche di condensazione, che permettono di ridurre sotto-insiemi del grafo a singoli nodi; analisi combinata di diversi tipi di legame e individuazione di soggetti che si trovano in una posizione di equivalenza strutturale, cioè intrattengono lo stesso numero di legami, nelle stesse direzioni e della stessa natura.
L'applicazione del concetto di densità permette di rispondere a domande relative al grado di integrazione sociale di un gruppo di individui. Invece domande su chi occupi le posizioni più influenti o di comando hanno a che fare con la possibilità di individuare caratteristiche di centralità o perifericità della posizione di ciascun settore. Gli indici di centralità e centralizzazione sono strettamente imparentati e indicano la posizione di ciascun nodo (il primo) e il grado di gerarchizzazione del reticolo nel complesso (il secondo). Si noti come si ha una gerarchia se le relazioni sono dirette top-down, mentre se sono dirette bottom-up rappresentano l'attribuzione di prestigio. La possibilità per un soggetto di occupare una posizione più o meno centrale o periferica varia infatti in funzione del grado di centralizzazione del reticolo di cui fa parte. Un nodo è localmente tanto più centrale quanto maggiore il numero di legami diretti con nodi adiacenti (grado), mentre il suo grado di centralità globale dipende dalla posizione relativa nell'intera rete (distanza con tutti gli altri nodi del grafo). L'indice più semplice parte dall'ipotesi che la centralità di un attore dipenda dalla numerosità dei legami che egli intrattiene con altri soggetti, a prescindere dalla loro direzione. Il concetto di gruppo in sociologia viene utilizzato per designare oggetti di studio molto diversi; si tratta infatti di un termine generico che può designare ogni aggregato umano che si pone fra l'individuo e la società globale. Le tecniche di network analysis possono essere applicate per individuare i gruppi, definendone empiricamente i confini, o per controllare sul campo in quale misura un qualche criterio di appartenenza definito a priori corrisponde effettivamente a confini strutturali nei modelli di interazione tra i soggetti. Più specificamente, è possibile svolgere tre tipi di operazione: • definire empiricamente i confini di un gruppo attraverso l'individuazione di strutture relazionali di inclusioneesclusione; • misurare la coesione interna al gruppo o l'intensità e le caratteristiche dei rapporti che esso intrattiene con l'ambiente esterno (relazioni di scambio, cooperazione e conflitto); • analizzare la struttura interna individuando la presenza di sottogruppi, che a loro volta possono formare coalizioni, gerarchi, opposizioni.
Questo tipo di analisi viene condotta attraverso 14 l'applicazione del concetto di clique e dei suoi derivati. In questo modo sarà possibile individuare non solo i sottogruppi della comunità, ma anche chi svolge un determinato ruolo in un determinato momento. Dato che ogni partecipante svolge un determinato ruolo, questo può essere visto come un modo di suddividere la comunità in sottogruppi. L'analisi delle reti sociali affronta la individuazione dei gruppi su due concetti base: quello di coesione sociale e quello di affiliazione. Obiettivo dell'analisi è isolare uno o più sottoinsiemi di soggetti entro una popolazione più vasta. I sottoinsiemi individuati possono essere rappresentati come sottografi di un grafo complessivo. Poiché sia la coesione sia l'affiliazione possono essere definite operativamente ricorrendo a diverse proprietà dei legami tra soggetti e tra soggetti ed eventi rilevanti, esistono diversi criteri di identificazione empirica dei gruppi. Le proprietà dei legami che vengono prese in considerazione per analizzare la coesione sociale possono essere classificate entro cinque tipi, che permettono di raggruppare al loro interno diverse tecniche di analisi: 1. la reciprocità dei legami: un sottoinsieme di soggetti fa parte di un gruppo se i soggetti presi a coppie sono mutuamente e direttamente collegati, ovvero sono tutti adiacenti tra loro; 2. la vicinanza o la raggiungibilità dei membri: ciascun soggetto è raggiungibile da qualsiasi altro, anche se non adiacente; 3. la frequenza dei legami tra i soggetti: fa parte del gruppo qualunque soggetto che abbia almeno un certo numero r di legami diretti con tutti gli altri, tale per cui r < (g1); 4. la differenza relativa dei legami interni rispetto a quelli esterni al gruppo: il gruppo è definito sulla base del differenziale di densità interna rispetto a quella esterna; 5. la molteplicità dei legami tra i soggetti: fanno parte del gruppo i soggetti tra loro adiacenti a partire da un certo livello di molteplicità dei legami. L'approccio basato sul concetto di affiliazione è invece direttamente ispirato dall'idea simmeliana di intersezione delle cerchie sociali e di rapporto dialettico tra gruppo e individuo. Secondo questa visione la fisionomia sociale di un gruppo è plasmata dalla pluralità degli individui, ma nello stesso tempo l'identità individuale è definita sociologicamente dal fatto che il soggetto è a sua volta il luogo di intersezione di gruppi diversi, per effetto della sua appartenenza multipla ad essi. Si può immaginare un insieme di individui e un insieme di eventi tali per cui il valore del legame tra due individui è definito dal numero degli eventi cui entrambi hanno partecipato, così come il valore del legame tra due eventi è definito dal numero dei soggetti che ne hanno condiviso l'esperienza. Un 14 Una clique è il massimo sottografo completo. Il numero minimo di nodi che possono formare una clique è tre, non essendo rilevante la semplice coppia collegata da una linea. Fonte: Chiesi (1999)
qualsiasi approccio all'individuazione di sottogruppi partendo da una matrice di affiliazione necessita però di informazioni precise sul numero di eventi e sul numero dei partecipanti ad ogni evento.
Fig. 85: Grafo bipartito della matrice di affiliazione in tabella 18 (Fonte: Chiesi 1999)
Fig. 86: Grafo della matrice di adiacenza di tabella 20 (Fonte: Munchies 1999)
Fig. 87: Grafo della matrice di adiacenza di tabella 21 (Fonte: Chiesi 1999)
Utilizzando le matrici (tabella 18) di affiliazione e le sue adiacenti (tabelle 20-21), è possibile costruire altrettanti grafi. Il grafo della matrice di affiliazione è un esempio di grafo bipartito (fig. 85), i cui sottoinsiemi sono formati rispettivamente da soggetti e da eventi. Un grafo bipartito contiene soltanto legami tra soggetti ed eventi. Il grafo della matrice di adiacenza dei soggetti (fig.86) mostra due distinte cliques, originate dalla comune partecipazione di tre soggetti rispettivamente agli eventi E3 e E4. Il grafo della matrice di adiacenza degli eventi (fig.87) mostra una struttura in cui alcuni eventi sono collegati fra loro soltanto in modo indiretto, non condividendo gli stessi partecipanti. In sostanza, le reti di affiliazione si prestano a tre livelli di studio: • analisi delle relazioni tra eventi e soggetti partecipanti; • analisi delle relazioni tra soggetti indotte dalla comune partecipazione ad eventi; • analisi delle relazioni tra eventi indotte dalla partecipazione congiunta degli stessi soggetti. 241
Le tecniche adatte ad analizzare le matrici di affiliazione permettono non solo di ottenere grafi bipartiti, ma anche ipergrafi. Un ipergrafo è una collezione di h sottoinsiemi di nodi, tale per cui ogni sottoinsieme è formato dai soggetti che partecipano a ciascuno degli h eventi. Tutte le informazioni necessarie alla costruzione di un ipergrafo sono contenute nella corrispondente matrice di affiliazione. Se si pensano i soggetti come nodi e gli eventi come legami tra nodi, allora la matrice di affiliazione indica quale nodo è incidente con quale legame. La matrice di affiliazione può essere quindi interpretata come una matrice di incidenza di un ipergrafo, e la sua trasposta sarà la matrice di incidenza dell'ipergrafo in cui gli eventi sono nodi e i soggetti sono legami. In sintesi, le matrici di affiliazione, i grafi bipartiti e gli ipergrafi sono modalità alternative di rappresentazione di sottogruppi definiti sulla base della comune appartenenza dei soggetti a eventi. Ciascuna di queste modalità contiene le stesse informazioni, ma le presenta in modo diverso. La matrice di affiliazione è la necessaria base di partenza per l'applicazione di procedure analitiche. Il grafo bipartito permette di evidenziare i legami tra soggetti ed eventi e le connessioni indirette tra eventi e tra soggetti.
Fig. 88: Ipergrafo ricavato dalla matrice di affiliazione di tabella 18 (Fonte: Chiesi 1999)
L'ipergrafo illustra in modo immediato i gruppi di soggetti intorno ad ogni evento o viceversa, ma non si presta a descrivere insiemi vasti. La descrizione grafica è efficace perché riunisce in un'unica soluzione le informazioni contenute in tutte e tre le matrici di partenza; peraltro, come è evidente, all'aumento dei soggetti e delle affiliazioni il disegno perderebbe chiarezza e diventerebbe ben presto impossibile limitarsi a due 15 Matrici di affiliazione, grafi sole dimensioni . 15 La partecipazione ad un medesimo evento non è sufficiente affinché due nodi abbiano la stessa posizione strutturale o lo stesso ruolo. Per avere la stessa posizione strutturale, due nodi devono avere (o non avere) lo stesso numero e tipo di legami da e verso tutti gli altri attori del reticolo in cui sono inseriti. La nozione di ruolo si fonda su quella di posizione strutturale, ma è piuttosto orientata a individuare il grado di associazione tra relazioni tipiche di chi occupa la stessa posizione. (Chiesi 1999) Nel caso delle comunità Open Peer-to-Peer, se si vuole progettare la rete di interazione fra ruoli, sarà sufficiente pensare a gruppi, in quanto i partecipanti decidono liberamente a quale ruolo aderire, che diventerà quindi la relazione che li legherà. I concetti di posizione strutturale e di ruolo sono invece più 242
bipartiti e ipergrafi permettono quindi di identificare i nodi della rete sociale che condividono una medesima caratteristica. Questo metodo è quindi molto utile nella identificazione della piattaforma, ossia la condivisione delle condizioni necessarie affinché una interazione collettiva possa avere luogo. L'analisi delle reti sociali permette anche la descrizione di molte altre caratteristiche e comportamenti delle reti sociali, divenendo così uno strumento necessario per un designer interessato a svolgere interventi progettuali indirizzati verso reti sociali (e quindi reti collaborative e comunità). L'utilizzo di questo metodo di analisi si ricollega direttamente alla figura di designer che, secondo John Thackara, emerge dal programma di ricerca 16 SPARK! . Un designer che comincia a spostare la propria prospettiva da quella indirizzata solamente ad oggetti ed edifici, ad una più attenta verso flussi, ritmi, scambi, transazioni e connessioni. Un intervento progettuale rivolto alla dimensione locale e ai suoi processi di sviluppo può quindi avvantaggiarsi dell'analisi di rete: in questo modo il designer può comprendere la situazione preesistente della rete sociale, che caratterizza le risorse disponibili per lo sviluppo e l'esecuzione del progetto. Inoltre può servire per ricercare, progettare e visualizzare i passaggi più brevi per la distribuzione di beni materiali o per la interazione fra partecipanti, la presenza di cicli di retroazione. È inoltre possibile, attraverso l'analisi delle reti, comprendere la distribuzione della reputazione all'interno della comunità, ossia come si struttura nei vari gradi (leader, nucleo centrale, partecipante attivo, partecipante periferico)
3.3. Progetto e progettazione Open Peer-to-Peer A questo punto si può intravedere meglio come dovrà essere strutturato un intervento progettuale rivolto a comunità Open Peer-to-Peer. Si cercherà infatti di progettare la piattaforma necessaria affinché si sviluppi una comunità Open Peer-toPeer, ossia la piattaforma per l'attività e l'attività stessa. La piattaforma dell'attività, necessaria affinché si sviluppi l'attività, dovrà essere presente anche in fase di progettazione; è la piattaforma che rende possibile l'interazione e la discussione tra i partecipanti, e quindi anche la loro interazione e discussione con i designer. È possibile progettare l'attività senza considerare prima la piattaforma esistente (e casomai migliorarla o ampliarne la condivisione), ma sarebbe una progettazione di tipo top -down, che non garantisce né l'accettazione del progetto da parte della comunità, né la sua conformità alle caratteristiche specifiche della comunità. La partecipazione aperta e paritaria (ossia Open Peer-to-Peer) dei membri della comunità è necessaria affinché il progetto sia adatti per analizzare la comunità dal punto di vista delle relazioni sociali, al fine di comprenderne punti deboli e punti forti 16 Thackara (2004)
conforme alla comunità, e apprenda come autoorganizzarsi durante lo svolgimento dell'attività. La comunità, infatti, si auto-organizzerà modificando se necessario il progetto, per quanto è possibile: questo avviene anche nelle comunità locali, soprattutto in quelle dove l'intervento progettuale è stato più rigido. È quindi necessario fare in modo che l'approccio progettuale rivolto a comunità Open Peer-to-Peer sia in grado di permettere una partecipazione attiva a tutti i membri, e che il progetto stesso possa essere modificato una volta eseguito in modo da permettere l'auto-organizzazione della comunità. L'approccio progettuale deve quindi riconoscere la complessità della comunità e quindi affrontarla con metodi e meccanismi adatti. Per un designer, infatti, il pensiero della complessità porta due conseguenze: progettare nella complessità e progettare la complessità17. La prima rimanda ad una presa di coscienza della complessità che diventa un'ineludibile esigenza ed esperienza collettiva, la seconda al problema di trasformare la scoperta della complessità in un metodo. Per questo motivo è stato costruito un framework di riferimento dove alcuni strumenti e metodi di analisi sistemici (capitale sociale e analisi delle reti sociali, teorie della complessità, Teoria dell'Attività) possono essere utilizzati per analizzare e progettare attività e piattaforme. Ma questi strumenti non sono sufficienti a garantire la complessità del progetto, derivante dalla partecipazione di un numero potenzialmente elevato di partecipanti. Un approccio progettuale tradizionale riduce la complessità per affrontarla, ma ciò non è
sufficiente e rischia di risultare fuorviante. Dalla 18 definizione di complessità di Casti , infatti, bisogna essere complessi per comprendere e per gestire la complessità. La complessità di un sistema non va vista come un difetto, al fine di una migliore comprensione o gestione del sistema, e per riuscire a gestire la complessità, occorre creare modelli fedeli non solo del sistema da gestire, ma anche del sistema che gestisce. La complessità, la sua identificazione e la sua gestione sono il risultato di un processo interattivo fra il sistema gestito e il sistema gestore; quest'ultimo, quindi, deve disporre di un'adeguata descrizione (un modello) sia del sistema gestito sia di se stesso. Se il progetto è complesso, anche il progettista (o meglio: la comunità di co-progettisti) devono rappresentare un sistema complesso. L'intervento progettuale non deve fornire solo le condizioni necessarie per l'emergenza della complessità, ma fare in modo che questa emerga attraverso le condizioni necessarie. In altre parole, l'intervento progettuale non si esaurisce con la fornitura delle condizioni necessarie, ma segue il loro sviluppo fino all'attività della comunità e alla costituzione di comportamenti complessi. È necessario quindi un approccio progettuale che, basandosi sulla piattaforma condivisa dai partecipanti e dai progettisti, venga a costituire una comunità del progetto in grado di progettare l'attività della comunità. Dato che il numero dei partecipanti, grazie alle forme di organizzazione Open Peer-to-Peer, è potenzialmente elevato, l'approccio progettuale deve poter sostenere la scalabilità, cioè funzionare sia con pochi partecipanti che con un numero più o meno elevato.
Fig. 89: Processo NPD tradizionale (Fonte: Siedlok 2002) 17 Bertola, Manzini (2004)
18 p.121 243
Fig. 90: Open Source-based Product Development Model (Fonte: Siedlok 2002)
244
In questo contesto le comunità Open Peer-to-Peer risultano interessanti e promettenti, oltre che per le forme di organizzazione, anche per la metodologia progettuale che hanno sviluppato. Non solo è promettente la co-progettazione di attività per comunità Open Peer-to-Peer, attraverso la loro forma di organizzazione, ma anche l'utilizzo della loro metodologia progettuale. Le comunità Open Peer-to-Peer non sono solo promettenti per il modo in cui affrontano problemi complessi organizzandosi con modalità Open Peer-to-Peer, ma anche per come sviluppano progetti complessi con modalità Open Peer-to-Peer. Open Peer-to-Peer è quindi non solo una forma di autoorganizzazione, ma anche una forma di progettazione. 19
Dall'analisi su Linux svolta da Kuwabara , è noto che le comunità Open Peer-to-Peer riescano a sviluppare progetti complessi proprio grazie alla propria complessità intrinseca: la complessità della progetto è un riflesso della complessità della comunità, ed entrambe si rafforzano a vicenda. Risulta quindi promettente far sviluppare il progetto della comunità (un sistema complesso), ad un sistema complesso (la comunità). La metodologia progettuale a bazaar, sviluppata in ambito software ma in costante espansione verso altri ambiti, permette la valorizzazione di un numero potenzialmente elevato di partecipanti, mettendo così in moto una vera e propria evoluzione memetica del progetto. In questo approccio progettuale, il designer assume un ruolo di enabler della progettazione, proprio come è successo per Linus Torvalds all'interno della comunità di sviluppo di Linux. In un intervento progettuale per comunità Open Peer-to-Peer, che utilizza una metodologia Open Peer-to-Peer, il progetto viene sviluppato da una comunità: è la stessa comunità che progetta la propria attività, grazie al ruolo di enabler del designer. In questo modo l'intervento progettuale riguarda un progetto di attività per un numero potenzialmente elevato di partecipanti, ed è il risultato di una attività svolta da un numero potenzialmente elevato di partecipanti, ossia gli stessi che ne usufruiscono. Nonostante attualmente possa incontrare resistenze alla sua 20 diffusione , la metodologia di sviluppo software a bazaar può essere vista, secondo Franciszek 21 Siedlok , come una nuova generazione di metodo di Sviluppo Nuovi prodotti (New Product Development o NPD). Ed è principalmente dalla cultura del management e in parte da quella del marketing dei servizi che provengono le prime formalizzazioni dei processi di progettazione dei servizi, inizialmente derivate alla traslazione dei metodi utilizzati nel NPD del settore manifatturiero 22 e quindi ridefinite secondo le esigenze del settore . In questo senso, accostare la metodologia Open Peer-to-Peer (o a bazaar), come incontro tra i 19 20 21 22
Kuwabara (2000) Siedlok (2002) Idem Sangiorgi (2004)
principi Open Source e quelli Peer-to-Peer, alla progettazione dell'attività come un servizio, non è un'operazione avventata e priva di precedenti. Siedlok infatti riprende i principi della 23 progettazione a bazaar proposti da Eric Raymond e, stabilite le dovute differenze, li trasporta nell'ambito della progettazione di prodotti, dove diventano una nuove generazione nel metodo di Sviluppo di Nuovi prodotti, che chiama Open Source-based Product Development Model (OSPDM) (fig. 89 e 90). È questo infatti un metodo progettuale che coinvolge sviluppatori esterni, utilizzando così conoscenze esistenti, attraverso una conversazione diretta con i clienti. Rispetto al processo di NPD tradizionale, nel processo OSPD la partecipazione dei vari stakeholder ha una intensità maggiore, e il feedback con il mercato è continuo (non avviene solo alla fine dell'introduzione sul mercato, come risultato delle vendite). L'opera di Siedlok ha l'importanza di rappresentare uno dei primi tentativi di comprensione della metodologia di progettazione Open Peer-to-Peer con l'intento di capirne le potenzialità in altri ambiti. Per capire la differenza della metodologia di progettazione Open Source, rispetto alle metodologie correntemente utilizzate nella progettazione, conviene riferirsi al contesto di nascita, lo sviluppo di software. Le fasi di sviluppo di un progetto di codice proprietario seguono una tipica successione di fasi, paradigmatiche di una progettazione lineare convenzionale (fig.91). Partendo dalla definizione dei requisiti del software (cioè, del codice binario), questo viene successivamente progettato 24 attraverso il codice sorgente e implementato . Sebbene possa essere suddiviso in moduli per poter essere affidato a differenti team progettuali, ognuno svilupperà una ed una sola versione. Infine viene integrato con altri componenti software sviluppati separatamente o acquisiti e rilasciato (released), ossia distribuito e venduto. Una volta sul mercato, viene fornito supporto agli utenti. Il processo si ripete per ogni versione più significativa (1.0, 2.0, X.0, più raramente 1.1, 1.2, ecc.). Con questo metodo progettuale il software viene considerato un prodotto finito, risultato finale della fase di progettazione: modifiche e aggiunte verranno fornite solo se necessario, altrimenti saranno disponibili nella versione successiva, considerata sì come una evoluzione di quella precedente, ma rispetto ad essa rappresenta un prodotto separato. L'approccio Open Source (fig.91) non differisce solamente dal fatto che il numero di utenti coinvolti è potenzialmente molto più ampio. In questo approccio il codice binario non è più l'obiettivo finale, definitivo, ma uno strumento; 23 Raymond (1998) 24 In informatica, il termine implementazione indica il modo in cui un dato prodotto o servizio software, opportunamente specificato, viene concretamente realizzato. Fonte: http://it.wikipedia.org/wiki/Implementazione 245
contemporaneamente, il codice sorgente passa dalla condizione di strumento alla condizione di oggetto del progetto. Dato che il progetto viene sviluppato da una comunità di persone progettualmente capaci, ciò che interessa è il codice sorgente, non il codice binario. Mentre nell'ambito del software proprietario gli utenti desiderano ricevere il codice binario, nel software Open Source gli utenti desiderano ricevere il codice sorgente, da cui poi trarranno autonomamente il codice binario. In un progetto Open Source, l'attività nasce dall'interesse di uno o più programmatori, desiderosi di risolvere un problema. La attività progettuale non nasce da una lunga discussione, ma da una proposta iniziale effettuata dai fondatori del progetto: viene pubblicato (released) un codice sorgente iniziale, accompagnato da una proposta della direzioni che lo sviluppo progettuale dovrebbe intraprendere. Non importa quanto sia rifinito o sviluppato il codice di partenza: 25 l'importante è che esso sia presente . La sua mancanza è critica, in quanto senza di esso la comunità incomincerebbe una discussione che il più delle volte non si traduce in un progetto. Al contrario, se è presente un codice iniziale, questo metterà la comunità di partecipanti in condizioni di agire progettualmente già dal principio, senza perdita di tempo. È questo un modo di attirare i partecipanti offrendo loro direttamente opportunità di azione. Bisogna sottolineare come la presenza di un codice sorgente, seppure influenzi lo sviluppo del software, non ne preclude evoluzioni radicali anche in corso d'opera. La fornitura del codice sorgente iniziale non è quindi un modo per imporre un proprio progetto alla comunità che si formerà, ma di effettuare una proposta, di fare "la prima mossa". Rilasciata la prima versione del codice sorgente, a questo punto la comunità è in grado di svilupparlo autonomamente, effettuando una attività di progettazione e test parallele. Ossia: non più, come prima, viene progettato il codice, e alla fine testato. Il codice viene progettato e testato in continuazione, in un feedback continuo. Nel processo Sviluppo di Nuovi Prodotti tradizionale, si ha un feedback verso la progettazione quando il prodotto finale ha raggiunto il mercato, mentre nel processo OSPDM questo feedback è continuo. Ciò è possibile grazie al fatto che è possibile trasformare il codice sorgente in codice binario attraverso programmi facilmente accessibili (i compilatori): essere in possesso del progetto equivale ad essere in possesso del prodotto finale. E quindi essere in possesso del progetto equivale a poter testare il prodotto. Il poter svolgere le fasi di progettazione e test parallele e ripetute nel tempo è quindi uno dei punti fondamentali del metodo progettuale Open Peer-to-Peer. Il codice sorgente è accessibile a tutti i partecipanti, che possono così segnalare gli errori (bug) presenti. Maggiore il loro numero, maggiori sono le probabilità che gli errori vengano rilevati e 25 Raymond (1998) 246
corretti. Eric Raymond chiama questa la Legge di Linus: "Dato un numero sufficiente di occhi, tutti i 26 bug vengono a galla" . Ma la possibilità di accesso al codice sorgente da parte di tutti gli utenti non si esaurisce nella possibilità di lettura e controllo. Gli utenti possono sviluppare il codice liberamente ed autonomamente: si possono avere così più versioni del codice sviluppate in parallelo, contemporaneamente. Ciò è reso possibile dalla modularità del codice sorgente, che ne permette la sua suddivisione fra i gruppi dei partecipanti. È in questo modo che si ottiene una evoluzione memetica del progetto, dove le versioni sviluppate autonomamente rappresentano la popolazione e la versione del codice sorgente (0.1, 0.2, ecc.) rappresenta la generazione. Raggiunto infatti un codice sorgente dalla qualità accettabile (ossia stabile, utilizzabile senza errori), questo può venire rilasciato pubblicamente come versione più recente. Per fare ciò, i vari codici sviluppati dai vari partecipanti devono venire integrati fra loro. Normalmente, la successione delle versioni viene stabilita a priori (seppur con flessibilità) in una lista di obiettivi da raggiungere ad ogni versione (to-do list): raggiunti gli obiettivi, il codice sorgente può venire rilasciato con quella determinata versione. Può accadere infatti che la successione delle versioni non sia lineare ma avvengano salti in avanti, dovuta ad un rapido raggiungimento degli obiettivi. Rilasciato il codice sorgente con una nuova versione stabile, anche i partecipanti non esperti possono utilizzare il software, mentre quelli esperti possono continuare a modificare il codice. L'attività progettuale è quindi continua, senza vere e proprie interruzioni: dopo una certa fase di utilizzo, è possibile individuare nuove direzioni, nuovi obiettivi, verso cui l'attività progettuale si dirigerà. Ciò che rende promettente la progettazione Open Peer-to-Peer è il fatto che la progettazione, test e pubblicazione del codice sorgente avvengono con una notevole rapidità: a volte anche più di una 27 volta al giorno . Un altro fatto che distingue la progettazione Open Source rispetto alla progettazione convenzionale, è la fornitura di supporto, che avviene sin dalla prima pubblicazione del codice e durante tutta la fase di progettazione, test, utilizzo. Dato che l'attività di supporto è offerta dai partecipanti, non si esaurirà mai. A differenza della progettazione tradizionale, lineare, la progettazione Open Source è nonlineare, con più processi svolti parallelamente; inoltre, il numero maggiore di partecipanti comporta una non-linearità delle loro interazioni maggiori.
26 Idem 27 Idem
Fig. 91: Percorso progettuale nel software proprietario e in quello Open Source
247
Riassumendo, le caratteristiche principali della progettazione Open Source sono: necessità come spinta per la • progettazione; • modularità; • riconoscimento di tutti i partecipanti come paritari; • riutilizzo delle risorse preesistenti (codici sorgenti, conoscenze, ecc.); • flessibilità e adattabilità per cambiamenti della direzione progettuale; • considerare i partecipanti che testano il codice sorgente come la principale risorsa; • considerare gli utenti come co-sviluppatori; • rilasciare il codice all'inizio dell'attivita progettuale e frequentemente. Queste caratteristiche, applicate al contesto di progettazione dell'attività delle comunità Open Peer-to-Peer, divengono le seguenti prescrizioni: •
• •
• • • • • •
dare inizio alla fase di co-progettazione partendo da un "codice sorgente dell'attività" iniziale proposto dal designer o da chiunque all'interno della comunità abbia una idea al riguardo (non necessariamente il suo sviluppo deve avvenire in collaborazione tra designer e comunità); permettere più versioni parallele del progetto; rilasciare frequentemente nuove versioni del progetto, al fine di effettuare contemporaneamente le fasi di progettazione e di test; trattare i partecipanti a pari livello, riconoscendo i loro contributi; riutilizzare le risorse esistenti ("codici", progetti, beni, strumenti, risorse territoriali, ecc.); formulare l'attività e quindi il progetto in maniera modulare, in modo da permettere il suo svolgimento a tutti i partecipanti; essere flessibili e pronti a cambiare la direzione progettuale anche in fase finale di progettazione; trasparenza delle decisioni e processo progettuale; condivisione delle informazioni.
Per poter svolgere contemporaneamente e con continuità le fasi di progettazione e test, la trasformazione del "progetto" nel "prodotto" finale deve avvenire con rapidità ed economicità, caratteristiche che attirano un numero elevato di partecipanti. Certamente la differenza fra progetto sviluppato (il codice sorgente, il "disegno tecnico del progetto") ed il progetto eseguito (il codice binario, "il progetto eseguito attraverso la produzione del prodotto"), nell'ambito del software non ha la stessa entità che per prodotti fisici. Trasformare il progetto (codice sorgente) in prodotto (codice binario) è una operazione rapida e semplice, eseguibile attraverso molti software liberamente accessibili (i compilatori). È questo il
248
motivo per cui una tale metodologia progettuale talmente rapida è stata sviluppata in questo contesto. Per poter espandere la metodologia Open Source ad altri ambiti, questa trasformazione deve poter essere altrettanto rapida e semplice, eseguibile da qualsiasi partecipante. In questo modo sarà possibile far sviluppare e testare il progetto a tutti i partecipanti, per poter così apportare le necessarie modifiche. Nel caso di un progetto di prodotto, ad esempio, il progetto deve poter essere testato attraverso simulazioni computerizzate, che riducono il gap tra progettazione e produzione, ed eliminano al contempo la necessità di sviluppare prototipi fisici ed eseguire complessi e costosi test. In questo modo ogni partecipante potrebbe sviluppare il progetto rapidamente ed economicamente, in maniera autonoma. Per questo la diffusione di un approccio Open Source al design di prodotto sarà maggiore quando saranno disponibili software facilmente accessibili ed utilizzabili per una prototipizzazione e test virtuale del progetto. La maggior parte dei software necessari per sviluppare un codice sorgente sono gratuiti, mentre altrettanto non si può dire per i costosi programmi di modellazione e simulazione di prodotti. Successivamente, l'introduzione della filosofia Open Source nel mondo del design del prodotto deve anche risolvere il problema che proviene dal brevetto dei progetti e dalla loro produzione. La metodologia Open Source, per poter permettere la partecipazione di un ampio numero di partecipanti, deve basarsi sulla condivisione del progetto. Condivisione che può essere vista come una minaccia dai produttori, dato che qualsiasi concorrente potrebbe produrre lo stesso prodotto. Ma questi sono aspetti che non interessano nel contesto di queste ricerca, e che 28 sono oggetto di studio in altre esperienze . Nel caso di un servizio (e quindi dell'attività della comunità), la differenza tra progetto sviluppato e progetto eseguito è più labile, e ciò rende l'approccio Open Source ancora più promettente. Lo sviluppo del progetto di un servizio e la sua sperimentazione possono infatti avvenire in maniera relativamente rapida ed economica. È possibile, cioè, progettare il servizio (cioè l'attività) e testarlo facendolo simulare agli attori (cioè i membri della comunità). Non è un caso che il design di un servizio sia stato spesso associato ad una regia, alla messa in scena di un evento 29 teatrale . Tra gli strumenti messi a punto nella pratica della gestione del personale di contatto nei servizi che avvengono in modalità face-to-face compare infatti il service script, dove all'operatore del servizio sono elencate, come in uno script teatrale, tutte le operazioni da compiere a contatto con l'utente affiancate dalle raccomandazioni e consigli di “buon uso”. È possibile quindi far testare il progetto dell'attività ai membri della comunità facendolo loro "recitare". Ma è necessario a questo punto soffermarsi 28 Sawhney (2003) 29 Pacenti (1998)
maggiormente su quali caratteristiche debba avere il progetto per poter essere condiviso, coprogettato e testato. O meglio: la formalizzazione del progetto. Se, utilizzando la metodologia progettuale Open Source, le fasi di progettazione e test avvengono parallelamente, vi sarà sempre una forte dicotomia tra "codice sorgente" e "codice binario". È una dicotomia che esiste in qualsiasi attività progettuale, la differenza fra descrizione dell'idea del progetto e la sua reificazione. Ma nell'ambito della metodologia Open Source, questa distinzione assume un significato ulteriore, dato dalla sua accessibilità e testabilità. Bisogna infatti riconoscere che, quando si sviluppa un progetto, ciò su cui si lavora non è la materia, ma l'informazione relativa alla materia (o comunque al contesto "reale", fisico). È questo un mutamento derivante dalla Rivoluzione Industriale: mentre prima la materia era per l'artigiano una materia specifica (cioè un particolare pezzo di legno o di pietra), per l'ingegnere la materia è "un modello astratto caratterizzato da parametri (le proprietà) e da 30 relazioni tra parametri" ; "per l'ingegnere un materiale è noto quando sono note, cioè codificate 31 in forma numerica, le prestazioni" . Ciò è valido oramai anche per la maggior parte dei designer, perlomeno quelli che intedono avvalersi dei materiali più recenti: "oggi [...] la conoscenza astratta e formalizzata dei materiali non è più uno dei modi di conoscenza, ma l'unico modo 32 possibile" . Il designer è quindi a tutti gli effetti un knowledge worker, inserito in una knowledgebased economy. Lo sviluppo della metodologia Open Source deriva infatti dal mondo della programmazione informatica perché lì, più che in altri contesti, è radicata la consapevolezza di lavorare con informazioni. Come nel caso della programmazione, una attività progettuale del tipo Open Peer-to-Peer avrà successo se si baserà su: • la produzione di informazioni, che devono essere accessibili, modificabili e distribuibili: per la loro natura di beni non rivali, le informazioni possono essere condivise e riutilizzate in infiniti modi. La natura delle informazioni permette quindi la collaborazione collettiva; • la standardizzazione delle informazioni, che permette la facilità di comunicazione nella collaborazione collettiva; • l'utilizzo di reti che possano distribuire queste informazioni, le quali a loro volta dovranno tenere conto delle caratteristiche delle reti, al fine di poter essere distribuite e scambiate con facilità. Se si considera la metodologia Open Source come una metodologia progettuale basata su un codice sorgente (accessibile e modificabile) e su un codice binario (eseguibile), la stessa distinzione sarà presente nella metodologia Open Peer-to-Peer che 30 Manzini (1986) p.53 31 Idem 32 Idem
da essa deriva. Nel caso delle comunità Open Peerto-Peer, il "codice sorgente" della comunità è dato dal progetto della sua attività, mentre il "codice binario" (o eseguibile) sarà la comunità che svolge l'attività. Per testare un codice sorgente, lo si trasforma in un codice binario eseguibile: il progetto della comunità deve quindi essere "eseguito", simulato. Si è detto che il progetto deve essere il più possibile modificabile dalla comunità, in quanto cercherà comunque di farlo; aumentare la sua modificabilità dà maggiori garanzie di successo. Auto-organizzandosi, la comunità modifica il progetto dell'attività, che diventa lo strumento attraverso cui la comunità può auto-organizzarsi. È una descrizione infatti della organizzazione della comunità nello svolgere una particolare attività: deve essere accessibile a tutti i partecipanti, in modo che possano ricercare ed eliminare errori e capire quali azioni si debbano svolgere. Un nuovo partecipante non dovrà chiedere agli altri partecipanti come agire ma, leggendo il codice sorgente della comunità, saprà come orientarsi autonomamente. Il progetto è quindi il codice sorgente della comunità (Community Source Code, CSC). Se si considera la natura complessa del progetto, è possibile comprendere, come fa Kuwabara, i meccanismi della sua evoluzione memetica. Il progetto è infatti un memeplesso, cioè un insieme di memi, che dovranno presentare le seguenti caratteristiche per potersi diffondersi ed 33 evolversi : • coerenza: per diffondersi, un meme deve trovarsi in armonia con i memi già presenti nelle persone che incontra; • novità: un meme deve rappresentare una novità radicale per poter essere considerato positivamente e conservato; • semplicità: il meme deve essere facilmente memorizzabile; • utilità individuale: un meme, per poter essere considerato positivamente e conservato, deve aiutare i singoli individui nel perseguimento dei loro obiettivi; • importanza: per poter essere notato dagli altri individui e così diffondersi attraverso di loro, deve essere facilmente percettibile e di notevole significato; • espressività: il meme deve poter essere espresso in un linguaggio o in un codice con facilità; • formalità: l'interpretazione del meme deve dipendere poco dalla singola persona o dal contesto; • infettività: gli individui che portano con sé un meme devono essere inclini alla sua diffusione, come se fosse un virus; conformismo: un meme si diffonde • maggiormente se viene supportato dai memi già diffusi nella maggioranza delle persone; • utilità collettiva: un meme può diffondersi se è utile solamente per una collettività. 33 Heylighen (1996) 249
Gli elementi del progetto, del CSC dovranno quindi avere queste caratteristiche, per poter essere sviluppati dai partecipanti in un processo evolutivo che può portare ad un progetto complesso. Inoltre, bisogna considerare che i memi del progetto, per poter essere sviluppati da tutti i partecipanti, devono poter essere replicati in gran numero, con fedeltà di copia e devono poter "vivere" a lungo. Sono queste caratteristiche garantite dalle tecnologie di comunicazione digitali, e se si vuole adottare altre tecnologie di comunicazione, queste devono garantire le caratteristiche sopra elencate. Formalizzare il progetto dell'attività in una serie di documenti permette un certo livello di standardizzazione, il che permette: • una sua facile lettura da parte di tutti i partecipanti (ossia, richiede gli stessi artefatti e le stesse conoscenze condivise da tutti i partecipanti), senza possibilità di malintesi ed inconprensioni; • il confronto fra differenti progetti (sviluppati all'interno della comunità o da differenti comunità) e quindi la possibilità di adattare progetti esistenti a nuove comunità o sviluppare prodotti e servizi usufruibili da più comunità. In particolare il codice sorgente della comunità (o community source code) è costituito da: • mappa del Sistema di Attività della comunità (in grado di mostrare il Sistema di Attività complessivo); • mappa del sistema (in grado di mostrare i flussi di beni, informazioni e denaro fra i vari ruoli); • mappa dell'offerta (in grado di mostrare la suddivisione dell'attività in azioni ed operazioni); • blueprint (mostrando interazioni lineari, il suo utilizzo è limitato, ma può comunque essere sviluppato per ogni ruolo, in grado di mostrare le sequenze di azioni da svolgere); • licenza (in grado di fornire un contratto legale che regola l'attività collettiva e l'utilizzo dei risultati finali); • livelli di reputazione (in grado di mostrare quali movimenti e quale autorità ed azioni conseguenti caratterizzino ogni partecipante, in relazione al livello occupato); • per attività che necessitano la distribuzione di beni fisici, una mappa della rete sociale dove si analizzano e descrivono i canali di distribuzione (in grado di mostrare i percorsi utili per distribuire beni fisici); • descrizione della piattaforma (in grado di mostrare quali siano i prerequisiti per la partecipazione. In pratica possono essere utilizzati tutti gli strumenti normalmente utilizzati nella progettazione dei servizi, ovviamente tenendo conto delle differenze che esistono tra una impresa erogatrice e una comunità Open Peer-to-Peer. Ad esempio, il blueprint potrebbe non essere sempre 250
in grado di dare conto della non-linearità delle interazioni che avvengono tra i ruoli. In questo senso la mappa del sistema del servizio è molto più promettente, e non solo poiché permette la visualizzazione delle interazioni e dei flussi fra i vari ruoli (fig.92). La sua importanza risiede anche nel fatto che rappresenta uno strumento semplice da utilizzare e modificabile, caratteristiche queste che lo rendono ottimale per un progetto che deve poter essere sviluppato, usato e modificato da un numero potenzialmente elevato di persone, molte delle quali potrebbero non avere una cultura progettuale e quindi la possibilità di comprendere strumenti progettuali elaborati. Ma oltre agli strumenti tradizionali del design dei servizi, possono essere necessari altri tre strumenti: la licenza, la mappa dei livelli di reputazione e la mappa della rete sociale. La licenza è un testo scritto più o meno breve, che rappresenta la base legale di protezione dell'attività della comunità e regola e garantisce la collaborazione collettiva. La licenza è importante soprattutto quando si ha il problema della presenza di informazioni che si vuole condividere ma senza trarne uno svantaggio; normalmente infatti regola i prodotti finali dell'attività collaborativa e quindi anche quest'ultima. Ad ogni modo, un documento legale semplice e comprensibile rappresenta una assicurazione in più della garanzia che la collaborazione vada a buon fine. La mappa dei livelli di reputazione è un documento molto semplice, che può essere rappresentato con una serie di cerchi concentrici ma anche con una semplice tabella. Oppure può essere un semplice database come nei casi di Slashdot e Kuro5hin. L'importanza di questo documento è quella di informare i partecipanti della struttura della comunità e della reputazione e influenza che essi possiedono in essa. Rappresentando il livello di reputazione di tutti i partecipanti rappresenta anche una sorta di mappa della fiducia, ossia delle persone con cui si potrà con più facilità sviluppare attività collaborative. È uno strumento che consente anche processi di peer review collettivi, e quindi la garanzia che non si formino vertici di comando. Infine, la mappa della rete sociale consiste nel visualizzare la rete sociale dei partecipanti (o porzioni di essa) in base a determinati tipi di legami che devono essere scelti dai partecipanti stessi. La mappa infatti non deve rappresentare quei legami personali che si vorrebbe mantenere privati (amicizie, inimicizie, ecc.) ma quei legami che possono servire per svolgere l'attività della comunità con maggiore successo. La mappa della rete è importante soprattutto quando la rete collaborativa non si basa su artefatti high tech, quando essa può trovarsi in condizioni di instabilità e mutazione, oppure quando vi siano determinate relazioni importanti per lo svolgimento dell'attività, come ad esempio la distribuzione di beni fisici da partecipante a partecipante.
Fig. 92: Esempio di mappa del sistema applicato ad una comunità Open Peer-to-Peer (Thinkcycle)
L'utilizzo di artefatti high tech riduce i tempi necessari per conoscere la natura dei legami tra le persone (quindi non si necessita una mappa da poter consultare); la stabilità della rete non richiede una conoscenza approfondita della sua conoscenza da parte dei partecipanti (i dabbawalla non utilizzano mappe della rete sociale in quanto essa è stabile nel tempo ed essi sanno sempre con chi interagire). La piattaforma poi, se formalizzata e descritta in un documento, può rappresentare un punto di riferimento dei partecipanti, che possono consultarla con facilità. Se consideriamo dal punto di vista della complessità le comunità Open Peer-to-Peer, ossia se le vediamo come sistemi viventi complessi, questa distinzione tra progetto astratto (il codice sorgente) e progetto "eseguito" (come la comunità svolge l'attività) mantiene la sua validità, seppur con l'introduzione del concetto di processo. 34
È convinzione di Capra che la chiave per una teoria completa dei sistemi viventi (e quindi anche di comunità) stia nella sintesi di due approcci: lo studio dello schema (ovvero di forma, ordine, qualità) e lo studio della struttura (ovvero di sostanza, materia, quantità). Per quanto riguarda queste due caratteristiche fondamentali di un sistema vivente, Capra si attiene alle definizioni che ne danno Maturana e Varela. Lo schema di organizzazione di qualsiasi sistema, vivente o non vivente, è la configurazione delle relazioni fra i componenti del sistema che ne determina le caratteristiche essenziali ed il comportamento. In altre parole, per poter riconoscere qualcosa come 34 Capra (2001)
una sedia piuttosto che come una bicicletta o un albero è necessario che siano presenti determinate relazioni. Per schema di organizzazione Capra intende quindi quella configurazione di relazioni che conferisce a un sistema le sue caratteristiche essenziali. La struttura di un sistema è la materializzazione fisica del suo schema di organizzazione. Mentre la descrizione dello schema di organizzazione implica una rappresentazione astratta di relazioni, la descrizione della struttura implica la rappresentazione dei reali componenti fisici del sistema: la loro forma, la loro composizione chimica, ecc. Per illustrare la differenza fra schema e struttura, si consideri un sistema non vivente noto a tutti: una bicicletta. In questo modo si può capire come possa essere descritta la complessità di un progetto; successivamente si potrà comprendere come descrivere la complessità di una comunità (cioè il progetto per cui si sta cercando di sviluppare una metodologia di intervento progettuale). Affinché si possa dare a un oggetto il nome di bicicletta, bisogna che esista un certo numero di relazioni funzionali fra componenti che chiamiamo telaio, pedali, manubrio, ruote, catena, corona, ecc. La configurazione completa di tali relazioni funzionali costituisce lo schema di organizzazione della bicicletta. Ognuna di queste relazioni deve essere presente per dare a sistema le caratteristiche essenziali di una bicicletta. La struttura della bicicletta è la materializzazione fisica del suo schema di organizzazione in componenti dotati di una forma specifica, costruiti con materiali specifici. Lo stesso schema "bicicletta" si può materializzare in molte strutture differenti. Il manubrio sarà sagomato in maniera 251
diversa per una bicicletta da turismo, una bicicletta da corsa, o una mountain bike; il telaio potrà essere pesante o massiccio o leggero e affusolato; i pneumatici potranno essere stretti oppure larghi, cavi o di gomma piena. In tutte queste combinazioni e in molte altre sarà facile riconoscere differenti materializzazioni dello stesso schema di relazioni che definisce una bicicletta. In una macchina come la bicicletta le varie parti sono state progettate, costruite e assemblate per formare una struttura di componenti fissi. In un sistema vivente, al contrario, componenti cambiano di continuo. Un flusso incessante di materia attraversa gli organismi viventi. Ogni cellula sintetizza e scompone senza sosta strutture, ed elimina prodotti di scarto. I tessuti e gli organi sostituiscono le proprie cellule in cicli continui: c'è crescita, sviluppo ed evoluzione. Così, fin dalla nascita della biologia, la comprensione delle strutture viventi è stata inseparabile dalla comprensione dei processi metabolici e di sviluppo. Questa straordinaria proprietà dei sistemi viventi 35 suggerisce a Capra l'utilizzo del processo come terzo criterio per una descrizione completa della natura della vita. Il processo della vita è l'attività necessaria alla continua materializzazione dello schema di organizzazione del sistema. Dunque il criterio di processo costituisce il legame fra schema e struttura. Nel caso della bicicletta, lo schema di organizzazione è rappresentato dai disegni di progetto che vengono utilizzati per la costruzione, la struttura è l'oggetto materiale costituito da una specifica bicicletta, e il legame fra schema e struttura è nella mente del progettista. Nel caso di un organismo vivente, invece, lo schema di organizzazione è sempre materializzato nella struttura dell'organismo, e il legame fra schema e struttura consiste nel continuo processo di materializzazione. Nel caso che l'organismo considerato sia una comunità, per materializzazione si intendono i membri della comunità e le informazioni che essi producono e scambiano. Nel caso delle comunità Open Peer-to-Peer, lo schema di organizzazione è dato quindi dal progetto della comunità, la struttura dalla specifica forma che questo prende una volta in grado di auto-organizzarsi, derivante dalle caratteristiche dei suoi partecipanti e quindi differente ogni volta che lo schema di organizzazione venga adottato da una comunità. Il processo rappresenta l'attività che la comunità svolge (con le sue azioni ed operazioni, come descritto nella Teoria dell'Attività). Tutti e tre i criteri – schema, struttura e processo – sono completamente interdipendenti. È possibile riconoscere lo schema di organizzazione solo se è materializzato in una struttura fisica, e nei sistemi viventi questa materializzazione è un processo continuo. Dunque struttura e processo sono legati in maniera indissolubile. È quindi importante comprendere come sia necessario considerare una comunità Open Peerto-Peer in base al suo schema, alla sua struttura e 35 Idem 252
al suo processo; cioè al progetto della sua attività, alle sue caratteristiche specifiche e alla attività stessa.
4. Linee guida progettuali
4.1. Progettare reti collaborative come comunità Open Peer-to-Peer A questo punto è possibile riassumere il percorso svolto e proporre alcune brevi linee guide per lo svolgimento di un intervento progettuale rivolto alla costruzione di reti collaborative con forme di auto-organizzazione Open Peer-to-Peer. È quindi possibile sintetizzare queste linee guida dall'incontro della Teoria dell'Attività con il design dei servizi (effettuato da Daniela Sangiorgi), con le teorie della complessità, con le pratiche di progettazione partecipata e,infine, con la forma di organizzazione di un processo progettuale tipica delle comunità Open Source (e quindi delle comunità Open Peer-to-Peer). Si è visto infatti come, con il design dei servizi, si possa progettare una attività; tuttavia, per poter progettare l'attività di una comunità (e non quindi di una impresa erogatrice di un servizio) bisognava effettuare alcune distinzioni. Comunità e impresa sono infatti molto differenti, a partire dalla forma che si danno in basa alla reputazione la prima (rete orizzontale) e al potere la seconda (gerarchia verticale). La progettazione per l'attività di una impresa segue normalmente la filosofia a cattedrale; la progettazione per l'attività di una comunità dovrà invece seguire la filosofia a bazaar. La metodologia progettuale sviluppata nell'ambito del design dei servizi (e in particolare da Sangiorgi) necessitava quindi di alcune precisazioni, dovute alla maggiore complessità di una comunità rispetto a quella di una impresa erogatrice. Risulta quindi promettente combinare la progettazione dei servizi come progettazione di Sistemi di Attività interagenti con la filosofia progettuale Open Peerto-Peer. Un intervento progettuale rivolto a comunità Open Peer-to-Peer dovrà organizzarsi anch'esso con modalità Open Peer-to-Peer, garantendo una partecipazione paritaria a tutti i membri o futuri membri della comunità. Dovrà essere un intervento in cui non solo i membri della comunità sono di pari livello, ma anche i progettisti, che dovranno quindi riconoscere ai partecipanti un ruolo attivo e fondamentale. La comunità dei membri e la comunità dei progettisti formano così una comunità progettuale unica, in cui, come nel caso di Linux, progetto e progettisti si evolvono parallelamente, adattandosi reciprocamente. La partecipazione è aperta e paritaria, ma è regolata da due principi: auto-selezione e reputazione. Saranno poi i membri stessi a scegliere come partecipare e con che intensità farlo, e l'influenza personale nel processo progettuale deriverà dalla propria reputazione. Anche se i progettisti, godendo generalmente di
una maggiore reputazione riguardo al processo progettuale, risulteranno avvantaggiati e potranno “dirigere” l'intervento progettuale, dovranno sempre stare attenti affinché la propria reputazione non diminuisca. In questo senso: dato che non possono dirigere l'intervento progettuale nel senso letterale del termine ma facilitarlo, dovranno porre molta attenzione alle necessità dei partecipanti. Se i progettisti godono di una maggiore reputazione relativamente alla gestione del processo progettuale, il loro rapporto con i partecipanti è simile a quello tra nucleo centrale/leader e resto della comunità. E come il nucleo centrale e il leader non deve permettere che i partecipanti siano insoddisfatti, anche il progettista dovrà farlo. Altrimenti l'intero processo progettuale sarà a rischio. L'auto-selezione e la reputazione sono inoltre i meccanismi che stanno dietro alla presenza di differenti livelli di partecipazione nelle diverse fasi progettuali. La stessa cosa avviene nelle comunità Open Source: nelle prime fasi di vita la partecipazione è minima, crescente poi con il tempo. Reputazione e auto-selezione rendono chiaro che siano le conoscenze e capacità personali a muovere il percorso progettuale (oltre che la vita stessa della comunità). In questo senso vi possono essere delle fasi in cui la partecipazione è ridotta al minimo, poiché le capacità progettuali richieste non sono presenti tra i partecipanti. Nei casi riscontrati di comunità Open Peer-to-Peer, non vi è una forma organizzativa ideale, a cui tutti aderiscono. Potrebbe essere poiché queste comunità rappresentano un fenomeno relativamente recente e quindi potrebbe darsi che la sua fase di sperimentazione non sia ancora terminata. Ma è comunque chiaro che questa mancanza di modelli ideali, uguali per tutti, sia strettamente correlato alla filosofia che sottende le comunità Open Peer-to-Peer. La valorizzazione della diversità e della libera attivazione personale portano direttamente alla mancanza di una struttura rigida: si passa dalla griglia alla rete1, ossia da una concezione della realtà rigida, riduzionista e assoluta ad una concezione flessibile, sistemica e molteplice. La presenza di più modalità organizzative rappresenta non altro che una maggiore ricchezza in cui attingere per ricercare quei comportamenti e processi virtuosi tipici di ogni comunità, ambito o problema. Allo stesso modo, queste linee guida si propongono di essere lasche e generali, nel senso di essere modificabili e adattabili. Più comunità progettuali potranno sviluppare differenti approcci, e dal loro confronto non può 1
Taylor (2005) 253
che scaturire uno sviluppo di metodologie e approcci progettuale rapido e completo, come è successo con Linux. In definitiva, le comunità Open Peer-to-Peer rappresentano la forma organizzativa ottimale per attività collaborative, riuscendo così ad avvantaggiarsi della complessità e risolvere così problemi complessi. La loro notevole diffusione, e la necessità di ”progettarle” necessitano che anche i progettisti comincino a confrontarsi con i problemi che sottolineano e con le possibili soluzioni che propongono. Nuovi metodi di protezione delle opere creative, nuove forme progettuali e nuove necessità e opportunità sono tutti fattori che le comunità Open Peer-to-Peer propongono e che possono interessare i progettisti.
4.2. Fasi di vita delle comunità Open Peer-to-Peer Una comunità Open Peer-to-Peer passa solitamente attraverso alcune fasi di vita tipiche (simili in alcuni punti alle fasi delle comunità di pratica): potenziale, coalizzazione, maturazione, autoorganizzazione ed espansione, declino. Sebbene le fasi di vita di ogni comunità siano differenti, è possibile avere una idea generale del loro possibile sviluppo. È possibile quindi tracciare un grafico delle fasi di vita delle comunità Open Peer-to-Peer, adottando e modificando l'impostazione del grafico che Etienne Wenger, Richard McDermott, William Snyder2 utilizzano presentando un grafico sulle fasi di vita delle comunità di pratica. Alcune caratteristiche delle fasi di vita delle comunità di pratica possono infatti essere prese come punto di partenza per elaborare le fasi di vita delle comunità, tenendo conto sia delle somiglianze che delle differenze tra le comunità di pratica tradizionalmente intese, soprattutto in ambito aziendale, e le comunità Open Peer-to-Peer. L'impostazione del grafico proposto dagli autori è importante in quanto propone di analizzare, per ogni fase di vita delle comunità, il livello di energia e di visibilità esterna delle loro attività. Si può quindi notare con un grafico simile il grado di successo, inteso come coinvolgimento dei partecipanti nelle attività (energia) e il potenziale coinvolgimento di nuovi partecipanti (visibilità) nel corso del tempo. Possono quindi essere identificate cinque fasi di vita (fig.93): a) potenziale; b) coalizzazione; c) maturazione; d) auto-organizzazione ed espansione; e) declino. Nella fase potenziale (a), alcune persone (alcuni possibili futuri membri della comunità, normalmente quelli che si posizioneranno poi nel 2
Wenger, McDermott, Snyder (2002)
254
nucleo centrale, grazie alla propria esperienza) realizzano la necessità di agire attivamente per soddisfare una esigenza, sia essa un problema concreto che una motivazione etica. Lo sviluppo della comunità non inizia necessariamente all'interno di una rete sociale preesistente, come avviene invece nelle comunità di pratica. Si costituisce invece grazie alla pre-esistenza di un interesse (problema, passione) condiviso, anche se i legami sociali esistenti sono pochi. Si ha quindi una (futura) comunità dispersa, distribuita: tante persone che hanno lo stesso interesse o problema ma non molti contatti reciproci e soprattutto non hanno ancora sviluppato idee per agire. Il processo che porta alla formazione di una comunità può partire anche dalla proposta di una singola persona o di un gruppo limitato (anzi, spesso è così). Non appena viene presentata una proposta o cominciano a svilupparsi discussioni, il livello di energia e visibilità dei partecipanti aumenta. Dando inizio a discussioni, più persone verranno in contatto con quella specifica tematica e aumenterà la consapevolezza di poter formare una comunità, di poter sviluppare una attività collettiva, riuscendo così a risolvere i propri problemi con maggiore successo. Si raggiunge infine un punto in cui la consapevolezza di poter formare una comunità, caratterizzata dallo stesso interesse che spinge ad agire, spinge le persone ad effettuare la decisione di darsi una forma di organizzazione o una attività specifica per risolvere i propri problemi condivisi. Nella fase di coalizzazione (b), ciò che dà energia alla comunità potenziale è la scoperta del fatto che tutti membri affrontano problemi simili, condividono l'interesse per uno stesso argomento, possiedono informazioni, strumenti e approcci che possono contribuire alla intera comunità generando un processo di apprendimento reciproco. Sebbene l'intensità dell'interesse verso un argomento comune sia molto importante, altrettanto importante è il beneficio che i membri ricevono dall'organizzarsi in comunità. I futuri membri devono quindi comprendere che possono trarre vantaggi da una attività collettiva, e prendono la decisione di svilupparla per risolvere attivamente i propri problemi. Per poter formare una comunità stabile, i partecipanti cercheranno quindi altri possibili partecipanti, sia tra gli utenti della piattaforma che tra le proprie conoscenze. L'impegno nel ricercare potenziali partecipanti e la visibilità ricercata per attirarli fa alzare notevolmente la linea del grafico, raggiungendo un picco quando un numero minimo di partecipanti, necessari per la formazione della comunità, verrà raggiunto. Sono i partecipanti che per primi decidono di formare una comunità che decidono questo numero minimo. Infine, durante questa fase, i membri della comunità imparano a conoscersi reciprocamente e si abituano a interagire. La fiducia che i membri della comunità necessitano non è il semplice risultato della decisione di fidarsi reciprocamente, ma emerge dalla conoscenza e comprensione reciproca.
Nella fase di maturazione (c) la comunità sviluppa la propria attività fino a raggiungere una fase dove sarà in grado di svolgerla auto-organizzandosi. È all'inizio di questa fase che, molto probabilmente, i designer vengono chiamati in causa, se i partecipanti non riescono a sviluppare autonomamente una attività. Dovendo agire da facilitatori, difficilmente riuscirebbero a farlo se non è presente già un certo numero di persone motivate ad agire. Ad ogni modo, dato che ogni comunità può svilupparsi in maniera differente dalle altre, i designer potrebbero intervenire anche nella fase potenziale, presentando la proposta attorno a cui si svilupperà l'attività e la comunità. È questo il momento in cui possono intervenire i designer: presentando una proposta (nella fase potenziale) oppure se chiamati, quando i partecipanti decidono di sviluppare una propria attività. A questo punto, se non interviene un designer, sono i membri stessi della comunità che sviluppano la propria attività, fino a raggiungere la fase di auto-organizzazione. Agendo autonomamente, dovranno aumentare il grado di energia speso (e quindi anche la visibilità), cercando di attirare più partecipanti possibili che possano aiutare nello sviluppo dell'attività. Altrimenti, inizierà qui l'intervento progettuale, che condurrà la comunità sino alla fase di autoorganizzazione. Intervento progettuale che può essere suddiviso in tre fasi: analisi, generazione del concept, comunicazione del concept e coprogettazione/test.
È possibile notare come una suddivisione simile, anche se differente metodologicamente per approccio e strumenti, caratterizza l'intervento progettuale sviluppato da Design Council a Kent e Bolton3. Questo approccio parte con due giorni di ricerca intensiva e un workshop (shallow dive), per passare poi ad una elaborazione del concept progettuale effettuata separatamente dalla comunità (idea generation), e terminare infine con una fase più lunga di elaborazione del progetto (deep dive) attraverso una sua prototipizzazione. Queste tre fasi sono differenti sia per livello di energia e visibilità della comunità, sia per gli obiettivi di ogni fase, sia per gli strumenti e procedure utilizzate e quindi anche per il livello di partecipazione della comunità, come si vede nella fig.93. L'intervento progettuale può comunque avvenire anche in seguito, nella fase di autoorganizzazione, solitamente come una attività di redesign dell'attività della comunità; le fasi e le modalità sono le stesse sia che ci si trovi nella fase di maturazione che in un'altra fase. Inoltre, risulta fondamentale in un intervento progettuale la ricerca e costruzione di reti per la ricerca di finanziamenti e per la loro distribuzione, reti con imprese per la fornitura di servizi e prodotti necessari (anche attraverso attività collaborative tra comunità e imprese), reti fra comunità. La ricerca e costruzione di queste reti varierà da caso a caso, ma generalmente può essere vista con lo sviluppo mostrato nella fig.96.
Fig. 93: Livelli di partecipazione nelle differenti fasi progettuali 3
Design Council (2006a, 2006b) 255
Fig. 94: Fasi di vita di una comunitĂ Open Peer-to-Peer e fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)
256
Fig. 95: Fasi di vita di una comunitĂ : particolare delle fasi di intervento progettuale (Fonte: adattato da Wenger, McDermott, Snyder 2002)
257
Normalmente, cioè, verrà sviluppata per prima una rete per la ricerca di finanziamenti, necessari non solo per svolgere l'attività, ma anche per poterla discutere e sviluppare. Quindi verranno sviluppate le reti con imprese ed altre comunità. Mentre la costruzione di reti per i finanziamenti può avvenire già nella fase di analisi e sviluppo del concept, la costruzione delle altre due reti avverrà più probabilmente a partire dalla fase di coprogettazione (nel caso questa necessiti di beni, servizi o di una interazione maggiore con imprese) o di auto-organizzazione (la costruzione di una rete di comunità avviene più probabilmente quando queste hanno già una propria attività ho stanno giungendo alla fine del suo processo di elaborazione).
4.3. Fasi dell'intervento progettuale 4.3.1. Analisi L'intervento progettuale inizia con una necessaria analisi dei partecipanti, al fine di comprendere le risorse esistenti e quindi utilizzabili, le limitazioni, i punti critici. Attraverso l'analisi il designer comincia a conoscere i partecipanti, potendo così cominciare a prefigurare quali caratteristiche l'attività della comunità avrà. L'obiettivo della fase di analisi è quello di definire degli obiettivi e della strategia su cui costruire il concept di attività per la comunità. In questa fase comincia la ricerca e costruzione di reti per la raccolta e distribuzione di finanziamenti, necessaria per capire come sia possibile finanziare non solo l'attività della comunità, una volta progettata, ma anche lo stesso intervento progettuale. Fondamentale per l'intervento progettuale è, come si è detto, la piattaforma, in quanto rappresenta l'insieme delle condizioni necessarie affinché possa avvenire una interazione collettiva, sia tra i partecipanti che tra questi e i designer. Per questo motivo tra le caratteristiche da analizzare la piattaforma occupa un posto fondamentale. Già il fatto che i partecipanti abbiano cominciato a svolgere discussioni e l'intervento del designer è
stato richiesto, mostrano come una piattaforma sia già presente: lo scopo di questa fase è quello di analizzare la piattaforma per comprenderne punti di vantaggio e punti critici, limitazioni, livello di condivisione fra i partecipanti. Non tutti i partecipanti infatti potrebbero condividere tutte le caratteristiche, e condividere anche solo la maggior parte potrebbe pregiudicare una discussione collettiva. In questa fase il designer deve capire quindi le caratteristiche della piattaforma e, se necessario e se possibile, effettuare alcuni interventi per migliorarne le caratteristiche. Ad esempio, la presenza di un determinato sito web o centro locale può aumentare le probabilità di successo per una discussione collettiva, e se mancanti possono essere proposte da un designer. Devono quindi essere interventi che non richiedono molto tempo per essere realizzati (pregiudicando altrimenti tutto il percorso progettuale), ma basati sulle risorse esistenti. In seguito, verranno analizzate anche le caratteristiche dei singoli partecipanti, al fine di conoscere le loro abilità, conoscenze, motivazioni ad agire ed altre caratteristiche necessarie per l'elaborazione del concept. Assieme alle caratteristiche dei partecipanti, vengono analizzate anche eventuali attività preesistenti, al fine di comprendere a quali problemi sono indirizzate, come queste vengono svolte e con che grado di successo. Tutte queste analisi servono per capire quali siano i problemi reali dei partecipanti, e come questi possano, con le proprie risorse, riuscire a risolverli con successo. In questa fase quindi le caratteristiche ricercate ed analizzate riguardano: • la piattaforma (per capire come svolgere un intervento progettuale condiviso attraverso una discussione collettiva: si analizzano le caratteristiche condivise tra i partecipanti); • i partecipanti (per capire quali siano i loro problemi e le risorse con cui potrebbero affrontarli: si analizzano le caratteristiche individuali dei partecipanti); • le attività preesistenti (per capire problemi, risorse e tentativi esistenti di svolgere attività);
Fig. 96: Costruzione di reti con agenti esterni durante le differenti fasi di vita 258
La ricerca dei dati relativi a queste caratteristiche si avvale principalmente di tre strumenti: analisi delle reti sociali, analisi dei Sistemi di Attività, indagine etnografica. L'analisi delle reti sociali serve per comprendere lo stato della rete sociale preesistente, quindi quali relazioni siano presenti, quali siano i punti deboli del tessuto sociale, quali caratteristiche sono condivise e distribuite all'interno della rete (cioè, la piattaforma)4. L'analisi delle relazioni sociali preesistenti sarà tanto più importante quanto più il numero dei partecipanti è ridotto e limitato geograficamente, e da quanto più tempo avviene la discussione collettiva. In questo modo è anche comprensibile quali siano i primi percorsi che la diffusione di beni materiali può prendere: ad esempio, se per svolgere l'intervento progettuale ci si affida ad informazioni non digitalizzate ma stampate su carta, la rete sociale esistente può essere utilizzata per distribuire le informazioni a tutti i partecipanti. L'analisi dei partecipanti (e delle eventuali attività svolte) attraverso il Sistema di Attività permette di avere una visione sistemica, in grado di considerare tutti gli elementi necessari per poter poi sviluppare un concept di attività. Anche l'analisi della piattaforma deriva dall'utilizzo dei Sistemi di Attività come metodo di analisi, dato che può essere descritta tramite essi; in questa fase vengono ricercati gli elementi soggetto, artefatti e comunità (e, se la discussione collettiva,
Fig. 97: Livelli di partecipazione nella fase di analisi 4
Per una descrizione delle modalità di raccolta dei dati nell'ambito dell'analisi delle reti, si veda Chiesi (1999) pp.60-75
anche l'elemento regole, che sarà quindi già sviluppato). L'indagine etnografica serve da complemento a questi due strumenti, riuscendo così ad attenuare le loro eventuali rigidità. In questa fase quindi non viene permesso a nuovi partecipanti (se non in numero limitato) di entrare nella comunità, altrimenti il processo di analisi potrebbe continuare indeterminatamente. In questa fase quindi la comunità diminuisce le proprie azioni e la propria visibilità, al fine di mantenere le proprie caratteristiche costanti e permettere lo svolgimento della propria analisi. Una volta raccolti un numero sufficienti di dati, il designer passa alla loro interpretazione. È possibile pensare che anche le operazioni ricerca e raccolta dei dati, soprattutto quando il numero dei partecipanti è elevato, vengano portate avanti dai partecipanti stessi, secondo modalità di peer production. In questo caso, infatti, la ricerca dei dati di tutti i partecipanti sarebbe un lavoro dalla notevole portata e lunghezza, mentre suddividere questa attività fra i partecipanti comporta un impegno personale minore e distribuito. Certamente la scelta degli strumenti di ricerca e l'interpretazione finale dei dati spettano al designer, ma l'operazione pratica di ricerca dei dati può essere svolta, se ben progettata, anche dai partecipanti. In questo modo i partecipanti possono avere un ruolo attivo anche nella fase di analisi, individuabile tra una partecipazione consultativa ed un controllo condiviso (fig.97). Possono anche essere individuati dei partecipanti il cui ruolo, durante la fase progettuale, sarà proprio quello di svolgere ricerche su un numero determinato di partecipanti. L'attività di ricerca dei dati sui partecipanti dovrà quindi essere modulare e i moduli dovranno avere una bassa granularità. La modularità si riferisce alla ripartizione di tutti i partecipanti in sottogruppi, che verranno assegnati ai partecipanti ricercatori. La granularità si riferisce alla dimensione dei sottogruppi: minore quest'ultima, maggiore sarà la facilità con cui i partecipanti ricercatori riescono a raccogliere i dati. L'attività di ricerca, cioè, sarà distribuita equamente fra i partecipanti: una attività sostenibile per molti partecipanti può sostituirne una insostenibile per pochi. Una volta raccolti i dati, la loro interpretazione consiste nell'identificazione delle contraddizioni esistenti nei Sistemi di Attività indagati, nel loro raggruppamento secondo tipologie di problematiche o di direzioni progettuali e nell'identificazione di aree di opportunità per lo sviluppo di nuove interazioni o il miglioramento di quelle esistenti. Inoltre, per quanto riguarda l'analisi delle reti sociali, l'interpretazione dei dati riguarda i punti deboli e critici della rete sociale (cioè dove questa si può "rompere" portando all'isolamento di alcuni partecipanti), e quali siano le risorse condivise. Queste rilevazioni devono essere adeguatamente documentate in quanto diventano materiale da utilizzare come stimolo per la generazione di idee nelle fasi progettuali seguenti. La fase di interpretazione dei dati raccolti può essere supportata e verificata attraverso il coinvolgimento 259
dei soggetti indagati (se possibile) che possono confermare o meno l'analisi svolta e fornire ulteriori stimoli. Gli output di questa fase sono la documentazione di indagine, le contraddizioni emerse, le aree di opportunità e gli obiettivi dell'attività futura5. Tra gli strumenti utilizzabili in questa fase vi sono il modello dell'incontro, il Sistema di Attività, l'analisi della rete sociale.
4.3.2. Elaborazione del concept Una volta terminata l'analisi dei partecipanti, delle loro attività e della loro rete sociale, viene elaborato un primo concept della attività (e sua piattaforma) della comunità, fase in cui i partecipanti non intervengono, rendendola altrimenti lunga oltre misura (fig.). È una partecipazione indiretta dei partecipanti, in quanto il concept viene sviluppato consultando la documentazione prodotta attraverso la loro analisi. È infatti importante, in questa fase, sviluppare velocemente un primo concept di attività su cui lavorare in seguito collettivamente. Come nel software Open Source, i processi di progettazione e sviluppo collaborativi partono sempre da un progetto pre-esistente, proposto alla comunità: in questo caso il concept di attività. In questa breve ma importante fase i partecipanti quindi non svolgono nessuna azione, portando così il loro livello di energia e visibilità ad una quota stabile, in attesa che il designer comunichi loro il concept
Fig. 98: Livello di partecipazione nella fase di elaborazione del concept 5
Sangiorgi (2004)
260
elaborato. Questo concept dell'attività deve essere abbastanza flessibile per poter accogliere nuovi partecipanti e idee in seguito ma abbastanza rigido di modo che risulti coerente alle motivazioni degli attuali partecipanti. Il designer elabora quindi una prima versione (si potrebbe dire la 0.0.1) del progetto della attivitàpiattaforma, formalizzato nel codice sorgente della comunità (community source code). Come nell'ambito di progettazione del software Open Source, sarà da questo codice sorgente iniziale che partirà la progettazione collettiva. Visualizzare il progetto attraverso il codice sorgente della comunità sin da questa fase fa in modo che tutti i partecipanti comincino da subito ad apprendere il suo linguaggio, in modo che nella fase di auto-organizzazione siano in grado di modificarlo autonomamente, senza l'aiuto di un designer. Elaborare una prima versione del codice sorgente della comunità significa elaborare una mappa del Sistema di Attività dell'attività collaborativa, la sua licenza, i livelli di reputazione e i meccanismi di passaggio fra di essi, la probabile forma finale della piattaforma, per gli elementi delle regole, artefatti e divisione del lavoro. Piattaforma e attività sono infatti strettamente connessi: si sviluppa quindi in questa fase una prima divisione dell'attività e delle sue azioni ed operazioni fra i vari ruoli e la sequenza delle azioni ed operazioni necessarie per ogni ruolo, attraverso i vari strumenti disponibili (service blueprint, mappa dell'attività, ecc.). In altre parole, viene sviluppato il codice sorgente della comunità (nella sua versione propositiva), ossia una serie di documenti grazie alle quali è possibile descrivere l'attività della comunità, con gli strumenti di analisi e visualizzazione che i designer riterranno più opportuni. Artefatti, regole, ruoli ed interazioni fra i ruoli variano da attività ad attività; tuttavia è possibile qui identificare alcuni ruoli indipendenti dalle attività specifiche ma che, alla luce dei casi di comunità Open Peer-to-Peer riscontrati, risultano promettenti per garantire una auto-organizzazione efficiente. Si possono segnalare i seguenti ruoli: • ruoli per cicli di retroazione positiva e negativa: ruoli in grado di osservare l'attività e quindi di amplificarla o stabilizzarla, per raggiungere così un successo ed una diffusione maggiori evitando al contempo comportamenti eccessivi. Non sempre necessitano di essere istituiti ruoli appositi affinché appaiano cicli di retroazione, ma una attività progettuale rivolta ai ruoli deve tenere conto della loro importanza. Si potrà quindi fare in modo che i ruoli specifici dell'attività siano connessi fra loro in modo da formare anelli di retroazione, oppure istituire dei ruoli appositi che controllino e regolino l'attività della comunità. Ruoli simili possono essere quelli di bug reporter e bug fixer, sia dell'oggetto dell'attività collettiva che dell'attività stessa (in questo
•
•
•
• •
•
caso il codice che controllano è il codice sorgente della comunità); ruoli per cicli autopoietici: ruoli dedicati alla perpetuazione della comunità attraverso la costruzione continua degli elementi che vengono a mancare e necessari per lo svolgimento dell'attività (artefatti, informazioni, ma anche coinvolgimento di nuovi partecipanti per sostituire quelli che lasciano la comunità); agenti interni: il compito degli agenti è quello di distribuire informazioni e beni materiali, ossia di agire da intermediari tra partecipanti e tra partecipanti e designer. Queste operazioni di distribuzione possono essere svolte normalmente in maniera automatizzata o affidandosi a terzi (ad es. inviando e-mail, lettere o pacchi postali), e la loro presenza è importante quando non è possibile farlo. Ad esempio, nel caso che i partecipanti non abbiano accesso a Internet, nel caso che i beni fisici debbano essere distribuiti con una rapidità e contiguità che non è garantita dal servizio postale, oppure quando queste azioni di distribuzione richiedono una discussione e non una semplice ricezione (come nel caso della Grameen Bank, dove gli agenti non solo portano denaro ma discutono con i gruppi su come svolgere le varie azioni). In questo modo è possibile costruire reti collaborative con un'ampia estensione, colmando i vuoti della rete sociale esistente; mentori: svolgono il ruolo di fornire un supporto ai nuovi partecipanti, grazie alla loro esperienza sull'attività della comunità. La differenza fra i mentori e gli agenti risiede nel fatto che gli agenti svolgono azioni di distribuzione non meccaniche, mentre i mentori forniscono la propria esperienza per mettere in grado i partecipanti di svolgere le proprie azioni con maggiore efficacia. Mentre l'attività degli agenti è necessaria per lo svolgimento dell'attività collettiva, l'attività dei mentori è auspicabile, per permettere un suo svolgimento più efficace; documentatori: svolgono il ruolo di fissare le informazioni necessarie alla comunità in documenti consultabili liberamente; agenti con l'esterno: svolgono il ruolo di mantenere contatti con altre comunità od enti esterni, quali reti di comunità, reti di imprese, reti di finanziamenti; integratori dei moduli: potrebbe essere necessario istituire delle apposite azioni e quindi dei corrispondenti ruoli per integrare i differenti moduli con cui l'attività collettiva agisce sull'oggetto. Ad esempio, nel caso di Distributed Proofreaders, può essere necessario un ruolo che agisca da integratore dei moduli (le pagine) in cui l'oggetto dell'attività (un libro) è stato suddiviso tra i partecipanti affinché essi agiscano su di esso (peer production);
•
gestori dell'auto-organizzazione: la fase di auto-organizzazione, come si vedrà in seguito, è caratterizzata da alcune azioni importanti affinché la comunità svolga la sua attività, cercando di coinvolgere nuovi partecipanti. In questo modo possono essere istituiti dei ruoli appositi per ogni azione necessaria per supportare l'autoorganizzazione. Nelle comunità Open Peerto-Peer, le persone che danno luogo ad una comunità per prime sono quelle che in seguito avranno reputazione maggiore (leader e nucleo centrale), e si organizzeranno come un ente di supporto per la comunità. Assieme a nuovi partecipanti, gestiranno queste attività che supportano lo svolgimento dell'attività principale. Ad esempio, nel caso del Free Software, Stallman ed i primi hacker che svilupparono i primi esempi di software liberi ora fanno parte della Free Software Foundation, un ente di supporto all'attività di tutte le comunità di sviluppo di software libero. Queste comunità e la Free Software Foundation possono essere considerate come la comunità del software libero.
Non si deve dimenticare che questi ruoli possono essere assunti per breve tempo, oppure contemporaneamente. Ad esempio, un partecipante può essere agente e, quando necessario agire anche da mentore, nel caso sia dotato della esperienza necessaria. Infatti la scelta dei ruoli è libera, lasciata all'auto-selezione ed auto-organizzazione dei partecipanti. È importante quindi che i partecipanti sappiano della necessità dei ruoli, che siano informati su quali ruoli possono svolgere per partecipare sin dalle prime fasi di intervento progettuale. Inoltre, vi può essere la necessità di istituire dei centri locali, che non sono dei ruoli ma svolgono il ruolo di fornire uno spazio per la discussione collettiva a livello locale, come per lo svolgimento di attività, azioni ed operazioni (come nel caso della Grameen Bank). In definitiva, la fase di sviluppo del concept è finalizzata alla generazione e selezione di idee per la definizione e valutazione del concept di attività che verrà proposto. Fondamentale per questa fase è il materiale raccolto proveniente dalle fasi di indagine e analisi, in quanto principale risorsa su cui vengono elaborate le idee di attività. Questa fase si basa sul principio progettuale di “progettazione di Sistemi di Attività non conflittuali”6 che evidenzia come il design di servizi consista nella progettazione di Sistemi di Attività che minimizzino la possibilità di generare conflitti o che siano in grado di gestirli e risolverli in modo situato. Le contraddizioni rappresentano infatti i punti in cui possono essere sviluppate nuove attività o azioni, attraverso nuovi Sistemi di Attività. Si ricordi come la progettazione di un Sistema di Attività porti con sé la progettazione di artefatti, regole, ruoli, ecc. In una comunità Open Peer-to-Peer, dove si progetta una attività come un servizio, non si progetteranno 6
Sangiorgi (2004) 261
mai artefatti senza considerare il Sistema di Attività in cui sono inseriti o a cui possono dare luogo. Nel caso di ri-progettazione di una attività esistente la generazione di idee dovrebbe essere orientata alla risoluzione delle contraddizioni emerse nella fase di analisi attraverso la modifica degli elementi dei Sistemi di Attività considerati. Le azioni di ri-progettazione sia che interessino uno o più elementi del Sistema di Attività devono essere ridefinite con la consapevolezza che ogni cambiamento introdotto ha ripercussioni più o meno ampie su tutto il sistema (carattere sistemico), da cui la necessità di progettare anche la gestione e il monitoraggio del cambiamento.
4.3.3. Comunicazione del concept e co-progettazione / sperimentazione / realizzazione parallele Una volta elaborato, il concept viene mostrato ai partecipanti e discusso collettivamente. È ora quindi possibile raccogliere le prime impressioni e i primi commenti, potendo così effettuare le prime modifiche al codice sorgente. Da questo momento inizia una fase di co-progettazione dell'attivitàpiattaforma, caratterizzata da una crescita costante di impegno, quindi energia impiegata e visibilità. In questa fase il concept di attività viene sviluppato collaborativamente fino ad ottenere un progetto funzionante, una "versione stabile" del codice sorgente (si potrebbe dire la versione 1.0).
Fig. 99: Livelli di partecipazione nella comunicazione del concept e nel suo sviluppo/test
262
Mentre nel momento di presentazione e discussione della versione 0.0.1 (il concept) la partecipazione varia dal livello consultativo al livello di controllo condiviso, la fase di coprogettazione è contenuta nel livello controllo condiviso. È infatti una fase basata sulla completa parità tra designer e partecipanti. In questa fase, infatti, come nell'ambito dello sviluppo di software Open Source, il codice sorgente della comunità viene sviluppato attraverso processi paralleli di progettazione, sperimentazione e sviluppo della piattaforma. Il codice sorgente della comunità viene testato dai partecipanti che simulano l'attività, per capire quali siano i punti deboli, gli errori (i bug del codice sorgente della comunità) e quindi le modifiche da apportare. Il codice sorgente viene sottoposto cioè ad un processo di peer review, in cui sia i designer (che osservano la simulazione) che i partecipanti segnalano gli errori presenti e le necessarie modifiche. Non appena viene identificato un bug il codice sorgente viene modificato e la sperimentazione riparte dal nuovo codice. Ogni volta che verranno approvati o modificati dei punti chiave del progetto i designer ed i partecipanti decideranno a quale versione sia arrivato il codice sorgente (0.0.1, 0.0.2, 0.0.3, ... , 0.1.0, ecc.), comparato all'intero percorso di progettazione/sperimentazione, tenendo conto cioè che un codice sorgente stabile, pienamente funzionante, rappresenta la versione 1.0.0. Inoltre, per poter simulare l'attività, non solo la piattaforma deve svilupparsi anch'essa parallelamente al progetto dell'attività (essendo ad essa strettamente connessa), ma deve anche essere costruita, messa in pratica. Affinché si possa simulare l'attività, i partecipanti devono condividere le condizioni necessarie per svolgere l'attività, rappresentate dalla piattaforma. Regole e ruoli dovranno essere adottati e sviluppati, e gli artefatti che non sono già presenti dovranno essere realizzati o acquisiti. Ciò significa che con il procedere del processo di progettazione/sperimentazione, la piattaforma viene mano a mano realizzata, e quando il progetto raggiungerà la versione stabile, i partecipanti potranno cominciare a svolgere l'attività e formare così una comunità. La piattaforma permette, mano a mano che il processo di progettazione/sperimentazione procede, lo svolgimento di attività infrastrutture prima, poi di attività organizzative ed infine delle attività specifiche. Una volta terminata la fase di co-progettazione/sperimentazione, il progetto sarà già realizzato, non vi sono fasi di produzione o esecuzione. A quel punto il codice sorgente (il progetto) avrà dato luogo al codice binario (l'attività svolta dai partecipanti). Visibilità ed energia dei partecipanti aumentano costantemente perché la simulazione dell'attività lascia spazio allo svolgimento dell'attività, che implica un maggiore impegno e quindi anche una maggiore visibilità. Grazie alla rapidità e continuità del ciclo di simulazione/svolgimento, modifica e realizzazione delle condizioni necessarie che descrive, il codice sorgente dell'attività (cioè il progetto) si sviluppa
con una evoluzione memetica, fino a raggiungere una propria complessità, come riflesso della complessità della comunità che si forma in questo ciclo continuo. È questo un vero e proprio ciclo di retroazione, che è positivo soprattutto nelle prime fasi del processo di sviluppo, quando è in grado cioè di aumentarne la velocità ed efficacia; è negativo soprattutto nelle ultime fasi, dove stabilizza il percorso progettuale (fig.100). Questa considerazione sottolinea come un intervento progettuale rivolto verso comunità Open Peer-to-Peer sia caratterizzato da una propria complessità intrinseca. Per permettere l'evoluzione memetica, il progetto deve poter essere sviluppato parallelamente in più direzioni. Bisogna, cioè, non solo permettere a tutti i partecipanti la sua lettura e simulazione per la ricerca di eventuali errori, ma anche la simulazione (a livello locale) di eventuali modifiche che nascono dalla libera iniziativa personale. Nello sviluppo di software Open Source, una parte dei partecipanti liberamente decide non solo di correggere gli errori in cui si imbatte, ma anche di apportare modifiche e sviluppare autonomamente alcune porzioni del codice. Se queste sperimentazioni locali hanno successo, verranno poi in seguito assorbite dal codice sorgente condiviso a livello globale. Allo stesso modo, i partecipanti che stanno così formando una comunità Open Peer-to-Peer dovranno poter modificare il codice in alcune porzioni (ad esempio per ciò che riguarda il proprio ruolo) e condividere le conseguenze ottenute con tutta la comunità. Ciò sarà ancora più facile se la comunità Open Peer-to-Peer che si sta formando è costituita da una rete di comunità locali: ognuna coprogetterà/sperimenterà lo stesso codice sorgente iniziale ma lo svilupperà secondo le proprie esigenze e inclinazioni. Confrontandosi fra loro, le comunità potranno imparare dagli errori e dai successi reciproci. Dal punto di vista strettamente progettuale, coprogettare l'attività significa progettarla dettagliatamente come un servizio fino alla definizione delle specifiche necessarie alla sua esecuzione. Un principio chiave che deve guidare
Fig. 100: Cicli di retroazione nella fase di sviluppo del progetto
la fase di sviluppo è la necessità di progettare Sistemi di Attività che adattino e sincronizzino i Sistemi di Attività degli attori che interagiscono nell'attività, ovvero di service encounter che minimizzino la possibilità di generare conflitti o che siano in grado di gestirli e risolverli. Nello stesso tempo deve essere conferito particolare rilievo al processo di apprendimento (o socializzazione) necessario ai partecipanti per interagire in modo efficace durante la simulazione prima e lo svolgimento poi dell'attività. Potrebbero essere quindi necessarie attività esterne all'attività in corso di sviluppo, ad esempio attività volte alla formazione personale dei partecipanti, che devono essere previste nello sviluppo del progetto per arrivare a definire un insieme di specifiche necessarie alla sua effettiva realizzazione finale.
4.3.4. Auto-organizzazione Raggiunta la prima "versione stabile" del codice sorgente dell'attività, la 1.0.0, la comunità sarà quindi in gran parte formata: durante la simulazione/svolgimento dell'attività si saranno formate alcune relazioni sociali, che vanno a sommarsi a quelle preesistenti, e, soprattutto grazie a ruoli diretti verso cicli di retroazione ed autopoietici, cominceranno ad essere presenti i primi comportamenti complessi a livello sistemico. Una versione stabile del codice sorgente significa che questo può essere "compilato" (ossia, svolto) e utilizzato da chiunque senza possibilità di errori critici. In questa fase quindi la comunità è in grado di svolgere l'attività ed auto-organizzarsi senza l'apporto del designer: se il suo ruolo era quello di facilitatore (enabler), ora la comunità è stata messa in grado di agire con successo. Teoricamente quindi il designer ha esaurito il suo ruolo; tuttavia, la comunità potrà sempre necessitare il suo apporto in futuro, per azioni di redesign. Si sa infatti che affinché un sistema complesso possa auto-organizzarsi con successo il suo ambiente deve cambiare non radicalmente oppure non troppo rapidamente: sono quindi questi dei casi in cui l'opera del designer può essere utile. La partecipazione dei membri della comunità è quindi pressoché totale (fig.99). Oltre alla piattaforma sviluppata, il progetto stesso diventa qui uno strumento di auto-organizzazione collettiva. I partecipanti possono infatti consultarlo per capire come comportarsi, e modificarlo in caso di necessità. A questo punto la comunità può aumentare la propria visibilità inserendosi in reti di comunità, in cui dovrà però anche impegnarsi maggiormente. La comunità passa così dal secondo livello (organizzazione a comunità) al terzo (organizzazione a reti di comunità). Anche la costruzione di reti di piattaforme rappresenta sempre un inserimento in reti di comunità, aumentando ulteriormente la visibilità e l'impegno richiesto. Ad ogni modo, anche in questa fase l'impegno e la visibilità subiranno oscillazioni. Anche se l'aumento delle dimensioni della comunità può portare a uno svolgimento più 263
efficace delle attività, vi può essere un numero massimo di partecipanti che, se sorpassato, rende la coordinazione difficoltosa. Se la comunità accresce le proprie dimensioni fino al punto di rendere difficile lo svolgimento delle azioni, può attivare processi di riproduzione della comunità, organizzando ulteriori ruoli addetti allo sviluppi di altre comunità simili; oppure può attivare processi di gemmazione, in cui alcuni membri si separano per formare una propria comunità simile, con cui magari costituire delle reti. In questa fase bisogna considerare la possibilità che la comunità o le reti di comunità possano entrare in una fase di declino. Il declino non è necessariamente negativo. Ad esempio, la comunità (o reti di comunità) può aver raggiunto gli obiettivi desiderati per cui si era formata. Quindi, in questa fase la comunità svolge l'attività sviluppata, e al contempo nuove relazioni sociali possono formarsi, dando così più propriamente luogo alla comunità come entità sociale. Se le condizioni, sia interne che esterne, mutano, la comunità sente la necessità di modificare la propria attività e può farlo modificando il proprio codice sorgente (CSC), con un comportamento simile a quello portato durante la fase di progettazione. In questa fase l'attività comprende, oltre alle azioni più specifiche della propria attività, anche azioni di natura tecnica (le attività di infrastruttura) o comunque complementari per l'attività specifica. In questo senso, l'autoorganizzazione della comunità non significa solamente svolgere alcune azioni specifiche, come ad esempio svolgere progetti nel caso di Thinkcycle, ma anche tutte le azioni collegate ad essa e necessarie: costruzione e mantenimento di contatti con ONG, comunità, locali, produttori, università ed altri enti; studio di licenze e delle loro possibili applicazioni; costruzione e manutenzione degli artefatti necessari per lo svolgimento dell'attività; ricerca di nuovi partecipanti; ecc. Alla luce dei casi raccolti, è possibile sintetizzare una serie di azioni che una comunità Open Peer-toPeer potrebbe svolgere per auto-organizzarsi. Sono queste azioni che attualmente sono per lo più sviluppate e adottate singolarmente da singole comunità, ma che nel futuro ci si può aspettare che vengano diffuse attraverso la condivisione. Tutte le comunità Open Peer-to-Peer, infatti, sono nate con la condivisione e la diffusione dei concetti dell'Open Source e del Peer-to-Peer anche all'esterno dell'ambito originario. La ricerca di casi di comunità Open Peer-to-Peer esistenti è servita anche a costituire un archivio7 di comportamenti, processi e meccanismi promettenti, che possono essere utilizzati anche in altri ambiti. Una forma di auto-organizzazione promettente per comunità Open Peer-to-Peer potrebbe essere la seguente, attraverso questa serie di azioni: • svolgimento delle azioni specifiche dell'attività; • creazione e mantenimento di una rete di supporto all'attività stringendo contatti con 7
Si veda l'Appendice di questo volume, che raccoglie i casi riscontrati. p. 249 e seguenti
264
•
• •
imprese ed enti esterni per la raccolta e distribuzione di finanziamenti o di beni e servizi necessari per l'attività della comunità; fornire informazioni e strumenti a possibili partecipanti di modo che essi possano inserirsi nella rete collaborativa con estrema facilità, senza la necessità di una co-progettazione dell'attività e quindi la necessità di progettisti esterni; fornire un supporto maggiore, diretto, per quei partecipanti che trovano queste informazioni insufficienti per partecipare; gestire la piattaforma dell'attività, sia dal punto di vista tecnico (artefatti, regole come licenze, ecc.) che per quanto riguarda le interazioni tra i partecipanti (regole, ruoli, ecc.).
Lo svolgimento delle azioni specifiche dell'attività è l'azione più ovvia: le comunità Open Peer-to-Peer devono svolgere quelle azioni specifiche che la specifica attività richiede. Ad esempio, nel caso di Thinkcycle i partecipanti sviluppano progetti per comunità locali o ONG, con cui intrattengono rapporti. Nel caso di Terra Madre, le Comunità del Cibo, in rete fra loro, svolgono tutte quelle azioni necessarie per produrre, lavorare e distribuire alimenti. Nel caso di Neubauten.org, le azioni di composizione, esecuzione e registrazione di brani musicali da parte degli Einstürzende Neubauten, con una partecipazione attiva dei supporter. Ma queste non rappresentano le uniche azioni da svolgere affinché l'attività generale della comunità possa andare avanti. Alcune comunità hanno sviluppato forme organizzative promettenti per la costruzione di reti di supporto alla comunità e alla sua attività. Sono questi ad esempio i casi di New Earth e Solar Roof. Il primo caso ha sviluppato una forma organizzativa in grado di ricercare e ridistribuire finanziamenti e donazioni da parte di enti, singoli cittadini e di imprese. In questo modo alla rete delle comunità locali che sono associate a New Earh è garantito un flusso di finanziamenti e donazioni (anche attraverso opera di volontariato) gestito dalle comunità e indirizzato secondo principi meritocratici alle comunità con una migliore reputazione. Solar Roof invece sta costruendo reti con imprese, attraverso l'istituzione di centri locali, al fine di produrre i componenti architettonici che sviluppa collaborativamente. Questa rete permette quindi alla comunità di usufruire dei progetti realizzati, e al contempo di ricevere un compenso economico in cambio da parte delle imprese (se queste riusciranno a istituire floride attività economiche basate sui progetti). Questo compenso economico viene poi ridistribuito verso progetti di volontariato o associazioni con meccanismi particolari. Come ultimo esempio, Terra Madre, che si propone di costruire reti tra le varie Comunità del Cibo (o meglio: renderle visibili e paritarie). Ma sono molti i casi che stanno cercando di istituire simili reti, o che dovranno farlo in futuro. Questa capacità di costruzione di reti non solo fra partecipanti e fra
comunità, ma anche fra questi ed enti esterni (statali o commerciali), rappresenta una delle forme organizzative più promettenti sviluppate dalle comunità Open Peer-to-Peer. Sono quindi azioni necessarie per garantire ingresso di risorse (finanziarie, beni o servizi), sia acquisendole o facendole giungere come donazioni, sia come conseguenza della propria attività. Risulta poi promettente l'attività che la BBC ha sviluppato nel suo progetto Action Network. Con strumenti e informazioni accessibili da chiunque, la BBC offre l'opportunità a chi lo desidera di organizzare campagne di pressione pubblica. Ma l'aspetto interessante dell'iniziativa della BBC è che queste informazioni e questi strumenti sono stati standardizzati e formalizzati, di modo che ogni partecipante può organizzare la propria campagna autonomamente. Gli organizzatori del progetto non devono quindi intervenire personalmente con ogni partecipante, per poterlo aiutare a sviluppare la propria campagna, ma forniscono una soluzione abilitante che lo mette in grado di farlo da solo. In questo modo più partecipanti possono sviluppare una propria attività oppure incontrarsi e svilupparla congiuntamente. L'azione di fornire informazioni e strumenti utili per potersi auto-organizzare è quindi molto promettente, poiché permetterebbe ad una comunità Open Peer-to-Peer di ampliare il proprio numero dei partecipanti senza dover spendere troppo tempo personale, che li distoglierebbe da altre azioni dell'attività più importanti. L'unico svantaggio di questa azione (almeno per come è stata sviluppata finora) è che permette l'auto-organizzazione di attività molto semplici e ben collaudate (come ad esempio, infatti, campagne di pressione pubblica). Le informazioni e gli strumenti sono stati standardizzati proprio perché l'attività proposta ai partecipanti è stata standardizzata; una maggiore personalizzazione dell'attività comporterebbe un impegno maggiore da parte del personale BBC, vanificando quindi l'intento di fornire strumenti rapidi ed accessibili per l'auto-organizzazione. Questa azione, applicata ad esempio al caso Terra Madre, potrebbe prendere forme differenti, almeno quante sono le attività che possono essere standardizzate (almeno entro un certo livello, se non totalmente). Ad esempio, potrebbero essere informazioni e strumenti riguardanti l'organizzazione di una determinata Comunità del Cibo (ad es. la coltivazione e lavorazione del grano, dalla semina fino alla panificazione). Oppure potrebbero essere strumenti ed informazioni utili per poter organizzare attività simili a quelle sviluppate da Amul o dai dabbawalla: in questo modo le Comunità del Cibo che lo desiderano possono costruire reti con enti esterni o singoli consumatori. Anche l'attività di un Gruppo di Acquisto Solidale (GAS), è abbastanza semplice da poter essere incoraggiata attraverso la fornitura di strumenti e informazioni. Se si volesse estendere ulteriormente la rete delle Comunità del Cibo, potrebbero essere introdotti strumenti ed informazioni utili per poter sviluppare attività simili a quelle di Wikipedia o Thinkcycle ma applicate alle
comunità del cibo. Si darebbero quindi gli strumenti e le informazioni necessarie per produrre informazioni riguardanti le Comunità del Cibo (sponsorizzandole) oppure per risolvere problemi tecnici attraverso progetti. Questo tipo di azioni permette quindi la partecipazione ad una comunità Open Peer-to-Peer anche in modalità differenti da quelle specifiche, ma che possono essere di supporto ad esse. Se queste informazioni e strumenti non sono sufficienti, ad esempio perché l'attività che i partecipanti desiderano sviluppare è più complessa, allora la comunità dovrà trovare il modo di fornire un supporto maggiore ai partecipanti. In questo punto risultano importanti i mentori (ed anche gli agenti della Grameen Bank), che operano di diffusori di pratiche ed informazioni ma in maniera non standardizzata, attraverso un dialogo diretto. Nel caso di Terra Madre, azioni del genere possono essere svolte dagli agenti di Slow Food che tengono contatti con le Comunità del Cibo. Infine, la comunità deve continuamente controllare la propria attività e la sua necessaria piattaforma, per evitare che punti critici trascurati possano pregiudicare lo svolgimento dell'attività o l'esistenza stessa della comunità. In questo senso va gestito sia il lato tecnico della piattaforma (artefatti, informazioni, infrastrutture, ecc.) sia quello più “relazionale”, ossia la rete di interazioni tra ruoli e tra persone. In questo senso risulta importante la presenza processi di peer review collettivo oppure di ruoli di bug reader, bug reporter e bug fixer non solo dell'oggetto dell'attività, ma anche dell'attività stessa. Ruoli cioè di partecipanti che controllano il funzionamento della attività, alla ricerca di eventuali errori e quindi conseguenti azioni di riparazione. Sono questi ruoli tipici dello sviluppo di software Open Source ma che, se si considera l'attività come il codice binario e il suo progetto come codice sorgente, non sono così lontani come si possa pensare.
265
fasi
obiettivi
Analisi (progettisti e membri della comunità)
definizione degli obiettivi e della strategia su cui costruire il concept di attività per la comunità
azioni
• analisi della
• • • •
elaborazione del concept (progettisti)
generazione e valutazione di idee e definizione della valutazione del concept di attività e della sua piattaforma
piattaforma esistente (caratteristiche condivise) analisi dei partecipanti (caratteristiche particolari) analisi delle attività preesitenti identificazione di aree di opportunità inizio costruzione reti di raccolta e distribuzione finanziamenti
risultati
• modello
• contraddizioni
• Modello del
• aree di opportunità • obiettivi di
• tecniche di
indagine emerse
performance
• •
• •
• • •
•
• • comunicazione del concept e coprogettazione / sperimentazione / realizzazione parallele (progettisti e membri della comunità)
progettazione e sperimentazione dettagliata dell'attività fino alla definizione e alla realizzazione delle specifiche necessarie (piattaforma) al suo svolgimento
• ripartizione delle • •
• •
•
azioni dell'attività in operazioni generazioni di alternative di design da parte dei partecipanti simulazione e valutazione di tutta le alternative da parte dei partecipanti selezione e integrazione delle alternative più efficaci sviluppo delle specifiche (condizioni operative, ossia la piattaforma) inizio costruzione reti con imprese
• • •
•
•
•
auto-organizzazione (membri della comunità)
• inizio costruzione
reti con comunità • azioni specifiche dell'attività • azioni di supporto
dell'incontro Sistema di Attività
• • • • •
• generazione di
idee di attività valutazione delle idee emerse descrizione dell'idea più promettente sotto forma di concept valutazione di fattibilità business analysis
strumenti
• documentazione di
•
indagine etnografica mappa del Sistema di Attività profili video issue cards analisi della rete sociale
Community Source Code 0.0.1: chi: Sistema di Attività coinvolti nell'attività della comunità (ruoli) cosa: attività migliorate, sostituite o rese possibili come: sequenza di service encounter (interazioni fra ruoli) piattaforma: modifica della piattaforma esistente per permettere la discussione collettiva sull'attività regole: licenza base struttura: livelli di reputazione
• modello
Community Source Code 1.0: chi: attori coinvolti nell'erogazione del servizio e ruolo cosa: azioni ed operazioni rese possibili dall'attività service encounter : sequenza di operazioni ed elementi del Sistema di Attività piattaforma: condizioni necessarie per lo svolgimento dell'attività regole: una licenza che regolamenta l'attività collaborativa e la fruizione dei risultati struttura: descrizione dei livelli di reputazione presenti
• modello
Community Source Code 1.x, 2.x, X.x, ...
dell'incontro
• modello del
Sistema di Attività
• issue cards • brainstorming • mappa del sistema di attività
• mappa del sistema della comunità
• mappa dell'offerta • storyboard e blueprint
• activity change map
• licenza • mappa dei livelli di reputazione
• analisi della rete sociale
dell'incontro
• modello del
Sistema di Attività
• mappa del Sistema di Attività
• mappa del sistema della comunità
• mappa dell'offerta • blueprint dettagliato
• activity change map
• use case • descrizione della piattaforma
• licenza • descrizione dei livelli di reputazione
...
Tabella 22: Fasi di intervento progettuale rivolto a comunità Open Peer-to-Peer (Fonte: adattato da Sangiorgi 2004)
266
appendice: casi di auto-organizzazione Open Peer-to-Peer
267
268
1. Casi di reti collaborative Open Peer-to-Peer
1.1. Comunità Open Peer-to-Peer e attività specifiche
Fig. 101: Casi di comunità Open Peer-to-Peer, suddivisi in base alla loro principale attività
269
1.2. ComunitĂ Open Peer-to-Peer e dimensione dell'attivita
Fig. 102: Casi di comunitĂ Open Peer-to-Peer, suddivisi in base alla dimensione di azione
270
1.3. ComunitĂ Open Peer-to-Peer e loro origine
Fig. 103: Casi di comunitĂ Open Peer-to-Peer, suddivisi in base alla loro fonte di ispirazione 271
1.4. ComunitĂ Open Peer-to-Peer e artefatti utilizzati
Fig. 104: Casi di comunitĂ Open Peer-to-Peer, suddivisi in base alla natura degli artefatti utilizzati per autoorganizzarsi
272
1.5. Comunità Open Peer-to-Peer e caratteristiche promettenti sviluppate
Fig. 105: Casi di comunità Open Peer-to-Peer, suddivisi in base al tipo di attività che hanno maggiormente sviluppato e che può essere replicato 273
274
2. Reti collaborative conoscenze
per
ricercare
e
scambiare
Fig. 106: Casi di comunità Open P2P rivolte alla ricerca e scambio di conoscenze
2.1. Freenet Freenet1 è un software libero sviluppato con metodologia collaborativa Open Source che permette la pubblicazione e la distribuzione di informazioni su Internet con il preciso scopo di evitare possibili censure che in alcuni Stati possono soffocare dissidenti e la libera espressione di minoranze. Iniziato da Ian Clarke, uno studente dell'Università di Edimburgo, nel Marzo 2001, non ha ancora raggiunto la versione 1.0, cioè una versione stabile e completa.
in cui le informazioni vengono criptate e distribuite tra i vari partecipanti, negli spazi che rendono disponibili sugli hard disk dei propri personal computer. Dato che non sempre tutti gli utenti saranno collegati a Internet, la dislocazione delle informazioni cambia in continuazione: questa caratteristica, assieme alla totale anonimità garantita agli utenti, rende le informazioni contenute nella rete di Freenet incensurabili. Anche i progettisti del sistema e i partecipanti non hanno controllo sul contenuto e sulla dislocazione delle informazioni: non è possibile sapere chi
Fig. 107: Il logo di Freenet (Fonte: http://freenetproject.org)
Nonostante sia Freenet che i sistemi di distribuzione Peer-to-Peer Napster e Gnutella abbiano in comune la stessa procedura di condivisione di spazio per l'archiviazione di file digitali su un largo numero di utenti, una differenza importante li distingue. Mentre Napster e Gnutella provvedono un servizio di condivisione di file, Freenet provvede un servizio di archiviazione di file: i partecipanti rendono disponibili i dati agli altri partecipanti ma senza inviare loro i file. Le architetture di Napster e Gnutella implicano il fatto che non vi siano dati (archiviati in file) permanenti nella rete ma solo quando i creatori dei file o chi ne è entrato in possesso sono collegati online; inoltre non viene garantito agli utenti anonimità e i processi di ricerca delle informazioni sono altamente inefficaci. La ricerca delle informazioni nei sistemi Gnutella segue criteri di prossimità tra gli utenti mentre in Freenet si basa sui legami fra i concetti delineanti le informazioni stesse, divenendo così più efficiente e rapido.
“fisicamente” ospita le informazioni e i partecipanti non possono decidere che informazioni ospitare, scelta che viene effettuata automaticamente da un algoritmo in base alla popolarità delle informazioni. La rete dei partecipanti a Freenet rappresenta una vera e propria rete nella rete, essendo basata su Internet, e può essere utilizzata nella stessa maniera per la pubblicazione di informazioni o per la comunicazione interpersonale. Anche se inizialmente ogni nodo (o partecipante) della rete riveste la stessa importanza (e quindi può essere denominato peer), nel corso del tempo le informazioni tenderanno ad accumularsi di più su alcuni nodi in base alle caratteristiche delle informazioni, che vengono archiviate per tematiche, e alle caratteristiche dei nodi (tempo e velocità di connessione alla rete e dimensioni dello spazio reso disponibile all'archiviazione di file).
La rete di Freenet è stata progettata per la massima stabilità e invulnerabilità ad attacchi grazie ad una struttura totalmente decentralizzata 1
http://freenetproject.org/index.php?page=whatis
275
Il risultato è una rete che si auto-organizza in una struttura distribuita dove i nodi tendono a trattenere le informazioni correlate nello stesso spazio, portando ad una asimmetria nella rete. Questo sistema è stato sviluppato tenendo in conto le situazioni presenti in alcuni stati come Cina e alcuni Stati medio-orientali dove vengono limitate se non cancellate le occasioni di libera espressione di minoranze e dissidenti. Per questo motivo viene garantita l'anonimità a tutti i partecipanti, che non possono essere incolpati di archiviare informazioni “illegali”. Ma questa anonimità totale può avere dei lati negativi, dato che anche alcuni contenuti illegali (riguardanti droghe o pedofilia, ad esempio) possono essere pubblicati liberamente; inoltre, data l'anonimità, non è facile confermare l'esattezza delle informazioni.
2.2. Keen Keen è un sito web2 che fornisce un punto di incontro tra gli utenti del sito in cerca di consulenze sui più vari argomenti e utenti in grado di fornirle. Le consulenze vengono fornite per telefono e i consulenti possono stabilire una tariffa e così ricevere un guadagno economico. Gli utenti possono riunirsi in gruppi per interessi. Keen trattiene una percentuale dei guadagni ottenuti con le consulenze e per la gestione dei gruppi.
2.3. Dipex Dipex è un'associazione che, tramite un sito web3, si rivolge a pazienti, alle loro famiglie e amici, dottori, infermieri e altri professionisti, a cui fornisce accesso a informazioni e soprattutto esperienze di altri utenti per tutte le malattie e problematiche legate alla salute. È quindi un punto di incontro per la ricerca e lo scambio di conoscenze e supporto. Ha anche l'obiettivo di creare un DVD con tutte le informazioni raccolte dagli utenti da distribuire a farmacie, gruppi di supporto, medici, biblioteche. L'associazione si finanzia grazie a donazioni.
2.4. Friendster Friendster è un sito web4 che permette la connessione degli utenti con i propri amici (e con i loro amici. Utilizzando le reti sociali esistenti si costruiscono un numero maggiore di legami e si rinsaldano quelli esistenti. Fondato nel 2002, permette ai suoi 16 milioni di utenti la creazione di blog personali o di gruppo, album fotografici, gruppi di discussione e la formazione di gruppi di amici anche attraverso la ricerca nei database che comprendono dati sulle annate scolastiche di tutti gli istitui di tutte le città statunitensi. Il 2 3 4 276
http://www.keen.org http://www.dipex.org http://www.friendster.com
finanziamento avviene sottoscrizione pagata dagli usufruire del servizio.
attraverso utenti per
una poter
Fig. 108: Keen: ricerca di consulenze nell'ambito della multimedialitĂ (Fonte: http://www.keen.org)
Fig. 109: Dipex: ricerca di conoscenze ed informazioni su determinate malattie (Fonte: http://www.dipex.org)
277
Fig. 110: Friendster: gestione dei gruppi (Fonte: http://www.friendster.com)
278
3. Reti collaborative per raggiungere una massa critica di partecipanti
Fig. 111: Casi di comunità Open P2P rivolte al raggiungimento di una massa critica di partecipanti
3.1. PledgeBank PledgeBank1 è un sito web che permette ai suoi utenti il raggiungimento di una massa critica per l'attuazione di una azione, attraverso la dichiarazione di attuarla se un numero indicato di altre persone lo farà o aiuterà a farlo. Le dichiarazioni sono sempre formulate secondo il modello “Farò qualcosa se un certo numero di persone mi aiuterà a farlo”, come ad esempio “farò la raccolta differenziata dei rifiuti se altre 30 persone della mia città faranno lo stesso”. L'autore della dichiarazione quindi la pubblicizza e incoraggia i suoi conoscenti a sottoscriverla entro una certa data, mentre nel sito web sarà visibile a tutti i visitatori. Il vantaggio che ne ricavano i dichiaranti e i sottoscrittori è di avere maggiori possibilità di riuscire in un obiettivo e di non essere i soli ad agire. Le condizioni che rendono più facilmente il raggiungimento di una massa critica sono un numero basso di partecipanti richiesti e l'impegno speso nel pubblicizzare un proprio impegno. Proprio per queste ragioni si suggerisce un numero minimo e un numero massimo di partecipanti richiesti, anche per indirizzare i propositori verso azioni facilmente attuabili.
ll servizio è gratuito e aperto a chiunque, ed è disponibile in molte nazioni. Una volta effettuata una proposta, non può essere modificata, altrimenti renderebbe nulle le sottoscrizioni. Ogni volta che viene effettuata una proposta il sito web rende disponibile al dichiarante un adesivo da poter stampare in molte copie che descrive la dichiarazione e come poter sottoscriverla via web o via SMS. Infatti, anche se la maggior pare delle attività del servizio prendono forma sul sito web, l'utilizzo di PledgeBank non è limitato all'accesso a Internet. PledgeBank permette la sottoscrizione a dichiarazioni anche tramite semplici SMS, al normale costo effettuato dagli operatori telefonici. In questo modo poi il dichiaratore può contattare i sottoscrittori per organizzare come svolgere la dichiarazione. L'utilizzo del sito web è gratuito in quanto è stato progettato e gestito dall'organizzazione non profit mySociety grazie a un gruppo di sviluppo fisso pagato di dimensioni limitate e una gruppo di volontari non pagati di dimensioni molto maggiori.
Fig. 112: PledgeBank: possibilità di dare vita ad un pledge o di ricercarlo nella propria dimensione locale (Fonte: http://www.pledgebank.com) 1
http://www.pledgebank.com/ 279
Fig. 113: PledgeBank: come dare vita ad un pledge (Fonte: http://www.pledgebank.com)
280
Fig. 114: PledgeBank: come ricercare i pledge che necessitano partecipanti (Fonte: http://www.pledgebank.com)
3.2. Meetup Meetup.com2 è un sito web fondato nel 2002 con la esplicita mission di rivitalizzare le comunità in America. Attualmente più di 1,6 milioni di persone ne fanno parte. Nonostante siano in crescita le comunità di interesse presenti sul web, queste difficilmente portano a incontri faccia a faccia o alla formazione di comunità locali di interesse. Questo sito cerca di colmare questa distanza abilitando i propri partecipanti con gli stessi interessi a trovarsi e formare gruppi locali che svolgono incontri regolarmente. I gruppi sono divisi nelle categorie principali “imparare”, “fare”, “condividere”, “cambiare” e possono essere ricercati sul sito web per nazione, città oppure per tema di interesse.
Meetup.com è ancora utile sia per gli strumenti di gestione del gruppo, sia perchè è sempre un luogo di massima esposizione per i gruppi a nuovi potenziali partecipanti. Gli utenti che vogliono inserirsi in gruppi esistenti contattano gli organizzatori, i quali a loro volta possono visitare le loro pagine personali sul sito web per poterli conoscere meglio. Meetup.com si finanzia attraverso i gruppi che utilizzano il sito web, le organizzazioni che utilizzano Meetup.com per accrescere le proprie dimensioni e sponsor.
Gli utenti del sito web vengono avvisati automaticamente quando altri utenti manifestano la volontà di formare un gruppo nelle stesse aree geografiche o argomenti segnalati. Quando il numero delle persone che vuole formare un determinato gruppo comincia a essere sufficiente, uno degli utenti decide di formarlo diventandone l'organizzatore. Gli organizzatori decidono dove e quando il gruppo debba incontrarsi mensilmente e utilizzano il sito web per gestire il gruppo e mantere i contatti. L'utilizzo del sito web per ricevere gli avvisi automatici è gratuito, mentre l'utilizzo del sito web per organizzare i gruppi costa all'organizzatore 19 dollari al mese, fatto che rende opportuna la crescita del gruppo per distribuire il costo di gestione. Anche se il gruppo si è formato 2 http://www.meetup.com 281
Fig. 115: Meetup (Fonte: http://www.meetup.com)
Fig. 116: Meetup: lista dei gruppi per tema e localitĂ (Fonte: http://www.meetup.com)
282
3.3. Smart mobs Il termine smart mobs venne coniato da Howard Rheingold3 nel 2002 a seguito delle sue ricerche sulle influenze delle ultime tecnologie di connessione (Internet, wi-fi, SMS, ecc.) sulla vita delle persone e sui loro modi di organizzarsi. Il termine può avere almeno due diversi significati. Si tratta dell'abbreviazione di smart mobiles, ossia “telefoni cellulari intelligenti” e, per estensione, ogni apparecchio mobile dotato di una propria capacità di operare sulla base della programmazione ricevuta e di connettersi a una rete. Rheingold usa però questo termine anche nel suo significato tradizionale di “folla intelligente”, riferendosi agli effetti dell'uso di questi strumenti sulle comunità umane e in contrasto con la sfumatura negativa tradizionale del termine “folla”. Quando si mettono insieme i diversi aspetti della tecnologia e dell'economia, il risultato è una infrastruttura che rende possibili certe azioni umane che prima non erano realizzabili: i successi commerciali del futuro non saranno le tecnologie o i prodotti in sè, ma il loro uso sociale. I cambiamenti più radicali verranno, come spesso accade, dal tipo di rapporti tra imprese, comunità e e mercati che tali infrastrutture renderanno possibili. La mobilità intelligente (altra traduzione possibile di smart mobs) si compone di persone in grado di agire di comune accordo anche senza conoscersi. I gruppi di smart mobs collaborano secondo modalità che non erano mai state possibili, poichè gli strumenti di cui si avvalgono sono in grado sia di comunicare che di elaborare dati. I loro apparecchi mobili li mettono in contatto sia con strumenti d'informazione presenti nell'ambiente sia con i telefoni di altre persone. Gli utenti dei telefoni cellulari sono diventati essi stessi emittenti, ogni utente diventa un nodo di una rete di comunicazioni più vasta che lo Stato non può neppure iniziare a controllare e tantomeno a condizionare. I telefoni cellulari sono stati anche lo strumento per riunire un nuovo tipo di folla, una folla profondamente consapevole di sè come un movimento diretto verso uno scopo comune. Nel settembre 2000 migliaia di cittadini in Gran Bretagna, indignati per un rialzo improvviso dei prezzi della benzina, hanno fatto uso di cellulari, SMS, e-mail da portatili e radio CB dei taxi per coordinare i gruppi sparsi che bloccavano la consegna del carburante ad alcune stazioni di servizio, trasformando tale malcontento in una protesta politica spontanea. A partire dal 1992 migliaia di attivisti ogni mese si riuniscono con le loro biciclette nelle strade di San Francisco per dar vita a dimostrazioni itineranti denominate Critical Mass. Critical Mass opera attraverso reti collegate senza un preciso programma; gli interessati vengono avvisati con telefonate da cellulari, catene di e-mail e, quando è il caso, si suddividono in piccoli gruppi 3
tele-coordinati. Ma il caso forse più emblematico è un altro. Il 20 gennaio 2001 il presidente delle Filippine Joseph Estrada è diventato il primo capo di Stato nella storia a perdere il potere grazie a una smart mob. Più di un milione di abitanti di Manila, mobilitati e coordinati da ondate di messaggi SMS, sono convenuti nello stesso luogo stabilito per le pacifiche dimostrazioni del 1986, che al grido di “potere al popolo” avevano rovesciato il regime di Marcos. Le dimostrazioni filippine del 2001 sono scoppiate quando il procedimento di messa sotto accusa del presidente Estrada è stato improvvisamente interrotto a opera di senatori a lui vicini. I capi dell'opposizione hanno iniziato a inviare messaggi SMS e nel giro di settantacinque minuti dall'improvvisa interruzione del processo, 20mila persone si sono riunite. In quattro giorni sono arrivate più di un milione di persone, e militari hanno ritirato il loro appoggio al regime. La rapida riunione della folla anti-Estrada è stata una tappa importante per le prime tecnologie smart mobs e i milioni di messaggi di testo scambiati tra i dimostranti nel 2001 sono stati, secondo tutte le testimonianze, una strategia decisiva per rinsaldare lo spirito di corpore della folla. Il potere della folla si esprime nella capacità di superare i vincoli fisici dell'impianto urbanistico cittadino, allo stesso modo in cui tende a confondere le distinzioni sociali provocando un senso di straniamento. La sua autorità si fonda sulla capacità di promuovere l'inquietudine e il movimento, indebolendo così la pressione delle autorità (di qualsiasi tipo) verso la regolamentazione e il contenimento di tali movimenti. In questo senso la folla è una specie di “mezzo”, lo strumento per riunire e trasformare gli elementi, gli oggetti, le persone e le cose. Come mezzo, la folla rappresenta anche il luogo dove si generano le aspettative e la circolazione dei messaggi. La pianificazione urbanistica centralizzata e le tecnologie di sorveglianza cercano di regolamentare il senso di precarietà che si genera nella riunione di una folla. Ma in certi momenti e nei luoghi dove tale pianificazione risulta cronicamente inefficiente, la normalità può a volte cedere il passo a fenomeni epocali. In tali momenti la folla assume il controllo delle telecomunicazioni usando canali per spedire messaggi e accorciare così le distanze. Confuso nella folla un individuo si sente in grado di vagare attraverso gli spazi sociali. Questo tipo di manifestazioni sono state denominate “guerre di rete” (netwars) da John Arquilla e David Ronfeldt, due analisti della RAND Corporation, i quali hanno compreso che la stessa combinazione di reti sociali, tecnologie di comunicazione sofisticate e struttura organizzativa decentrata stava emergendo come forza in gioco significativa all'interno di varie tipologie di conflitti politici.
Rheingold (2003) 283
La netwar è un tipo di conflitto emergente in cui i protagonisti, che vanno dai terroristi e dalle organizzazioni criminali, sul fronte peggiore, fino agli attivisti sociali militanti, sul fronte migliore, usano forme organizzative a rete, una dottrina, una strategia e una serie di tecnologie in linea con l'era dell'informazione. La pratica della netwar supera già la teoria, visto che gli attori, sia della società civile sia di quella incivile, si stanno impegnando sempre di più in questo nuovo tipo di combattimento.
Tutte queste netwar sono difficili da contrastare. Tutte hanno in comune il fatto di operare attraverso piccole unità separate che si possono schierare prontamente, ovunque, e in qualsiasi momento. Sanno come sciamare e disperdersi, penetrare e distruggere, ma anche come eludere ed evadere. Le tattiche usate variano dalla battaglia di idee agli atti di sabotaggio, e molte coinvolgono Internet. Le smart mobs impegnate nella netwar (si violenta che non violenta), rappresentano solo alcune delle loro molte possibili varianti. Le netwars in effetti condividono infrastrutture tecniche simili con altre smart mobs. La caratteristica più importante, tuttavia, è che entrambe si manifestano mediante una nuova forma di organizzazione: la rete. Le reti comprendono nodi e collegamenti, usano molti percorsi possibili per distribuire le informazioni da ogni punto a ogni altro e sono autoregolate da catene di comando orizzontali e dalla potenza del calcolo distribuito. “Reti sociali mobili ad hoc” è un termine più lungo e più tecnico per smart mobs. Entrambi descrivono la nuova forma sociale resa possibile dalla combinazione di elaborazione, comunicazione, reputazione e conoscenza della posizione. Ad hoc significa che l'organizzazione delle persone e dei loro strumenti è fatta senza formalità e istantaneamente. Rete sociale significa che ogni individuo in una “smart mob” è un “nodo” nel gergo dell'analisi delle reti sociali, che ha collegamenti sociali, link (canali di comunicazione e rapporti sociali), con altre persone.
284
4. Reti collaborative per produrre informazioni
Fig. 117: Casi di comunità Open Peer-to-Peer rivolte alla produzione di informazioni
4.1. Indymedia L'Indipendent Media Center1, chiamata anche Indymedia o IMC, è una rete di mezzi di comunicazione di massa e di giornalisti. Fu creata nel novembre del 1999 per supportare le proteste del movimento no-global contro il W.T.O. a Seattle. Nel 2002, a tre anni dalla fondazione, le IMC sparse per il mondo erano 89, localizzate in 31 stati e 6 continenti. Nei soli Stati Uniti d'America si trovavano ben 39 Indipendent Media Center, mentre in Canada 11. Le IMC diffondono articoli via stampa, audio e video, ma sono famose soprattutto per i newswire: blog pubblici dove chiunque sia connesso a internet può pubblicare informazioni. Questa caratteristica fondamentale la differenzia dalla maggior parte delle organizzazioni alternative passate e presenti, che sono gestite da gruppi chiusi e relativamente piccoli che determinano il contenuto pubblicato forti di una gerarchia editoriale. Su Indymedia, è l'utente a decidere il contenuto. Indymedia non è famosa grazie a pochi giornalisti e commentatori di fama, ma per il fatto di permettere la partecipazione diretta di chiunque, incoraggiando gli utenti a partecipare alla creazione di un mezzo di comunicazione di massa, senza accettarlo passivamente. La volontà della comunità di Indymedia di mantenere un'organizzazione non gerarchica ha causato numerosi conflitti e tensioni, che possono dare un riscontro a un osservatore sull'estrema trasparenza delle IMC; esempi di queste discussioni si possono trovare all'interno degli archivi pubblici delle mailing list. La differenza dalle tradizionali organizzazioni chiuse e gerarchiche, dove tali conflitti sarebbero tenuti privati, è palese. Nello 1
http://www.indymedia.org/
Fig. 118: Il logo Indymedia (Fonte: http://www.indymedia.org)
spirito di apertura di Indymedia, chi espone delle critiche è incoraggiato a impegnarsi nella discussione per trovare una soluzione. Sebbene lavorare ad una soluzione non sia un prerequisito per inviare critiche, l'atmosfera di Indymedia tende a valorizzare le azioni costruttive. A volte Indymedia viene considerata come un'avversaria dei mezzi di comunicazione di massa tradizionali (RAI, ANSA, ecc). In realtà sarebbe più appropriato dire che Indymedia è un esempio di rete/comunità aperta per lo scambio di informazioni di particolare interesse per gli attivisti di sinistra e no-global (sebbene partecipi anche un piccolo numero di attivisti di destra). A causa della sua organizzazione aperta e delle sue regole interne (ad esempio l'uso del copyleft, o il fatto che nessun centro Indymedia può diventare una organizzazione commerciale), sarebbe impossibile per chiunque prenderne il controllo. 285
Sebbene Indymedia abbia una buona reputazione tra i suoi utenti, questo non vale per tutti. C'è chi critica la possibilità di pubblicare qualsiasi cosa, sostenendo che questo porti a dare più importanza del dovuto a notizie tendenziose (se non completamente false) e cospirazioni, oltre a dare spazio a contenuti offensivi (razzisti, omofobici, e via dicendo). Queste sono considerazioni comuni anche su Wikipedia. Ma così come su Wikipedia, anche su Indymedia esiste un controllo dei contenuti effettuato dagli utenti, che possono decidere di eliminare i contenuti inappropriati.
4.2. The Global Ideas Bank The Global Ideas Bak è una associazione che, tramite un sito web2, promuove una discussione aperta su idee per innovazioni socialmente promettenti, cioè non innovazioni tecnologiche o di prodotto. In questo modo si propone anche come supporto per chi vuole promuovere idee sviluppate personalmente. Il sito web, creato nel 1995, è fondamentalmente un database con circa 4000 proposte che possono essere votate democraticamente e infine pubblicate su un libro. L'associazione si è posta in rete con un altre associazione simili quali, tra le altre, la Norwegian Ideas Bank, la School for Social Entrepeneurs, il Centre for Innovation in Voluntary Action. Le idee sottomesse non possiedono diritti di copyright, e vengono indicate nel sito web come semi, piante o alberi per indicare lo stadio di evoluzione che mantengono all'interno del sito web: evoluzione in cui gioca un ruolo importante la selezione effettuata tramite votazione da parte dei visitatori del sito (che non possono votare più di una idea al mese). Inoltre un gruppo di editori fissi che scremano le idee che non incontrano le caratteristiche richieste dall'associazione. Il finanziamento dell'associazione avviene attraverso donazioni e la vendita di pubblicazioni.
Fig. 119: Indymedia: sede locale di Edinburgo (Foto: David Monniaux)
Fig. 120: Global Ideas Bank: lista di idee e grado di sviluppo (Fonte: http://www.globalideasbank.org) 2 286
http://www.globalideasbank.org
Fig. 121: Global Ideas Bank: descrizione di una idea e spazio per la votazione (Fonte: http://www.globalideasbank.org)
4.3. Ohmynews OhmyNews3 è un quotidiano giornalistico on-line aperto alla partecipazione nella proposta di articoli: il suo motto è “Every citizen is a reporter” (ogni cittadino è un giornalista). Fondato in Corea del Sud il 21 Dicembre 1999 in versione beta di prova, e lanciato a pieno regime il 22 Febbraio 2002 con già attivi 727 partecipanti. L'obiettivo di partenza era quello di migliorare il sistema mediatico del paese, troppo squilibrato e controllato da potenze economiche: creare una cultura mediatica dove la qualità delle notizie determina la sua importanza e non le influenze economiche e politiche.
la loro identità e la responsabilità della notizia è solo loro, mentre i diritti delle notizie sono condivisi tra i partecipanti e OhmyNews. L'enorme successo riscontrato ha portato al lancio di una edizione internazionale in inglese il 27 Maggio 2004 e allo studio di utilizzo di nuovi media come ad esempio trasmissioni televisive online. Il quotidiano si finanzia al 70% grazie alle inserzioni pubblicitarie e per il 30% grazie alla vendita delle notizie.
Tutte le notizie presentate (circa 250 ogni giorno) passano poi per una revisione editoriale effettuata da un personale pagato a tempo pieno di 75 persone, di cui 45 giornalisti e 12 editori: si stima la partecipazione di circa 39000 partecipanti e una percentuale di notizie pubblicate di circa il 70%. Nel caso venga pubblicata una notizia fornita da un cittadino, questi guadagna da 2000 won a 20000 won (da 0,8 a 8 Euro), una cifra modesta ma che fa in modo che partecipino solo cittadini interessati non a ricavare profitti ma a migliorare il sistema mediatico. I partecipanti devono rendere pubblica 3
http://www.ohmynews.com/ 287
Fig. 122: Ohmynews: notizie (Fonte: http://www.ohmynews.com/)
Fig. 123: Ohmynews: recensione delle notizie da parte degli stessi lettori (Fonte: http://www.ohmynews.com)
288
4.4. Kuro5hin, Slashdot Kuro5hin4 e Slashdot5 sono due giornali online aperti alla proposta di contenuti, principalmente legate al mondo delle nuove tecnologie e i cambiamenti che queste portano in varie discipline. La loro importanza è legata ai meccanismi di peer review che permettono la verifica della qualità e della veridicità delle informazioni garantendo la massima trasparenza.
Molte volte proprio questi commenti possono risultare utili nella comprensione della notizia o nel suo approfondimento, rendendo la costruzione di contenuti un processo virtualmente infinito. Ciò che rende Kuro5hin un caso di successo di giornalismo online collaborativo è un sistema alquanto elaborato e su larga scala di peer review e di recensione post-pubblicazione, che a sua volta viene recensito sempre con peer review in un processo iterativo.
Fig. 124: Kuro5hin (Fonte: http://www.kuro5hin.org)
Fig. 125: Slashdot (Fonte: http://www.slashdot.org)
Il sito web di Kuro5hin, fondato nel dicembre 19996, mostra ai potenziali partecipanti delle linee guida da seguire per garantire la qualità delle notizie da proporre. Inoltre, il software stesso che gestisce il sito fa passare le informazioni in una serie di passaggi di controllo prima e dopo le fasi di proposta e pubblicazione: le informazioni vengono commentate da tutti i partecipanti votandone la qualità ed esprimendo commenti. Prima della pubblicazione quindi ogni informazione viene corretta seguendo le indicazioni della comunità; una volta pubblicata, ogni utente può ancora recensire la notizia con voti e commenti. 4 5 6
http://www.kuro5hin.org http://www.slashdot.org http://www.kuro5hin.org/?op=special;page=random# long
Il funzionamento del sito Slashdot, fondato nel settembre 19977, è differente in alcuni aspetti ma il principio è lo stesso, che viene anzi perfezionato aggiungendo un processo di meta-moderazione. Le notizie vengono presentate dai partecipanti con un commento iniziale e passano per una prima selezione da parte dello staff editoriale dove vengono valutate caratteristiche tecniche critiche per la pubblicazione. In seguito la notizia viene pubblicata, e da questo momento in poi viene valutata con un processo di peer review: tutti gli utenti possono confutarla o promuoverla aggiungendo commenti. In altre parole, non è lo staff editoriale a controllare la veridicità o la qualità delle notizie ma la comunità stessa. 7
http://en.wikipedia.org/wiki/Slashdot 289
Fig. 126: Slashdot: peer review e karma (Fonte: http://www.slashdot.org)
In aggiunta Slashdot è dotato di un sistema automatizzato di selezione dei mediatori, che avviene secondo alcuni criteri: devono essere registrati e non anonimi, devono essere utenti regolari e non saltuari, devono essere stati presenti nel sito per un certo intervallo temporale (nessuno può iscriversi solo per essere moderatore ma deve partecipare alla vita della comunità) e devono avere un “karma” positivo. Con il karma la comunità definisce un numero assegnato ad ogni utente in relazioni alla qualità dei suoi commenti. Se questi vengono apprezzati dalla comunità, gli altri utenti possono dargli un buon voto, e il software del sito assegna all'utente il valore del karma (in una scala da 1 a 5) che diventano “punti di influenza”. Questi punti permettono al moderatore di valutare ogni commento con degli aggettivi standard predefiniti: ogni volta che succede il moderatore perde un punto di influenza, e può quindi valutare solo 5 commenti nel suo periodo di moderatore (3 giorni). Se il moderatore non utilizza i suoi punti di influenza nel tempo determinato li perde. Il sito web dispone anche di alcuni filtri che impediscono eventuali tentativi di sabotaggio: non è possibile effettuare commenti più di una volta al minuto, commenti duplicati vengono eliminati e chi infrange queste regole può essere interdetto per 24 ore. In questo modo ogni utente può ricevere una quantità di potere limitata, evitando i casi estremi di troppo potere o troppo poco. Ogni utente può inoltre utilizzare dei filtri che selezionano i commenti permettendo così di evitare commenti di bassa qualità. Gli utenti ricevono una maggiore o minore importanza attraverso il valore del proprio karma che rende i loro commenti più o meno importanti. Attraverso la valutazione che gli altri utenti danno dei suoi commenti il karma acquista o perde valore. Oltre a questi meccanismi Slashdot è dotato di un meccanismo di meta-moderazione dei moderatori attraverso un processo di peer review. Ogni utente (facente parte del 90% di tutti gli utenti registrati da più tempo) può avere dieci 290
possibilità di recensione su alcuni moderatori scelti a caso. Questa recensione influenza il karma del moderatore recensito a cui può essere revocato il titolo. Introducendo il karma, il sistema Slashdot permette ai suoi utenti di costruirsi una reputazione nel tempo. Utenti, moderatori e metamoderatori sono tutti volontari; tanti giudizi di potere limitato portano ad una gestione collettiva.
4.5. OpenLaw Il Berkman Center8, fondato nel 1996 dalla Harvard Law School, esplora il cyberspazio e il suo sviluppo, le sue dinamiche, le sue norme, standard, bisogni e leggi attuali o potenziali. Il centro di ricerca funziona come una impresa non profit dedicata alla ricerca e osservazione di fenomeni non ancora documentati tramite una rete di Facoltà, studenti, imprenditori, legali e web designers. La ricerca si interessa dei confini presenti nel cyberspazio tra sistemi aperti e chiusi, commercio, governance, educazione e problematiche legali relazionate non attraverso uno studio passivo ma con una ricerca attiva, tramite la costruzione del cyberspazio stesso e del suo spazio sociale e politico. Quindi come strumento di ricerca il centro costruisce, usa e condivide liberamente una piattaforma software per discussioni e lezioni online. Inoltre il centro sponsorizza riunioni, che siano incontri informali o conferenze internazionali, per mantenere in contatto i vari membri della rete costitutiva. Tra i vari progetti avviati, dedicati agli aspetti legali, commerciali, educativi o di governance del web, il più rappresentativo è Open Law, un esperimento riguardante la discussione di problematiche legali connesse alle nuove tecnologie e al web attraverso la partecipazione dei visitatori del sito web. 8
http://cyber.law.harvard.edu/openlaw/
le tematiche (FAQ, Frequently Asked Questions), mailing list, un sito wiki per la costruzione collettiva di contenuti, un forum per la discussione e una bulletin board per l'affisso di messaggi.
4.6. Wikipedia
Fig. 127: Open Law (Fonte: http://cyber.law.harvard.edu/openlaw)
La metodologia adottata si richiama a quella adottata nel movimento Free Software / Open Source Software, ovvero di uno sviluppo aperto alle collaborazioni con informazioni accessibili da tutti nella tentativo di sfruttare appieno tutte le differenti conoscenze distribuite nella vasta comunità di navigatori del web. La partecipazione è aperta a tutti, che abbiano conoscenze legali o meno: differenze culturali non possono che portare ricchezza di vedute nella discussione e quindi maggiore profondità nello studio dei casi. Come regola generale, il centro non provvede assistenza legale individuale e dato che è ancora in fase sperimentale si riserva la facoltà di scegliere quali casi da esaminare tra i tanti proposti dai partecipanti, che possono comunque prendere parte alle discussioni sui casi già selezionati. La piattaforma software si avvale di vari strumenti per rendere possibile la partecipazione: un sito web con motore di ricerca, dei documenti introducenti
Wikipedia9 è una enciclopedia gratuita basata su un sito web creata grazie alla partecipazione degli utenti. È presente in 110 lingue, tra cui Inglese, Tedesco, Francese, Giapponese, italiano, Polacco, Spagnolo. In totale contiene 1,9 milioni di articoli ed esistono anche versioni CD/DVD o cartacee in preparazione. È stata sviluppata dal contributo volontario di alcuni degli utenti del sito grazie alla particolare piattaforma web basata su software wiki (dall'Hawaiano “wiki”, “veloce”) che permette la visione e la creazione di documenti di testo e immagini collegati fra loro. Chiunque può partecipare alla creazione o revisione delle voci, seguendo le norme editoriali che vengono discusse dalla comunità: l'unica norma indiscutibile è quella che riguarda l'obbligo a seguire un punto di vista neutrale nella scrittura di contenuti presentando le varie opinioni presenti su ogni argomento. Data la sua natura di accessibilità, il rischio di vandalismo o inaccuratezza è sempre molto alto: tuttavia è sempre possibile ripristinare la versione precedente di ogni argomento. Infatti la filosofia di Wikipedia si basa sulla Legge di Linus “dati un certo numero di osservatori, tutti gli errori sono presto risolti”: data il numero elevato di visitatori ci si può accorgere velocemente di errori, sabotaggi o incompletezza delle informazioni. Si pensa che il numero e la quantità di voci presenti aumenti con il passare del tempo con meccanismi simili a quelli del Free Software / Open Source Software, e da questi riprende anche la tipologia di cessione dei diritti d'autore. Al contrario della maggior parte
Fig. 128: Wikipedia: un articolo (Fonte: en.wikipedia.org) 9
http://wikipedia.org 291
Fig. 129: Wikipedia: modifica dei contenuti (Fonte: http://en.wikipedia.org)
Fig. 130: Wikipedia: correzione degli errori e ritorno alle versioni precedenti (Fonte: http://en.wikipedia.org)
delle enciclopedie, il suo contenuto non è protetto da un copyright ma ne è permesso l'utilizzo e la distribuzione tramite la GNU Free Documentation License (GFDL): quando un autore contribuisce con del materiale originale il copyright viene ceduto con esso. Ogni voce non viene mai considerata completata, ma viene lasciata aperta a futuri miglioramenti: prima di modificare la voce gli utenti possono discutere su pagine web dedicate quali modifiche apportare. I partecipanti possono poi ricoprire il ruolo di amministratori se il loro operato viene giudicato favorevolmente da tutti i partecipanti. Il loro ruolo è quello di controllare che alcune voci non vengano modificate o cancellate e bloccare gli utenti che provocano danni. Al di sopra degli amministratori si ha il comitato Arbitration Committee che può correggere i loro errori. 292
L'importanza di Wikipedia come comunità può essere riscontrata nelle interazioni che si formano sul sito web, che seguono una particolare etichetta costantemente modificata dalla comunità. Le attività di questa comunità si espandono a diversi progetti paralleli: Wiktionary (un dizionario), Wikibooks (costruzione di pubblicazioni), Wikiquote (un elenco di citazioni), Wikinews (un periodico online). Wikipedia è sia un prodotto che un processo: con il passare del tempo e l'aumentare degli utenti aumentano le probabilità di crescita per dimensioni e quantità.
4.7. Connexions
4.8. Silver stringers
Il progetto Connexions10 fu iniziato alla fine del 1999 dalla Rice University, con l'obiettivo di creare strumenti per la gestione delle conoscenze che sono in continua evoluzione e per la creazione di strumenti didattici che possano essere adattabili ad ogni esigenza. Da una visione dell'insegnamento e dello studio statica e lineare verso un ecosistema dinamico di conoscenze condivise. Comunità di docenti, autori e studenti condividono le proprie conoscenze in un processo continuo di fusione e aggiornamento dei saperi per la creazione di una visione interdisciplinare sempre più ampia e ricca.
Silver Stringers11 è un progetto volto alla produzione e presentazione di informazioni giornalistiche centrato sulla comunità: l'obiettivo è di allenare e fornire strumenti ai membri della comunità per farli diventare giornalisti, fotografi, illustratori, editori e grafici per una pubblicazione web. Il progetto cerca di sviluppare e adattare strumenti tecnologici per facilitare le attività giornalistiche di gruppo per favorire le comunicazioni a livello locale.
Fig. 131: Connexions (Fonte: http://cnx.org)
Gli obiettivi di Connexions sono di facilitare lo sviluppo collaborativo di contenuti didattici e di ricerca e l'accesso a questi per il maggior numero possibile di comunità culturali. Collaborando all'interno e tra le discipline, le comunità di autori condividono le loro conoscenze creando contenuti e al tempo stesso accedendo alle competenze degli altri partecipanti. I contenuti vengono poi resi accessibili con le licenze Creative Commons. La creazione di contenuti, suddivisa fra tutti i partecipanti, diventa molto più rapida e il processo di peer review ne controlla la qualità. Grazie al suo sito web supporto alla collaborazione,
Basandosi sul consorzio News-in-the Future, il MIT Media Lab iniziò il progetto nel 1996 lavorando con un gruppo di persone over 50 della cittadina di Melrose, Massachusetts. Questo progetto si basa sulla consapevolezza che questo tipo di persone hanno profonde conoscenze
Connexions permette di valorizzare la natura interconnessa della conoscenza (tra le varie discipline) e lo spostamento da una creazione di contenuti centralizzata, solitaria ad una basata sulla connessione di persone in comunità globali di studio che condividono conoscenza.
Fig. 132: Silver Stringers (Fonte: http://stringers.media.mit.edu) 10 http://cnx.org/
11 http://stringers.media.mit.edu/index.html 293
sulla comunità in cui hanno vissuto e possono quindi essere una potenziale risorsa nella creazione di mezzi di comunicazione di nuova generazione a livello locale. Già nelle prime fasi di sviluppo del progetto il bacino dell'utenza è stato ampliato anche per bambini e adolescenti nella creazione della pubblicazione del mensile “Junior Journal” in 80 nazioni. Il progetto si avvale di software sviluppati dal MIT Media Lab che permettono la creazione e la pubblicazione di contenuti sul web con un forte impegno nel facilitare le operazioni verso gli utenti con scarse conoscenze informatiche.
4.9. NASA Mars Clickworkers Mars Clickworkers12 è un progetto sperimentale sviluppato dalla NASA tra il Novembre 2000 e il Settembre 2001 per capire se una comunità di volontari distribuiti geograficamente e non esperti possa raggiungere un numero di partecipanti e una qualità dei risultati accettabile. A questa comunità di volontari viene sottoposto un compito molto semplice che non necessità conoscenze specifiche: identificare e mappare i crateri di Marte osservando delle immagini fornite dalla NASA. In questo modo si può capire se vi possa essere differenza tra il lavoro di esperti e il lavoro di volontari (clickworkers). Un'analisi della qualità dei risultati ha dimostrato che il lavoro dei volontari non è distinguibile dal lavoro di geologi con anni di esperienza. Le operazioni effettuate dai volontari possono essere di pochi minuti o per un tempo più lungo, a loro discrezione: è stato riscontrato che il 37% del risultato totale è dovuto all'opera di volontari che hanno lavorato una volta sola. Questo progetto è un chiaro esempio di come complesse operazioni professionali, che prima avrebbero richiesto dei lavoratori esperti salariati, ora possano essere riorganizzate per essere svolte da decine di migliaia di volontari con operazioni di tale modesta entità da comportare costi di gran lunga inferiori, che riguardano solamente le operazioni di coordinazione del lavoro volontario. La professionalità di scienziati può essere sostituita da una combinazione di una fine modularizzazione dell'operazione e la ridondanza delle elaborazioni data dall'elevato numero di volontari.
Fig. 133: Colonna di sinistra, crateri delineati da Nadine Barlow, una geologa esperta; colonna di destra, fatto dai clickworkers (Fonte: Nasa 2001) 12 294
http://clickworkers.arc.nasa.gov
4.10. Distributed Proofreaders
4.11. SETI@Home
Distributed Proofreaders13 è un progetto di supporto a Project Gutenberg nella sua attività di raccolta di libri, ormai non più protetti da diritti d'autore, in formato digitale aperto alla consultazione gratuita.
SETI14 (“Search for Extraterrestrial Intelligence”), Ricerca di Intelligenza Extraterrestre) è un ampio campo di ricerca basato sull'esaminazione di dati provenienti dallo spazio ponendo attenzione a possibili segnali di vita extraterrestre. Uno dei tanti approcci possibili, chiamato radio SETi, utilizza grandi telescopi in grado di captare onde radio dalla banda ristretta: questi segnali non sono di origine naturale, quindi la presenza di uno comproverebbe l'esistenza di vita extraterrestre. I segnali radio captati da questi telescopi consistono principalmente di rumore (proveniente da fonti celesti e dalle apparecchi elettronici dei ricercatori) e da fonti di emissione come stazioni televisive, radar, satelliti. È quindi importante poter analizzare i segnali in arrivo per poterli filtrare da frequenze disturbanti, e i ricercatori utilizzano strumenti digitali e computer per questo compito. I primi progetti radio SETI utilizzavano alcuni supercomputer costruiti appositamente nei pressi dei telescopi. Nel 1995 l'Università di Berkeley cominciò a pensare di utilizzare un vasto numero di computer collegati via Internet per comporre una sorta di “supercomputer” per l'analisi dei segnali. Dopo quattro anni di preparativi nel Maggio 1999 venne dato il via al progetto SETI@Home. Per partecipare bisogna solamente leggere prima le regole e limitazioni del progetto, registrarsi sul sito web e quindi scaricare un software e installarlo. Questo software riceve i dati da analizzare via Internet e funziona solo quando il computer è inattivo, divenendo così ininfluente sulle attività del partecipante.
L'attività che svolge Distributed Proofreaders è quella di formare una comunità di volontari che correggano eventuali errori nei libri digitali presenti nel catalogo di Project Gutenberg. Solitamente il lavoro di un volontario del Project Gutenberg è quello di convertire un libro fisico in formato digitale scannerizzando le pagine e trasformandole direttamente in testo digitale attraverso un software OCR, che però non è sempre fedele alla pagina fisica. A questo punto il testo digitale ottenuto viene passato ai volontari di Distributed Proofreaders, che controllano il testo confrontandolo con l'immagine della pagina fisica. Un processo semplice ma noioso che, distribuito su un numero elevato di volontari, può essere svolto rapidamente con il minimo impegno individuale. Il sito web permette anche la formazione di progetti per la correzione di un preciso testo digitale, in cui un Project Manager dirige le operazioni e funge da guida per i volontari.
Fig. 134: Distributed Proofreaders (Fonte: http://www.pgdp.net)
Fig. 135: Distributed Proofreaders: libri controllati (Fonte: http://www.pgdp.net) 13 http://www.pgdp.net/
14 http://setiathome.berkeley.edu/index.php 295
Questo progetto di distributed computing, come vengono definiti i progetti di utilizzo di comuni computer collegati via Internet, ha avuto tanto successo da richiamare tre milioni circa di partecipanti rendendo poco costosa una ricerca che sarebbe stata altrimenti talmente costosa da essere impraticabile.
Fig. 136: Logo SETI@Home (Fonte: http://en.wikipedia.org/wiki/SETI%40home)
4.12. Grid.org Grid.org15 è un sito web che funge da supporto per ricerche non profit su larga scala attraverso processi di distributed computing. Il sito web può ospitare alcuni progetti di ricerca: i volontari possono scaricare e installare un software specifico per ogni ricerca che utilizza il proprio personal computer solo nei momenti in cui non è utilizzato. Quasi 1,3 milioni di volontari con un utilizzo di circa 3 milioni di personal computer permettono un rapido sviluppo di complessi programmi di ricerca quali lo studio delle relazioni tra geni e proteine, sviluppo di medicine dirette alla cura di tumori. Un esempio è dato dalla ricerca Anthrax Research Project, che nel Febbraio 2002, in soli 24 giorni, è riuscito a sviluppare nuove medicine nella cura contro l'antrace.
Fig. 137: Schermata di Seti@Home (Fonte: http://en.wikipedia.org/wiki/SETI%40home)
Fig. 138: Grid.org: United Devices Agent (Fonte: http://en.wikipedia.org/wiki/Grid.org) 15 http://www.grid.org 296
5. Reti collaborative per svolgere ricerche
Fig. 139: Comunità Open Peer-to-Peer per lo svolgimento di ricerche
5.1. The International HapMap Project
5.2. The Tropical Disease Initiative (TDI)
The International HapMap Project1 è un progetto scientifico internazionale con l'obiettivo di catalogare le somiglianze e le differenze genetiche negli esseri umani. L'interesse non è di stabilire direttamente connessioni di particolari variazioni genetiche con malattie, ma di fornire informazioni ad altri ricercatori che possono studiare loro stessi legame con malattie ed eventuali cure. Rappresenta dunque un ente di supporto ad altre comunità di ricerca. Questo progetto è una collaborazione tra scienzati e agenzie di Giappone, USA, UK, Canada, Cina, Nigeria: tutti i partecipanti hanno uguale accesso alle informazioni e i risultati finali verranno resi pubblici.
Circa 500 milioni di persone nel mondo soffrono di malattie tropicali come ad esempio malaria, dengue, elefantiasi. Le ragioni dello scarso successo nella cura di queste malattie sono di natura economica. Le compagnie farmaceutiche coprono i costi di ricerca e sviluppo dei farmaci attraverso brevetti, strategia che si rivela inefficace in Paesi dove i malati possono spendere pochi soldi per medicinali. La associazione Tropical Disease Initiative2 (TDI) rappresenta un comunità decentralizzata di scienziati, università, istituti e compagnie in collaborazione per la risoluzione di questo problema. Questa comunità si basa su un nuovo approccio alla ricerca scientifica denominato “open source drug discovery” basato sulla metodologia di progettazione utilizzata dalle comunità di software Open Source.
Fig. 140: HapMap (Fonte: http://www.hapmap.org) 1
http://www.hapmap.org/index.html.en
2
http://www.tropicaldisease.org 297
Fig. 141: HapMap: risultati liberamente accessibili (Fonte: http://www.hapmap.org)
Questo nuovo approccio permette di abbassare notevolmente i costi di ricerca, sviluppo e produzione dei medicinali attraverso la collaborazione volontaria. Inoltre le scoperte non vengono brevettate ma rese pubbliche, permettendone la produzione al costo minimo possibile. Questo approccio è possibile solo ora grazie alla presenza di vasti archivi di ricerche biologiche, chimiche e mediche, di nuovi software e migliori tecnologie informatiche. TDI è una comunità decentralizzata indirizzata allo studio dei genomi di virus e batteri, dei composti chimici in grado di neutralizzarli, e all'analisi e scelta delle ricerche più promettenti per sviluppi ulteriori. Il funzionamento della comunità si basa su un sito web dove vengono visualizzate informazioni sui singoli progetti, dove avviene la discussione collettiva su risultati e sviluppi futuri e dove è possibile organizzare conferenze. Le ricerche vengono portate avanti da partecipanti volontari, normalmente giovani ricercatori che sono incentivati ad accrescere le proprie conoscenze e a costruirsi una reputazione all'interno della comunità scientifica, come accade nel mondo del software con i partecipanti alle comunità di sviluppo di software Open Source. Oltre alla discussione sulle ricerche portate avanti, un ruolo importante riveste l'utilizzo di calcolatori informatici nello svolgimento di calcoli e simulazioni. È stato notato come lo studio informatizzato di medicinali sia simile alle operazioni di debugging nella programmazione software: ricerca di punti critici (bugs e targets) all'interno di un insieme di informazioni (codice sorgente e genoma). Proprio per questo motivo è stato adottata la filosofia Open Source. Qualsiasi volontario può intervenire utilizzando un semplice programma di calcolo che funziona nello stesso modo dei progetti SETI@Home o Grid.org: tutte le operazioni di calcolo vengono suddivise e distribuite fra i partecipanti (distributed computing).
L'approccio “Open Source Drug Discovery” risulta vantaggioso per molti motivi: • la mancanza di gerarchie permette la libera iniziativa nello sviluppo di ricerche; • una collaborazione a livello di comunità è più rapida ed efficace delle ricerche svolte in piccoli gruppi; • la presenza di volontari e di licenze che permettono il libero utilizzo delle scoperte contribuisce all'abbattimento dei costi di ricerca e sviluppo dei farmaci, permettendone l'acquisto ad un prezzo accessibile; • tutti i partecipanti ricevono benefici dalle loro ricerche grazie ad un sistema di attribuzione delle scoperte che accresce la loro reputazione all'interno della comunità scientifica e delle imprese farmaceutiche. La differenza tra questo progetto e i primi approcci open source nelle ricerche biomediche risiede nella collaborazione collettiva, mentre prima ci si basava solo sulla pubblicazione libera dei risultati e la partecipazione individuale attraverso software di distributed computing. Mentre prima i progetti si basavano sul coivolgimento di istituzioni politiche con procedure top-down, ora nascono dalla autoorganizzazione dei ricercatori con una procedure bottom-up.
5.3. The Drugs for Neglected Diseases Initiative (DNDi) Un altro approccio alla risoluzione di malattie rare, soprattutto tropicali, risiede nel progetto Drugs for Neglected Diseases Initiative3 (DNDi). Questa iniziativa internazionale promuove la collaborazione tra Paesi in via di sviluppo e tra questi e quelli più sviluppati nella ricerca di medicinali per malattie poco considerate ma letali. Nel Luglio 2003 sette organizzazioni provenienti da tutto il mondo si riunirono per costituire il progetto 3
298
http://www.dndi.org/
DNDi: cinque istituzioni pubbliche (Oswaldo Cruz Foundation dal Brasile, Indian Council for Medical Research, Kenya Medical Research Institute, Ministero della Salute della Malaysia e l'Istituo Pasteur dalla Francia), una organizzazione umanitaria (MSF, Médecins sans Frontières) e una organizzazione internazionale di ricerca (TDR, Special Programme for Research and Training in Tropical Diseases) istituita da Banca Mondiale, UNDP e OMS come osservatore permanente del progetto. I finanziamenti iniziali sono stati elargiti da Médecins sans Frontières per la gestione dell'associazione nei primi cinque anni di vita, durante i quali si cercherà gradualmente di raccogliere fondi dalle istituzione pubbliche e private suddivisi per singolo progetto. Questa iniziativa promuove collaborazione tra Paesi in via di sviluppo e tra questi e i Paesi più sviluppati attraverso una combinazione di gestione centralizzata (per indirizzare le attività su singoli progetti) e di operazioni decentralizzate. DNDi non svolge ricerche al fine di sviluppare nuovi farmaci ma cerca di riunire le risorse umane esistenti nei Paesi in via di sviluppo fornendo esperienza e conoscenze ulteriori. Questa “organizzazione virtuale” permette la iniziazione e coordinazione di progetti di ricerca sviluppati dalla comunità scientifica internazionale, il settore pubblico e le industrie farmaceutiche con una notevole riduzione di costi. Si basa su reti di ricercatori a livello regionale in Asia, Africa e
America Latina per la raccolta di informazioni e necessità riscontrabili a livello locale e per la promozione dell'associazione. Quando possibile, DNDi rilascierà i risultati ottenuti in maniera da renderli accessibili a tutti.
5.4. The SNP Consortium Ltd Single Nucleotide Polymorphisms (SNP) sono sequenze del DNA comuni fra più individui e hanno una grande importanza per le ricerche biomediche. L'associazione The SNP Consortium Ltd4. È una fondazione non profit formata da un ente scientifico (Wellcome Trust) e undici compagnie farmaceutiche, tra le quali possono essere notate Aventis, Bayer AG, Novartis e Pfizer. L'obiettivo di questa fondazione è arrivare alla libera pubblicazione, senza restrizioni di copyright, di almeno 30000 SNP distribuiti uniformemente nella popolazione umana. L'attività di ricerca della fondazione iniziò nell'Aprile del 1999 e terminò alla fine del 2001, pubblicando 1,5 milioni di SNP, un numero cinque volte maggiore. La ricerca venne portata avanti da quattro centri di ricerca: Stanford human Genome Center, Washington University School of Medicine, The Sanger Centre, The Whitehead Institute for Biomedical Research.
Fig. 142: DNDi: progetti (Fonte: http://www.dndi.org) 4 http://snp.cshl.org/ 299
Fig. 143: SNP (Fonte: http://snp.cshl.org)
Fig. 144: SNP: risultati liberamente accessibili (Fonte: http://snp.cshl.org)
Le undici compagnie farmaceutiche hanno finanziato questa fondazione perchè un archivio completo di SNP permette loro di sviluppare medicinali specializzati nella cura di malattie genetiche. Questa mappa ad alta qualità delle SNP è utile sia per gli istituti di ricerca che le compagnie. Attraverso questa collaborazione le compagnie ottengono una mappa SNP comune, accettata da tutti, sviluppata più velocemente che con ricerche individuali, con un rischio finanziario condiviso.
5.5. The CAMBIA BIOS CAMBIA Bios5 è una iniziativa che cerca di estendere le metafore e i concetti open source nelle ricerche biotecnologiche e in altri campi della biologia. Un sito web per creare nuovi modi di invenzioni cooperative, miglioramente e condivisione di tecnologie biologiche attraverso lo scambio libero di informazioni, Il gruppo di ricerca non profit CAMBIA (Center for the Application of Molecular Biology in International Agriculture), fondato nel 1993 e finanziato dalla Rockfeller Foundation, FAO e Unido, ha sempre ricercato nuove metodologie di ricerca e sviluppo nelle biotecnologie.
5 300
http://www.bios.net/daisy/bios/15
Fig. 145: CAMBIA Bios (Fonte: http://www.bios.net)
Dopo anni di ricerche ha deciso di prendere ispirazione dal movimento del Software Open Source per combattere il rigido monopoli di brevetti genetici gestito dalle multinazionali: offre la più importante delle loro scoperte attraverso una licenza open source che ne permette il libero utilizzo senza limitazioni commerciali. L'importanza di questo gesto è presto spiegata dal fatto che questa scoperta riguarda un sistema di trasferimento di geni alternativa a quella brevettata da multinazionali, una tecnologia fondamentale per tutte le ricerche riguardanti biotecnologie. L'idea alla base è di diffondere scoperte innovative liberamente, come nel caso del software Open Source. In questo senso si spiega la decisione di CAMBIA di lanciare il progetto nel Febbraio 2005 BIOS (Biological Innovation for Open Society), come modello innovativo di utilizzo di strumenti informatici, scienze biologiche e nuovi paradigmi legislativi riguardanti i brevetti. Attraverso questo progetto vengono proposte tecnologie libere dal pagamento di royalties, ma gli utilizzatori di queste tecnologie devono pubblicare aventuali miglioramenti con la stessa licenza, permettendo un processo collettivo di rifinimento.
Fig. 147: BioForge (Fonte: http://www.bios.net)
Il successo di questa iniziativa è riscontrabile nel fatto che già tre multinazionali hanno avviato accordi per distribuire con una licenza simile le proprie tecnologie.Similmente al mondo del software Open Source, dove la piattaforma SourceForge permette lo sviluppo di più comunità e progetti, CAMBIA ha lanciato la piattaforma BioForge. Questa piattaforma rappresenta uno spazio online per la ricerca collaborativa.
Fig. 146: BioForge: progetti (Fonte: http://www.bios.net)
301
302
6. Reti collaborative per progettare
Fig. 148: Comunità Open Peer-to-Peer che progettano collaborativamente
6.1. Open Source Green Vehicle (OSGV) Nato sul finire del 2005, questo progetto1 si propone di influenzare l'industria automobilistica attraverso la competizione, con il fine di limitare i danni che essa sta portando all'ambiente, attraverso il consumo di materie prime e la costruzione di autoveicoli inquinanti. OSGV è una organizzazione non-profit che si propone di progettare, certificare e produrre veicoli caratterizzati da standard ambientali e di sicurezza notevolmente più avanzati rispetto agli attuali. A questo punto, le altre imprese produttrici, se vorranno continuare ad essere competitive sul mercato, dovranno inseguire OSGV sulla stessa strada di produzione sostenibile. OSGV si propone di utilizzare un processo progettuale ispirato alla filosofia Open Source, sviluppando un progetto open source ex novo, ma affidandosi, per i componenti, alle imprese esistenti. In questo modo, quando le altre imprese automobilistiche vorranno costruire autoveicoli più sostenibili, potranno rifornirsi dei componenti necessari dai fornitori esistenti. OSGV si propone di iniziare con un autoveicolo desiderato da molti consumatori, per garantire una ampia diffusione al veicolo prodotto.
Ha quindi deciso di iniziare con il progetto di un SUV, le cui caratteristiche però devono ancora essere decise.
6.2. OSCar - The Open Source Car Project Il progetto OSCar2 (Open Source Car) è stato fondato nel 1999 da Markus Merz, ex marketing manager della BMW, con l'intento di diventare una comunità di developers (cioè di sviluppatori, come vengono anche chiamati i programmatori informatici) di automobili intenti a sviluppare un progetto attraverso Internet. Questa idea nacque dalla consapevolezza dei cambiamenti che stavano avvenendo nei processi di sviluppo di nuove automobili. Nei dieci anni precedenti, la produttività dei processi di sviluppo di nuove automobili era raddoppiata mentre il tempo medio di sviluppo era dimezzato, nonostante la crescente complessità del processo, e le previsioni erano di un ulteriore dimezzamento del 25%. Infatti, per incontrare le crescenti richieste di cicli di sviluppo di automobili più brevi, le imprese stavano effettuando alcuni cambiamenti fondamentali, principalmente attraverso tre iniziative.
Fig. 149: Open Source Green Vehicle (Fonte: http://www.osgv.org) 1
http://www.osgv.org/
2
http://www.theoscarproject.org 303
1.
2.
3.
centralizzazione dei processi di sviluppo: adottazione di processi più integrativi, come il concurrent engineering, coinvolgendo team progettuali con competenze multidisciplinari. Contrariamente all'approccio tradizionale dove gli ingegneri non partecipavano alle prime fasi di elaborazione del concept, questo nuovo approccio assicurava che ogni membro dei team progettuali fosse coinvolto in tutte le fasi produttive. Questo cambiamento apparve a Merz come un segnale che l'industriaautomobilistica fosse pronta per processi progettuali basati sulla condivisione e partecipazione, con conseguente riduzione dei costi e aumento della velocità; aumento della complessità e delle comunicazioni necessarie durante le fasi di sviluppo: per rendere il processo di sviluppo di nuovi prodotti più flessibile, era essenziale gestire la coordinazione degli impegni individuali di ingegneri, designers, impiegati e fornitori. Un processo di sviluppo Open Source, se ben gestito, può velocizzare i processi di sviluppo attraverso la coordinazione dei partecipanti; introduzione del CAD: gli strumenti CAD, ormai presenti in tutte le imprese produttrici, rappresentano il punto di partenza per la collaborazione, lo standard comunicativo.
Inoltre, i car designer sono appassionati al loro lavoro almeno quanto gli hacker informatici: le macchine sono al centro dei loro pensieri durante il lavoro e anche al di fuori di esso. Ed oltre ai car designers, vi sono innumerevoli appassionati di automobili che possono fornire consigli e richieste.
Merz era inoltre a conoscenza del fatto che molte imprese automobilistiche delegavano la progettazione di automobili (o almeno di loro componenti) all'esterno della impresa, attraverso l'outsourcing. Un progetto open source di sviluppo di una automobile, se raggiungesse un progetto fattibile, potrebbe essere venduto con facilità ad una impresa produttrice. Con queste motivazioni, Merz lanciò il progetto OSCar attraverso un manifesto, accessibile via Internet3, con una prima descrizione degli obiettivi e dei principi basilari. Si è formata presto una comunità di designer ed appassionati, e Merz organizzò alcuni eventi regolari, denominati "OSCar Come Together", dove i partecipanti potevano conoscersi e discutere sul progetto OSCar. Fu infatti nel primo evento organizzato che la comunità discusse alcune decisioni cruciali riguardanti il progetto: una architettura modulare, per permettere la suddivisione in team progettuali; una automobile semplice, economica e di facile utilizzo e manutenzione; una automobile dotata di caratteristica hi-tech, innovative, in netto contrasto con le macchine esistenti sul mercato; utilizzo di motori più sostenibili, come fuel cell, elettrici o ibridi. La comunità OSCar si rese conto molto presto della necessità di una piattaforma CAD comune, al fine di coordinare le collaborazioni. Esistono infatti più programmi CAD, e anche se permettono la imprtazione/esportazione di dati questa spesso risulta con una perdita di qualità. La piattaforma CAD deve poi poter essere facilmente ottenibile ed utilizzabile da tutti i partecipanti: un software molto caro o di difficile uso allontanerebbe molti potenziali partecipanti.
Fig. 150: OSCar (Fonte: http://www.theoscarproject.org) 3
304
http://www.theoscarproject.org/index.php?option=co m_docman&task=cat_view&gid=5&Itemid=19
Fig. 151: OSCar: versione 0.1 (Fonte: http://www.theoscarproject.org)
La comunità sta quindi discutendo su quali siano gli strumenti più opportuni, preferibilmente open source, per permettere a tutti la partecipazione senza dover effettuare investimenti finanziari comprando software proprietario. La discussione collettiva non riguarda solamente gli strumenti da utilizzare o gli elementi strettamente tecnici del progetto, ma anche il suo significato, la sua direzione. Il progetto finale OSCar potrà essere venduto solamente se incontrerà i bisogni dei produttori, e per questo motivi la comunità ha discusso a lungo su quali possano essere le caratteristiche del progetto finale affinché possa essere richiesto da produttori, arrivando alle seguenti opzioni: 1. una linea OSCar estesa: la comunità ha ipotizzato che il concept della prima OSCar possa essere utilizzato per più obiettivi. Utilizzando la metodologia di sviluppo Open Source, la comunità OSCar può espandersi fino ad ammettere partecipanti con conoscenze non presenti al momento al suo interno e necessarie per sviluppare una nuova generazione di veicoli OSCar (sport utility vehicle, automobili elettriche, ecc.). La comunità quindi non progetterà un solo veicolo ma, grazie alla architettura modulare del progetto, più veicoli. Un approccio Open Source, che permette una rapida progettazione, può quindi permettere alla comunità la capacità di soddisfare le esigenze di una impresa produttrice adattandosi con rapidità alla fluidità del mercato; 2. partnership e alleanze: all'inizio del 2000, la Ford Motor Company formò una joint venture con il la comunità femminile online iVillage4, per permettere agli utenti la progettazione online della propria 4
http://www.ivillage.com
3.
5
macchina ideale5. Un ottimo modo di raccogliere dei suggerimenti progettuali dai propri utenti, ma chiaramente una comunità come OSCAr, basata sulla filosofia Open Source, può permettere un coinvolgimento maggiore. La comunità potrebbe quindi ricercare una sponsorizzazione da parte di una o più industrie produttrici, non per forza attraverso contributi finanziari: la impresa potrebbe semplicemente incoraggiare i propri dipendenti a collaborare nel proprio tempo libero al progetto OSCar o a dare loro alcune ore libere per questa attività. La partecipazione dei propri impiegati in un progetto tale non può che portare benefici alla impresa: gli impiegati, collaborando in un progetto talmente ampio, apprenderanno conoscenze che potrebbero essere utili alla impresa nel futuro. OSCar potebbe anche formare delle partnership commerciali con imprese di consulenza, di marketing, fornitrici e produttrici di componenti. In questo caso, OSCar potrebbe diventare un enabler della condivisione di informazioni e quindi collaborazione tra tutti questi enti; servizi di consulenza e di customizzazione: secondo la comunità OSCar, probabilmente la opportunità con maggiore guadagno finanziario deriva dalle attività di fornitura di servizi di consulenza e customizzazione riguardanti il progetto. Come nei software open source, il codice sorgente è libero, ma la comunità può offrire servizi di customizzazione e consulenza a pagamento. Le imprese potrebbero necessitare servizi aggiuntivi (a pagamento) per l'adattamento del progetto
http://www.ivillage.com/auto/dreamcar/dreamcar.html 305
alle proprie caratteristiche o per la fornitura di consulenza. Infatti i membri OSCar, grazie alla collaborazione collettiva, saranno in possesso di molte conoscenze, utili sia per le imprese produttrici che per quelle fornitrici. Attualmente, dopo una fase di inagibilità del sito web, la comunità ha ripreso le sue attività. È stata rilasciata la versione 0.16 (comprendente il periodo 1999-2001), ovvero una serie di schizzi preliminari, utili ad iniziare una discussione sul concept di automobile da progettare in seguito. La versione 0.2 è in preparazione, e consiste di una prima suddivisione del progetto in modulo, sistemi e sottomoduli, al fine di organizzare la progettazione collettiva in maniera più efficace.
6.3. Episodi di innovazioni tecnologiche collettive L'innovazione di prodotti e servizi non viene portata avanti solamente all'interno di singole imprese. Alcuni studi hanno dimostrato che vi sono molti esempi di “invenzioni collettive” dove nuovi prodotti o servizi sono stati sviluppati all'interno di comunità informali dove le informazioni venivano scambiate liberamente e i partecipanti non presentavano comportamenti competitivi ma cooperativi. Queste “invenzioni collettive” non sono avvenute solo di recente come il caso di Linux e del software libero o Open Source. Ad esempio negli anni tra il 1850 e il 1870 le compagnie produttrici di ferro del nord Inghilterra permisero l'osservazione e la descrizione delle proprie fornaci ad operatori esterni7. Il processo di condivisione delle informazioni permetteva loro di conoscere più informazioni utili di quante ne rilasciavano singolarmente. Proprio in questi anni vari strumenti utili per la produzione migliorarono sensibilmente grazie a questi processi. Lo stesso atteggiamento venne tenuto quando all'inizio del XIX secolo i brevetti apposti sui motori sviluppati da James Watt terminarono il loro periodo di validità8. Le compagnie di estrazione usavano questi motori a vapore per l'estrazione di acqua dalle miniere, che complicava e rendeva meno sicura l'estrazione di minerali. Alla scadenza di questo brevetto le compagnie della Cornovaglia iniziarono un processo collettivo di miglioramento dei motori. Altri esempi sono lo sviluppo della produzione su larga scala di acciaio negli Stati Uniti negli anni1866-1885 e lo sviluppo dei primi personal computer negli anni 1975-1985, da cui alcuni partecipanti fondarono l'impresa Apple per la produzione dei personal computer sviluppati9. Questi casi hanno alcune caratteristiche comuni. Il processo di cooperazione inizia con una invenzione 6 7 8 9
http://www.theoscarproject.org/index.php?option=co m_docman&task=cat_view&gid=5&Itemid=19 Meyer (2003) Ibidem Ibidem
306
o un cambiamento nelle limitazioni legali, ovvero delle forti opportunità. Quindi persone appassionate e nuove imprese sperimentano metodi pratici di produzione di nuovi prodotti e condividono queste informazioni all'interno di una rete sociale da cui poi si sviluppano anche altre imprese. Il processo collettivo di ricerca crea delle esternalità che creano un effetto rete: ogni membro della rete sociale riceve indirettamente benefici ogni volta che si inseriscono nuovi partecipanti. Sono possibili guadagni a lungo termine per tutta la rete sociale dalle nuove tecnologie sviluppate attraverso un abbassamento dei prezzi o opportunità di impiego. In questi casi le invenzioni e innovazioni non vengono ancora brevettate, procedimento che impedirebbe la partecipazione collettiva al loro sviluppo. Il raggiungimento della maturità delle tecnologie sviluppate e quindi una diminuiazione dell'incertezza può portare al rafforzamento di alcune imprese e a tecnologie brevettate. Contrariamente al luogo comune, non tutte le invenzioni o innovazioni di prodotti e servizi non avvengono all'interno di imprese e istituti di ricerca ma direttamente da parte degli utenti utilizzatori. Un chiaro esempio di questo fatto viene dalle ricerche di Sonali Shah e Nikolaus Franke sulle comunità di sportivi dedicati a sport quali surf, skate, snowboard, sviluppatisi solo recentemente e caratterizzati da un ampio successo10. In tutti queste comunità studiate furono ritrovati gli stessi di attività volte alla ricerca di innovazioni: le attrezzature non erano state sviluppate da imprese dedicata ad attrezzature sportive ma sviluppate proprio dai primi partecipanti (lead users) che a volte in seguito avrebbero fondato delle imprese volte alla produzione di queste attrezzature. Generalmente questi lead users erano molto giovani, intorno ai venti anni, e privi di conoscenze tecnologiche sofisticate: ogni innovazione fu quindi sviluppata con un processo di prova ed errore basato sull'apprendere praticando. Questi schemi di attività si spiegano grazie a due fattori: la presenza nei lead users di informazioni decisive sulle attrezzature e le differenze di aspettative sui benefici delle innovazioni da parte di utenti e imprese. In queste prime fasi di sviluppo di questi sport non era possibile prevedere un possibile successo futuro, rendendo le imprese disinteressate allo sviluppo di nuove attrezzature: questo motivò ulteriormente i lead users a svolgere loro stessi attività di ricerca. Gli utenti e gli utenti-imprenditori che svilupparono innovazioni e miglioramenti erano in gran parte lead users, cioè utenti che hanno una necessità di innovazioni alta e in anticipo rispetto a tutto il target di mercato. In questo modo sono l'equivalente sportivo degli hacker: esperti appassionati in continua ricerca del miglioramento del proprio campo e delle proprie capacità. Questi lead users ottengono molti benefici dalle loro innovazioni oltre a quelle dirette ottenute dall'utilizzo personale. Possono ottenere benefici 10 Shah (2000), Shah, Franke (2001)
grazie all'accrescimento della loro reputazione nel caso che tutta la comunità ritengano importanti le loro innovazioni.Se intendono ricevere benefici monetari dalle loro innovazioni devono o brevettarle o produrre loro stessi prodotti. In questi casi studiati sono stati riscontrati pochissimi casi in cui le innovazioni venivano brevettate in quanto difficilmente brevettabili o non interessati: in effetti nella maggior parte dei casi le innovazioni venivano rivelate agli altri componenti della comunità. Le ragioni principali di ciò risiedono nel fatto che la diffusione di nuove innovazioni in uno di questi campi avrebbe portato a ulteriori innovazioni e miglioramenti da parte degli altri membri, avrebbe stabilito uno standard vantaggioso nella pratica di questi sport e in presenza di bassa competitività e grande importanza del senso di comunità e della reputazione personale. In questo modo si viene a formare una nuova forma di organizzazione denominata community-based innovation system, cioè un sistema di ricerca di innovazioni basato su comunità e non su imprese. Questa organizzazione fornisce ad ogni membro della comunità informazioni, assistenza, legami sociali: risorse importanti differenti da quelle che una impresa può fornire. La presenza di una comunità è importante non solo per la libera dstribuzione di risorse utili per innovazioni e sviluppi, ma anche per l'influenza che ha sui processi con cui queste risorse vengono condivise. Innovazioni, informazioni e assistenza sono scambiate liberamente e gratuitamente tra tutti i membri della comunità. L'unico punto debole della comunità è la sua vulnerabilità al fenomeno denominato free reding, cioè la presenza di membri che si avvalgono dei benefici derivanti dall'appartenenza alla comunità ma non vi contribuiscono non fornendo informazioni, innovazioni e assistenza. Normalmente però questi membri vengono esclusi dalla comunità quando diventa palese il loro comportamento e le infrazioni alla norme della comunità.
Il sito web ThinkCycle11 è stata sviluppata per fornire strumenti e spazi condivisi per designer, esperti, stakeholder nella discussione, sviluppo e peer-review di soluzioni a problemi critici. Più di 200 utenti accedono alla piattaforma regolarmente e contribuiscono con centinaia di concept, risorse, progetti e pubblicazioni. ThinkCycle sta emergendo come una piattaforma collaborativa per una comunità globale dedita a progetti e innovazioni sostenibili. Nonostante l'operato di designer possa risultare decisivo per migliorare le condizioni di comunità in situazioni critiche, né il mercato, né il mondo universitario e istituzionale ha finora utilizzato al meglio questa opportunità. Nel marzo 2000, alcuni dottorandi del MIT Media Lab proposero una iniziativa atta a facilitare processi di problem solving, basati su una metodologia simile a quella utilizzata dalle comunità di sviluppo di software Open Source, tra studenti universitari e comunità locali dei paesi in via di sviluppo12. In questo senso venne considerata una mossa strategica la costruzione di un archivio online di problemi critici da risolvere e le relative soluzioni progettuali elaborate, nelle loro fasi di evoluzione. Questo archivio avrebbe facilitato la crescita della consapevolezza di questi problemi e dell'impegno di designer nella loro risoluzione attraverso la condivisione di conoscenze. Sebbene un prototipo di questo archivio venne sviluppato molto rapidamente, al fine di dimostrare la filosofia di base, la mancanza di una attiva comunità di utenti impedì il suo reale funzionamento. Gli ideatori del progetto capirono che la semplice costruzione e pubblicazione di una piattaforma web non è sufficiente per la costruzione di una comunità motivata alla risoluzione di questi problemi. Decisero quindi di istituire un corso di studi apposito al MIT, riconsiderando la metodologia di insegnamento del design alla luce di una collaborazione con competenze diverse.
6.4. Thinkcycle Come può un agricoltore delle zone rurali del Botswana sviluppare soluzioni appropriate per la propria comunità in collaborazione con esperti esterni? Come può un medico di Sao Paulo accedere ad una rete di imprese fornitrici di apparecchiature mediche per migliorare la loro progettazione? Mentre da un lato viene posta molta enfasi sulle innovazioni dal grande impatto sociale ed economico sviluppate da centri di ricerca e sviluppo, dall'altro lato spesso viene fornito poco supporto per lo sviluppo e la distribuzione di progetti affidabili e sostenibili a livello locale. Queste iniziative richiedono esperti da campi differenti (medici, ingegneri, imprenditori), team di designer motivati (sia in ambito accademico che aziendale), ed esperienza sul campo, sia da organizzazioni commerciali che non governative.
Fig. 152: Thinkcycle (Fonte: http://www.thinkcycle.org)
Da un lato la piattaforma web può facilitare la collaborazione tra designer, mentre dall'altro lato un corso universitario può svolgere un ruolo importante nello sviluppare e sostenere una cultura progettuale innovativa legata a problemi provenienti non da imprese ma dagli utenti stessi. 11 http://www.thinkcycle.org 12 Sawhney (2003) 307
Nel febbraio 2001, in collaborazione con il Prof. Mitchel Resnick del MIT Media Lab, venne istituito un corso di studio pilota al MIT intitolato “Design that Matters" (un design che realmente sia importante), contrapponendo la soluzione di problemi reali alla soluzione di problemi ipotizzati, divenendo così anche un esperimento di un nuovo approccio pedagogico. L'obiettivo del corso era di incoraggiare gli studenti a risolvere problemi “provenienti dal mondo reale”, cioè problemi posti da ONG che aiutano comunità in situazioni critiche, invece di ipotetizzare possibili problemi e opportunità, come avveniva normalmente in ambito universitario. Alle ONG venivano infatti inviati questionari e macchine fotografiche usa e getta per la documentazione delle problematiche. Il corso di studi interessò studenti del MIT e della università di Harvard, con l'apporto di esperti provenienti da tutto il mondo, che cercarono di risolvere problemi legati all'accesso ad acqua pulita, apparecchi medicali a basso costo, apparecchi di generazione di energia attraverso l'azione umana. Gli studenti costruirono dei prototipi funzionanti dei loro progetti, sottoponendosi a processi di peer review da parte di altri studenti, professori ed esperti, ed utilizzando il sito web per la documentazione e sviluppo dei loro progetti. Tra i vari progetti furono premiati due: una incubatrice a riscaldamento passivo per neonati dello Sri Lanka e un sistema per la purificazione di acque a base biologica per il Nicaragua. Il corso di studio venne ripetuto nel 2002, in più università contentemporaneamente. Nell'aprile 2001, durante il corso di studi, la piattaforma web venne sviluppata ulteriormente con il nome ThinkCycle da un dottorando del MIT, Nitin Sawhney, attraverso un processo di consultazione con gli studenti interessati al suo utilizzo. Una prima versione della piattaforma venne pubblicata sul web nel maggio 2001, per essere provata dagli studenti, e la fase di sviluppo/prova è continuata nei seguenti 16 mesi portando all'aggiunta di funzionalità e al miglioramento del suo utilizzo. Da questo punto in poi ThinkCycle ha continuato a crescere come communità dispersa fino a raggiungere 2000 utenti operanti in 45 ambiti di studio nel gennaio 2003. Per rafforzare l'attività della piattaforma Nitin Sawhney organizzò un workshop internazionale al MIT chiamato “development by design” (dyd01) nel luglio 2001, che richiamò più di 100 esperti in sviluppo economico, sostenibilità e design da tutto il mondo. Questo workshop venne organizzato attraverso processi di peer review degli interventi attraverso un archivio situato sulla piattaforma web. La seconda edizione, “development by design” 2002 (dyd02), è stata organizzata a Bangalore, India, i primi due giorni del dicembre 2002, con oltre 120 esperti e 300 partecipanti. Sia il corso di studio Design that Matters e gli eventi dyd hanno dimostrato il fatto che le sfide critiche per uno sviluppo sostenibile devono essere affrontate con una collaborazione tra varie istituzioni; particolarmente importante risulta la strategia di diffondere la consapevolezza di queste sfide attraverso le università. 308
Per questo motivo gli ideatori di ThinkCycle incoraggiarono università e studenti a sviluppare progetti simili in collaborazione con il MIT. Facoltà a Bangalore, Lisbona, Sao Paulo, Nairobi hanno deciso di istituire dei propri corsi simili a Design that Matters, organizzati secondo le precise caratteristiche locali, e organizzando una rete interuniversitaria denominata Global Design Network nel 2002, con le seguenti iniziative: • Design that Matters (DtM02), Cambridge, Massachusetts USA, organizzata dal Institute of Technology; • Learning from Grassroots Innovators, Bangalore, India, organizzata dalla Srishti School of Art, Design & Technology, Indian Institute of Sciences (IISC), e la National Innovation Foundation; • Collaborative Design Studios, Lisbon, Portugal, organizzata da GASA-FCT-UNL, New University of Lisbon e IST, Technical University of Lisbon; • Engineering Design for Development, Nairobi, Kenya organizzata da University of Nairobi con l'impresa Numerical Machining Complex (NMC) Ltd; • Social Design Studio, Sao Paulo, Brazil organizzata dalla University of Sao Paulo in collaborazione con una rete locale di organizzazioni non profit; • ThinkCycle Student Initiative, Pittsburgh, USA, organizzata dalla University of Pittsburgh and Carnegie Mellon University. Per i prossimi anni il progetto ThinkCycle si è posto l'obiettivo di coinvolgere molti più studenti, sia all'interno delle università facenti parte della rete Global Design Network, sia di altre università. Si sta anche considerando l'idea di trasformare ThinkCycle in una fondazione non profit, dedicata allo sviluppo di innovazioni per collaborazioni distribuite e sostenibili, nuovi modelli di insegnamento del design, problematiche legate ai brevetti e diritti di autore e allo sviluppo di prodotti sostenibili. Per capire meglio il funzionamento di ThinkCycle è possibile analizzare un progetto elaborato durante il corso Design that Matters offerto nel 2001. In questo caso il progetto venne sviluppato da tre studenti di ingegneria, in stretto contatto con esperti locali, e utilizzando la piattaforma web solo nella seconda parte del corso, in quanto prima era ancora in preparazione. La sfida di questo progetto era sviluppare un nuovo meccanismo per una apparecchio medicalie dedito a controllare il flusso d'acqua in maniera da rendere più rapida la cura dei pazienti affetti da colera. Il colera è una caratterizzato da una infezione intestinale acuta che, se non curata, può portare ad una grave disidratazione e quindi alla morte. Il gruppo di progetto iniziò la propria attività con una ricerca sul colera, sulla sua cura e sugli strumenti necessari, e le necessità che le organizzazioni dedite alla cura del colera hanno, specie in campi di rifugiati dove un numero elevato di pazienti deve essere curato in un tempo molto breve.
Alla fine di questa fase di ricerca, il gruppo di progetto archiviò la documentazione elaborata sulla piattaforma web in un'area dedicata al tema (ThinkCycle topic). Grazie alle seguenti discussioni online con esperti del campo e a un confronto con la bibliografia esistente, il gruppo sviluppò in seguito quattro possibili strategie progettuali e le documentò sulla piattaforma web.
notevolmente il gruppo a sviluppare ulteriormente i loro progetti elaborando un progetto unico. L'incontro venne ripreso con una videocamera e il resoconto scritto e il filmato registrato vennero pubblicati sulla piattaforma web. Il gruppo presentò quindi il progetto al workshop dyd01, dove averne permesso un processo di peer review pubblicandone sulla piattaforma web una documentazione elaborata appositamente. Nel marzo 2002 il gruppo venne contattato dai rappresentati di una impresa statunitensi specializzata nella produzione di strumenti per la cura di malattie, con la richiesta di una licenza per poter produrre il progetto definitivo. Il gruppo quindi elaborò, in collaborazione con il MIT, tre differenti licenze per la produzione: le imprese statunitensi interessate possono produrre lo strumento pagando una licenza, mentre nel resto del mondo il progetto è di pubblico dominio, permettendone così la produzione anche a piccole imprese e in Paesi in via di sviluppo.
6.5. iCompositions
Fig. 153: Thinkcycle: esempio di dispositivo per la cura del colera progettato e messo in produzione (Fonte: http://www.thinkcycle.org)
Il gruppo iniziò quindi la fase di progettazione vera e propria analizzando gli strumenti per la cura del colera esistenti e comparandoli con i prototipi delle quattro linee progettuali elaborate. I risultati delle analisi sul funzionamento vennero documentati e pubblicati sulla piattaforma web in un'area dedicata alla pubblicazione di file (ThinkCycle filespace), utilizzandola anche per lo scambio reciproco e con i docenti di informazioni. Il gruppo decise di sviluppare un prodotto a basso costo, preciso, facile da utilizzare e semplice da produrre e, in una serie di discussioni, elaborò una decina di progetti, con schizzi, disegni tecnici, prototipi, i quali vennero pubblicati sull'area dedicata ai file della piattaforma web e commentati da esperti, professori e altri studenti. In seguito, il gruppo mostrò le proposte elaborate anche con prototipi funzionanti a due medici di un reparto del vicino ospedale, il Massachusetts General Hospital Division of Infectious Diseases, entrambi esperti delle cure del colera. Questo incontrò aiutò
Grazie ad Internet, ora le canzoni nascono da sole attraverso la condivisione. Ne è un esempio la comunità del sito iCompositions13. Il meccanismo è molto semplice. Si parte da una prima idea armonica o ritmica di un artista-utente, che la realizza usando il programma Garageband di Apple, poi la deposita sul sito, lasciandola a disposizione di tutti. A questo punto, il pezzo inizia a girare sul web, prende forma e si arricchisce in ogni angolo del pianeta, con la creatività e le diverse culture di chi ci mette mano. Si creano così collaborazioni a distanza, attraverso il semplice scambio di files. E non sono solo artisti in cerca di fama o esperienza a entrare nella community di iCompositions: può capitare anche che gruppi affermati (ne sono un esempio gli americani Nine Inch Nails) offrano l'opportunità di realizzare liberamente nuove versioni dei loro pezzi, mettendo a disposizione tutto il materiale necessario, libero dal copyright. Nel giro di sei mesi gli utenti sono raddoppiati, ed all'inizio di marzo 2006 sono oltre 30 mila e le canzoni (o appunto, "compositions") scritte e scaricabili dal sito sono circa 22 mila, suddivise in una ventina di generi. Gli iscritti hanno la possibilità di indicare gli artisti preferiti del sito e ognuno può "giudicare" i pezzi degli altri con una vera e propria valutazione, anche se c'è una convenzione non scritta per evitare giudizi troppo rigidi. Il successo di una composizione è dato infatti da quattro parametri: numero di ascolti, votazione espressa a stellette, giudizio (a parole) e download del brano. I meno inclini alla condivisione del proprio lavoro hanno anche la possibilità di non dare la licenza agli altri di modificare i propri prodotti. In questo modo, la canzone si considera finita, gli altri la possono giudicare, ma senza aggiungere nuovi arrangiamenti. 13 http://www.icompositions.com 309
Fig. 154: iCompositions (Fonte: http://www.icompositions.com)
310
6.6. Solar Roof Solar Roof14 è una comunità di individui, associazioni e imprese per lo sviluppo, diffusione e commercializzazione di una tecnologia costruttiva che permetta la riduzione della dipendenza da combustibili fossili, una produzione di energia centralizzata e alimenti provenienti da località lontane. In pratica questa tecnologia permette la costruzione di edifici e comunità auto-sufficienti per quanto riguarda la produzione di energia per il riscaldamento domestico, la produzione di biomassa da convertire in biodiesel e una coltivazione accessibile e sostenibile. La tecnologia costruttiva Solar Roof è una soluzione per la costruzione di “edifici viventi”, utilizzando un sistema di utilizzo di acqua e piante che richiede tecnologie accessibili e non costose. Questa tecnologia si basa su alcune invenzioni brevettate da Richard Nelson negli anni '70 e sperimentate fino 2001, quando egli si rese conto che il metodo utilizzato delle comunità di software Open Source poteva essere utilizzato per svilupparla ulteriormente e diffonderla. In questo modo si sarebbe formata una comunità di utilizzatori della tecnologia, interessati al suo miglioramento, che avrebbe dato luce a una rete collaborativa di imprese dedicate alla produzione di questa tecnologia. Questa tecnologia non è una derivazione di tecnologie esistenti, ma è stata sviluppata ex novo e orientata alla massima accessibilità economica a e di utilizzo per permetterne l'introduzione da parte di chiunque sia interessato, anche senza conoscenze specifiche. Attraverso l'utilizzo di piante, microrganismi, acqua, la tecnologia Solar Roof permette la costruzione di un edificio che imita il funzionamento degli esseri viventi. La tecnologia si basa su alcuni componenti essenziali: • una struttura architettonica leggera e resistente di alluminio e acciaio, dal costo cotenuto, che può essere montata, smontata, dissasemblata, riciclata e riutilizzata facilmente; • un involucro architettonico costituito da un sistema modulare di pannelli polimerici trasparenti rinforzati da fibre di vetro. La modularità del sistema è stata studiata per una facilità di montaggio e di disassemblaggio, rendendo possibile un ulteriore utilizzo in altri edifici. Il sistema di ancoraggio tra i pannelli e la struttura metallica è stato progettato appositamente e reso accessibile con licenze simili a quelle del software Open Source; • un sistema di ricircolo dell'acqua permette di controllare il microclima interno. Una soluzione di acqua e sapone viene fatta circolare attraverso la cavità interna dei pannelli di rivestimento, diventando così un vero e proprio velo che ricopre tutto l'edificio e assorbe i raggi solari. Grazie allo scorrimento dell'acqua e la produzione di questo velo, l'edificio ottiene una temperatura e una umidità costante e modulata dal giorno alla notte come un bioritmo. Un edificio che utilizza queste tecnologie diventa
•
•
attivo nella ricezione, conversione e immagazzinamento di energia solare. Inoltre questo sistema funziona sia nei climi caldi (utilizzando un liquido di raffreddamento) sia in quelli freddi (utilizzando una tecnologia di produzione di bolle per l'isolamento); compressori, posizionati nelle cavità dei pannelli trasparenti, per la generazione di bolle d'aria nella soluzione di acqua e sapone circolante per tutto l'involucro. In questo modo si può riempire l'involucro di bolle d'aria in maniera tale da controllare la temperatura, il potere di isolamento, riflesso e trasmissione dei raggi solari dell'involucro. I pannelli trasparenti diventano così come una tenda, simile ad un cielo coperto da nuvole. Le bolle d'aria forniscono isolamento termico durante la notte con una efficienza da 10 a 15 volte maggiore delle serre utilizzate attualmente. Inoltre, la circolazione delle bolle d'aria permette di trasportare con sè il calore solare per tutto l'involucro architettonico, rendendo inutile un sistema di riscaldamento aggiuntivo. Ad ogni modo tutto il sistema di circolo di acqua e bolle d'aria è un processo dinamico che viene costantemente monitorato per fornire rapide reazioni ai cambiamenti nelle condizioni atmosferiche; un sistema di coltivazione di biomassa attraverso l'introduzione di alghe nella circolazione della soluzione di acqua e sapone nell'involucro architettonico. In questo modo le alghe vengono esposte ai raggi solari il tempo necessario per attivare i processi di fotosintesi, per essere poi fatte circolare dalla forza di gravità fino a una cisterna sotterranea dove avvengono i processi di riproduzione e quindi di crescita della biomassa totale. Questa biomassa cresce da 10 a 100 volte più rapidamente che in altre colture e può essere usata pi per la produzione di biodiesel. Non solo, ma anche l'acqua potabile e le acque di scarico vengono trattate sia con piante che con microrganismi in ambienti anaerobici da cui viene prodotto del metano.
Oltre a queste tecnologie, il sistema Solar Roof si basa anche sulla piattaforma web che permette la creazione di una comunità di utenti, imprese e associazioni per lo sviluppo di una rete di attori in grado di sviluppare, diffondere e commercializzare questa tecnologia. La comunità, nata nel 2002, è diretta quindi verso una ri-progettazione collettiva dell'ambiente costruito per ridurre il proprio impatto sull'ambiente. Per coinvolgere e gestire un numero elevato di partecipanti in continuo cambiamento non può adottare una tradizione gerarchica rigida, ma si basa su processi di autoorganizzazione. In particolare prende spunto dall'organizzazione delle comunità di software Open Source, con un sistema meritocratico di progettazione e test paralleli. Come nel mondo del software Open Source, chiunque può utilizzare e adattare alle proprie esigenze queste tecnologie. I benefici che vengono
14 http://www.solaroof.org/wiki/SolaRoof/HomePage 311
dall'utilizzo di queste tecnologie sono inoltre sia individuali che collettivi: mentre privati possono costruire serre per la coltivazione di vegetali e la riduzione dei propri consumi energetici, tutti beneficierano della riduzione di utilizzo di combustibili fossili. Intere comunità possono diventare auto-sufficienti per quanto riguarda l'energia per il riscaldamento domestico, la produzione di alimenti e di biomassa per biodiesel. L'utilizzo di brevetti e licenze deve ancora essere sviluppato pienamente, quindi nel frattempo viene utilizzata una licenza sviluppata appositamente chiamata Creative Commons Public License (o indicata anche ProvisionalCCPL). In questo modo gli individui e le associazioni non profit membri della comunità possono utilizzare liberamente queste tecnologie in cambio di donazioni che vengono raccolte in un fondo comune (Common Heritage) destinato al finanziamento di progetti esterni di sviluppo locale selezionati (Grass Roots Projects). Per l'utilizzo di queste tecnologie a scopi commerciali bisogna invece rifersi alla licenza Solar Roof EPDL (Ethical Public Domain License), che incoraggia il versamento volontario di una somma agli autori della tecnologia utilizzata o verso il fondo comune Common Heritage. Solar Roof richiede un pagamento solo volontario (e in relazione alle proprie disoponibilità fisiche) in quanto anche se una impresa utilizza senza autorizzazione queste tecnologie i benefici per l'intera comunità saranno maggiori, in termini di diffusione delle tecnologie e crescita della sostenibilità globale. I pagamenti sono incoraggiati solo per chi ha le necessarie risorse economiche e possono essere spostati nel tempo.
degli Open Eco Center è quella di stringere legami con Università, installando in esse Open Eco Center dedicati allo studio di queste tecnologie. La rete degli Open Eco Center e la comunità online organizzeranno una rete di imprese (Social Enterprise Network) dedicate alla produzione delle tecnologie Solar Roof. Questa rete rappresenta una associazione collaborativa di imprese distribuite, per la produzione delle tecnologie e per l'offerta di servizi dedicati alla comunità Solar Roof: la crescita di questa comunità porterà a importanti economie di scala. Come secondo obiettivo, quasta rete collaborerà con la comunità online per lo sviluppo delle tecnologie e la diffusione di conoscenza. Il coinvolgimento delle imprese in Solar Roof permette l'accessibilità delle tecnologie in tutto il mondo e il finanziamento delle attività di ricerca e diffusione delle tecnologie. Un esempio di come possa essere sperimentata e sviluppata la tecnologia Solar Roof viene dall'opera di Harvey Rayner, il quale mantiene un sito web15 dal novembre 2004 in cui mostra le sue costruzioni e come poterle costruire, in maniera pratica (fig.155-160).
Il sito web di Solar Roof, utilizzando una tecnologia wiki, permette la partecipazione attiva di tutti i membri, che possono prensentare idee, nuovi progetti basati sulla tecnologia Solar Roof, e decidere collettivamente dove insediare una serie di centri chiamati Open Eco Center per la diffusione delle tecnologie Solar Roof in tutto il mondo. Questi centri svolgono attività di ricerca, insegnamento, dimostrazione, gettando le basi per lo sviluppo di un intero settore economico dedicato alla commercializzazione delle tecnologie Solar Roof. Il sito web è anche un punto di incontro tra tutta la comunità Solar Roof online e tutta la rete di Open Eco Center, per lo sviluppo di progetti con tecnologie Solar Roof, miglioramento delle tecnologie Solar Roof stesse, conferenze, corsi educativi, iniziative di collaborazione internazionale con paesi in via di sviluppo, webcast, forum di discussione. Riveste enorme importanza il fatto che il sito ospita anche una libreria digitale in costante crescita, rendendo così inutile la presenza di biblioteche fisiche negli Open Eco Center. Ogni Open Eco Center coinvolge anche professionisti specializzati in processi di controllo e sviluppo delle tecnologie Solar Roof, anche in relazione alle condizioni climatiche della propria località, riuscendo così a sviluppare tecnologie accessibili e applicabili in qualsiasi luogo del mondo. Una strategia utilizzata nella diffusione 312
15 http://www.solarbubblebuild.com/futurebuild/index.ht ml
Fig. 155: Esempio di progetto con tecnologia Solar Roof (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)
313
Fig. 156: Esempio di progetto con tecnologia Solar Roof : clima ed energia(Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)
314
Fig. 157: Esempio di progetto con tecnologia Solar Roof: isolamento (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)
315
Fig. 158: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno estivo (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)
Fig. 159: Esempio di progetto con tecnologia Solar Roof: funzionamento diurno invernale (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html) 316
Fig. 160: Esempio di progetto con tecnologia Solar Roof: funzionamento notturno (Fonte: http://www.solarbubblebuild.com/futurebuild/index.html)
6.7. instructables Instructables è un sito web16 gestito dallo studio di design SQUID Labs17, che fornisce uno spazio per la pubblicazione e la condivisione di progetti attraverso la descrizione della loro realizzazione. Questo progetto riprende la filosofia Open Source che descrive processi progettuali collaborativi basati sulla condivisione di informazioni; non a caso tra i suoi fondatori si trova Saul Griffith, uno dei fondatori del progetto Thinkcycle, il primo e più completo esempio di utilizzo della filosofia Open Source nell'ambito dell'industrial design. Il progetto ha preso inizio alla fine del 2004 con il nome di iFabricate, cambiato poi in instructables. Il concetto fondamentale sviluppato da questo progetto è un approccio innovativo nella formulazione di un formato per la descrizione e la condivisione dei progetti. Se si considera infatti la distinzione tra codice sorgente - codice binario presente nella filosofia Open Source, la sua estensione nel campo del progetto di prodotto materiali sente la mancanza di un meccanismo di conversione tra i due codici. In altre parole, non vi è un metodo per trasformare il progetto in un bene fisico, almeno con la facilità ed economicità che un compilatore permette nel mondo del software. Un disegno tecnico elaborato a CAD non è sufficiente: non rappresenta la descrizione dei processi produttivi. Per questo motivo l'iniziativa 16 http://www.instructables.com/about/ 17 http://www.squid-labs.com
instructables propone la descrizione dei progetti attraverso il racconto, corredato di fotografie, di tutto il processo produttivo del progetto. I progetti presentati hanno quindi la caratteristica di poter essere realizzabili economicamente da chiunque, nella propria casa, senza la necessità di strumenti o conoscenze irreperibili. In questo modo chiunque può testare il codice sorgente (il progetto) compilandolo (costruendolo) nel codice binario (il prodotto o processo). Inoltre, i fondatori hanno sviluppato un progetto parallelo rivolto alla diffusione delle conoscenze e capacità progettuali nei bambini. Viene quindi proposto un ulteriore format per la descrizione dei processi progettuali, in grado di rappresentarli secondo il linguaggio dei fumetti. Saul Griffith e Joost Bonsen, i fondatori del progetto, propongono di chiamare questo format Howtoon, che vedono come il primo passo per la costituzione di tools of mass construction, ossia di strumenti per una costruzione di massa18. È questo secondo loro un metodo per favorire l'interesse dei bambini verso le pratiche progettuali e la condivisione delle conoscenze e dei risultati. Attraverso il gioco, i bambini imparano a progettare: un esempio di howtoon è quello che descrive come costruire un hovercraft da tavolo19.
18 http://www.instructables.com/howtoons/ 19 http://www.instructables.com/ex/i/B853896C7C81102 8A786001143E7E506/ 317
Fig. 161: instructables (Fonte: http://www.instructables.com)
Fig. 162: instructables: progetto identificato da immagini e testi, con elenco dei componenti e strumenti necessari (Fonte: http://www.instructables.com)
318
Fig. 163: instructables: fase di un percorso produttivo (Fonte: http://www.instructables.com)
Fig. 164: instructables: esempio di Howtoon (Fonte: http://www.instructables.com)
319
6.8. Zeroprestige.org Zeroprestige.org è un weblog fondato da Saul Griffith ed Eric Wilhelm, e dedicato alla progettazione collaborativa di accessori per la pratica sportiva del kitesurfing e di tutti gli sport che necessitano di accessori simili. Il concetto fondamentale di questo blog è che la progettazione di questi accessori si basa sui principi elaborati nel campo del software Open Source, ossia attraverso la condivisione di informazioni e conoscenza.
Fig. 165: Zeroprestige.org (Fonte: http://www.zeroprestige.org)
Fig. 166: Zeroprestige.org: attrezzatura progettata e condivisa (Fonte: http://www.zeroprestige.org)
320
7. Reti collaborative economiche
per
organizzare
attività
Fig. 167: Comunità Open Peer-to-Peer che organizzano e svolgono attività economiche
7.1. Neubauten.org Vicini al teatro espressionista più che alla musica, l'arte degli Einstürzende Neubauten (“nuovi edifici che crollano”) sono stati i principali esponenti dell'avanguardia rock di Berlino sin dai primi anni 80. Discendenti diretti dei drammaturghi espressionisti, contaminati dagli happening, dalla pop-art e dalla psicanalisi degli istinti primordiali, allestivano spettacoli che rappresentavano la denucia della degradazione umana nella società industriale, attraverso un ritorno allo stato primitivo, tribale, al grado zero della musica, spogliata di ogni tipo di armonia e arrangiamento. La provocazione, la forza d'urto, l'estremismo con cui l'ensemble aggredisce il pubblico non sono facilmente trasferibili su disco: come rendere in suoni la scena di un batterista (o supposto tale) che perfora il palco con un martello pneumatico? Costruendo i propri strumenti con rifiuti della società industriale (barili di petrolio, cemento, condotti d'aria condizionata, vetri, radio, plastica, persino carne), rappresentano la riappropriazione dei materiali in maniera artigianale, pre-industriale, conoscendone tutte le sfumature sonore. Questa carica radicale si è tramutata, a partire dagli anni novanta, in una un'estetica basata sul silenzio, l'attesa e la rarefazione come armi per spiazzare il pubblico: dove prima c'erano il terrore e l'angoscia ora ci sono ironia e raffinatezza. Tuttavia questa apparente tranquillità non nasconde la loro continua voglia di sperimentare, anche in nuove direzioni: mentre prima le loro ricerche riguardavano solamente i materiali e i suoni che questi potevano produrre, adesso si è aggiunta la ricerca di nuove modalità di composizione e distribuzione delle registrazioni musicali. Queste ricerche sono nate nel 2000, come un tentativo di avvicinare il gruppo ai suoi ascoltatori (supporters), partendo prima dalla semplice
costruzione di un sito web e poi dall'organizzazione di attività specifiche. I componenti del gruppo si resero conto che da un lato, dopo venti anni di carriera, avrebbero dovuto trovare un nuovo approccio alla composizione, e dall'altro lato la loro compagnia discografica non era interessata a rischiare degli investimenti su di loro. Ebbero quindi l'idea di costruire un sito web con cui coinvolgere direttamente i loro supporter per poter finanziare le registrazioni e poter lavorare al di fuori dell'industria musicale. Ai supporter venne offerta l'opportunità di vedere il gruppo mentre completava le fasi di registrazioni di un nuovo disco, pagando il prezzo del disco che, una volta ultimato, sarebbe stato inviato loro direttamente a casa e non sarebbe stato pubblicato tramite compagnia discografica. Molti musicisti come Prince o Public Enemy hanno utilizzato Internet per la distribuzione della propria musica, ma nessuno aveva mai organizzato un servizio di sottoscrizione di questo tipo. Si può notare come la loro critica alla società industriale si sia espansa dal palco e dallo studio di registrazione alla catena di distribuzione, prendendo il posto della compagnia discografica e decidendo autonomamente quando pubblicare le proprie registrazioni. Certamente questo tipo di sottoscrizione funziona perché il gruppo ha già una comunità di supporter abbastanza ampia, disposta a comprare le loro registrazioni indipendentemente da strategie di marketing di compagnie discografiche. Nel caso di gruppi musicali esordienti invece è più opportuno appoggiarsi a grandi compagnie discografiche, che possono fornire un apporto fondamentale alla diffusione della conoscenza del gruppo e alla creazione di una comunità di supporter. La loro comunità di supporter, dopo ormai 25 anni di carriera, è di ampie dimensioni: è stata quindi offerta una piattaforma (Neubauten.org) a una comunità già esistente, 321
offrendo uno spazio per forum, chat, streaming, ecommerce. I supporter partecipano principalmente per l'interesse che hanno verso il gruppo, ma nel corso del tempo si sono formati degli stretti legami personali fra loro, con conseguenze a volte anche fuori dall'interesse iniziale. Quando un gruppo musicale può permettersi di gestire una iniziativa del genere, allora non ha più bisogno di una compagnia discografica, che anzi lo ostacolerebbe. Normalmente le compagnie discografiche cercano di mantenere il mistero sui musicisti, costruendo anzi una immagine di facciata, e le rare volte che li mostrano in studio di registrazione vengono nascoste alcune situazioni al fine di mantenere l'immagine costruita. Gli Einstuerzende Neubauten invece offrono una intimità maggiore, mostrando anche i loro errori, i litigi, i materiali non finiti. Infatti alcuni supporter hanno deciso di non effettuare ulteriori sottoscrizioni perchè avevano idealizzato i musicisti e la visione della loro umanità hanno provocato un forte disappunto. Come nelle comunità di software Open Source, l'apporto di molti partecipanti rende il processo di progettazione (in questo caso composizione) molto più rapido e il progetto finale (il disco) molto più ricco. Infatti questo progetto non è un semplice reality show, ma i partecipanti hanno un ruolo attivo, dando consigli costruttivi sulle composizioni e motivando i musicisti. Come nel caso di Linux, sono poi i musicisti ad effettuare le decisioni sulle composizioni, ma consapevoli che i supporter hanno svolto un ruolo fondamentale, quasi di cocreazione. L'intenzione di questo progetto è quella di non mostrare tutte le attività del gruppo, ma di mostrare come si sviluppano le composizioni per poter permettere ai supporter una partecipazione attiva nel processo. In questo modo si colmano le distanze temporali (dall'inizio delle registrazioni alla pubblicazione) e geografiche (tra il gruppo e la comunità distribuita di supporter), dove normalmente la compagnia discografica si sarebbe posta come intermediario. Il progetto, o meglio la fase I (come era chiamata), si concluse nel 2003 con l'invio del disco “Supporter album #1”. Visto che questa fase era di sperimentazione, il gruppo poi pubblicò parte di materiale di quel disco assieme ad altro materiale attraverso la propria compagnia discografica. Ma questo fu l'ultimo disco pubblicato con la compagnia discografica e nel 2004 iniziò la fase II, conclusa nell'agosto 2005 con l'invio di un nuovo disco ai circa 2400 supporter partecipanti. Il punto più importante della fase II furono però alcuni concerti tenuti nei mesi di ottobre-novembre 2004 nei pressi di Vienna, a Reggio Emilia e Berlino. Questi concerti sono stati dei veri e propri happening con la partecipazione attiva dei supporter. Negli happening infatti l'artista parte da un progetto di azione, nella quale coinvolge attivamente la presenza del pubblico, che viene così sottratto al ruolo di passività ed immesso in un rapporto attivo con l'evento artistico. L'azione non avviene nello spazio chiuso della galleria, ma spesso negli spazi diversi della città, dove l'artista irrompe all'improvviso con il suo gesto. Infatti l'happening è un gesto di irruzione 322
nello spazio quotidiano, organizzato in tempi e luoghi dove non è prevista a presenza della produzione artistica. In questo caso specifico l'irruzione è stata fatta in luoghi simbolici: una ex chiesa gotica nei pressi di Vienna, un teatro dell'opera a Reggio Emilia e uno dei luoghi più simbolici di Berlino, il Palast der Republik, il parlamento della scomparsa Repubblica Democratica Tedesca. L'edificio è ormai destinato alla demolizione, e questo fatto dà una importanza maggiore al concerto, rafforzando il concetto alla base del nome del gruppo, “i nuovi edifici che crollano”. In quest'ultimo evento furono ammessi solo i supporter, (si presentarono in 500), che parteciparono attivamente alla performance: non vi era un palco né transenne, niente li teneva a distanza dai musicisti, svolsero il ruolo di coro e nell'ultima parte del concerto furono dati loro dei tavoli preparati appositamente per essere utilizzati come percussioni.
Fig. 168: Ruolo attivo dei supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vorktamp Fonte: http://www.flickr.com/photos/vortkamp/93302926/)
Fig. 169: Einstürzende Neubauten e supporter che partecipano a pari livello nel concerto al Palast der Republik, Berlino (Foto: Markus Vortkamp Fonte: http://www.flickr.com/photos/vortkamp/93301933/)
Fig. 170: Neubauten.org: proposta di partecipazione (Fonte: http://www.neubauten.org)
Fig. 171: Amul: pubblicità murale in Rajastan (India) (Foto: Bartolomeo Mecánico Fonte: http://www.elve.net/padv/en/fiber.htm) 323
Questo progetto rappresenta una sperimentazione di nuove forme di distribuzione di incisioni musicali come un incrocio tra un mecenatismo distribuito, una normale attività di acquisto e una co-creazione collettiva. Il successo di questo progetto porterà ad una terza fase nel febbraio 2006, attualmente in preparazione.
7.2. Amul Le grandi economie emergenti sono caratterizzate da una loro propria complessità che variano dallo sviluppo dei mercati (dove la frazione più ampia della popolazione è quella che ha il potere di acquisto minore) all'integrazione di fornitori economici sono prevalentemente di piccole dimensioni. Per le imprese che aspirano a condurre affari in tali mercati, tali complessità devono essere riconosciute e quindi affrontate. La sfida è capire i collegamenti tra i mercati e la società. Questo richiederebbe anche lo sviluppo di un modello di gestione degli affari nuovo, che aiuta una ditta a crescere in tali ambienti. Il Kaira District Milk Cooperative Union (Unione Cooperativa del Latte del Distretto di Kaira) o AMUL in India è un esempio di come si possa sviluppare una rete di ditte per superare le complessità di un grande mercato ancora frammentato come quelli nelle economie emergenti, creando valore per i propri fornitori così come i clienti. I grandi mercati frammentati hanno bisogno di una prospettiva a lungo termine sulla redditività. I requisiti di questo nuovo modello gestionale nuovo sono la capacità di sviluppare una grande rete di fornitori, stimolando allo stesso tempo il mercato per una crescita a lungo termine, concentrandosi sulla efficienza e qualità, sviluppando un impegno ai piccoli stakeholder. Bisogna notare come oggi AMUL competa con successo col settore privato che include società multinazionali e imprese nazionali, e provveda ottimi guadagni agli allevatori senza ricevere alcun sussidio dal governo. Durante la fine degli anni '80 e gli anni '90 le organizzazioni a rete emersero come un meccanismo innovativo per migliorare la competitività ed offrire valore al consumatore. Una rete è fatta, essenzialmente, dei vari stakeholder (dai fornitori ai dettaglianti), collegati da un interesse comune di rimanere competitivi in un ambiente esigente. Questo è in contrasto al meccanismo tradizionale dell'integrazione verticale, joint ventures ecc. Negli ultimi anni, l'interesse nelle strutture a rete è stato motivato dall'aumentata attenzione alla gestione del supply chain (la catena della fornitura) gestione di catena, con un'attenzione che si sposta dalla singola impresa a tutta la catena. Una tipica supply chain si estende tra vari livelli di fornitori, produttori, assemblatori, distributori, grossisti, e dettaglianti. Si ha oggi la consapevolezza che la cooperazione fra i membri è necessarie per gestire efficacemente ed efficientemente tali catene.
324
Inoltre, indagini sul tema hanno sottolineato il ruolo della coordinazione e la sua importanza nella gestione della supply chain. È riconosciuto anche che tali cambiamenti non sono facililmente introducibili e richiedono un cambiamento di paradigma nella prospettive delle imprese presenti nella catena. Specialmente, questi cambiamenti richiedono che le decisioni dei partecipanti siano guidate dall'obiettivo di ottimizzare le prestazioni della catena (condizione ideale globale) piuttosto che dagli interessi delle singole imprese individuali. Inoltre, la complessità e le dinamiche della catena di approvvigionamento rendono molto difficile stimare gli effetti delle interazioni. L'aumento della cooperazione fra i membri di una rete ha dato luogo ad un numero elevato di cambiamenti a tutti i livelli: operativo, tattico e strategico, e ha condotto alla comparsa di pratiche e strategie per migliorare il rendimento della catena. Tra le più importanti si hanno: • condivisione di informazioni, spesso dinamicamente, per migliorare la pianificazione ed esecuzione. Spesso la condivisione delle informazioni si estende alla condivisione delle spese; attenzione alla competenza principale di • ogni partecipante della catena. L'obiettivo è assicurare cheogni compito venga compiuto dall'entità più adatta. Di conseguenza, le imprese sono disposte a cedere controllo ad un partner di rete per migliorare la prestazione complessiva. Allo stesso modo, il ruolo di terzi nell'offerta di conoscenze specifiche (come la logistica) è cresciuto notevolmente. • aiuti ai partner di rete nel miglioramento delle loro capacità e competività. Ciò rappresenta un cambiamento notevole rispetto al passato, quando tali entità erano viste come concorrenti in un gioco di a somma zero (qualcuno vince e qualcuno perde). L'emergere di queste idee è motivato dal riconoscimento che aiutare i partner ad essere competitivi rende tutta la catena più efficace e conduce ad una crescita più alta di redditi e profitti, conducendo così ad una situazione di somma positiva (tutti vincono). Aiutare i fornitori a migliorare i processe e la realizzazione di metodi di just-in-time sono esempi di tali iniziative che conducono ad un miglioramento complessivo. È interessante notare che AMUL ha adottato il modello a rete nei primi anni cinquanta, in un contesto più ampio ed un ambiente più complesso, molto tempo prima del riconoscimento della validità di questo approccio nell'Europa occidentale e America del nord. Il Kaira District Cooperative Milk Producers’ Union Limited fu istituito il 14 dicembre 1946 come una risposta dei piccoli produttori di latte della città di Anand (nel distretto di Kaira dello stato occidentale del Gujarat in India) al loro sfruttamento da parte di commercianti o agenti di caseifici esistenti, che decidevano il prezzo del latte autonomamente. I piccoli produttori dovevano viaggiare per lunghe
distanze per consegnare il latte all'unico caseificio, il Polson, e spesso il latte divenatava acido, specialmente nella stagione estiva, dato che i produttori dovevano portare il latte in contenitori individuali. Il latte doveva essere raccolto due volte per giorno da ogni mucca e bufalo. In inverno, al produttore venivano lasciate le eccedenze che venivano quindi vendute sottocosto.Inoltre, il governo di quel periodo aveva dato diritti di monopolio al Caseificio Polson per raccogliere il latte da Anand e fornire prodotti alla città di Bombay. L'India non era presente in nessuna classifica dei Paesi produttori di latte nel 1946. I produttori del distretto di Kaira seguirono il consiglio che fecero loro i leader nazionalisti Sardar Vallabhbhai Patel e Morarji Desai (che più tardi fecero parte del primo Governo dell'India fuori dal dominio britannico), cioè di formare una cooperativa e portare il latte direttamente a Bombay, invece di venderlo a Polson (che faceva la stessa cosa ma comprava a prezzi molto bassi dai produttori). La raccolta di latte venne decentralizzata, dato che la maggior parte dei produttori consegnavano solo uno o due litri di latte al giorno, formando quindi cooperative ad ogni villaggio. Il primo caseificio moderno dell'Unione di Kaira fu stabilito ad Anand (che diventò noto come il caseificio di AMUL dal nome della marca). Il nuovo impianto aveva la capacità di pastorizzare 300000 libbre di latte al giorno, produrre ogni giorno 10000 libbre di burro, 12500 libbre di polvere di latte. L'industria casearia in India e particolarmente nello Stato di Gujarat è molto differente oggi: l'India è diventata il primo Paese produttore di latte nel mondo e il Gujarat emerge come la prima regione produttrice al suo interno, Anand è il punto focale di sviluppo dell'industria caseario nella regione intera ed AMUL è una delle marche di più riconosciute in India, più di molte marche multinazionali. Cominciando con un solo impianto industriale condiviso da due cooperative di villaggio per l'approvvigionamento del latte, la rete iniziale si è evoluta in una rete di 2,21 milioni di produttori di latte organizzati in 10411 cooperative indipendenti per la raccolta del latte (Società di Villaggio), che lo forniscono a tredici cooperative per la produzione di prodotti caseari (Unioni, di cui AMUL fa parte), i cui prodotti sono commercializzati e pubblicizzati da una organizzazione comune (Federazione). L'ente che si occupa del marketing dei prodotti è il Gujarat Cooperative Milk Marketing Federation (GCMMF), dotato di 42 centri di distribuzione in tutta l'India, e serve 500000 negozi ed esporta in più di 15 Paesi1. Tutti questi agenti sono entità indipendenti ma comunque legati fra loro da un interesse comune. Questo movimento si è diffuso in tutta l'India con una struttura molto simile. Per coordinare le attività giornaliere tra tutte le cooperative di tutti gli Stati, sono state istituite due organizzazioni, National Dairy Development Board (NDDB) e National Co-operative Dairy Federation of India (NCDFI): la prima fornisce finanziamenti per lo sviluppo di una rete nazionale di cooperative che 1
la seconda gestisce e coordina, ridistribuendo le scorte in eccesso. Oggi AMUL è il simbolo di molte cose: prodotti di qualità a prezzi ragionevoli, una organizzazione in grado di coordinare una vasta rete cooperativa, la capacità di gestire un attività commerciale che costruisce valore per i piccoli allevatori.
7.3. Dabbawalla L'India è famosa per la sua cultura orientata ai servizi, ed uno dei casi più interessanti è quello dei dabbawalla di Bombay. In hindi dabba significa “scatola”, termine che in questo caso si riferisce al contenitore che serve per trasportare il cibo sul luogo del lavoro. Walla significa invece “persona”. Dabbawalla vuol dunque dire: la persona che trasporta le scatole per il cibo. Questi particolari contenitori viaggiano infatti dalle case (dove il cibo è cucinato) fino a raggiungere chi lavora nel centro della città. Si tratta di un servizio che occupa oltre 4500 persone organizzate in rete per distribuire in modo capillare all'ora di pranzo i contenitori per il cibo in ogni punto della città. Questo fenomeno si è sviluppato in quanto in India l'organizzazione di una famiglia della classe media prevede che la donna si occupi della preparazione del cibo e del pranzo anche quando l'uomo si trova al lavoro, lontano da casa. Ma poiché la cucina indiana richiede lunghi e accurati tempi di preparazione, in genere, quando il marito esce di casa la mattina, la moglie non può avere certo finito di cucinare. Inoltre, in una città come Bombay, dove la vita dei pendolari è frenetica e caotica, portarsi appresso il contenitore del cibo risulterebbe oltremodo scomodo e complicato. Ogni giorno quindi migliaia di contenitori per il cibo vengono consegnati ogni giorno compiendo il tragitto da casa al luogo di lavoro, per poi ritornare al punto di partenza, in cambio di un abbonamento mensile, per una cifra che ammonta a 200 rupie (4 euro). È un fatto notevole che, nonostante la complessità del meccanismo della consegna e della lunghezza del tragitto, nessuna scatola venga mai persa. Il sistema, completamente standardizzato, è stato perfezionato talmente bene che oramai non avvengono più intoppi. I contenitori del cibo sono l'unico elemento hard dell'intero sistema, che per il resto si appoggia a strutture esistenti, prima fra tutte l'efficiente rete dei trasporti pubblici. riconoscibile, che contiene le informazioni relative alla destinazione finale. Ad esso si sovrappone un codice di tipo cromatico: ad ogni colore fa riferimento una specifica area della città. Il codice è completato da numeri che servono a specificare sia il luogo della destinazione finale (quale edificio, quale piano), sia la sequenza dei nodi di interscambio dove il contenitore passerà di mano lungo il percorso (la stazione di partenza, quella di arrivo dove il contenitore verà fatto scendere). Infine una parte del codice fa riferimento ai portatori. In definitiva, i contenitore vengono distribuiti attraverso una rete di persone (i dabbawalla) che si muovono a piedi.
Chandra (2002) 325
Il primo scambio avviene alla stazione di partenza, dove entra in azione un secondo dabbawalla che riorganizza le scatole in base alle destinazioni finali, e le consegna quindi a un terzo che si trova sul treno e si occupa di smistare i contenitori nelle diverse stazioni del tragitto. Infine un dabbawalla consegna al capo famiglia il suo pranzo con carretti e biciclette. Si calcola che ciascun contenitore viaggi mediamente per circa 30 km al giorno (senza calcolare il ritorno), e che il viaggio dura almeno un'ora. Approssimativamente 200000 contenitori sono distribuiti ogni giorno per la città grazie a circa 4500 dabbawalla. In termini economici, il giro di affari messo in moto da questo servizio raggiunge all'incirca 50 milioni di rupie all'anno (circa 1 milione di euro). Questo sistema, e altri simili messi in pratica in altre città indiane, si basano esclusivamente sulla fiducia. Fiducia dovuta al fatto che tutti gli anelli della catena (almeno quattro passaggi di mano per ogni consegna) sono rappresentati da persone che appartengono alla stessa comunità.
7.4. Napster Il termine Peer-to-peer (P2P) apparve nei media nel 2001 grazie al clamore suscitato da Napster2, un sistema di condivisione di file digitali basato su internet e su un proprio software dedicato distribuito nel 1999 da uno studente, Swan Fanning. Attraverso questo software e un collegamento attivo a internet era possibile consultare un archivio dei file digitali condivisi fra tutti gli utenti e avviare la copia di file fra utenti. Ciò che attirò l'attenzione dei media era il fatto che solitamente veninvano scambiati file musicali protetti da copyright, azione illegale in sé, invece che l'innovazione.
Fig. 174: Il logo di Napster (Fonte: http://en.wikipedia.org/wiki/Napster)
Fig. 172: Dabbawalla (Fonte: http://www.mydabbawala.com)
Fig. 173: Contenitori utilizzati dai dabbawalla (Fonte: http://www.typocity.com) 326
I sistemi di distribuzione peer-to-peer possono essere suddivisi in due famiglie: centralizzati e decentralizzati. Napster rappresenta la prima famiglia, come un albero al cui corpo centrale sono connessi una serie di nodi (o peers, cioè [partecipanti] pari, di pari livello) cioè i rami. È un sistema centralizzato nel senso che, sebbene la distribuzione sia decentralizzata (cioè P2P puro), il sistema si basa su una piattaforma centrale da cui dipendono tutti i peers. La piattaforma centrale è un server dove vengono conservate le informazioni riguardo ai file condivisi nei computer di tutti i partecipanti che vengono aggiornate ogni volta che un partecipante si connette al sistema. È sul server centrali che gli utenti ricercano le informazioni sugli altri utenti, mentre lo scambio di file avviene direttamente tra gli utenti. È stata proprio questa caratteristica di centralizzazione che ha potuto portare alla chiusura del server centrale e al successo di altri sistemi di distribuzione peer–to–peer decentralizzati. Infatti, benchè il server centrale non distribuisca file ma ne permetta lo scambio e non tutti i file scambiati fossero coperti da copyright, venne percepito come un sistema illegale di distribuzione gratuita di file musicali e venne chiuso nel Giugno 2001 dopo varie cause legali. Al momento della chiusura 26,4 milioni di utenti partecipavano nella rete di distribuzione. Nel 2003 Napster si trasformò in un sistema di scambio di file basato sul pagamento di una sottoscrizione, che serve per pagare i diritti di copyright dei file scambiati. 2
http://www.napster.com, http://en.wikipedia.org/wiki/Napster
allevatori
Società di Villaggio (dotate di impianti di conservazione)
Società di Villaggio (prive di impianti di conservazione)
ristoranti locali/ altre imprese correlate ai prodotti caseari
latte venduto ai villaggi e ai residenti locali
impianti di raffreddamento
servizi di rete Unioni per la lavorazione e immagazzinamento del latte
visite vetrinarie riproduzione animali produttori di alimenti per animali
GCMMF, impianti di immagazzinamento
produttori di contenitori per il latte
distributori all'ingrosso
facoltà di agraria Rural Management Institute
dettaglianti
servizi di consegna a domicilio
servizi di trasporto consumatori
consumatori
Fig. 175: Supply chain delle GCMMF (Fonte: Chandra 2002)
NDDB/NCDFI
federazione
federazioni degli altri Stati
GCMMF
Unioni Amul e altre 13 Unioni a livello distrettuale
Società di Villaggio 10,411 centri di raccolta di latte a livello locale
singoli produttori 2.12 milioni di litri
Fig. 176: Struttura della cooperativa nello Stato del Gujarat (Fonte: Chandra 2002)
327
Nonostante tutte le accuse di danneggiamento del mercato discografico, molti osservatori ebbero la sensazione che, al contrario, in alcuni casi servì come un potente mezzo di promozione. Nel mese di Aprile 2000 alcune tracce dell'album “Kid A” del gruppo musicale Radiohead finirono nel sistema di distribuzione Napster tre mesi prima della pubblicazione del disco. Nonostante il gruppo non fosse notevolmente famoso, il disco fosse sperimentale e non eccessivamente pubblicizzato, il numero elevato di scambi in file musicali, divenne un successo discografico inaspettato e duraturo.
7.5. GNUtella In risposta alle minacce portate contro Napster e il suo successivo fallimento, vennero iniziati alcuni progetti di sistemi di distribuzione totalmente decentralizzata. Nei primi mesi del 2000 apparve su internet la prima versione del programma Gnutella, distribuito con licenza di distribuzione GPL, quindi come software libero e modificabile.
gerarchica ogni partecipante svolgerebbe entrambe le funzioni. Queste differenze possono causare disfunzioni e rallentamenti nella rete: per questo motivo è stata incoraggiata l'emergenza di una struttura gerarchica blanda di client-peers e ultra-peers.
7.6. Amazon Amazon3 è uno dei più importanti negozi online di libri, CD, DVD ed anche uno dei primi, dato che è stato fondato nel 19954. Il suo grande successo è dovuto all'utilizzo di un processo di peer review esercitato dalla comunità di utenti, che come molte imprese della New Economy ha cercato di sviluppare come elemento di supporto alle proprie attività. Amazon permette ai suoi utenti di recensire i propri prodotti e di votare l'utilità di ogni recensione letta. Inoltre, attraverso il funzionamento automatizzato del suo software, Amazon segnala, per ogni prodotto, ulteriori possibilità di acquisto legate dal fatto che entrambe hanno avuto gli stessi acquirenti. In questo modo si riesce a estrarre automaticamente ulteriori recensioni in base al comportamento dei clienti. Pur essendo un'attività molto distante dal mondo del software Open Source, Amazon è riuscita a sfruttare alcuni suoi principi: in particolare, quello di considerare i propri utenti come co-sviluppatori.
7.7. eBay
Fig. 177: Il logo della comunità di Gnutella (Fonte: http://www.gnutella.com)
L'architettura di Gnutella ha alcune somiglianze con quella di Napster, ma solo superficialmente. Napster ha una struttura arborea rovesciata. Gnutella non ha questra struttura a albero rovesciato ma una struttura a “rizoma”, ossia delle radici dove ogni punto è collegato ad ogni altro punto, senza un corpo centrale. Dato che non vi è un server centralizzato (o alcuni server per un sistema semi-decentralizzato) in questa rete, il sistema di ricerca e scambio di file viene gestito autonomamente da ogni partecipante (peer) che interagisce con gli altri formando una rete autoorganizzante senza limiti al numero di partecipanti Con questa struttura, Gnutella è una rete di condivisione distribuita di file, dove ogni partecipante ha pari importanza (peer) in teoria. In realtà, una sorta di gerarchia emerge a causa delle differenze esistenti tra i vari partecipanti, di cui la più importante è la velocità della connessione telefonica a internet, necessaria per poter partecipare. Peer con connessioni più veloci sono più adatti alla funzione di server, cioè di distribuzione, mentre peer con connessioni più lente sono più adatti alla funzione di client, cioè di ricezione. In una rete totalmente orizzontale e non 328
Insieme ad Amazon.com, eBay è uno dei pochi siti di grande successo commerciale sul web. Il motivo è nella possibilità di poter vendere qualsiasi oggetto, dal biglietto della lotteria scaduto, alla macchina di terza mano, con la garanzia di non essere truffato. Il sistema di aste on line, elaborato fin dal 1995 con il nome di Auctionweb, poi mutato nel celebre eBay, ha conosciuto un tale successo in rete da farlo espandere in breve tempo in tutto il mondo in una sorta di franchising in rete. Sono infatti milioni i venditori che ogni giorno acquistano e vendono sui vari siti eBay. ebay rappresenta quindi una piattaforma centralizzata che permette lo svolgimento di relazioni commerciali di tipo customer-to-customer (C2C), ossia da cliente a cliente, senza imprese intermediarie. Pur se e Bay non si ispira direttamente al software peer-to-peer, si può vedere come in realtà la sua attività si basa sulla costruzione di relazioni di tipo peer-to-peer tra i suoi utenti. La sua centralizzazione permette l'introduzione di regole molto rigide che minimizzano il rischio di truffe, ma porta con sé anche lo svantaggio di essere poco scalabile, ossia un numero eccessivo di utenti in un determinato lasso temporale può mettere il sistema di eBay in crisi. I problemi di scalabilità, infatti, insorgono quando il numero dei partecipanti è troppo elevato per le infrastrutture tecnologiche. 3 4
http://www.amazon.com http://en.wikipedia.org/wiki/Amazon.com
7.8. P-grid Il grande successo di eBay ha dimostrato l'esigenza di un commercio elettronico customer-to-customer (C2C) in cui sono i clienti a interagire fra loro per permettere poi lo svolgimento di attività commerciali con imprese e commercianti. Dato che eBay ha una struttura centralizzata con tutti i suoi conseguenti problemi di scalabilità le attività di commercio C2C dovrebbero basarsi sui sistemi ora emergenti di distribuzione P2P semplicemente imitando la struttura della rete e le interazioni che si svolgono fra i peers o partecipanti. Questa considerazione permette l'introduzione dei sistemi P2P in nuovi campi, oltre la classica funzione di condivisione e scambio di file digitali. In questo caso l'obiettivo del progetto P-grid5 è costruire un sistema simile a quello di eBay ma totalmente decentralizzato per evitare problemi di scalabilità e vulnerabilità. È quindi necessario un differente approccio nello studio e progettazione di come strutture di accesso possano essere costruite in una comunità costituita da un numero molto elevato di partecipanti senza un'autorità centrale ma che riesca ancora a fornire un livello di qualità accettabile nelle procedure di comunicazione e ricerca e distribuzione delle informazioni. Il sistema di distribuzione P2P del progetto P-grid6 cerca di raggiungere questi obiettivi riassumendo le caratteristiche migliori di tutti gli altri sistemi P2P precedenti. Sistemi che possono essere suddivisi in sistemi strutturati e non strutturati nella localizzazione delle risorse. Nei sistemi non strutturati i peer non possono venire a conoscenza delle risorse possedute dai peer vicini nella struttura della rete, mentre nei sistemi strutturati possono, rendendo così la ricerca delle risorse più veloce ed efficiente in termini di messaggi di ricerca inviati. Questa proprietà è mantenuta però con alti costi di gestione della rete ad ogni suo cambiamento, dato che la partenza o l'arrivo di un partecipante cambia la distribuzione delle risorse. In Gnutella, nonostante le somiglianze, le procedure di gestione della rete e le procedure di ricerca hanno differenti obiettivi e sono indipendenti. Le procedure di gestione della rete utilizzano un processo di auto-organizzazione che cambia lo stato di tutto il sistema, mentre le procedure di ricerca utilizzano le proprietà del sistema per svolgere il proprio compito. Nei sistemi non strutturati come Gnutella, la distribuzione di connessioni fra i nodi segue una legge della potenza, dove pochi nodi hanno moltissime connessioni e molti nodi ne hanno poche. L'emergenza di questa rete senza scala è dovuta al fatto che i nuovi partecipanti, nonostante le connessioni tra utenti avvengano in maniera casuale, tendono a mantenere le proprie connessioni ai nodi che possiedono già molte connessioni per venire a contatto con un numero maggiore di risorse. In questo modo Gnutella ha 5 6
una rete decentralizzata ma allo stesso tempo auto-organizzante, dove dalle interazioni casuali tra i partecipanti emerge una struttura globale. Al contrario, i sistemi strutturati seguono un approccio differente nella gestione della rete assegnando degli indicatori statici ad ogni partecipante e le strutture di distribuzione dei dati sono ricavate da questi valori attraverso un algoritmo, rendendo la struttura della rete determinata da questi indicatori prevenendo la auto-organizzazione della rete. Ad ogni modo, sono stati sviluppati sistemi P2P strutturati ma basati su un processo di autoorganizzazione per ottimizzare l'allocazione di risorse. Il più importante di questi sistemi è Freenet, dove la struttura della rete viene modificata dall'esecuzione delle richieste dei partecipanti, con la conseguenza che le informazioni correlate tendono ad aggregarsi attorno ad alcuni nodi precisi e le ricerche possono svolgersi molto più velocemente. P-grid rappresenta una sintesi di questi due tipi di sistemi: l'auto-organizzazione dei sistemi non strutturati e la efficienza nelle ricerche dei sistemi strutturati. Attraverso le interazioni casuali, i partecipanti costruiscono e mantengono una sorta di mappa della distribuzione delle risorse negli altri partecipanti vicini chiamata P-Grid da Peer-Grid, rete dei partecipanti, che fornisce una struttura di accesso alla rete dove le interazioni avvengono principalmente tra i partecipanti più vicini. In questo modo le interazioni tra i partecipanti, che avvengono dapprima casualmente e poi per prossimità, permettono una auto-organizzazione di tutta la rete e una efficienza maggiore nelle procedure di gestione e ricerca. Inoltre P-Grid, proprio per supportare i meccanismi di fiducia necessari per processi di C2C, fornisce anche una mappa della affidabilità nella comunità. Dato che i partecipanti normalmente non si conoscevano prima di iniziare le interazioni, possono essere portati a comportamenti scorretti come free-riding e diffusione di informazioni fasulle. In questi casi la risoluzione migliore a questi problemi risiede nei processi di controllo sociale esercitati da tutta la comunità basati sulla reputazione personale. Il sistema decentralizzato di gestione di P-Grid analizza tutte le interazioni avvenute tra i partecipanti creando una mappa della reputazione assegnando ad ogni partecipante informazioni circa il suo comportamento tenuto nelle interazioni passate. Queste informazioni possono essere controllate da tutti i partecipanti facilmente, permettendo così il sanzionamento o l'isolamento di partecipanti scorretti.
http://www.p-grid.org http://www.p-grid.org 329
Fig. 178: Amazon: prodotti in offerta (Fonte: http://www.amazon.com)
Fig. 179: Amzon: per ogni prodotto vengono associati gli acquisti simili effettuati da altri utenti (Fonte: http://www.amazon.com)
Fig. 180: Amazon: recensioni dei prodotti (Fonte: http://www.amazon.com)
330
Fig. 181: eBay: asta di un bene (Fonte: http://www.ebay.it)
Fig. 182: eBay: profilo personale dei venditori e reputazione acquisita (Fonte: http://www.ebay.it)
331
7.9. The Sims The Sims7 rappresenta una vera e propria famiglia di videogiochi che permettono agli utenti la simulazione di vari aspetti della vita sociale. Un giocatore può creare la propria casa e famiglia osservando i suoi membri in ogni situazione di vita sociale con tutte i comportamenti possibili. Prima di mettere in vendita la versione online, che permette a più giocatori di incontrarsi e impersonare differenti personaggi all'interno dello stesso gioco, la compagnia produttrice rese accessibili dei software che mettevano in grado i giocatori di costruire tutti i contenuti del gioco: accessori, arredamenti, stili architettonici degli edifici. Dopo un anno si potevano riscontrare centinaia di sviluppatori di contenuti indipendenti, più di 200 siti web dedicati allo scambio di più di 500000 contenuti tra milioni di giocatori. Più del 90% dei contenuti del gioco sono stati creati dalla comunità dei giocatori e non dalla compagnia produttrice. Questi semplici strumenti software hanno dato luogo a una comunità distribuita, autoorganizzante e bottom-up di sviluppatori di contenuti. Il primo episodio, The Sims8, ha avuto numerosissime espansioni, per poi essere rimpiazzato da The Sims 29, anche questo con già due espansioni al seguito: University, in cui si inserisce una nuova fascia di vita (ora i sims non sono più adolescenti o adulti, ma anche giovaniadulti), e Nightlife, dove si possono visitare locali notturni, cenare fuori e usare un nuovo mezzo di trasporto che non sia il solito Taxi ma la propria auto. Da poco tempo è stato creato anche un Party Pack per The Sims 2: The Sims 2 Christmas Party Pack, che permette di celebrare feste come il Natale, Capodanno, Halloween e Pasqua. E' in arrivo anche una nuova espansione: Funky Business. Quest'ultima espansione che uscirà il 3 marzo permetterà di giocare nei panni di imprenditori, pasticcieri o parrucchieri, o altri mestieri a scelta.
7 8 9
http://thesims.ea.com/index_flash.php http://it.wikipedia.org/wiki/The_Sims http://en.wikipedia.org/wiki/The_Sims2
332
Fig. 183: the Sims (Fonte: http://en.wikipedia.org/wiki/The_Sims)
Fig. 184: Esempi di arredi scaricabili e condivisibili (Fonte: http://www.simsinteriordesigns.net)
333
334
8. Reti collaborative per migliorare la condizione locale
Fig. 185: Comunità Open Peer-to-Peer che cercano di migliorare la propria condizione locale
8.1.
Terra Madre / Slow Food
Fondata da Carlo Petrini, Slow Food1 è un’associazione internazionale che conta oggi 82.000 iscritti, con sedi in Italia, Germania, Svizzera, Stati Uniti, Francia, Giappone, oltre a rappresentanze in 107 diversi paesi. Slow Food si contrappone alla standardizzazione del gusto, difende la necessità di informazione da parte dei consumatori, tutela le identità culturali legate alle tradizioni alimentari e gastronomiche. Più specificamente Slow Food si impegna nella salvaguardia dei cibi, delle tecniche colturali e di trasformazione ereditate dalla tradizione, nella difesa della biodiversità delle specie coltivate e selvatiche, nonché nella protezione di luoghi conviviali che per il loro valore storico, artistico o sociale fanno parte anch’essi del patrimonio gastronomico. La rete degli oltre 82.000 associati di Slow Food è suddivisa in sedi locali - dette Condotte in Italia e Convivia nel mondo, coordinate da un Convivium leader – che organizzano periodicamente corsi, degustazioni, cene e viaggi enogastronomici. Sono attivi più di 800 Convivia in 50 paesi, comprese le 400 Condotte in Italia. Alla base della filosofia Slow Food c'è la convinzione che l'alimentazione è una parte essenziale della vita, e che dunque la qualità della vita è inevitabilmente legata al piacere di mangiare in modo sano, gustoso, vario. Significa dare la giusta importanza alla diversità delle ricette e dei sapori, riconoscere la varietà dei luoghi di produzione e degli artefici, rispettare i ritmi delle stagioni. Slow Food sta rivedendo il concetto di reti alimentari in funzione del cambiamento in atto nella percezione della cultura alimentare. Slow 1http://www.slowfood.it
Food è passato dal considerare i prodotti qualitativamente validi unicamente per le loro proprietà organolettiche ad una visione più ampia, secondo la quale non è solo il prodotto finale ad essere considerato di qualità, ma anche tutto ciò che ha portato alla produzione di quel prodotto (l’ambiente, i processi produttivi, le tradizioni ad essi connessi, ecc.). In questo modo Slow Food ha cercato di dare risposte, nel campo della cultura alimentare, nella costruzione di una nuova visione più sostenibile del concetto di “qualità della vita”. Per anni Slow Food ha lavorato a progetti quali quello dei presidi alimentari, della valorizzazione dei territori e dell’educazione al gusto, e nel 2004, ha avviato l’evento Terra Madre2 nell'ambito del Salone Internazionale del Gusto. Giunto nel 2004 alla sua quinta edizione, il Salone Internazionale del Gusto è una manifestazione fieristica che si tiene a cadenza biennale a Torino, organizzata in collaborazione con la Regione Piemonte. Aperta al grande pubblico, dà spazio e visibilità alle produzioni di qualità del comparto enogastronomico mondiale, in particolare a quelle a denominazione di origine o tradizionali, e che si propone di trasmettere i contenuti di civiltà che questo straordinario patrimonio agro-alimentare implica. La buona qualità del cibo deve incontrare un consumatore che rispetta il lavoro agricolo, che educa i suoi sensi, che diventa alleato prezioso dei produttori. Dal 20 al 23 ottobre 2004 Torino ospitò la prima edizione di “Terra Madre, incontro mondiale tra le comunità del cibo”, un evento realizzato da Slow Food, in collaborazione con il Ministero delle 2
http://www.terramadre2004.org 335
Politiche Agricole e Forestali, la Regione Piemonte e la Città di Torino. Terra Madre è una conferenza di quattro giorni che riunisce e mette a confronto produttori e operatori del settore agroalimentaremondiale rappresentativi di un modo diverso e più complesso di intendere la qualità del cibo: attento alle risorse ambientali, agli equilibri planetari, alla qualità dei prodotti, alla dignità dei lavoratori e alla salute dei consumatori. L'evento viene organizzato ogni due anni, in concomitanza con il Salone del Gusto, evento rinomato a livello internazionale, proprio per attirare una maggiore attenzione. Terra Madre evoca il concetto di terra intesa come madre e divinità, e introduce per la prima volta a livello internazionale un nuovo attore nel campo della produzione alimentare: la Comunità del Cibo: una definizione nuova, ma dalle radici antiche, che rimanda ad a una filiera allungata, dai selezionatori di sementi e razze ai contadini, a una filiera allungata, dai selezionatori di sementi e razze ai contadini, dai distributori ai dettaglianti. Terra Madre non si basa sul concetto di comunità rurale, perché solo in alcune parti del mondo la comunità rurale assolve a tutte le funzioni che possono riguardare il cibo. Molto spesso chi opera lo fa da solo, non conosce gli altri anelli della catena. L’agricoltore canadese che produce grano biologico, nel rispetto dell’ambiente, della qualità del suo prodotto e del lavoro di chi viene coinvolto, magari nemmeno lo conosce il panettiere di New York che compra solo la sua farina perché sa come viene prodotta la materia prima, né conosce l’azienda molitrice. Eppure tutti costoro sono legati dalla condivisione degli stessi criteri, dalla
Fig. 186: Terra Madre: partecipante (Fonte: http://www.terramadre2004.org) 336
medesima filosofia del lavoro, dalla stessa sensibilità. Sono, di fatto, una comunità, ma un tipo nuovo: una comunità del cibo. Una produzione agroalimentare diversa da quella di stampo industriale, concentrata solo sulle quantità e sui profitti, non solo è quindi possibile, ma esiste già, grazie a un'estesa rete di persone e gruppi che hanno però raramente i mezzi per comunicare la bontà delle loro esperienze. Terra Madre cerca di riscoprire il filo invisibile che collega tutte le competenze legate al cibo: dal selezionatore delle sementi del grano, al coltivatore, al panificatore, fino al rivenditore. È infatti di tutte queste abilità e di tutte queste figure professionali che ha bisogno il cibo di qualità per essere prodotto, distribuito e consumato, per essere risorsa economica, ambientale, sociale e culturale. Il futuro dell’agricoltura e del cibo è nelle mani di tante persone dalle diverse, ma concatenate, esperienze: seed savers, cuochi, promotori, agricoltori, pescatori, raccoglitori di prodotti spontanei, allevatori. Tutti questi partecipanti sono espressioni della capacità umana e vengono considerati "intellettuali della terra e del mare". Tutti costoro sono stati rappresentati a Torino dai 4300 partecipanti di Terra Madre, provenienti da circa 130 paesi e rappresentativi di circa 1200 Comunità del Cibo. Terra Madre non è un evento aperto al pubblico, ma è un luogo di analisi e confronto tra gli operatori. Terra Madre è il luogo in cui i grandi temi che preoccupano oggi tutti i produttori di cibo verranno dibattuti ed esaminati: biodiversità, fame, povertà, acqua, sostenibilità, tecnologie tradizionali, educazione alimentare, agricoltura biologica, ruolo delle donne, legami tra sviluppo delle economie rurali e prevenzione dei conflitti. Ma ci sarà pure il momento per discutere di temi specifici, di trattare argomenti legati a determinati territori, produzioni, tecniche, mercati e così via. I due giorni centrali del meeting (il primo e il quarto prevedono lavori in assemblea plenaria) hanno visto infatti la realizzazione di circa 6o Laboratori della Terra, ovvero seminari dedicati a tematiche relative a specifici prodotti, a determinate aree geografiche così come a problemi più generali. Qui le Comunità del Cibo possono condividere le loro esperienze e mettere a fuoco il loro concetto e i loro progetti di progresso e sviluppo. Il contatto di Terra Madre con il “grande pubblico” arriverà solo ad evento finito, ovvero quando i 4300 partecipanti saranno tornati alle loro sedi di origine e avranno condiviso l'esperienza vissuta, facendo ripartire questo circolo virtuoso dell’attenzione per una qualità che sia di tutti e di tutto. Uno dei concetti più importanti di questo evento è stata l'assoluta parità di livello fra i suoi partecipanti, basandosi sulla convinzione che non esistano al mondo culture alimentari più importanti di altre: ogni realtà del pianeta esprime attraverso il cibo una sua profonda identità e un suo linguaggio, esigenza primaria dell’uomo che si nutre e che ha bisogno del fuoco e dell’abilità, della manualità, del dosaggio dei saperi e delle spezie per rendere piacevole la propria nutrizione.
Fig. 187: Terra Madre: partecipanti (Fonte: http://www.terramadre2004.org)
Fig. 188: Terra Madre: la conferenza (Fonte: http://www.terramadre2004.org) 337
Questa piacevolezza non deve essere e non è mai stata privilegio di pochi: è una delle nostre prerogative fisiologiche, è il segno del rapporto sereno dell’uomo con la natura e con la vita. Solo se i consumatori diventano co-produttori e comprendono appieno le istanze di una produzione minacciata e solo se i produttori si fanno carico di una qualità che garantisca sicurezza alimentare, sostenibilità, piacere e diritti umani, si possono risolvere molti dei problemi attuali. Questi valori e questa intuizione sono trasversali, sono validi sia al Nord che al Sud del mondo. L’iniziativa è riuscita a comunicare come la qualità alimentare sia principalmente il risultato di un “atto agricolo”; tali “atti agricoli” costituiscono un “saper fare”, che è stato spesso considerato una conoscenza obsoleta, ma che in realtà rappresenta un valore centrale: Terra Madre ha radunato a Torino gli “intellettuali della Terra”. Gli agricoltori, provenienti da tutte le parti del mondo, hanno potuto incontrarsi, confrontarsi su problemi comuni e condividere saperi, testimonianze e soluzioni elaborate localmente, ma replicabili in altri contesti. Questo avvenimento, a cui i media hanno dato ampia visibilità, ha scatenato dei meccanismi la cui portata è emersa soltanto in questi ultimi mesi. I contadini si sono posti il problema di come continuare questo dialogo, di come mantenere la comunità creatasi e di come continuare a scambiarsi l’esperienza. Molti partecipanti hanno mantenuto un legame attraverso un forum online (per chi possiede conoscenze e un accesso a Internet) e con uno scambio reciproco di ospitalità. La rete delle comunità che è stata lanciata a Torino è in pratica la più grande e innovativa multinazionale del cibo. Slow Food non vuole dirigere queste persone o insegnare loro cosa fare: vuole soltanto porsi come una struttura di servizio, con pieno spirito associativo. Un servizio per aiutarle dando loro voce dove, per limiti strutturali, non hanno le possibilità di riuscire a emergere. Ma è stato anche questa posizione in secondo piano, che ha permesso il successo della manifestazione che, non imponendo una visione unica, ha messo i suoi partecipanti in grado di scambiarsi informazioni e supporto reciproco. Slow Food sta costruendo una rete che metta insieme soci, Comunità, Presìdi, Università, mondo del vino, ristoratori e che culminerà con una nuova edizione di Terra Madre, prevista dal 26 al 30 ottobre 2006. Terra Madre 2006 darà alle comunità del cibo l’occasione di incontrarsi nuovamente e di fare il punto sulle iniziative sviluppate in questo biennio. Saranno presentati i progetti avviati; le collaborazioni istituite a livello locale e internazionale; le relazioni con le università e gli chef di tutto il mondo. Slow Food intende coinvolgere una rete di università, funzionale e connessa alla rete delle Comunità, che possano ospitare piccole e agili unità operative del movimento, in grado di gestire l’attività associativa nei paesi dove la formula classica non potrebbe funzionare per ovvi motivi (per questo bisogna congegnare un nuovo status per le Comunità), di 338
tenere stretti e costruttivi rapporti con le comunità agricole e anche di moderare ed eventualmente gestire il forum e la rete informatica di notizie e documentazione. Inoltre in queste università insegnanti o ricercatori indirizzeranno alcuni studenti verso lo studio e l’approfondimento del progetto di Slow Food. A Terra Madre 2006 Slow Food vuole invitare anche un migliaio di cuochi e cuoche di tutto il mondo, dell’altissima ristorazione come di quella più popolare, affinchè vengano a incontrare le comunità, a manifestare loro solidarietà e unità d’intenti, per completare il quadro di questa nuova e diversa multinazionale del cibo da costruire. A questi cuochi verrà chiesto loro di adottare dei prodotti specifici, di farne un portabandiera del loro lavoro di chef responsabili nei confronti del mondo della produzione e delle problematiche che devono affrontare le comunità del cibo.
8.2.
Open Heatlh
8.2.1. Un approccio Open Peerto-Peer per i servizi pubblici Gli approcci attualmente utilizzati nei confronti della riforma dei servizi pubblici stanno dimostrando i loro limiti. I gestori dei servizi si lamentano che le attività debbano essere definite a livello centrale, gli impiegati si lamentano della paga e della quantità eccessiva di compiti, mentre gli utenti si lamentano della scarsa qualità dei servizi, della loro mancanza di considerazioni delle condizioni individuali. A livello governativo, si cerca di migliorare questi sistemi complessi di elevate dimensioni, ma difficilmente controllabili, e le pratiche innovative sono diffuse ma stentano a propagarsi. Ancora più significativo è il fatto che i problemi che i servizi pubblici affrontano sono in costante cambiamento, rendendoli difficilmente affrontabili con gli approcci tradizionali. Strategie efficaci dovrebbero incoraggiare nuove norme di comportamento nella società, sviluppando approcci in cui gli utenti finali vengano coinvolti nella progettazione ed erogazione dei servizi. Sviluppare nuove risposte richiede una creatività diffusa nella società, l'attivazione di reti di conoscenze e risorse anche al di fuori delle istituzioni pubbliche. Riformare i servizi attuali mantenendo la struttura gerarchica e istituzionalizzata, top-down, può fare poco nella risoluzione di problemi complessi, come ad esempio la crescita delle malattie croniche o altri problemi sanitari, che potrebbero essere risolti semplicemente incoraggiando comportamenti e stili di vita differenti da quelli attuali. Sono quindi necessari nuovi ruoli professionali che complementino nuovi modi di erogazione dei servizi. Queste considerazioni hanno portato Hilary Cottam e Charles Leadbeater a sviluppare un progetto sperimentale di riforma dei servizi pubblici, elaborato all'interno della divisione RED del Design
Council britannico, che si occupa di proporre nuovi approcci a problemi economici e sociali attraverso un utilizzo innovativo degli strumenti del design. RED sviluppa i propri progetti basandosi sui principi sviluppati dal movimento di sviluppo del software Open Source, ovvero sviluppando rapidamente concetti e rendendoli discutibili anche al'esterno della divisione. Il nuovo approccio nella gestione dei servizi pubblici sviluppati porta allo sviluppo non di innovazioni incrementali, ma radicali: i nuovi servizi pubblici devono essere co-creati con gli utenti finali. Devono rendere mobili risorse, knowhow, azioni ed esperti, affinchè siano distribuiti nelle comunità locali, invece di localizzarli all'interno delle istituzioni, anche se locali. Queste risorse distribuite potranno essere più efficaci se usate collaborativamente condividendo idee, fornendo supporto reciproco e dando voce alle esigenze dei cittadini. I servizi devono quindi essere co-creati per affrontare bisogni particolari, attraverso l'interazione, la partecipazione di utenti, professionisti e impiegati, in una nuova organizzazione innovativa. La co-creazione dei servizi pubblici pone i cittadini al centro, togliendoli dalla posizione marginale di semplici utenti dei servizi. La loro presenza sarà fondamentale nelle fasi di progettazione ed erogazione: non una semplice distrbuzione di servizi tradizionali nè una sorta di self-service, ma il riconoscimento che anche loro sono esperti nei loro problemi di salute. Le relazioni medico-paziente dovranno quindi confrontarsi su un piano di parità, in cui ognuno condivide le proprie conoscenze al fine di gestire un servizio complesso dalla notevole qualità. I servizi pubblici tradizionali, qualsiasi modo vengano riformati, sono inadatti ad affrontare la complessità dei problemi sanitari. L'approccio attuale si basa sgli ospedali, le loro infrastrutture e le gerarchie professionali, che sono organizzate per risovere problemi critici, urgenti, ma non per problemi cronici. Gli ospedali sono necessari per le emergenze, ma non per diffondere stili di vita più salutari, al fine di evitare l'insorgere di malattie croniche: in questo casò è meglio coinvolgere le comunità, affrontando i problemi che impediscono loro di intraprendere cambiamenti. È importante porre l'attenzione sulle comunità perchè è ormai evidente che molte malattie croniche sono fortemente legate alle pratiche al giudizio che la collettività esercita. È quindi necessario sviluppare delle “comunità di co-creazione”, come vengono definite da Cottam e Leadbeater, cioè comunità di utenti e professionisti, che collaborano utilizzando tutte le risorse già esistenti in maniera innovativa, basandosi su una piattaforma comune che rende possibile l'azione di molti partecipanti senza dover richiedere una gerarchia di controllo. Per gli autori queste comunità sono simili in alcune caratteristiche alle comunità di software Open Source, anche se il loro funzionamento dipende dalle caratteristiche di tutti gli attori del sistema sanitario.
L'accesso alle conoscenze mediche e la cura delle emergenze vengono fornite dagli ospedali, ma con un approccio differente che permette all'utente una gestione autonoma. Affrontare molte malattie croniche significa impedire che queste emergano e debbano essere curate negli ospedali. La prevenzione e cura delle malattie croniche può avvenire nelle proprie case, ma solo se verranno fornite consulenze, tecnologie e servizi, che possono essere acquisite sul mercato, come ad esempio la rete delle farmacie. Il mercato può solo però fornire beni e servizi in quantità limitate e con interazioni di breve durata, senza fornire però supporto emotivo e costituire delle vere e proprie relazioni. Inoltre, il mercato è la fonte di molte malattie croniche, grazie alla vendita e promozione di cibi grassi, alcolici e tabacco. Le campagne pubbliche di prevenzione, al fine di diffondere stili di vita più salutari, si trovano in competizione con il mercato. Le campagne necessitano di molto tempo per raggiungere un discreto successo, difficilmente più campagne ossono essere portate avanti contemporaneamente. Inoltre affidano la responsabilità di cambiamenti nello stile di vita nel singolo individuo, quando molti fattori che contribuiscono alla scelta dello stile di vita provengono dalla comunità di appartenenza. Le campagne devono quindi invece dare alle comunità gli strumenti per utilizzare le proprie capacità. Le malattie croniche sono curate in gran parte autonomamente oppure grazie a gruppi di supporto: le conoscenze, capacità ed esperienze diffuse tra le persone permettono la costruzione di una rete di relazioni e collaborazioni. I malati di diabete passano più tempo a curarsi autonomamente piuttosto che in ospedali, e i gruppi di supporto sono spesso nati come soluzioni alla carenza di strutture pubbliche. Il problema è che sia i singoli individui, sia i gruppi di supporto, non vengono inseriti dai servizi pubblici in un sistema più ampio, comprendente campagne, ospedali e il mercato. Possono essere quindi elaborate delle soluzioni per affrontare stili di vita insalubri solo se verrà creato un sistema di tutti gli attori, dove le risorse, conoscenze, consulenze e finanziamenti saranno distribuiti al di fuori delle istituzioni pubbliche, tra le comunità e i singoli cittadini: in questo modo saranno gli stessi cittadini e le stesse comunità protagoniste nella elaborazione collettiva di soluzioni attente alle condizioni locali. I servizi pubblici devono essere ripensati in modo da considerare i cittadini come la risorsa maggiore nella erogazione dei servizi, non solo nella loro ricezione. I servizi pubblici attuali non possiedono la flessibilità e la considerazione della complessità della situazione per affrontare questi problemi. La natura stessa delle malattie croniche e i complessi fattori che le causano devono essere affrontati con una strategia di prevenzione che si basa su servizi che devono poter essere adattati continuamente alle condizioni locali e durante tutto la vita dei cittadini.
339
Bisogna quindi distribuire le conoscenze che ora si trovano solo all'interno delle istituzioni, utilizzare le risorse che già alcuni cittadini hanno facendoli diventare agenti per la fornitura di supporto ad altri cittadini (peer-to-peer, da pari a pari). Inoltre molte strutture già esistenti, come ad esempio biblioteche e farmacie, possono essere utilizzate in maniera innovativa. L'utilizzo di queste risorse sarà effettivo se anche i finanziamenti verrano decentralizzati, dato che le attività sono distribuite sia geograficamente sia in attori e settori differenti. Se sono le comunità e i singoli cittadini i principali progagonisti nella co-creazione dei servizi, dovranno ricevere anche dei finanziamenti. La cocreazione di servizi necessita nuove organizzazioni decentralizzate, a rete, che difficilmente emergono spontaneamente, e che quindi dovranno essere facilitate da attività di design volte a permettere iniziative bottom-up da parte delle comunità locali e dei singoli cittadini. Con queste considerazioni in mente, la divisione RED ha sviluppato due progetti in collaborazione con due località, Kent e Bolton, come prototipi per la sperimentazione dei futuri servizi, non ancora pronti per l'introduzione su tutto il Paese. Nella città di Kent è stato affrontato il problema dell'invecchiamento della popolazione, nella città di Bolton il problema della gestione di malattie croniche, nel caso specifico il diabete. I progetti sono stati sviluppati in sei mesi dal team progettuale RED costituito da designer, medici, economisti, antropologi ed esperti di poltiche, in collaborazione con professionisti, impiegati e residenti delle due località. A differenza degli approcci sviluppati dalle istituzioni, il designer parte dagli utenti, dalle loro esperienze, per verificare la fattibilità del concetto di servizi coprodotti.
8.2.2. Kent: Activmob Il problema affrontato nella città di Kent è stato quello di incoraggiare i cittadini di età fra i 50 e 70 anni a svolgere attività fisiche per ridurre le probabilità di incorrenza di problemi legati alla vecchiaia, come fratture, osteoporosi, diabete, ecc. Attualmente il 23% della popolazione britannica soffre di obesità, e uno stile di vita più attivo può portare fino al 50% di probabilità di riduzione di rischi di diabete, infarti e altre malattie dell'apparato circolatorio. Le attività fisiche possono essere anche un'occasione di incontro con altre persone. Il progetto sviluppato dalla divisione RED ha riguardato una particolare area della città, Park Wood, caratterizzata dal fatto che i residenti avessero un reddito in media circa la metà rispetto alla media di tutta la città. Questa attenzione ad una località precisa assicura la comprensione precisa delle esigenze e motivazioni dei cittadini coinvolti nella co-creazione del servizio, utilizzando le risorse e le relazioni già esistenti. Le prime interviste con i cittadini hanno dimostrato come fossero visti importanti per la co-creazione di servizi i temi della sicurezza e del coinvolgimento anche della popolazione più giovane. Il team progettuale ha sviluppato “activmobs”, una 340
iniziativa volta a fornire supporto alle persone che vogliono mantenere buone le proprie condizioni di salute, seguendo le proprie inclinazioni. Infatti il problema principale è motivare le persone a svolgere attività fisiche. Una prima versione del progetto è stata sviluppata nel maggio 2005 e nel mese di giugno è iniziata la fase di utilizzo e sperimentazione da parte della popolazioni. Un mob è formato da un gruppo di conoscenti che, riuniti, svolgono un'attività regolarmente. I mob vengono formati sugli interessi già esistenti, come il giardinaggio o andare a passaggio con il cane, ma che vengono resi più efficaci per la salute fisica introducendo elementi da altre discipline. Qualsiasi attività può essere utilizzata per costituire un mob, purchè portare (o essere modificata per portare) benefici alla salute fisica dei suoi partecipanti. L'iniziativa, i cui artefatti comunicativi sono una rivista e un sito web, permette l'autoorganizzazione delle attività dei mob, e la loro messa in rete con trainer e risorse. La rivista, il sito web, i gruppi mob, gli “allenatori” e “motivatori” fanno parte del sistema del servizio co-progettato e co-gestito dai cittadini e professionisti. Un gruppo già formato può registrarsi attraverso il sito web, scegliere la propria attività e costruirsi un calendario per lo svolgimento. Attraverso il sito web, singole persone possono cercare mob nella propria zona, mob che ricercano partecipanti per raggiungere un numero minimo oppure suggerire un'attività per formare un mob (prendendo anche spunto da un'area apposita del sito che riporta consigli ed esempi). Le attività suggerite vengono votate dai visitatori che possono poi partecipare. Quando si forma uno di questi mob, chi lo aveva proposto viene denominato “motivatore” (motivator), e riceve un buono apposito, che può essere utilizzato per coprire i costi di organizzazione del mob oppure per seguire corsi per divenire un “allenatore” (trainer) per mob. Gli “allenatori” vengono scelti dalla piattaforma dopo una intervista, e possono aiutare i mob a scegliere la propria attività, a migliorarne l'efficacia per la propria salute fisica, a fissare degli obiettivi da raggiungere attraverso l'attività. Un mob può scegliere un obiettivo da raggiungere attraverso la propria attività ed un premio relativo: gli obiettivi possono essere basati sulla presenza di partecipanti, su una distanza spaziale, su un periodo di tempo o un punteggio raggiunto. Si possono anche scegliere degli obiettivi individuali, e una volta che tutti i componenti del mob li abbiano raggiunti si guadagna un premio di gruppo. Un “allenatore” può diventare anche un “motivatore” se dà inizio ad un mob, e un “motivatore”, dopo un esame, può diventare “allenatore” del proprio mob. I mob prenotano una sessione di “allenamento” scegliendo gli “allenatori” sulla rivista o sul sito web; gli “allenatori” ricevono dei buoni per ogni sessione svolta. Gli “allenatori” sono presenti ai vari incontri tra i mob. La rivista mostra idee, interviste a mob, elenco dei mob esistenti, consigli, ricompense, istruzioni su come gestire i mob, interviste ad “allenatori” e
“motivatori”, elenco degli “allenatori” suddivisi per area, elenco di strutture che possono essere utilizzate, elenco dei mob che cercano membri. Il sito web mostra tutte le informazioni presenti sulla rivista, e inoltre permette ai mob di autoorganizzarsi contattandosi e vedendo i progressi personali e collettivi. I membri dei mob sono incoraggiati a compilare tre schede sul sito web per monitorare i propri progressi. Le schede vanno compilate ogni mese, ricevendo in cambio buoni per la cura dei figli, per viaggi, per utilizzo di strutture e “allenatori”. I membri compilano queste schede assegnango un valore da 0 a 10 per le proprie condizioni fisiche e psicologiche, quali la propria energia, stanchezza, umore, dolori provati, sensazione di sentirsi in forma, flessibilità, stress, confidenza con le proprie capacità e percezione dell'attività svolta. Le schede utilizzano delle espressioni comuni per indicare i valori massimi e minimi (10 e 0), rendendone così la compilazione un'operazione molto semplice. I valori vengono quindi elaborati automaticamente dal sito web che, nella pagina personale del proprio mob, vengono rappresentati con grafici per la comprensione dei propri progressi. In questo modo i componenti del mob si incoraggiano a vicenda per il raggiungimento degli obiettivi.
8.2.3. Bolton: Me2 Coach Si stimano 10000 residenti della città di Bolton affetti da diabete, circa uno ogni dieci famiglie. Questa diffusione così alta della malattia assorbe il 5% delle risorse del servizio sanitario pubblico e il 10% delle risorse ospedaliere, percentuali simili a quelle nazionali. Questa caratteristica rende interessante la sperimentazione di nuovi servizi a Bolton in quanto possono poi essere replicati nel resto del Paese. Il diabete di tipo 2( che rappresenta quasi 85% dei casi) possa essere prevenuto e comunque curabile attraverso automedicazione. È visione comune quella che vuole il servizio sanitario pubblico ristrutturato attorno al paziente, ed è per questo motivo che sono stati istituiti gruppi di supporto e centri specifici al di fuori degli ospedali. Ad ogni modo, il modello di servizio attuale è giunto al limite, e l'interfaccia tra pazienti, medici e professionisti dei centri specfici è un problema di difficile soluzione. Ed è proprio questo problema che il team progettuale RED ha cercato di risolvere, proponendo un servizio co-creato basato sull'incontro tra iniziative top-down e iniziative bottom-up per la distribuzione di risorse e la motivazione dei pazienti a seguire stili di vita più salutari. Il progetto cerca di affrontare le modalità con cui possa essere pensata una interfaccia tra i cittadini affetti dal diabete in modo che si sostengano a vicenda. Un servizio co-creato comporta sia la partecipazione sia dei cambiamenti nei pazienti stessi, permettendo anche un cambio nelle attività che i medici devono svolgere, passando dalla somministrazione di cure in casi gravi alla condivisione delle proprie conoscenze.
Sebbene questo progetto si sia limitato solo alle persone a cui era già stato diagnosticato il diabete, il principio di prevenzione continuerà a indirizzare gli sviluppi futuri del progetto. La prevenzione dell'insorgenza della malattia o di casi gravi dipende soprattutto dai cittadini, dal loro stile di vita, dal loro controllo e automedicazione. Il team progettuale della divisione RED ha sviluppato due approcci per la risoluzione del problema. Il primo riguarda lo sviluppo di un set di carte (“Agenda cards”) che i pazienti e i medici utilizzano durante i loro incontri per migliorare la loro comunicazione: infatti non sempre i pazienti riescono a comunicare le proprie sensazioni. Il vantaggio delle carte risiede nella facile e veloce prototipizzazione e sperimentazione, utilizzando il feedback dei partecipanti per indirizzare gli ulteriori sviluppi del progetto. Il secondo approccio consiste nell'organizzazione di un servizio di consulenza chiamato “Me2 Coach Service”, dove persone con una lunga esperienza di convivenza con la malattia svolgono il ruolo di “allenatori” delle persone affette dal problema solo recentemente, che sanno quali siano i cambiamenti da intraprendere ma non sono abbastanza decisi da farlo. Gli “allenatori”, con la loro lunga esperienza, forniscono una consulenza preziosa al di fuori del servizio sanitario pubblico, costituendo così un servizio non gerarchico dove i partecipanti sono allo stesso livello e hanno gli stessi problemi: da pari a pari (peer-to-peer).
8.3.
Development Gateway
La fondazione Development Gateway3 svolge l'attività di enabler di processi di sviluppo attraverso un portale web dedicato alla collaborazione. Organizzazione non profit indipendente, è stata sviluppata dalla Banca Mondiale e ha cominciato ad operare nel Luglio 2001 come risposta alla crescente consapevolezza che uno sviluppo sostenibile richieda un approccio a lungo termine basato sull'accesso a conoscenze rilevanti, una partecipazione effettiva e trasperente di tutti i settori e una direzione gestita dagli Stati individuali. Lo svolgimento delle attività avviene tramite la costruzione di una rete di partnership tra enti non profit, i governi delle nazioni più ricche, fondazioni, università, compagnie private e comunità locali. Attraverso l'utilizzo di tecnologie ICT la fondazione cerca di: • aumentare la condivisione di informazioni: offrendo agli utenti comunità virtuali centrate su tematiche legate allo sviluppo, le pagine tematiche del portale (Topic Pages) incoraggiano la condivisione di conoscenze e la collaborazione. L'attività di esperti permette a queste comunità l'accesso alle informazioni rilevanti più aggiornate, che possono poi trasformare e arricchire a loro volta. Inoltre la conferenza annual Development Gateway Forum è un punto di incontro e condivisione di informazioni tra le figure più importanti riguardo 3
http://www.developmentgateway.org/ 341
•
•
•
allo studio dello sviluppo economico e sostenibile. Un premio, il Development Gateway Award premia e pubblicizza contributi esemplari nell'utilizzo di ICT per lo sviluppo locale: il primo premio è stato assegnato ad un programma della Grameen Bank che permetteva ai propri clienti la gestione di servizi di telefonia wireless in villaggi isolati; migliorare l'efficiacia di attività volte allo sviluppo: il gruppo di lavoro Development Effectiveness Group si avvale della collaborazione di tutte le comunità di utenti per costruire e aggiornare un database online di progetti, attività e informazioni legate allo sviluppo di facile e libero accesso chiamato AiDA (Accessible Information on Development Activities); migliorare la trasparenza del settore pubblico: la sezione del portale web dgMarket svolge da vetrina per la contrattazione di accordi legali e finanziari con istituzioni politiche. Inoltre il programma e-Government Grants Program fornisce fondi per lo sviluppo di progetti di egovernment in Paesi in via di sviluppo; costruire capacità a livello locale per rafforzare le comunità: la fondazione ha formato 50 imprese di servizi denominate Country Gateways che permettono la partecipazione di più stakeholder nei processi di sviluppo. Queste imprese sono un luogo di riunione e discussione tra individui e organizzazioni per la ricerca di risorse e lo scambio di informazioni secondo le esigenze locali. Portare informazioni e conoscenze direttamente all'interno delle comunità locali può sviluppare migliori opportunità di partecipazione e crescita.
8.4.
BBC’s Neighbourhood Gardener
Neighbourhood Gardener è un progetto portato avanti dall'emittente BBC grazie al quale i partecipanti possono condividere il proprio tempo e le proprie esperienze riguardanti il giardinaggio con altri membri della propria comunità locale. I partecipanti privi di esperienze possono svolgere corsi introduttori al giardinaggio e al progetto in una delle 52 università convenzionate prima di accedere a gruppi di Neighbourhood Gardener. Invece i partecipanti più qualificati sono invitati a condividere le proprie conoscenze agli altri e alla gestione di progetti di giardinaggio nella propria comunità attraverso dei centri di Neighbourhood Gardener. Sono questi centri a decidere le caratteristiche richieste nei partecipanti, le caratteristiche dei progetti da sviluppare e a svolgere attività di fund raising.
8.5.
The BBC iCan/Action Network
Il sito web BBC Action Network4 ha l'obiettivo di aiutare i cittadini britannici nell'affrontare problematiche legate alla loro dimensione locale fornendo informazioni sulle problematiche, facilitando la ricerca e l'incontro con altre persone interessate agli stessi problemi nella stessa località, condividere esperienze. La scelta di agire da supporto a problematiche locali viene dalla consapevolezza che la maggior parte delle persone, soprattutto quelle che scelgono di non votare, è interessata principalmente a problemi legati alla loro località di residenza. La maggior parte delle informazioni presenti sul sito provengono dagli utenti stessi, e ne viene sottolineata questa provenienza. Questa iniziativa fu fondata il 22 Ottobre 2003 con il nome “BBC iCan” dopo 14 mesi di progettazione, e rappresenta la naturale evoluzione dei local online issues forum, forum di discussione online ma riguardanti problematiche legate ad una località ben precisa. Il lungo periodi di 14 mesi è stato causato dal fatto che questo progetto era unico nel suo genere e non vi erano progetti simili. Durante tutto il 2004 iCan crebbe da 4615 utenti registrati in Gennaio a 9847 nel mese di Settembre; nel mese di Febbraio 2005 il numero degli utenti registrati toccò il numero di 150000 unità. Nel periodo Maggio-Giugno 2005 tutta l'iniziativa è stata ripensata e migliorata, soprattutto nella progettazione del sito web, e rinominata BBC Action Network. È una iniziativa nata per svolgere il ruolo di enabler dei cittadini nei processi di ricezione, condivisione e promozione di conoscenze civiche, per la risoluzione di problematiche locali attraverso lo sviluppo di campagne. L'iniziativa è limitata ai cittadini inglesi, a campagne senza scopi politici e commerciali e rispettose delle leggi attuali. Il funzionamento di BBC Action Network può essere esemplificato in questo modo: un quartiere è assillato dal problema della mancanza di parcheggi, e quindi alcuni abitanti pubblicano sul sito BBC Action Network documenti in cui mostrano la loro situazione e propongono soluzioni. A questo punto altri abitanti possono discutere con loro, organizzare incontrie, votare le proposte attraverso il sito web, utilizzare le guide presenti sul sito web su come è possibile contattare dei parlamentari per informarli del problema. Allo stesso tempo, altre persone abitanti in altre località ma con lo stesso problema, possono contattarli per scambiarsi informazioni al fine di organizzare una propria campagna. Con la crescita del numero di persone a supporto di una campagna questa aumenta di visibilità e importanza, portando alla ricerca di soluzioni da parte degli enti locali o da altre istituzioni. L'utilizzo del sito web è aperto a tutti i cittadini britannici maggiorenni, che devono tuttavia 4
342
http://www.bbc.co.uk/dna/actionnetwork/
seguire alcune regole, altrimenti le loro proposte di campagne possono essere eliminate dal sito web. La BBC infatti provvede supporto rimanendo neutrale alle campagne, che per poter beneficiare delle attività di supporto devono essere state documentate e provate, devono essere rispettose e non offensive o mirate ad attaccare altre persone, organizzazioni o località. Una volta registratisi nel sito web, gli utenti possono innanzitutto venire a conoscenza delle campagne già attive nella loro area (che possono essere votate o contattate). Infatti, quando ci si registra, inserendo il proprio codice postale di residenza il sito web agisce da filtro delle informazioni mostrando le informazioni relative alla propria località. L'utente, quando accede ai servizi offerti del sito web attravero una password personale, può utilizzare un pagina dedicata alla discussione con altre persone abitanti nella stessa località (Local Noticeboard), una pagina che riporta tutte le informazioni necessarie sulla propria località per poter concepire una campagna (Local Information), una pagina per la consultazione delle problematiche segnalate nella propria area (Local Issues). Il sito web mette a disposizione ad ogni utente una pagina dove poter pubblicare le informazioni riguardanti la propria campagna: il nome, un sommario degli obiettivi, i nomi degli organizzatori, dei partecipanti e i dettagli per contattarli, link e un'area dedicata alla votazione della campagna stessa da parte degli altri utenti del sito. Votando a favore o contro una determinata campagna si può aiutarla a ricevere visibilità. Inoltre il sito web fornisce a chi vuole iniziare una campagna varie guidi su come iniziare una campagna, comprendere a fondo le problematiche ricercando e consultando informazioni, ricercare potenziali partecipanti, organizzare un gruppo, come pubblicizzare la campagna (sia con mezzi tradizionali che con strumenti digitali legati a Internet), contattare delle celebrità per pubblicizzare la campagna, sulla opportunità e le modalità di organizzazione di proteste o cortei, su come contattare parlamentari e su come ricercare e gestire finanziamenti. Inoltre il sito offre un database di tutte le organizzazioni non profit operanti nel Regno Unito, suddivise per aree e tematiche. Attraverso il sito web gli utenti possono ricercare le persone interessate in alcune tematiche, le persone che stanno organizzando alcune campagne o semplicemente gli utenti registrati abitanti in una determinata località, potendo poi inviare loro messaggi attraverso le pagine personali. Il sito web è quindi una piattaforma di supporto per l'attivazione di due tipi di campagne di pressione pubblica alla ricerca di soluzioni, che vengano dal mondo politico o da altre istituzioni (ad esempio enti non profit). La maggior parte delle campagne sono costituite da due persone con mansioni centrali di organizzazione e gestione e una rete più ampia di sostenitori nella comunità locale. Per altri casi è invece più utile formare gruppi molto ampi, non solo di sostenitori, ma anche di partecipanti attivi. Questo aiuta nel distribuire il carico degli
impegni e porta più facilmente ad una pubblicizzazione della campagna. Inoltre, maggiore il numero di persone coinvolte, maggiore la diversità ottenuta in termini di risorse personali come capacità, interessi e tempo da dedicare. Più vi sono differenze all'interno del gruppo in termini di età, occupazione, interessi ecc. più il gruppo sarà ricco di risorse da sfruttare. Questa ricchezza di diversità porta comunque alla necessità di gestire anche una identità comune per ottenere una organizzazione motivata. Ad ogni modo, si consiglia sempre di cominciare con poche persone, contattando altri gruppi e pubblicizzando la campagna con mezzi semplici nella propria località. Prima di iniziare una campagna gli utenti del sito sono aiutati nelle operazioni di ricerca di informazioni sul tema, con la sua storia e i principali attori coinvolti e la legislazione vigente. Una volta accertata la reale necessità di una campagna e che non vi siano già altre campagne simili nella stessa località. Conoscere anche altre campagne è utile perchè vi può essere la opportunità di associarsi o aiutarsi a vicenda se in un aree differenti o con obiettivi differenti. Contattare altre organizzazioni è un'ottima strategia per inserirsi nelle reti sociali esistenti. Diverse tipologie di organizzazioni possono essere utili in molti modi differenti, dalla fornitura di attivisti a quella di finanziamenti. Una volta istituita una campagna le attività da svolgere sono legate alla ricerca e coinvolgimento di partecipanti attraverso vari mezzi di comunicazione per influire sulle decisioni politiche. L'organizzazione delle campagne avviene attraverso riunioni, dove viene stilato un documento costitutivo del gruppo e vengono decisi gli obiettivi, il nome della campagna e i ruoli da ricoprire all'interno del gruppo dei partecipanti attivi. L'assegnazione dei ruoli dipende dalle capacità presenti nei gruppi, ma in generale sono consigliati i seguenti ruoli: • coordinatore di campagne, per organizzare gruppi di lavoro e controllare la strategia del gruppo; • organizzatore di gruppo, per ricercare e distribuire le informazioni necessarie al funzionamento di un gruppo; • responsabile delle pubbliche relazioni, per gestire relazioni con i mezzi di comunicazione e rappresentare il gruppo in eventi esterni; • coordinazione dei nuovi membri, inserendoli e guidandoli nelle attività del gruppo; • tesoriere, per raccogliere e gestire finanziamenti.
343
Fig. 189: Open Health, Kent: rivista e ricompense (Fonte: Design council 2006a)
Fig. 190: Open Health, Kent: strumenti di autovalutazione (Fonte: Design council 2006a)
Fig. 191:Open Health, Kent: monitoraggio della propria situazione (Fonte: Design council 2006a)
344
Fig. 192: Open Health, Bolton: Me2 coach (Fonte: Design council 2006b)
345
Fig. 193: BBC Neighbourhood Gardener (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener)
Fig. 194: BBC Neighbourhood Gardener: ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/gardening/neighbourhood_gardener) 346
Fig. 195: BBC Action Network: homepage e ricerca della dimensione locale (Fonte: http://www.bbc.co.uk/actionnetwork)
Oltre alla fornitura di informazioni e di uno spazio di incontro e discussione, la piattaforma web BBC Action Network offre anche un altro servizio di supporto, fungendo da enabler ad eventuali utenti che decidono di aiutare e consigliare le campagne attraverso il ruolo di mentore. La BBC non fornisce dei mentori, ma crea le condizioni affinchè eventuali volontari possano svolgere quel ruolo, condividendo le proprie esperienze e conoscenze con gli altri utenti. Il ruolo di mentore prevede la
pubblicazione sul sito web di una propria biografia specificando competenze e conoscenze, la risposta a domande sottoposte attraverso il sito web, ricevere e rispondere messaggi personali con gli utenti che desiderano aiuto, pubblicare sul sito web un caso in cui si è svolto il ruolo di mentore, raccogliere le domane ricevute piÚ frequentemente e pubblicarle sul sito web con le risposte.
Fig. 196: BBC Action Network: esempio di campagna (Fonte: http://www.bbc.co.uk/actionnetwork)
347
Per capire fino in fondo la natura di BBC iCan/Action Network risulta utile analizzare un progetto di sperimentazione chiamato Expanding iCan e portato avanti nel periodo settembre 2004 – marzo 2005. Il progetto era rivolto alla comprensione del ruolo che gli enti locali debbano svolgere per facilitare approcci alla democrazia da parte di comunità locali. Sviluppato nell'ambito della ricerca Local e-Democracy National Project che investiga come le nuove tecnologie possano essere utili in processi di rinnovamento della democrazia. Il progetto venne portato avanti in quattro località: Kingston, North Lincolnshire, Stroud and St Albans. Gli enti locali delle quattro località coinvolte utilizzarono la stessa strategia di pubblicizzazione (poster, volantini, eventi di lancio) nel coinvolgere la cittadinanza. Gli obiettivi del progetto erano di: • identificare e possibilmente sviluppare linee guida per migliorare la condivisione di informazioni rilevanti tra iCan e gli enti locali; • esplorare e valutare le opportunità di costruzione della consapevolezza e interesse in iCan nella popolazione locale e accrescere le capacità delle comunità di utilizzarla; • investigare le opportunità per gli enti locali di partecipare ai progetti iCan; • esplorare le modalità di utilizzo di iCan nello sviluppo di campagne.
Fig. 197: Broadcasting (Fonte: Coleman et al. 2005)
Il target di riferimento era quello di persone tra 20 e 45 anni che usano Internet ma che non siano necessariamente degli esperti. In due località gli enti locali utilizzarono come target i cittadini che devono spostarsi ogni giorno per lavoro, in quanto l'utilizzo di una piattaforma di incontro sulla comunità locale sarebbe stata utile a loro, che a causa del proprio lavoro non riescono ad avere stretti legami con la comunità. Con una motivazione simile, un altro ente locale utilizzò come target le persone risiedenti in aree esterne alla comunità locali ma sempre rientranti nello stesso ente locale. La maggior parte delle informazioni politiche necessarie ai cittadini viene fornita da istituzioni ufficiali centralizzate, come la stampa o le emittenti radio e TV: il modello di questo tipo di comunicazione viene chiamato broadcasting ('trasmissione') (fig. 197). Una grande quantità di conoscenze pubbliche sono sempre state scambiate attraverso interazioni 348
informali “peer-to-peer” (cioè senza gerarchia) tra i cittadini, come discussioni fra amici o con organizzazioni. Questo tipo di comunicazione orizzontale è chiamato networking ('messa a rete') (fig.198).
Fig. 198: Networking (Fonte: Coleman et al. 2005)
Internet rende la comunicazione a rete una caratteristica pervasiva della società contemporanea: un effetto della società delle reti è che sia le relazioni interpersonali che quelle istituzionali stanno cambiando. Lontano dall'essere un mezzo di comunicazione che comporta una frammentazione sociale, Internet potrebbe essere rivestire un ruolo chiave nel rafforzamento del senso di democrazia tra i cittadini e di crescita del capitale sociale. Il punto chiave di questo progetto riguarda la comprensione di fino a che punto la creazione di reti online può rinvigorire le caratteristiche democratiche degli enti locali, con una particolare attenzione alle reti con i cittadini create attraverso canali di interazione online. Una caratteristica unica di questo progetto, rispetto a tutte le ricerca di e-democracy o e-governement, è il coinvolgimento delle BBC come intermediario democratico neutrale. La presenza della BBC ha reso possibile ai cittadini e alle comunità l'interazione reciproca a breve distanza dagli enti locali. In questo modo la comunicazione può essere vista come nella figura 199.
Fig. 199: BBC iCan (Action Network) (Fonte: Coleman et al. 2005)
La comunicazione diretta tra gli enti locali e la società civile è spesso caratterizzata dalla sfiducia, ma la reputazione della BBC può fare da garante;
in questo caso bisogna evitare che la BBC divenga una estensione delle aurotità locali e perda la sua indipendenza. L'importanza della scelta della BBC viene anche dalla sua capacitàdi raggiungere un bacino di utenza molto ampio sia con mezzi di comunicazione online che più convenzionali. Un fattore chiave in tutti i progetti di e-democracy è la capacità di essere conosciuti dai potenziali utenti. In questo caso la BBC ha già un enorme vantaggio, dato dalla sua normale audience: il sito web della BBC viene visitato ogni mese da circa 10 milioni di utenti. Un'alleanza tra BBC ed enti locali può portare a vantaggi reciproci: la BBC aiuta gli enti locali a pubblicizzare il progetto e a formare gli organizzatori locali, che in cambio insegnano ai cittadini come utilizzare iCan, aumentando il numero di utenti per la BBC. Entrambi infatti sono interessati non a impartire istruzioni a tutti gli utenti/cittadini, ma piuttosto a formare degli istruttori in modo da distribuire le informazioni a cascata, molto più efficientemente. Dato che il progetto si basa sull'utilizzo di Internet, la questione della diffusione dell'utilizzo e l'accessibilità sono fondamentali. Anche il design della piattaforma web è un fattore critico, ed è proprio per questo che alla fine del progetto la BBC decise di riprogettarla. Per l'analisi dell'esito del progetto, il suo successo può essere descritto come l'attivazione di campagne da parte dei cittadini che non lo hanno mai fatto prima. Anche se è parso troppo presto per trarre delle conlcusioni, è chiaro che il numero degli utenti delle quali località è passato da essere molto basso ad un aumento del 40-70%. Come conseguenze di questa alleanza BBC-enti locali possono essere notati questi fatti: • riunioni degli enti locali e altre informazioni importanti vennero pubblicate su iCan; • vennero svolti tra Gennaio e Febbraio 10 workshop e 6 eventi per aumentare la conoscenza di iCan nei cittadini, con un risultato di oltre 10000 partecipanti a questi eventi; • gli enti locali e la BBC svilupparono collaborativamente materiale promozionale per la piattaforma iCan. La risposta data dal personale degli enti locali e dalla cittadinanza è stato molto positivo, considerando la piattaforma iCan come uno strumento per la condivisione di informazioni e lo sviluppo di azioni sulla scala locale. I workshop si sono dimostrati un'ottima opportunità per diffondere la conoscenza della piattaforma soprattutto la conoscenza di come utilizzare la piattaforma, soprattutto in persone che avrebbero insegnato ad altre persone come utilizzarla. Inoltre questi eventi hanno comportato un costo molto basso, dato che sono stati organizzati in luoghi esistenti e utilizzando personale già impiegato presso gli enti locali. Questi eventi hanno dimostrato di essere una opportunità unica anche per discutere di problematiche locali e di presentare iCan come uno strumento per il futuro;
inoltre sono stati anche un punto di incontro tra i membri iCan esistenti e lo staff BBC. Il risultato immediato del progetto di sperimentazione è stato un aumento nell'utilizzo di iCan nelle quattro località, inizialmente da parte degli enti locali per incoraggiarne l'uso nelle località e legarne l'utilizzo ad attività democratiche. In seguito la piattaforma è stata quasi totalmente utilizzata da i membri della comunità per organizzare campagne come lotta al fumo o diabete. Con la crescita del numero di utenti a livello locale, la piattaforma diverrrà sempre più utile come uno strumento di messa a rete e di condivisione di informazioni per la costruzione di una coinvolgimento democratico più efficace. Una democracia che utilizzi gli strumenti ITC da basso (Ground-up e-democracy) può svilupparsi in due direzioni. Se le autorità locali si considereranno come centrali ma non dominanti stakeholder nella conversazione pubblica, si incontrerà una convergenza tra metodi bottom-up e top-down nello sviluppo di una e-democracy: i cittadini avranno più confidenza nell'accostarsi agli enti locali. Altrimenti tutti i progetti “bottom-up” rischiano di rimanere sotterranei, distanti dall'interazione con le autorità locali che preferiranno criticare piuttosto che consultare. L'effetto di un progetto di questo tipo è quello di devolvere più potere e responsabilità ai cittadini e alle comunità locali, mostrare che gli enti locali sono realmente sensibili alla partecipazione dei cittadini, incoraggiare maggiori discussioni, coinvolgere maggiormente quei cittadini meno impegnati nelle comunità locali. Una possibile conseguenza dell'introduzione di processi di edemocracy a cui gli enti locali dovrebbero pensare è la loro possibile trasformazione in facilitatori di reti locali di discussione e deliberazione. Con una governance spostata verso la dimensione locale, i cittadini si riferiranno molto più probabilmente alle autorità locali per soluzioni ai loro problemi, ma queste dovranno sviluppare capacità di mediazione tra più voci. Per questo le autorità locali dovranno sviluppare processi che abilitino i cittadini ad esprimersi, ad ascoltare gli altri attori e a riconoscere le priorità e le conseguenze delle decisioni collettive. Proprio come la radio e la televisione hanno modificato la nozione di democrazia negli ultimi cinquanta anni, forse Internet può, paradossalmente, riportare il processo democratica a livello locale.
8.6.
Grameen Bank e Self-Help Groups
8.6.1. Grameen Bank La maggior parte delle istituzioni di microcredito si avvale della intermediazione di gruppi per distribuire i propri servizi. I sistemi principali sono due, quello della Grameen Bank e quello dei Self Help Group (SHG) o gruppi di auto-aiuto. La Grameen Bank (“banca del villaggio”) fu fondata 349
nel 1976 dal professore di economia Muhammad Yunus, nei pressi della Chittagong University, attraverso attività di ricerca-azione in alcuni villaggi. Il Bangladesh era appena uscito dalla Guerra di Liberazione che aveva causato serie disintegrazioni sociali e politiche. L'economia era stagnante, la popolazione in rapida crescita, un'alta disoccupazione e una bassa produttività agricola. Erano necessarie soluzioni innovative per favorire lo sviluppo delle zone rurali anche attraverso banche e finanziamenti. La filosofia della Grameen Bank è basata sulla premessa che le persone prive di ricchezza economica hanno conoscenze e capacità inutilizzate o mal sfruttate. Non è la mancanza di capacità che rende le persone povere, ma le istituzione che la circondano. Le donazioni non sono la risposta al problema, perchè creano dipendenza: la vera risposta è l'energia e la creatività presente in ogni persona. La risposta che la Grameen Bank propone è che, per emergere dalla povertà e dalla dipendenza da usurai, contadini e allevatori senza terra devono trovare accesso al credito, senza cui non potrebbero costruire delle attività economiche, se pur di piccole dimensioni.
Fig. 200: Gruppo di credito della Grameen Bank ( Yunus M. primo a sinistra) (Fonte: http://www.grameeninfo.org/bank/gallery/borrowers.html)
Sfidando il postulato delle iniziative di finanziamento rurali tradizionali, secondo cui “nessuna garanzia (in questo caso, terra) significa nessun credito”, la Grameen Bank non è basata su garanzie ma sulla fiducia nelle procedure e nel sistema. Il suo funzionamento prova con successo che fornire prestiti a indigenti non è impossibile, ma al contrario dà a contadini privi di terreno l'opportunità di ottenere i propri strumenti e mezzi necessari per produrre e incominciare attività economiche che permettano di uscire dal circolo vizioso “basso reddito, bassi risparmi, bassi investimenti, basso reddito”. In altre parole, la fiducia della banca si basa sulla volontà e capacità del cliente di ottenere successo nelle loro attività economiche: la metodologia della Grameen Bank è quasi opposta a quella di una banca convenzionale, che è basata sul principio “più hai, più ricevi”. Una banca convenzionale si preoccupa delle ricchezze economiche del cliente, Grameen Bank si preoccupa delle potenzialità inespresse del cliente. Una banca convenzionale non si preoccupa della 350
famiglia dei clienti, mentre la Grameen Bank pone molto interesse nel controllare l'educazione dei figli, le condizioni della casa, l'accesso ad acqua pulita e della loro capacità di affrontare crisi. La Grameen Bank dà un'alta priorità alla costruzione di capitale sociale, attraverso la formazione di gruppi e centri, lo sviluppo di leadership a livello locale. La banca incoraggia i clienti ad adottare alcuni obiettivi a riguardo della situazione sociale, sanitaria e dell'educazione della famiglia, attraverso “Sedici decisioni” che i clienti si impegnano a mantenere. Sin dall'inizio è sempre stato dato uguale accesso ai finanziamenti anche alle donne, che si sono dimostrate non solo clienti affidabili, ma anche fini imprenditrici: di conseguenza, hanno migliorato il loro status all'interno della comunità, diminuito la dipendenza dai mariti e migliorato le condizioni delle abitazioni e della nutrizione dei figli. Ora sono più del 90% del numero totale dei clienti. Sono stati progettati anche dei programmi finanziari diretti a mendicanti, con lo stesso spirito di autoimprenditorialità. Il successo di questo approccio mostra come molte delle obiezioni alzate contro il prestito a indigenti siano infondate: possono trovare attività redditizia, possono ripagare i prestiti (attualmente il 97% dei clienti ripaga i propri debiti), anche le donne possono essere adatte a ricevere prestiti, possono accumulare risparmi. Ha dimostrato che anche una banca diretta a contadini poveri possa essere redditizia: dai 15000 clienti del 1980, ai 100000 del 1984, ai 3,7 milioni del 2004 (di cui 96% donne). Con 1267 filiali, fornisce servizi finanziari a 46000 villaggi, coprendo più del 68% di tutti i villaggi del Bangladesh; questo sistema è stato replicato in altri 58 paesi, anche in aree urbane degradate. Le filiali della Grameen Bank sono localizzate nelle aree rurali, a differenza delle banche convenzionali che cercano di localizzare le proprie filiali vicino ai centri finanziari e urbani. Il principio base è che il cliente non dovrebbe andare dalla banca, ma la banca ad andare da lui. Il personale della banca, di 14536 agenti, si muove verso i 46000 villaggi che serve per incontrare i suoi 3,7 milioni di clienti porta a porta ogni settimana. Ogni filiale è organizzata con un direttore e copre un'area di circa 15-22 villaggi. Il direttore e gli agenti incominciano visitando loro stessi i villaggi e le famiglie, entrando in contatto con l'ambiente in cui lavoreranno e identificando la probabile clientela, spiegando gli obiettivi il funzionamento della banca. Ai potenziali clienti viene chiesto di formare autonomamente dei gruppi di cinque persone che vengono poi organizzati attorno a dei “Centri” di 57 gruppi, la cui funzione principale è di intermediazione finanziaria5. Inizialmente solo due componenti vengono scelti per ricevere un prestito. Tutti i componenti dei gruppi si incontrano nel “Centro” una volta alla settimana: nelle prime imparano le regole di funzionamento della banca, imparano a scrivere la 5
http://www.grameen-info.org/bank/GBGlance.htm
propria firma. Ogni gruppo elegge un membro rappresentante, ogni centro elegge un capo. Il gruppo rimane sotto osservazione per un mese per controllare se i componenti del gruppo seguono le norme della banca. Solo quando i primi due componenti che hanno ricevuto un prestito lo restituiscono, altri due componenti ne possono ricevere uno, e quindi poi anche il quinto componente. Questa procedura viene seguita per identificare già alle prime fasi i gruppi che sono più deboli nella risoluzione dei propri problemi: si crea una pressione tra i componenti (peers) del gruppo affinchè ognuno mantenga una condotta trasparente e corretta. In questo modo la responsabilità collettiva del gruppo è la vera garanzia che viene data alla banca. Il principio su cui si fonda questo meccanismo di prestito è che se i componenti riescono ad accedere a prestiti, potranno trovare delle attività generatrici di reddito a livello individuale. I prestiti sono di dimensioni ridotte, che vengono aumentati nel corso del tempo, ma sufficienti per finanziare micro-imprese, come pulire il riso, riparare macchine, acquisto di attrezzi o di bestiame. Il sistema di credito della Grameen Bank richiedere una organizzazione speciale adatta allo scopo: il successo delle riunioni settimanali si basa su una rigida disciplina e sull'aderenza ad una tabella di marcia regolare, ed è difficile per un'altra banca integrare questo sistema nel proprio.
8.6.2. Self-Help Groups La maggior parte dei programmi di microcredito presenti in India si basa su una infrastruttura di gruppi di auto-aiuto, o Self-Help Groups (SHG), dei gruppi di 10-20 componenti, soprattutto donne, residenti in piccoli villaggi. Le varie transazioni da effettuare nei programmi di microcredito (pagamenti, prestiti, depositi, prelievi) vengono effettuate durante incontri mensili, quando i componenti del gruppo depositano i ricavi delle proprie attività in un fondo comune regolato collettivamente, da cui possono ottenere prestiti e di cui comunque ricevono i benefici derivanti dagli utili. Spesso i gruppi SHG intrattengono relazioni commerciali con banche e altre istituzioni finanziarie, il cui prestito viene suddiviso tra i membri del gruppo, senza bisogno di garanzie materiali ma basandosi sulla fiducia presente tra i componenti del gruppo. I gruppi SHG possono formare strutture più ampie riunendosi con altri gruppi similari presenti nella stessa area geografica; in alcuni casi strutture formate da 2030 gruppi possono aggregarsi in strutture più ampie, 20-30 delle quali possono riunirsi in federazioni. Questi raggruppamenti permettono il trasferimento di fondi attraverso i gruppi e l'ottenimento di finanziamenti di entità notevolmente maggiori e con migliori condizioni. I gruppi SHG e le loro federazioni vengono spesso creati da ONG e istituzioni di microcredito, che provvedono all'insegnamento delle conoscenze necessarie.
Da alcune ricerche portate avanti in Madagascar nel 1992, possono essere considerati i fattori che rendono importante la formazione di gruppi per l'attuazione di programmi di microcredito6. Nei programmi di prestito a gruppi, le funzioni di ricerca, monitoraggio e recupero dei prestiti sono, in gran parte, trasferiti dalla competenza della banca a quella dei membri del gruppo. L'intermediario finanziario riduce i costi di transazione ricorrenti sostituendo un numero elevato di piccoli prestiti con un singolo prestito maggiore ma di gruppo. Questa riduzione dei costi di transizioni permette agli intermediari finanziari di poter offrire servizi bancari ai clienti più poveri, che necessitano di piccoli prestiti ma che non riceverebbero alcun credito come clienti individuali a causa di alti costi di transazione per un prestito di limitate dimensioni. In questo modo la banca può potenzialmente realizzare economie di scala. Quando un deposito o la restituzione è di piccola entità, i costi di transazione in termini di kilometri, denaro e tempo sono relativamente alti; per ridurli ogni banca dovrebbe istituire delle filiali vicino ai clienti ma con un numero di filiali troppo elevato. Per ridurre i costi, le filiali dovrebbero essere di piccole dimensioni, semplici, aperte di sera e nei fine settimana, quando i clienti più poveri possono contattarli con più facilità; la soluzione migliore sarebbe un impiegato che visita i propri clienti a casa. Il costo di formazione ed addestramento dei gruppi, comunque costituisce un investimento iniziale significativo. Nella maggior parte dei casi di programmi di prestito di gruppo questi costi iniziali sono coperti interamente da fondi governativi o da donazioni, dato che le banche non riscontrano interesse nel rischio di formare gruppi a livello delle comunità locali. La formazione di un gruppo non è un processo casuale ma avviene principalmente tra individui che hanno legami sociali stretti. Un gruppo formato da partecipanti molto eterogenei, anche se potrebbe possedere risorse personali più ricche, incorre in costi iniziali di formazione che possono rendere il pagamento più difficile: sebbene i costi di formazione non influenzino direttamente l'attività del gruppo, possono però intervenire in maniera indiretta. Le istituzioni bancarie non possono essere sicure che i gruppi, una volta formati, mantengano una relazione commerciale di lungo termine in modo tale da ammortizzare l'investimento in capitale umano e istituzionale della banca. Il gruppo potrebbe infatti decidere in futuro di servirsi di servizi bancari offerti dalla concorrenza: per questo molti programmi di prestito vincolano la partecipazione del cliente alla promessa di non servirsi di altre banche, che difficilmente avviene. Questo problema rende refrattarie le banche a creare programmi di formazione di reti di gruppi, giustificando così la attuazione di investimenti pubblici per la creazione di questi programmi. Molto probabilmente la spiegazione più importante per spiegare il prestito a gruppi è il vantaggio che hanno questi nel monitorare la situazione a livello 6
Zeller (1996) 351
della comunità rispetto a contratti individuali tra banca e cliente. A differenza di agenti bancari fisicamente e socialmente distanti, i membri del gruppo riescono ad ottenere, ad un costo inferiore, informazioni sulla reputazione, la ricchezza e l'impegno che i contraenti il prestito mettono nel ripagarlo. Inoltre, i gruppi possono avere una efficacia maggiore nel far restituire i prestiti: dati i limitati sistemi legali delle aree rurali difficilmente si possono ottenere pagamenti da clienti disonesti per vie legali, mentre i membri dei gruppi possono imporre sanzioni sociali. I membri dei gruppi si trovano poi in una posizione migliore per capire le ragioni di possibili fallimenti nei pagamenti e per offrire aiuti. Ma ci sono anche fattori negativi che possono minare le possibilità di pagamento dei prestiti sotto responsabilità collettiva. Per primo, dato che il rischio del fallimento di un componente è condiviso anche da tutti gli altri, egli potrebbe scegliere un progetto più rischioso di quelli degli altri componenti per contare sul rimborso fornito da loro per ripagare il proprio credito. Per evitare ciò, i componenti del gruppo possono decidere il grado di difficoltà dei progetti del gruppo. Secondo, gli incentivi a rimborsare il credito per un buono cliente possono diminuire sotto una responsabilità collettiva, quando questi si aspetta che uno o più degli altri componenti possano fallire. In conclusione, il prestito di gruppo ha effetti sia positivi che negativi sui rimborsi. In ogni ciclo di prestito, ogni componente del gruppo confronterà i benefici di avere accesso a prestiti futuri con i costi di rimborso del prestito corrente, la possibilità di ostracizzare componenti disonesti e di fare pressione sui componenti che non rimborsano. Il costo di rimborso aumenta a causa di una potenziale riduzione del capitale sociale dei componenti, quando le azioni intraprese per far ripagare il prestito riducono la qualità e la quantità del capitale umano, sociale con il componente insolvente. Le aspettative sulla probabilità dei componenti di ripagare il prestito può influenzare l'azione di un membro: i rimborsi di gruppo possono rivelarsi migliori di prestiti individuali in anni di buona raccolta, ma peggiori in anni di siccità. Tale effetto a cascata può essere mitigato se i membri del gruppo sono capaci di escludere i membri potenzialmente insolventi. Anche se un gruppo esclude quei componenti insolventi ostinati, l'avvenimento di siccità, cavallette, o inondazioni può rendere impossibile ai membri il rimborso. La sostenibilità di un programma in aree con rischi alti dipenderà poi dall'abilità dell'intermediario finanziario di riprogrammare il prestito dei membri insolventi o per costituire fondi di emergenza dai membri durante le buone annate. Effettivamente, molti programmi di credito basati su gruppi richiedono che una frazione del prestito venga depositato in un fondo di emergenza, che viene usato poi in momenti di crisi per cancellazione o riprogrammazione dei prestiti. Il rimborso è 352
determinato inizialmente dal processo di formazione di gruppi. Questo processo influenza la struttura del gruppo, e quindi la sua condotta, insieme a caratteristiche esterne al programma e alla comunità del gruppo. Mentre i programmi di credito non interferiscono di solito direttamente col processo della formazione del gruppo, la decisione dei componenti di selezionarsi da sé e coselezionarsi dai componenti sono influenzati, oltre che dalle caratteristiche personali e familiari, dai tipi di servizi offerti dal programma e le loro sistemazioni contrattuali così come dalle condizioni socioeconomiche ed agro-ecologiche della comunità e regione di appartenenza. L'analisi dei fattori determinanti il tasso di rimborso dei prestiti mostra che i gruppi che hanno un alto livello di coesione sociale abbiano una maggiore possibilità di successo. rimborso. Inoltre, i risultati mostrano che non è il livello delle caratteristiche personali e delle disponibilità finanziarie dei membri di gruppo, ma il grado di variazione di tali caratteristiche fra i membri che portano più facilmente ad un rimborso, mettendo in comune i rischi fra membri di gruppo. L'omogeneità spesso postulata fra i membri del gruppo ha effetti negativi riducendo l'abilità del gruppo di ripagare prestiti in di crisi e prendere vantaggio da più rischiose ma più remunerativo imprese diffondendo rischi fra membri dello stesso gruppo. Inoltre, è irrilevante se il gruppo si è formato per propria iniziativa o per l'attività di un agente esterno. Con gruppi di dimensioni maggiori le possibilità di rimborso aumentano, in linea con le ipotesi di economie di scala. Comunque, si noterà che i gruppi avranno costi di coordinazione in aumento, situazione sociale più rischiosa, e problemi di free-rider quando le dimensioni del gruppo superano un certo livello. La dimensione varia riguardo alle condizioni socioeconomiche ed agro-ecologiche delle comunità che partecipano e alle caratteristiche del programma. La ricchezza dei membri di gruppo invece non influenza il risultato finale. Le caratteristiche regionali hanno un'influenza significativa sulla probabilità di rimborso solamente in relazione al livello della monetarizzazione della comunità ed al suo accesso a mercati, dove i gruppi possono effettuare guadagni. Programmi che offrono servizi di risparmio ai loro membri hanno una possibilità di successo significativamente più alta. La capacità di leggere e scrivere dei membri, usata come un indicatore del capitale umano, è ininfluente, come il fatto che il gruppo mantenga o meno dei registri. Ma ciò che influisce soprattutto è la presenza di chiare e precise regole di comportamento interne al gruppo. I programmi di microcredito con più successo sono quelli che permettono al gruppo di organizzarsi da sé al suo interno. La autoregolazione della flessibilità nelle barriere di entrata e uscita dal gruppo, delle sanzioni e dei premi possono portare alla formazione di gruppo
Fig. 201: Self-help Group (Fonte: http://www.ilo.org/public/english/dialogue/actrav/new/india04.htm)
che possano sfruttare al meglio le possibilità economiche. Questo permette ai membri del gruppo di assumere piena responsabilità per le loro azioni: tuttavia le istituzioni devono essere consapevoli del rischio di collusioni all'interno del gruppo per far fallire il rimborso, cosa che avviene a volte quando il gruppo percepisce il prestito come temporaneo. Bisogna quindi costruire una relazione duratura con i gruppi. I programmi di credito con maggior successo cominciano solitamente con prestiti molto piccoli, che gradualmente aumentano in base al comportamento dei clienti.
8.6.3. Differenze tra Grameen Bank e Self Help Groups Le aree dove sono diffusi questi due metodi non sono eccessivamente differenti, tuttavia ci possono essere alcune spiegazioni sul fatto che si siano sviluppati in due paesi differenti. Il Bangladesh ha una minore esperienza di democrazia rispetto all'India, e il sistema rigidamente disciplinato della Grameen Bank può forse essere accettato per questa ragioni. Al contrario, i gruppi SHG si autoorganizzano secondo i propri bisogni e secondo i propri tempi, fattore importante nella società indiana che è ricca di sfumature. Inoltre il Bangladesh riceve in aiuti più dollari pro-capite rispetto all'India, e la Grameen Bank si basa su donazioni e aiuti. Le comunità rurali del Bangladesh sono generalmente più omogenee dal punto di vista socio-economico e meno divise in caste rispetto alle comunità rurali indiane. Forse questo fatto le rende più disponibili a seguire un sistema standardizzato come quello della Grameen Bank, mentre un sistema flessibile come quello dei SHG può essere più adatto alle condizioni indiane. Gli agenti della Grameen Bank visitano ogni gruppo ogni settimana, mentre gli agenti delle banche o delle ONG che lavorano con i gruppi SHG possono incontrarli più frequentemente durante gli stadi
iniziali, ma l'obiettivo è quello di rendere il gruppo capace di registrare la propria contabilità e organizzare le proprie riunioni; una volta che viene raggiunto ciò non vi è più bisogno di visite settimanali o mensili. Si è riscontrato che il sistema Grameen Bank è più idoneo per le aree densamente popolate, dato che gli agenti sono settimanalmente in viaggio per tutti i villaggi. Le zone dell'India dove si riscontrano più SHG sono meno popolate. Le filiali bancarie indiane nelle aree rurali sono più di 70000, e il sistema SHG è quello più ideale per le banche convenzionali, che possono fare affari con uno o più di questi gruppi senza cambiare le proprie procedure. Questi gruppi ovviamente devono essere sviluppati, e se non vi sono ONG nei pressi il compito di sviluppare un gruppo può essere portato avanti da una banca. È inutile quindi costruire delle reti per la distribuzione di prestiti quando sono già presenti sul territorio reti di banche. Una delle ragioni principali della popolarità della microcredito come strumento di riduzione della povertà è la sua “sostenibilità” economica, che varia dalla abilità a trovare continuamente donazioni alla capacità di coprire i costi. Il sistema Grameen tende a necessitare uno staff di agenti meno pagato, dato che il sistema è rigidamente strutturato e uniforme all'interno e tra istituzioni. Il sistema SHG è più flessibile, le istituzioni finanziare hanno normalmente meno contatti con i gruppi una volta che questi abbiano raggiunto la fase di maturità, ma nelle prime fasi sono necessari agenti con una preparazione e un costo maggiore, anche se con un numero di unità minore. Per comparare i due sistemi, dovremmo comparare i costi delle due istituzioni nel servire due campioni di clientela dello stesso numero, ma ciò non affatto semplice. Il sistema SHG è basato sull'operato di banche, di cui è solo uno dei tanti affari e quindi è difficile separare i costi. Molte volte il gruppi vengono formati da ONG oppure da banche ma al di fuori dell'attività commerciale. 353
Nel sistema Grameen, invece, è la banca stessa che gestisce l'intera operazione. I membri dei gruppi SHG pagano alcuni interessi al gruppo, ma alla fine, facendone parte, beneficia dei guadagni effettuati dal gruppo; al contrario, gli interesse pagati dai membri dei gruppi della Grameen Bank finiscono con l'arricchire la banca. I gruppi SHG possono essere un canale di distribuzione meno costoso, ma possono anche durare meno dei gruppi della Grameen Bank a causa della loro completa indipendenza: infatti crisi e carestie possono causarne la fine. I membri di un gruppo SHG gestiscono una piccola banca, e devono apprendere alcune conoscenze basilari di economia, mentre i membri di un gruppo Grameen devono solo riuscire a ripagare i propri prestiti e presentarsi alle riunioni settimanali nel Centro: sono la ragion d'essere della banca e non possono fare affari con altre banche, al contrario dei gruppi SHG. Per questi motivi i gruppi SHG ottengono il risultato di migliorare le capacità dei suoi componenti in maniera maggiore rispetto ai gruppi della Grameen Bank dato che, oltre a venir abituati a ripagare i propri prestiti e a intraprendere attività remunerative, vengono abituati a contare solo sulle proprie risorse e ad organizzare attività economiche relazionandosi a istituzioni finanziarie. Nel sistema Grameen viene centralizzata la visione e il controllo del sistema, mentre vengono decentralizzate le procedure decisionali; al contrario, nel sistema SHG, non vi è un nucleo centrale che controlla il funzionamento del sistema, rendendo ogni gruppo autonomo dalle scelte più tecniche a quelle più strategiche. Lo scopo principale dei programmi di microcredito non è massimizzare profitti nè coprire tutti i suoi costi ma riuscire ad alleviare la povertà, quindi per comparare i due sistemi bisogna capire quale dei due sistemi riesce a raggiungere i più poveri. Tuttavia è ormai riconosciuto il fatto che i programmi di microcredito non riescano a raggiungere lo strato più povero, che spesso vengono esclusi oppure si escludono da soli dai gruppi. Per questo fatto ci sono più probabilità che i più poveri presenti nei gruppi gestiti dalla Grameen Bank riescano ad essere controllati dagli agenti e riescano a portare a termine le loro attività. Nello sviluppo dei gruppi, ciò che rende un sistema vantaggioso è la capacità di attrarre clienti e la capacità di svilupparsi con costi e necessità di tempo richiesto inferiori. I gruppi SHG possono formarsi da gruppi di risparmio o di lavoro esistenti e possono intrattenere relazioni commerciali con qualsiasi banca. Nel caso in cui si abbiano molti gruppi preesistenti a programmi di microcredito, una vasta rete di filiali bancarie intenzionate a stringere nuove relazioni commerciali il sistema SHG è il più favorito. Invece il sistema Grameen, pur essendo più costoso, può essere più adatto per le comunità più povere, specialmente in posti dove ci sono meno ONG che possano formare dei gruppi e dove vi sono meno filiali bancarie.
8.7.
La visione più diffusa sulle iniziative per lo sviluppo è stata dominata per almeno cinquanta anni dall'idea che il ruolo dello stato o della società civile sia solo di provvedere solo ciò che le popolazioni indigenti necessitano, cioè risorse materiali, opportunità di apprendimento di conoscenze e abilità e di impiego. Tutte queste strategie però non riescono a sfruttare una risorsa che è spesso presente nelle popolazioni indigenti, ma che molto spesso non viene presa nemmeno in considerazione: le loro conoscenze. La scomparsa dei saperi locali si realizza attraverso l'interazione con il sapere dominante: i saperi locali scompaiono semplicemente perché si fa finta di non vederli, negandone l'esistenza. Quando i saperi locali riemergono nel quadro della globalizzazionem li si fa scomparire negandone lo status di sapere sistematico e definendoli “primitivi” e “non scientifici”7. Più alto il livello di criticità delle condizioni fisiche, tecnologiche, sociali o economiche, più alta la probabilità che le comunità e gli individui svantaggiati generino alternative creative ed innovative nell'utilizzo delle scarse risorse a cui possono accedere. Queste innovazioni, sia che provengano da conoscenze arcaiche sia che provengano da conoscenze moderne, sono sviluppate sia da comunità che da singoli individui. Le innovazioni nelle caratteristiche tecnologiche e culturali spesso rimangono isolate e sconnesse nonostante l'esistenza di una rete informale di scambio di conoscenze. Una rete estesa che colleghi innovazioni, imprese e investimenti in un contesto istituzionale è una strategia promettente per raggiungere uno sviluppo sostenibile. Da queste considerazioni nacque in India nel 1989 l'organizzazione Honey Bee Network8, grazie alle intuizioni del Prof. Anil K. Gupta, e poi estesasi ad altri 75 Stati. Il suo obiettivo è mettere in rete fra loro tutte le persone creative impegnate in elaborare soluzioni a problemi locali, facilitando la condivisione di conoscenze e quindi l'apprendimento collettivo. La vera innovazione di questa organizzazione è lo studio di una etica relativa alla ricerca sulle conoscenze possedute da persone indigenti, la loro documentazione, diffusione e incorporazione in prodotti/servizi o politiche. Comunicando in inglese, si può essere collegati a livello globale, ma alienati a livello locale. Honey Bee Network incoraggia i suoi membri e collaboratori a utilizzare anche le lingue locali per facilitare l'emergenza di relazioni stabili tra tutti i partecipanti, oltrepassando le barriere linguistiche, religiose, culturali. Honey Bee Network è quindi un centro, o meglio una rete, di conoscenze, che raccoglie le soluzioni sviluppate da persone risiedenti in tutto il mondo e in differenti settori, per collegare queste e i loro autori con studiosi, politici, imprenditori ed educatori. Il nome stesso Honey Bee ('ape mellifera') rappresenta la filosofia 7 8
354
Honey Bee network
Shiva (1995) http://www.sristi.org/honeybee.html
dell'organizzazione: le api mellifere raccolgono il polline dai fiori senza impoverirli, e li mette in rete attraverso l'impollinazione. Il concetto fondamentale di questa filosofia è che quando si ricevono delle conoscenze da delle persone, bisogna essere sicuri che queste non vengano inpoverite dall'averle condivise. Inoltre, bisogna mettere in rete tutti gli innovatori attraverso l'utilizzo di tutte le lingue locali, condividendo con loro anche gli ulteriori sviluppi che sono stati fatti sulle loro conoscenze. Se le loro conoscenze (o ulteriori sviluppi) generano dei profitti, una percentuale di questi deve tornare agli autori iniziali. In questo modo tutti gli innovatori sono motivati a partecipare alla condivisione di conoscenze. L'organizzazione di volontari Research and Initiatives for Sustainable Technologies and Institutions (SRISTI) svolge un ruolo di supporto a Honey Bee Network controllando che tutte le attività seguano sei concetti: eticità, equità, eccellenza, rispetto per l'ambiente, educazione, efficienza delle imprese. I suoi obiettivi sono: espandere nella società lo spazione • necessario per iniziative e innovazioni a livello locale, con una speciale attenzione sulle conoscenze possedute dalle donne; • documentare, analizzare e diffondere innovazioni tecnologiche e sociali riscontrate; • dare valore alle innovazioni locali attraverso sperimentazioni e ricerche al fine di sviluppare tecnologie o prodotti sostenibili; • conservare la biodiversità locale attraverso banche genetiche gestite dalle popolazioni locali; • proteggere i diritti d'autore degli innovatori e generare incentivi; • fornire supporti economici per la fondazione di imprese dedicate a fornire
•
prodotti e servizi sviluppati dalle innovazioni presenti nella rete; includere le conoscenze riscontrate a livello locale nei sistemi formali di educazione.
La documentazione di tutte le soluzioni elaborate a livello locale avviene attraverso diverse strategie: ricerche di innovazioni svolte da studenti, ricerche di innovazioni svolte da innovatori, concorsi per "ricercatori di innovazioni", concorsi per la documentazione della biodiversità, Shodh Sankal (workshop), ricerca bibliografica in lingue locali, svolgimendo di tesi universitarie, Shodh Yatra, fiere. Studenti di corsi di laurea o post-laurea in scienze agrarie e sviluppo rurale vengono incoraggiati a ricercare esempi di innovazioni, contattando gli autori. In seguito altri studenti o ricercatori controllano una seconda volta questi casi per una maggiore accuratezza della ricerca. Gli stessi innovatori vengono incoraggiati a identificare altri innovatori, attraverso un processo non molto dissimile al processo di peer review utilizzato in molti esempi di comunità online. Vengono organizzati concorsi per gli studenti di università di scienze agrarie e funzionari statali locali, preparandoli con workshop. Per le innovazioni più interessanti vengono premiati sia i "ricercatori" che gli autori, che spesso aumentano la propria reputazione all'interno della propria comunità grazie a questi premi. Questi concorsi vengono organizzate per adulti e bambini, in modo da renderli consapevoli delle problematiche locali e per accelerare il trasferimento di conoscenze tra le generazioni. In questi concorsi i partecipanti devono raccogliere campioni, normalmente di flora, documentandone anche gli utilizzi fatti nelle comunità locali. Per migliorare le capacità degli innovatori, SRISTI organizza workshop per agricoltori al fine di formare reti di sperimentazione (Shodh Sankal). Gli incontri vengono inizialmente organizzati da SRISTI, e in seguito vengono
Fig. 202: Honey Bee Network: database delle innovazioni raccolte (Fonte: http://www.sristi.org) 355
organizzati dai partecipanti, a proprie spese, al fine di incoraggiare gli agricoltori della comunità che ospita il workshop a condividere le proprie innovazioni. In questo modo gli agricoltori partecipanti sviluppano un maggiore senso di responsabilità verso la costruzione di una rete e la diffusione delle conoscenze. Le barriere linguistiche hanno sicuramente sempre frenato la condivisione di conoscenze. Vi sono molti innovatori che non hanno mai ricevuto attenzione nè credito solo per il loro utilizzo di lingue locali. Per questo motivo vengono analizzate pubblicazioni in tutte le lingue locali, per evitare di dover sprecare tempo elaborando soluzioni già esistenti: l'espressione usata spesso "reinventare la ruota" fornisce una chiara idea della importanza di queste ricerche. Le fiere di prodotti agricoli sono talmente importanti da essere ormai delle istituzioni nelle zone rurali. In queste fiere tutti gli agricoltori dei territori vicini si scambiano non solo prodotti ma anche informazioni e conoscenze: i membri di SRISTI possono quindi giocare un ruolo importante nel catalizzare la diffusione delle conoscenze presentandosi a queste fiere. SRISTI organizza dei viaggi di esplorazione (Shodh Yatras) con l'obiettivo di ricercare e diffondere innovazioni. L'idea è di viaggiare per villaggi per un periodo di 8-10 giorni compiendo al massimo 250 km, organizzando concorsi di vario tipo e mostrando alle comunità locali il progetto Honey Bee Network. Honey Bee Network e SRISTI cercano di motivare gli innovatori locali a partecipare attraverso la creazione di valore aggiunto per le conoscenze condivise e la ridistribuzione dei benefici ottenuti dalla loro commercializzazione. SRISTI, attraverso le sue attività, cerca di aggiungere valore alle conoscenze raccolte e archiviate attraverso questi obiettivi: istituire ricerche e sperimentazioni sia sul • campo che in laboratorio o in imprese, per sviluppare tecnologie, prodotti e servizi sostenibili, collaborando con enti di ricerca e privati; • istituire semplici ed economici sistemi di certificazioni per alimenti biologici; • sperimentare modelli di imprenditori a livello locale per poi ampliare la scala di diffusione di tecnologie, prodotti e servizi sostenibili; • condividere i benefici provenienti dalla commercializzazione delle tecnologie, dei prodotti e servizi sviluppati con gli innovatori locali. Honey Bee Network sta sperimentado vari modelli possibili di ridistribuzione dei benefici ottenuti dalle conoscenze condivise con i seguenti incentivi: • materiali-individuali: ricompense, premi, brevetti, licenze; • materiali-collettivi: fondi, supporto a venture capita sotto il diretto controllo degli interessati; questi benefici raggiungono le comunità locali al fine di incoraggiare ulteriori sperimentazioni e 356
iniziative imprenditoriali; non materiali-individuali: onoreficemze, cerimonie pubbliche, inviti a conferenze e lezioni; • non material-collettivi: curriculum educativi, capacity building attraverso il trasferimento di tecnologie, ecc. È di notevole importanza che gli innovatori locali ricchi per conoscenze ma poveri economicamente, non traggano svantaggi ma vantaggi dalla condivisione delle proprie conoscenze e scoperte. Per far ciò bisogna riconsiderare il sistema dei brevetti e diritti di autore. Honey Bee Network ha creato nuovi standard di affidabilità nella gestione di innovazioni elaborate a livello locale: le conoscenze ricercate e archiviate possono essere utilizzate con il permesso degli autori e la loro citazione. Per permettere il pieno riconoscimento della provenienza di queste innovazioni Hoeny Bee Network propone la creazione di un istituto apposito da parte della World Trade Organization (Organizzazione del Commercio Mondiale): International Network for Sustainable Technological Applications and Registration (INSTAR), cioè una rete internazionale per la registrazione e l'applicazione di di tecnologie sostenibili. Il suo obiettivo sarà quello di riconoscere la creatività degli individui e delle comunità registrando ogni innovazione in un archivio apposito accessibile a tutti, diventando un punto di incontro tra le innovazioni, gli investimenti e le imprese. Grazie a questo archivio, per ogni innovazione si può risalire all'autore o agli autori, che riceveranno una percentuale dei ricavi dall'utilizzo commerciale delle innovazioni. Anche i piccoli imprenditori, che non possono ricercare queste innovazioni da sé, possono consultare l'archivio e mettersi in contatto con gli autori e le loro comunità. I documenti certificando la paternità delle innovazioni possono essere utili agli autori e ai piccoli imprenditori per l'ottenimento di prestiti. Questo sistema di registrazioni fa parte di tutta la rete di conoscenze che lega individui e comunità a livello locale in tutto il mondo, promuovendo le interazioni e l'apprendimento reciproco. •
Nel 1997 il governo dello stato indiano nordoccidentale del Gujarat ha iniziato un progetto assieme a SRISTI e all'istituto IIMA (Indian Institute of Management), organizzazioni non governative e corporazioni professionali denominato Gujarat Grassroots Innovation Augmentation Network (GIAN), ovvero rete per il miglioramento delle innovazioni locali del Gujarat. L'acronimo GIAN in Sanscrito significa "conoscenza", e l'idea alla base di questo progetto è di convertire le conoscenze elaborate a livello locale in prodotti e servizi diffusi attraverso canali commerciali o non commerciali. Attraverso mezzi di comunicazione elettronici, tipografici ed orali si può costituire una rete a più livelli per sostenere le innovazioni attraverso la documentazione, sperimentazione e ridistribuzione dei benefici. GIAN è quindi anche un primo passo nella fondazione di centri di ricerca e sviluppo non per grandi imprese ma per piccoli innovatori. GIAN è un esperimento pilota che può essere replicato in
tutto il mondo nella creazione di una rete tra innovatori, imprese e investitmenti.
8.8.
Kiva
Il concetto fondamentale dei programmi di microcredito è basato sul prestito si modesti quantitativi di denaro a individui, famiglie o comunità, di modo che questi possano intraprendere attività economiche e diventare autosufficienti. Questi programmi hanno dimostrato la loro validità lavorando a livello locale, sia con iniziative top down (come ad esempio nel caso della Grameen Bank) che bottom up (ad esempio i vari casi di Self Help Groups), e raggiungendo un numero di persone stimato il 31 dicembre 2004 essere 92.270.289.9 Ma questo è tuttavia un numero molto inferiore rispetto alla quantità di persone che potrebbero beneficiare di un microcredito. Inoltre, la gestione di migliaia di prestiti è una attività impegnativa, che richiede software per lo più costosi. Sono quindi nati dei progetti di sviluppo di software open source destinato alla gestione di programmi di microcredito come Micro-Finance Open modificatosi poi nel progetto Architecture10, Mifos11. Gli obiettivi di questi progetti sono quindi lo sviluppo di sistemi di gestione delle informazioni scalabili, flessibili e modificabili, la costruzione di una comunità open source che li sviluppi, gestisca ed aiuti così le varie istituzioni di microcredito. Mentre questi casi sono un semplice interessamento da parte della comunità Open Source verso il tema dei software utilizzati nei programmi di microfinanza, in questi anni si è sviluppato un caso promettente di programma di microcredito che, attraverso l'utilizzo di software e Internet, rivoluziona il concetto di microcredito adattandolo ancora di più verso i principi Open P2P. È il caso di Kiva12 (in swahili 'accordo' o 'unità'), programma fondato nel marzo 2005 da Matthew e Jessica Flannery, il primo programma di microcredito distribuito con modalità P2P. Questo programma si basa sull'idea che un processo di tipo peer-to-peer one-to-one sia più trasparente rispetto agli approcci di microcredito tradizionali, che si basano sull'attività di ONG per la distribuzione delle donazioni. Il modello di microfinanza proposto da Kiva richiede una partecipazione attiva dei creditori, che risultano coinvolti maggiormente nel miglioramento delle condizioni delle comunità locali, rispetto a dei donatori passivi. I creditori infatti selezionano direttamente quale attività finanziare, non attraverso donazioni ma prestiti, che partono da 25 dollari e durano circa 6-12 mesi, senza la richiesta di interessi. Fino ad ora tutte le iniziative finanziate hanno restituito i prestiti senza
9 Daley-Harris (2005) 10 http://moap.sourceforge.net/cgibin/twiki/bin/view/Moap/WebHome 11 Http://www.mifos.org 12 http://www.kiva.org
problemi13. L'intera somma devoluta viene inviata direttamente all'iniziativa scelta, dato che Kiva finanzia i propri costi di gestione attraverso sponsor esterni. Kiva permette la interazione diretta tra creditori e debitori attraverso il proprio sito web, dove vengono elencati i casi di gruppi di persone che necessitano un microcredito. Ogni caso viene descritto con una breve descrizione scritta e la sua sintesi in una serie di punti; in questo modo i potenziali creditori possono effettuare prestiti conoscendo le caratteristiche dei debitori e quali iniziative propongono per l'utilizzo del microcredito. Ad esempio, nel caso dell'iniziativa Nywol Ber14 ('unità') si ha il seguento elenco: • partner locale (una ONG locale che ricerca i casi e ne garantisce e controlla l'operato): Village Enterprise Fund; • responsabili del partner locale: Moses Onyango , Joseph Adongu; • località: Tororo, Uganda; • imprenditore (ossia, chi riceve il prestito e sviluppa una attività per ottenere un guadagno economico e al contempo restituire il prestito): Henry Okoth • attività proposta: produzione di mattoni e gestione di un punto di vendita; • quantità del prestito necessario: 500 dollari; • utilizzo del prestito: migliorare l'inventario del negozio; • ricezione del prestito e inizio dell'attività: 1 ottobre 2005; • limite per la restituizione del prestito: 6-12 mesi; • prestito ripagato attualmente: 210 dollari; Segue una descrizione dei debitori, della loro famiglia e del perché necessitino un prestito. Viene fornita anche una loro foto, per permettere ai creditori il riconoscimento della reale esistenza dei debitori. Ad esempio nel caso citato viene fornita la foto della moglie del responsabile del prestito, la signora Okoth, dato che è lei che gestisce il rapporto con i clienti del negozio ed p quindi la persona con cui è più facile identificare l'iniziativa. Kiva quindi costruisce reti tra comunità locali desiderose di ricevere un prestito, ONG locali in grado di scegliere e valutare queste comunità, persone disposte a prestare somme di denaro per programmi di microcredito. In questa rete, il ruolo di Kiva consisten le fornire un punto di incontro per tutti i partecipanti e per seguire i percorsi che i prestiti prendono e informare tutti i partecipanti. In questo modo un creditore è in grado di comprendere come siano utilizzati i propri soldi e quali risultati ottengano: ogni mese viene inviato loro un riassunto della situazione attuale con dati, testi e foto. Attraverso il sito web i creditori possono controllare a qualsiasi ora lo stato dell'iniziativa finanziata e 13 http://www.kiva.org/about.php?sub=faq, ultimo accesso 17 marzo 2006 14 http://www.kiva.org/businesses.php?sub=about&id=9 7 357
del suo ripagamento, e comunicare direttamente con i debitori, attraverso gli agenti della associazione partner locale che recapitano i messaggi. In questo modo Kiva garantisce una totale trasparenza dell'utilizzo dei prestiti, permettendo la costruzione di relazioni sociali tra creditori e debitori: tutti i casi presentati sono reali, non sono casi rappresentativi. L'interazione è quindi di tipo peer-to-peer, in cui entrambi hanno un ruolo attivo e riconoscono l'importanza dell'altro. Fino ad ora Kiva si è interessato a comunità di campagna residenti in Uganda, nazione dove l'accesso ad Internet è disponibile anche nelle aree più povere. Fino ad ora sono state finanziate 13 iniziative, tra cui un allevamento, una farmacia, una attività di pesca, manifatture e rivendita di vestiti. Due di loro hanno già rimborsato completamente i prestiti.
Fig. 203: Kiva: presentazione dei creditori (Fonte: http://www.kiva.org)
358
9. Reti collaborative per sostenere altre comunità
Fig. 204: Comunità Open Peer-to-Peer che sostengono altre comunità
9.1. Sustainable Everyday Project / EMUDE Nella complessa e contraddittoria società contemporanea, stanno emergendo dei casi promettenti di innovazione sociale verso la sostenibilità ambientale e sociale. Questi casi sono il risultato della libera iniziativa di gruppi di persone che sviluppano idee nuove per problemi esistenti da lungo tempo, senza aspettare soluzioni dallo Stato o dal mercato, e allo stesso tempo rigenerando il tessuto sociale. Per ricercare, sostenere e replicare questi casi è stato sviluppato un programma di ricerca europeo, Emerging Users Demands for Sustainable Solutions (EMUDE), al fine di influenzare i modi di fare consolidati della maggior parte delle persone verso stili di vita più sostenibili. Per lo svolgimento di questo programma di ricerca si è stabilita una rete collaborativa fra sette università europee di design: • Acadamy of Arts in Cracov (Cracovia – Polonia); • ENSCI Les Ateliers (Parigi – Francia); • Innovation Center of Estonian Acadamy of Arts (Tallin – Estonia); • POLI.design (Consorzio del Politecnico di Milano – Itala); • School of Design, University of Applied sciences (Köln – Germania); • The Glasgow School of Arts (Glasgow – Regno Unito); • The University of Art and Design (UIAH) (Helsinki – Finlandia); Il processo collaborativo di ricerca è stato svolto attraverso una piattaforma web comune sviluppata dall Politecnico di Milano, università coordinatrice del programma di ricerca EMUDE.
I criteri principali per la scelta dei casi riguardano il loro essere: • soluzioni sociali e non tecnologiche; • aspetti innovativi (in relazione alla nazione di appartenenza); • iniziative bottom-up; • sostenibili (dal punto di vista economico, ambientale e sociale). Attraverso la collaborazione con delle università europee di design come “cacciatori di informazioni” (o Antennas, antenne ricettive), il progetto vuole identificare esperimenti, idee, innovazioni sociali e casi promettenti nelle loro fasi iniziali, per poterli sostenere e portare all'attenzione di tutta la società. I casi raccolti verrano utilizzati per lo sviluppo di scenari, con l'obiettivo di anticipare possibili coinvolgimenti fra loro, fra nuovi potenziali partecipanti e per future ricerche. Questi casi raccolti nel programma EMUDE sono utilizzati anche in un altro progetto, il Sustainable Everyday Project1, che propone una piattaforma per stimolare una conversazione aperta a tutti su possibili soluzioni sostenibili per il futuro. È una piattaforma di conoscenze e azioni per comunità creative e singoli cittadini innovativi, aperta alla partecipazione di tutti, con tre obiettivi: • sostenere le comunità creative esistenti, dando loro la possibilità di condividere idee ed esperienze; • facilitare il concepimento e lo sviluppo di nuove iniziative promettenti da singoli cittadini, affinchè costituiscano loro stessi delle comunità creative; coinvolgere una audience più ampia nella • discussione di nuove idee di benessere e di come raggiungerle.
1
http://www.sustainable-everyday.net 359
La piattaforma SEP è costituita da tre componenti intregrate fra loro: una esposizione, un blog e un programma. L'esposizione SEP-Exhibition, basata su contenuti digitali e un sistema di visualizzazione leggero e riutilizzabile (e quindi sostenibile) presenta una collezione di casi, proposte e scenari. La sezione principale contiene i casi promettenti raccolti durante le attività del progetto SEP già svolte e soprattutto nella ricerca Creative Communities – Emude. Inoltre, presenta una serie di proposte elaborate in una serie di workshop organizzati in 15 università di design in 10 Paesi differenti e scenari basati su dei video a integrazione dei casi già presentati. È una esposizione in progress, concepita per essere adattabile alle caratteristiche locali, per essere un catalizzatore di iniziativa locali, per integrare nuovi contenuti ed essere quindi sempre aggiornata. SEP-Blog è una piattaforma online concepita per incoraggiare una discussione pubblica sui casi, soluzioni e scenari raccolti. È composto da un catalogo di casi promettenti esistenti e un laboratorio di sviluppo di scenari che vengono proposti e discussi. Il suo compito è di offrire alle comunità creative e ai singoli cittadini una piattaforma per la condivisione di idee ed esperienze e allo stesso tempo un luogo di informazione per una audience maggiore che può intervenire nelle discussioni. I casi promettenti vengono descritti in tutte le loro caratteristiche: soluzione proposta, background, sviluppo e fase del progetto, autori, ecc. I visitatori possono commentare ogni caso, portando avanti una discussione collettiva.
Fig. 205: Sustainable Everyday Project (Fonte: http://www.sustainable-everyday.net)
Gli scenari vengono descritti con brevi filmati scaricabili che possono essere commentati, e riguardano aspetti della vita quotidiana come prepare del cibo, muoversi, come utilizzare l'energia, ecc. SEP-Program è una serie di eventi per migliorare l'efficacia dell'esposizione e del blog animando le discussioni, allargando la rete di partecipanti interessati, ricercando nuovi spazi per installare l'esposizione e organizzando altri eventi specifici.
9.2. The New Earth Fund New Earth2 è una organizzazione che svolge il ruolo di ente di supporto per la promozione di attività sostenibili a livello economico, sociale ed ambientale. Per fare ciò si struttura come una rete tra imprese, individui, associazioni e comunità, dove la raccolta e ridistribuzione di donazioni sostiene imprese e iniziative a livello di comunità più sostenibili. Per indirizzare un cambiamento a livello di sistema verso la sostenibilità, sono possibili due approcci. Il primo agisce in maniera incrementale sulle scelte di impresa, che modifica l'offerta di prodotti e servizi più sostenibili. Il secondo agisce in maniera strutturale sul cambiamento degli stili di vita, che influenza la domanda di prodotti e servizi. New Earth promuove entrambi gli approcci. Nel primo caso, assegnando un “marchio di garanzia New Earth” alle imprese membri, attraverso un processo di peer review, gestito da tutta la rete New Earth con uno strumento web specifico che ne garatisce la trasparenza. In questo modo il marchio è un elemento di vantaggio competitivo dell'azienda: questo spingerà anche altre aziende a muoversi nello stesso modo. Nel secondo caso, il cambiamento strutturale degli stili di vita viene portato avanti fornendo supporto a comunità nel miglioramento del loro impatto sociale e ambientale attraverso la fornitura di informazioni e risorse finanziarie. Inoltre New Earth Fund provvede finanziamenti alle organizzazioni non profit impegnate in progetti di sviluppo di comunità e sviluppa progetti di educazione alla sostenibilità dedicati all'infanzia. In questo modo New Earth non svolge il ruolo di provider di informazioni su come debba essere raggiunta la sostenibilità economica, sociale e ambientale, ma svolge il ruolo di enabler di attività sostenibili, agendo da fondamenta a una rete di comunità, individui, associazioni non profit e imprese commerciali. Questi attori possono partecipare alle attività di New Earth se si impegnano a svolgere alcune azioni e rendono visibili questi impegni sul proprio sito web. In particolare devono: • devolvere l'1% delle entrate (se una compagnia commerciale) a New Earth Fund. New Earth deve creare da sè l'opportunità commerciale ( di guadagno o opportunità) per la partecipazione; in questo modo il valore di 1% è 2
360
http://www.newearth.info
•
•
•
un costo di partecipazione che sarà sorpassato dai benefici della partecipazione (anche se varia da impresa a impresa e da anno a anno), dato che normalmente le compagnie attualmente di solito offrono di più; se poi per loro è più vantaggioso offrire di più se ne renderanno conto e lo faranno da sè; permettere agli impiegati pagati dell'organizzazione (se ve ne sono) 1% dell'anno lavorativo come pagato per contribuire volontariamente in progetti di sviluppo sostenibile all'interno delle proprie comunità o anche fuori; creare e gestire trasparentemente un programma (“Better and Better”) che impegna gli stakeholders a comprendere continuamente gli impatti a breve e lungo termine della organizzazione sui suoi membri, sulla società e l'ambiente; decidere degli obiettivi per migliorare continuamente questi impatti; creare e sviluppare progetti per promuovere questi impatti; documentare trasparentemente e allo stesso tempo migliorare gli obiettivi, progetti e risultati; partecipare annualmente in un processo di valutazione con le organizzazioni di pari livello. In questo processo i membri di organizzazioni non in competizione fra loro visitano e valutano il successo di una organizzazione nel compiere questi impegni, e allo stesso modo vengono valutati da un'altra organizzazione.
Il coinvolgimento delle imprese in New Earth può avvenire anche tramite il processo chiamato “Nomination through donation” (NTD), nominazione attraverso una donazione. Donazioni da individui, associazioni e imprese possono essere fatte “in nome” di una impresa, contribuendo al suo “livello di nominazione” publicato via web. Quando questo livello raggiunge la quota di partecipazione annuale la impresa è “nominata” per la partecipazione: i cittadini della località dell'impresa la inviteranno ad accettare la partecipazione che oltretutto viene pubblicizzata da New Earth a livello nazionale e internazionale. Le imprese hanno un anno di tempo per accettare di partecipare, nel qual caso non dovrebbero pagare la quota del primo anno di partecipazione. In questo modo il coninvolgimento della comunità può creare forti opportunità per le imprese locali. Questo vantaggio competitivo porterà in seguito anche altre imprese alla partecipazione in New Earth. Le donazioni raccolte vengono distribuite o a comunità che gestiscono iniziative di sviluppo locale, o a progetti che seguono questi criteri: • sviluppo: progetti che forniscono soluzioni a problemi impellenti relativi alla alimentazione, acqua, abitazioni, educazione, igiene, oppure mettono in grado le persone di trovare queste soluzioni; • imprese: investimenti nella introduzione di imprese che stimolano sviluppo a livello locale o regionale socialmente e
•
ecologicamente sostenibile; accesso: in linea di principio tutti i progetti sostenuti da New Earth devono poter essere di beneficio a chiunque. Tuttavia in molti casi sono prima necessari interventi per migliorare le condizioni di alcune comunità o persone come ad esempio educazione e accesso ai mezzi di comunicazione.
Nei modelli di donazione e assistenza convenzionali, i donatori individuano le loro priorità, spesso prescrivendo le soluzioni e decidendo i loro metri di giudizio del successo di una attività. Invece New Earth utilizza un sistema di distribuzione dei finanziamenti particolare, simile al ciclo dell'acqua. L'acqua evapora da tutto le regioni del mondo, si concentra nell'atmosfera, ricade equamente e viene poi utilizzata autonomamente dagli ecosistemi. La distribuzione dei fondi funziona in un modo similie i contributi provengono da tutto il mondo (evaporazione), si concentrano in un fondo comune (l'atmosfera) da cui discendono equamente (pioggia) in modo che sono poi le stesse comunità (ecosistemi) a deciderne l'utilizzo. Un ruolo importante in New Earth è rivestito da dei gruppi che distribuiscono i finanziamenti detti “nuvole”, in quanto il loro funzionamento è simile a quello delle nuvole nel ciclo dell'acqua. Questi gruppi pubblicano sul web i loro processi di selezione dei progetti, in modo da richiamare i progetti esistenti e le comunità membri di New Earth per la richieste di finanziamenti. Questo processo di ricerca e selezione di casi finanziabili è pubblicato sul web in modo da essere trasparente, e viene poi controllato annualmente con un processo di peer review. Il limite massimo annuale dei fondi che ogni “nuvola” può distribuire previene la concentrazione di potere e influenza promuovendo allo stesso tempo la diversità e l'attenzione alle caratteristiche locali. Questo limite massimo, la trasparenza via web e il processo di peer review permettono una evoluzione degli approcci con forte riduzione delle possibilità di corruzione. Ogni “nuvola” focalizza la sua attività sulla scelta di proposte appartenenti a una sola categoria e utilizza una parte dei finanziamenti per la propria gestione: in questo modo si ha una competizione fra le nuvole alla ricerca della efficienza maggiore. Le “nuvole” devono essere associazioni non profit, e i criteri di selezione sono gli stessi delle comunità: pubblicazione su web della proposta dell'associazione, che viene poi giudicata con peer review da altre “nuvole” per l'ammissione. In seguito il processo di peer review collettivo annuale decide quali “nuvole” confermare nel loro ruolo, e la stessa cosa accade per i progetti e le comunità finanziate. Una assistenza unidirezionale, sebbene necessaria nelle emergenze, minaccia o sviluppo un volta divenuta istituzionalizzata, portando differenze tra chi ne è interessato e chi no. L'alternativa che New Earth segue è quella di creare un insieme di risorse (finanziare, fisiche, informazioni) in cui persone
361
contribuiscono volontariamente e accessibile a tutti (equamente per ogni persona) che abilita uno sviluppo auto-diretto di capacity-building abilitando una creazione spontanea di accordi tra parti che sono per definizioni uguali in ricchezza, diverse in abilità, Il processo di assegnazione dei finanziamenti passa per le fasi di raccolta delle proposte, valutazione e selezione. Anche se un consiglio di amministrazione non è rappresentativo di tutta la rete mondiale di partecipanti, nelle prime fasi di vita di New Earth è presente per poi perdere importanza. New Earth si governa attraverso dei processi di peer review ricorsivi, la cui descrizione è presente su web per poter essere accessibile a tutti e modificabile collettivamente. Dopo una prima fase di test di questi processi di peer review, una volta accertata la loro efficacia, tutti i partecipanti le utilizzeranno per auto-governarsi e il consiglio di amministrazione smetterà di governare la struttura, che si auto-governerà in maniera decentralizzata. Ogni anno tutti i partecipanti e i processi stessi di peer review vengono sottoposti ad un processo di peer review; prima di poter inserirsi nell'organizzazione, una comunità deve poter essere valutata da una comunità già presente sempre con un processo di peer review. Tutti i partecipanti alla rete New Earth devono documentare come producono conoscenze e sviluppano capacità (per migliorare i processi sottostanti), documentare le attività intraprese e i risultati, e condividere queste informazioni all'interno di tutta la rete. I metodi e i requisiti di valutazione sono per il momento definiti dal board of directors, ma in in futuro, con la crescita di New Earth, diverranno molteplici e verranno controllati annualmente tramite un processo di peer review. Riflettendo la struttura decentralizzata della rete, il sistema web di supporto per la trasparenza delle operazioni, viene sviluppato come un database distribuito attraverso un software Open Source (Obiki), che permette con molta facilità di preparare dei siti web.
9.3. mySociety mySociety3 è una associazione non profit che costruisce siti web dedicati al supporto dei cittadini in problematiche legate all'appartenenza alla comunità locale e statale. mySociety.org vuole anche diffondere l'utilizzo di Internet nei settori pubblici e del volontariato attraverso la dimostrazione di utilizzi efficaci. L'associazione è stata fondata nel Settembre 2003 ma, dopo ritardi nella gestione dei finanziamenti publici, ha iniziato le sue attività nel Settembre 2004. Non è una incubatrice di imprese né uno studio di web design: si occupa solamente di progetti senza scopo di lucro. I progetti verranno rilasciati come “open source”, cioè passibili di modifiche da parte degli utenti: l'obiettivo è di creare una comunità volontaria per lo sviluppo di ogni progetto. L'associazione si basa su un nucleo centrale di sviluppatori pagati ma aperto alla partecipazione di volontari a tutti i livelli: dando forma ai progetti, programmando, svolgendo i test di controllo, sottomettendo idee. Tutti i progetti eseguiti derivano da idee sottomesse dagli utenti, che vengono invitati a formulare proposte anche per il futuro dell'associazione. Alcuni dei primi progetti sviluppati sono dedicati a: rafforzare il settore del volontariato: • GiveItAway: facilita lo scambio di oggetti non più utili per evitarne la dismissione; • PledgeBank: un punto di incontro per la raggiunta di una massa critica per la attuazione di azioni; rinnovamento del senso di cittadinanza: • WriteToThem: permette ai cittadini di comunicare con i politici che hanno eletto; • NotApathetic: permette la discussione delle motivazioni che hanno portato alcuni cittadini a non votare nelle elezioni politiche; • YourConstituencyMailingList: fornisce la trascrizione e la diffusione delle affermazioni fatte dai parlamentari;
Fig. 207: mysociety (Fonte: http://www.mysociety.org) Fig. 206: New Earth Fund (Fonte: http://www.newearth.info)
3 362
http://www.mysociety.org/index.php
9.4. The Launchpad (Young foundation) La Young Foundation è un’organizzazione che ha lo scopo di migliorare le vita delle comunità urbane, in Gran Bretagna e nel mondo, conducendo ricerche ed elaborando soluzioni pratiche e innovative. Attualmente sta sviluppando il progetto Launchpad in partnership con il Skoll Centre for Social Entrepreneurhip della Oxford University. Launchpad4 vuole essere un luogo per lo sviluppo e test di innovazioni sociali, indipendente e non specializzato ma in costante contatto con organizzazioni specializzate. In questo modo Launchpad agisce da piattaforma di interazione tra più comunità. Dato che le innovazioni normalmente provengono da una rete di persone e risorse che raggiungono una massa critica, il nucleo centrale di Launchpad mira a creare reti tra privati, imprese, professionisti e terzo settore per ogni progetto di innovazione sociale sviluppato. Questi progetti riguardano la creazione di nuove organizzazioni con un determinato obiettivo sociale e non singoli prodotti, servizi o iniziative, dato che una organizzazione può sviluppare una propria cultura e con questa nuove pratiche innovative. Il punto di partenza per sviluppare questi progetti viene dalla comprensione di bisogni sociali non ancora soddisfatti. Comprensione che viene da ricerche etnografiche e sociologiche, ricerche di mercato e relazioni intessute con enti non profit e di ricerca.
visitatori del sito che possono poi svilupparli autonomamente. Inoltre il sito web diventa anche un luogo di comunicazione tra Launchpad e i suoi collaboratori, ma in futuro diventerà aperto alla discussione e proposizione di nuove idee da parte di tutti i visitatori. Sebbene nelle prime fasi di sviluppo di Launchpad non verranno offerti finanziamenti alle organizzazioni sviluppate, è in studio la possibilità e opportunità di creare un fondo apposito.
Fig. 208: Launchpad (Fonte: http://www.youngfoundation.org.uk)
Launchpad cerca attivamente i portatori di idee socialmente innovative ma senza i mezzi per realizzarli, per poter svilupparle collaborativamente. Per questa ragione vengono ideati workshop di discussione e sviluppo di nuove soluzioni: le sessioni estive e autunnali del 2005 riguarderanno tematiche riguardanti la cura di malattie croniche, l'integrazione di senza casa, invecchiamento della popolazione, cura dei neonati e l'accesso facilitato al sistema giudiziario. Le idee più promettenti verranno sviluppate dal gruppo centrale di Launchpad e da membri parttime attraverso l'analisi dei concept, lo sviluppo di business plan e le fasi di test e lancio di nuove organizzazioni: soprattutto queste ultime due fasi vengono svolte con la partecipazione attiva dei futuri utenti. Il processo di sviluppo di idee innovative è fondato sull'interazione tra differenti abilità, conoscenze e risorse: per questo motivo il gruppo centrale cercherà di coinvolgere volontari per la costruzione di una rete di supporto ai progetti. Attraverso il sito web, dal Dicembre 2005 Launchpad mostrerà tutti i suoi progetti ancora in fase di sviluppo al pubblico, in modo che, con modalità simili a quelle del software libero e Open Source, potrà suggerire modifiche e ulteriori sviluppi. In questo modo anche i progetti che non verranno sviluppati fino in fondo da Launchpad potranno essere presi in considerazione dai 4
http://www.youngfoundation.org.uk/?p=45 363
364
bibliografia
Aa vv, (2003), Revolution OS, Apogeo, Milano Aberer K., Cudré-Mauroux P., Datta A., Despotovic Z., Hauswirth M., Punceva M., Schmidt R., (settembre 2003), P-Grid: A Self-organizing Structured P2P System, SIGMOD Record, n.32, http://www.p-grid.org/Papers/P-Grid-SIGMOD2003.pdf Abramovic M. et al., (2003), Use : uncertain states of Europe / Multiplicity, Skira, Milano Aliprandi S., (2005), Copyleft & opencontent - l'altra faccia del copyright, PrimaOra, Lodi, http://www.copyleft-italia.it/libro/Aliprandi-copyleft.pdf Arnstein S., (1969), A ladder of citizen participation on planning, Town Planning Review p. 55, http://lithgow-schmidt.dk/sherry-arnstein/ladder-of-citizen-participation.html B. Kanefsky et al., (2001), Can distributed volunteers accomplish massive data analysis tasks?, NASA, http://clickworkers.arc.nasa.gov/documents/abstract.pdf Bagnasco et al. (2001), Il capitale sociale : istruzioni per l'uso, Il Mulino, Bologna Baraniuk R., Geneva H., Hendricks B., (2004), Peer to Peer Collaboration with Connexions, Rice University, http://cnx.org/aboutus/publications/Peer%20to%20Peer%20Collaboration%20with%20Connexions.pdf Bauman Z., (2001), Voglia di comunità, Laterza, Roma-Bari, Bauwens M., (Draft 1.93, 21 maggio 2005 ), Peer to Peer and Human Evolution. On "the P2P relational dynamic" as the premise of the next civilizational stage, Foundation for P2P Alternatives, http://www.p2pfoundation.net/index.php/Manifesto Benkler Y., (2002), Coase’s Penguin, or, Linux and The Nature of the Firm, Yale Law Journal, Volume 112, numero 3, http://www.yalelawjournal.org/pdf/112-3/BenklerFINAL.pdf Berra M., Meo A.R., (2001), Informatica solidale: storia e prospettive del software libero, Bollati Boringhieri, Torino Bertola P., Manzini E. (a cura di), (2004), Design multiverso : appunti di fenomenologia del design, Poli.Design, Milano Bertuglia C.S., Staricco L., (2000), Complessità, autoorganizzazione, città, Franco Angeli, Milano Bezroukov N., (dicembre 1999), A Second Look at the Cathedral and Bazaar, First Monday, volume 4, n. 12, http://firstmonday.org/issues/issue4_12/bezroukov/index.html Blankman E., Escousse S., Schillak A., Schmidt L., Slotnick M., (2000), OSCar – The Open Source Car Project, Stern School of Business, http://pages.stern.nyu.edu/~sjournal/articles_02/os_car_project.pdf Bonazzi G., (1999), Dire, fare, pensare. Decisioni e creazione di senso nelle organizzazioni, Franco Angeli, Milano
365
Brancato S., (2002), La comunicazione mediata dal computer e la dimensione di community, In Morcellini, Pizzaleo (2002) Buchanan M., (2003), Nexus. Perchè la natura, la società , l'economia, la comunicazione funzionano allo stesso modo, Mondadori, Milano Butler R., (1998), Progettare le organizzazioni, McGraw Hill libri Italia, Milano Capra F., (2001), La rete della vita, Biblioteca Universale Rizzoli, Milano Capra F., (2004), La scienza della vita. Le connessioni nascoste fra la natura e gli esseri viventi, Biblioteca Universale Rizzoli, Milano Casaleggio e associati, (gennaio 2006), Focus: La Blogosfera e i Media. La diffusione dei blog e il declino dei media, http://www.casaleggio.it/dettagli/check/pdf/Focus_blogosfera-media_v1.0.pdf Cascio J., (21 ottobre 2005), Distributed, Collaborative... Microfinance, http://www.worldchanging.com/archives/003664.html Castelli A., Vignati A., Villari B. (a cura di), (2003), ME.Design. Il contributo del design allo sviluppo locale, SDI Design Review n.2, http://www.sistemadesignitalia.it/sdimagazine/ Castelli A., Villari B., (2003), STAR | Sistema Topologico Argomentativo della Ricerca. Costruire l'organizzazione della conoscenza. Il caso ME.Design, Edizioni POLI.Design, Milano Castells M., (1996), The rise of the network society, Blackwell, Cambridge, Massachusetts Castells M., (2001), L'informazionalismo e la network society, In Himanen (2001) Ceriotti S., (3 marzo 2006), Quando la musica si crea in rete, boom di artisti che "collaborano", La Repubblica, http://www.repubblica.it/2006/a/sezioni/scuola_e_universita/servizi/giovaniarte/icomposition/icomposition .html Ceriotti S., (3 marzo 2006), Studenti, musicisti, mamme, tutti in rete a collaborare, La Repubblica, http://www.repubblica.it/2006/a/sezioni/scuola_e_universita/servizi/giovaniarte/icompitaliani/icompitalian i.html Cesareo G., Rodi P., (1996), Il mercato dei sogni. Introduzione alle comunicazioni di massa, Bruno Mondadori, Milano, Chandra P., Tirupati D., (6 maggio 2002), Managing complex networks in emerging markets: the story of Amul, Working Paper No. 2002-05-06 Indian Institute of Management Vastrapur, Ahmedabad, http://www.iimahd.ernet.in/publications/data/2002-05-06PankajChandra.pdf Chiesi A.M., (1999), L'analisi dei reticoli, Franco Angeli, Milano Clarke I., Miller S. G.,Hong T. W., Sandberg O., Wiley B., (gennaio-febbraio 2002), Protecting Freedom of Information Online with Freenet, IEEE Internet Computing, Coleman S. et al, (giugno 2005), From the Ground Up. An evaluation of community focused approaches to e-democracy, Local e-Democracy National Project, http://www.e-democracy.gov.uk/knowledgepool/default.htm?mode=1&pk_document=460 Cottam H., Leadbeater C., (2004), RED PAPER 01 HEALTH: Co-creating Services, Design Council, http://www.designcouncil.org.uk/resources/assets/assets/pdf/Publications/RED%20Paper%2001%20Healt h%20-%20Co-creating%20Services.pdf 366
Cristallo V., Guida E., Morone A., Parente M., (a cura di), (2003), Design e sistema-prodotto alimentare. Un'esperienza di ricerca-azione, edizioni CLEAN, Napoli Crowston K., Howison J., (febbraio 2005), The social structure of Free and Open Source software development, First Monday, volume 10, n. 2, http://firstmonday.org/issues/issue10_2/crowston/index.html Daley-Harris S., (2005), State of the microcredit summit campaign report 2005, The Microcredit Summit Campaign, Washington DC, http://www.microcreditsummit.org/pubs/reports/socr/2005/SOCR05.pdf De Carlo G., luglio/agosto 2004, Possono i non luoghi ridiventare 'luoghi'?, Domus n. 872 De Fusco R., (1985), Storia del design, Laterza, Roma-Bari, De Rita G., Bonomi A., (1998), Manifesto per lo sviluppo locale : dall'azione di comunità ai Patti territoriali, Bollati Boringhieri, Torino, De Wolf T., Holvoet T., (2005), Emergence Versus Self-Organisation: Different Concepts but Promising When Combined In Engineering Self Organising Systems: Methodologies and Applications, Lecture Notes in Computer Science, volume 3464, pp 1-15, http://www.cs.kuleuven.be/~tomdw/publications/ Dean K., (08/01/2005), We're Creative Commonists, Bill, Wired, http://www.wired.com/news/culture/0,1284,66209,00.html Design Council, (2006a), Design Notes 01: Activmobs, London, http://www.designcouncil.org.uk/mt/red/health/KentDesignNotes01.pdf Design Council, (2006b), Design Notes 02: The Diabetes Agenda, London, http://www.designcouncil.org.uk/mt/red/health/BoltonDesignNotes02.pdf Design Council, (28 novembre 2005), Designs of the time, http://www.designcouncil.org/webdav/harmonise?Page/@id=6009&Session/@id=D_jDtGHmXhmIrFYrkDR 4xb&Document/@id=9602 Dibona, Ockam, Stone (a cura di ), (1999), Open Sources - Voci dalla rivoluzione open source, Apogeo, Milano, http://www.apogeonline.com/openpress/libri/545/index.html Donath J.S., (1997), Inhabiting the virtual city: The design of social environments for electronic communities, Doctor of Philosophy at the Massachusetts Institute of Technology, http://smg.media.mit.edu/people/Judith/Thesis/ Duzzi C., (novembre 2005), Il cielo sopra il Corviale, Domus n. 886 Eiglier P., Langeard E., (1988), Marketing strategico nei servizi, McGraw-Hill libri Italia, Milano Engelen S., A Walk through the Music Bazaar - Reflections on the Future of Music, In Wynants, Cornelis (2005) Engeström Y., 2003, Cultural-Historical Activity Theory, Center for Activity Theory and Developmental Work Research, University of Helsinki, http://www.edu.helsinki.fi/activity/pages/chatanddwr/chat/
Engeström Y., (1987), Learning by Expanding: An Activity - Theoretical Approach to Developmental Research, Orienta-Konsultit, Helsinki, http://communication.ucsd.edu/MCA/Paper/Engestrom/expanding/toc.htm
367
Engeström Y., (2000), Activity theory as a framework for analyzing and redesigning work, in Ergonomics, vol. 43, n. 7, pp. 960-974, http://www.tandf.co.uk/journals Fagnoni R., Gambaro P., Vannicola C., (a cura di), (2004), Medesign_forme del Mediterraneo, Alinea, Firenze Fazio M., (2000), Passato e futuro delle città. Processo all'architettura contemporanea, Einaudi, Torino Franke N., Sonali Shah, (2001), How Communities Support Innovative Activities: An Exploration of Assistance and Sharing Among Innovative Users of Sporting Equipment, Vienna University, MIT, http://opensource.mit.edu/papers/frankeshah.pdf Goetz T., (2003), Open Source Everywhere. Software is just the beginning … open source is doing for mass innovation what the assembly line did for mass production. Get ready for the era when collaboration replaces the corporation, Wired Issue 11.11, http://www.wired.com/wired/archive/11.11/ Goldman R., Gabriel R. P., (2005), Innovation Happens Elsewhere. Open Source as Business Strategy, Morgan Kaufmann Publishers, http://dreamsongs.com/IHE/IHE-6.html Görling S., (giugno 2003), A critical approach to Open Source software, Royal Institute of Technology, Stockholm, http://opensource.mit.edu/papers/gorling.pdf Granovetter, M., (1973), The Strength of Weak Ties, American Journal of Sociology, Vol. 78, No. 6., May 1973, pp 1360-1380, http://www.stanford.edu/dept/soc/people/faculty/granovetter/documents/TheStrengthofWeakTies.pdf Gupta K. A., (1998), The Honey Bee Network: Linking Knowledge-rich grassroots innovations, http://www.sristi.org/papers/new/The%20Honey%20Bee%20Network,Development%20paper.doc Hamdi N.,Goether R., (1997), Action planning for cities : a guide to community practice, John Wiley & Sons Ltd, Chichester, Harper, M., (2002), Grameen Bank Groups and Self-Help Groups: What are the Differences?, London, UK: ITDG publishing, http://www.microfinancegateway.org/content/article/detail/3249 Hauben R., (08 settembre 2005), OhmyNews and 21st Century Journalism, Ohmynews, http://english.ohmynews.com/articleview/article_view.asp?article_class=8&no=246787&rel_no=1 Helen McCarthy, Paul Miller, Paul Skidmore, (2004), Network Logic. Who governs in an interconnected world?, Demos, London, http://www.demos.co.uk/networklogic_pdf_media_public.aspx Heylighen F., (1996), Evolution of Memes on the Network. From Chain-Letters to the Global Brain, http://pespmc1.vub.ac.be/papers/Memesis.html Himanen P., (2001), L'etica hacker e lo spirito dell'età dell'informazione, Feltrinelli, Milano Hope J.E., (2004), Open Source Biotechnology, Thesis submitted for the degree of Doctor of Philosophy at The Australian National University, http://opensource.mit.edu/papers/hope.pdf Hughes J., Sadler S. (edited by), (2000), Non-plan : essays on freedom participation and change in modern architecture and urbanism, Architectural press, Oxford Ianneo F., (2005), Memetica. Genetica e virologia di idee, credenze e mode, Castelvecchi, Roma Jankowski N., (2002), Creating Community with Media: History, Theories and Scientific Investigations, in Lievrouw L., Livingstone S., (edited by), (2002), Handbook of New Media Social Shaping and Consequences of ICTs, Sage Publications, London, http://www.sagepub.co.uk/mcquail5/downloads/Handbookchaps/ch02.pdf 368
JĂŠgou, F., Manzini, E., e Meroni, A., (2003), Design plan, a tool for organising the design activities oriented to generate sustainable solutions, SusProNet conference, Amsterdam, John Craig, Paul Skidmore, (2005), Start with People. How community organizations put citizens in the driving seat, Demos, London, http://www.demos.co.uk/startwithpeople_pdf_media_public.aspx Kahney L., (17 maggio 2003), Citizen reporters make the news, Wired, http://www.wired.com/news/culture/0,1284,58856,00.html Kelsey J., Schneier B., (1999), The Street Performer Protocol and Digital Copyrights, First Monday volume 4, n.6, http://www.firstmonday.dk/issues/issue4_6/kelsey/ Kim E., (2003), An Introduction to Open Source Communities, Blue Oxen Associates, http://opensource.mit.edu/papers/blueoxen.pdf Kumiyo Nakakoji, Yasuhiro Yamamoto, Yoshiyuki Nishinaka, Kouichi Kishida, Yunwen Ye, (2002), Evolution Patterns of Open-Source Software Systems and Communities, Proceedings of International Workshop on Principles of Software Evolution, ACM Press, New York, http://www.kid.rcast.u-tokyo.ac.jp/~kumiyo/mypapers/IWPSE2002.pdf Kuwabara, Ko, (2000), Linux: A Bazaar at the Edge of Chaos, First Monday, volume 5, n. 3, http://firstmonday.org/issues/issue5_3/kuwabara/index.html Lave J., Wenger E., (1991), Situated Learning: Legitimate Peripheral Participation, Cambridge University Press, Cambridge Lazar, J. and Preece, J., (2002), Social Considerations in Online Communities: Usability, Sociability, and Success Factors, In H. van Oostendorp, Cognition in the Digital World. Lawrence Erlbaum Associates Inc. Publishers. Mahwah: NJ. (in stampa), http://www.ifsm.umbc.edu/~preece/Papers/herre_chapter03.pdf Leadbeater C., Miller P., (2004), The Pro-Am Revolution. How enthusiasts are changing our economy and society, Demos, London, http://www.demos.co.uk/proamrevolutionfinal_pdf_media_public.aspx Lehmann F., (novembre 2004), FLOSS developers as a social formation, First Monday, volume 9, n.11, http://firstmonday.org/issues/issue9_11/lehmann/index.html Lerner J., Tirole J., (dicembre 2004), The economics of technology sharing: open source and beyond, Harvard Bussiness School, University of Toulouse, http://opensource.mit.edu/papers/lernertirole3.pdf Lessig L., (2004), Free culture : how big media uses technology and the law to lock down culture and control creativity, The Penguin Press, New York, http://www.free-culture.cc/freeculture.pdf LĂŠvy P., (1996), L'intelligenza collettiva : per un'antropologia del cyberspazio, Feltrinelli, Milano Lin N., (1999), Building a Network Theory of Social Capital, Connections, n.22, http://www.insna.org/Connections-Web/Volume22-1/V22(1)-28-51.pdf Loban B., (ottobre 2004), Between rhizomes and trees: P2P information systems, First Monday, volume 9, n. 10, http://firstmonday.org/issues/issue9_10/loban/index.html Local e-Democracy National Project, (marzo 2005), Partnership with BBC iCan. Outcomes report, http://www.e-democracy.gov.uk/knowledgepool/default.htm?mode=1&pk_document=373 Local e-Democracy National Project, (marzo 2005), Working with BBC iCan Case study: Four local authorities partner with BBC iCan to build local online civic engagement, http://www.e-democracy.gov.uk/knowledgepool/default.htm?mode=1&pk_document=365
369
Lockwood M.,Murray R., (2005), RED Future Currents: Designing for a changing climate, Design Council, London, http://www.designcouncil.org.uk/red Lorenzo R., (1998), La città sostenibile : partecipazione, luogo, comunità, Elèuthera, Milano Madanmohan T.R., (2002), Roles and Knowledge Management in Online Technology Communities: An Ethnography Study, Indian Institute of Management-Bangalore, Digital, http://opensource.mit.edu/papers/madanmohan2.pdf Madanmohan2.pdf Madey G., Freeh V., Tynan R., (2002), The open source software development phenomenon: an analysis based on social network theory, University of Notre Dame, http://www.nd.edu/~oss/Papers/amcis_oss.pdf Maffei S., Simonelli G., (2002), I territori del design: made in Italy e sistemi produttivi locali, Il sole-24 ore, Milano Maffei S., Villari B., (2004), Comunità di progetto e territorio: un approccio per il design, In Fagnoni, Gambaro, Vannicola (2004), pp.88-95 Maggioni M.A., (febbraio 2002), Open Source Software Communities and Industrial Districts: a Useful Comparison?, DISEIS – UCSC Department of International Economics, Institutions and Development and Faculty of Political Science, Università Cattolica del Sacro Cuore, Milano, http://opensource.mit.edu/papers/maggioni.pdf Magnaghi A., (2000), Il progetto locale, Bollati Boringhieri, Torino Maloney-Krichmar D., Preece J., (2003), Online Communities, . In J. Jacko and A. Sears, A. (Eds.) Handbook of Human-Computer Interaction, Lawrence Erlbaum Associates Inc. Publishers. Mahwah: NJ. 596-620, http://www.ifsm.umbc.edu/~preece/paper/7%20Handbook%20v1.7Final.pdf Martins Cipolla C., (2004), Tourist or guest: designing tourism experiences or hospitality relations?, Design Philosophy Papers, n.02, http://www.desphilosophy.com Manzini E., (1986), La materia dell'invenzione, Edizioni Arcadia, Milano Manzini E., (2004), Un localismo cosmopolita. Prospettive per uno sviluppo locale sostenibile ed ipotesi sul ruolo del design, In Fagnoni, Gambaro, Vannicola (2004), pp.103-109 Manzini E., (2005a), Enabling platforms for creative communities, Doors of Perception 8, Delhi, http://doors8delhi.doorsofperception.com/presentationspdf/manzini.html Manzini E., (2005b), From distributed intelligence to distributed economy via distributed energy generation: an emerging distributed model of development?, Dis-Indaco, Politecnico di Milano, http://www.dis.polimi.it/manzini-papers/05.10.04-Distributed-systems.doc Manzini E., (2006a), Design for sustainability. How to design sustainable solutions, INDACO, Politecnico di Milano, http://www.dis.polimi.it/manzini-papers/06.01.06-Design-for-sustainability.doc Manzini E., (2006b), Creative communities, collaborative networks and distributed economies. Promising signals for a sustainable development, Dis-Indaco, Politecnico di Milano, http://www.dis.polimi.it/manzini-papers/06.01.06-Creative-communites-collaborative-networksdistributed-economies.doc Manzini E., (2006c), Enabling solutions Social innovation, creative communities and strategic design, Dis-Indaco, Politecnico di Milano, http://www.dis.polimi.it/manzini-papers/05.03.06-Enabling-solutions.doc Manzini E., Jegou F., (2003), Quotidiano sostenibile. Scenari di vita urbana, Edizioni Ambiente, Milano
370
Maurer S.M., Rai A., Sali A., (dicembre 2004), Finding cures for tropical diseases: is open source an answer?, PLoS Medicine, Vol 1, Issue 3, http://www.tropicaldisease.org/documents/MauRaiSal_PLOS2004.pdf Max Dax, Defcon R., Einstuerzende Neubauten, (2005), No beauty without danger, Neubauten.org, Berlin Mean M., Tims, (2005), People Make Places. Growing the public life of cities, Demos, London, http://www.divamedia.co.uk/artwork/demos/Demos_PMP_Final_02.pdf Meyer P.B., (2003), Episodes of collective invention, U.S. Bureau of Labor Statistics Office of Productivity and Technology, http://opensource.mit.edu/papers/meyer.pdf Minar N., Hedlund M., (2001), A Network of Peers Peer-to-Peer Models Through the History of the Internet, In Oram A. (edited by) (2001), Peer-to-Peer: Harnessing the Power of Disruptive T echnologies, O'Reilly, http://www.oreilly.com/catalog/peertopeer/chapter/ch01.html Moglen E., (1999), Anarchism triumphant: Free Software and the Death of Copyright, First Monday, http://www.firstmonday.org/issues/issue4_8/moglen/ Morcellini M., Pizzaleo A. G. (a cura di), (2002), Net sociology : interazioni tra scienze sociali e internet, Guerini, Milano, Mulgan G., Steinberg T., Salem O., (2005), Wide Open. Open source methods and their future potential, Demos, London, http://www.demos.co.uk/WideOpen_pdf_media_public.aspx Munari B., (1971), Artista e designer, Laterza, Roma-Bari Mutti A., (1998), Capitale sociale e sviluppo : la fiducia come risorsa, Il Mulino, Bologna NASA, (2001), Clickworkers results: crater marking activity, http://clickworkers.arc.nasa.gov/documents/crater-marking.pdf Nitin Sawhney, (2003), Cooperative Innovation in the Commons: Rethinking Distributed Collaboration and Intellectual Property for Sustainable Design Innovation, M.S. Media Arts and Sciences, 1998 Massachusetts Institute of Technology, http://web.media.mit.edu/~nitin/thesis/ Norris G. A., Ciroth A., (2004), An Emergent Open Network and Global Fund For Community-Driven Sustainable Development, http://www.enviroinfo2004.org/cdrom/Datas/norris.htm O'Reilly T., (2005), The Open Source Paradigm Shift, In Wynants, Cornelis (2005), Pacenti E., (1992/93), Il design dei servizi, Tesi di laurea, rel. Ezio Manzini ; co-rel. Emmanuele Villani, Politecnico di Milano Pacenti E., (1998), Il progetto dell'interazione dei servizi: un contributo al tema della progettazione dei servizi, Tesi di dottorato, tutor: Ezio Manzini ; contro-tutor: Giovanni Anceschi, Politecnico di Milano, Dipartimento di disegno industriale e tecnologia dell'architettura Paci M., (2005), Nuovi lavori, nuovo welfare. Sicurezza e libertĂ nella societĂ attiva, Il Mulino, Bologna Parikh T., Ghosh K., Chavan A., (2002), Design Studies for a Financial Management System for Microcredit Groups in Rural India, http://www.cs.washington.edu/homes/tapan/papers/p0314-parikh.pdf
Pedersen S. T., (2002), Open source and the network society, University of Aarhus, http://opensource.mit.edu/papers/pedersen.pdf
371
Petrini C., (20/10/2004), Discorso pronunciato in occasione dell'apertura di Terra Madre a Torino, http://www.terramadre2004.org/ita/discorsi/pdf/Petrini_ITA.pdf Piccinno G., (2004), Design e territorio : la piazza in mano. 2000-04 Carugo, Abitare Segesta Cataloghi, Milano Pizzorno A., (2001), Perché si paga il benzinaio. Per una teoria del capitale sociale, in Bagnasco et al. (2001), pp.19-45, in Bagnasco et al. (2001), pp.19-45 Poplin D. E., (1979), Communities : a survey of theories and methods of research, Collier Macmillan, New York-London, Preece, J., (2000), Online Communities: Supporting Sociability, Designing Usability, John Wiley & Sons Ltd, Chichester, Preece, J., (2001), Online communities: Usability, Sociability, Theory and Methods, In R. Earnshaw, R. Guedj, A. van Dam and T. Vince (Eds), Frontiers of Human-Centred Computing, Online Communities and Virtual Environments, Springer Verlag, Amsterdam, http://www.ifsm.umbc.edu/~preece/paper/19%20Earnshaw%20book%20chapter%20refs2.pdf Prufer J., (27 gennaio 2004), Network Formation via Contests: The Production Process of Open Source Software, University of Frankfurt/Main, http://opensource.mit.edu/papers/prufer.pdf Quadrio Curzio A., Fortis M., (a cura di), (2002), Complessità e distretti industriali : dinamiche, modelli, casi reali, Il Mulino, Bologna R. G. Baraniuk, C. S. Burrus, D. H. Johnson, D. L. Jones, (2004), Connexions, Sharing Knowledge and Building Communities, Rice University, http://cnx.org/aboutus/publications/ConnexionsWhitePaper.pdf Raymond E. S., (1998), The Cathedral and the Bazaar, First Monday, volume 3, n.3, http://firstmonday.org/issues/issue3_3/raymond/index.html Rheingold H., (1993), The virtual community: Homsteading on the electronic frontier, Addison-Wesley, Reading, Massacussets, http://www.rheingold.com/vc/book/intro.html Rheingold H., (2003), Smart mobs: tecnologie senza fili, la rivoluzione sociale prossima ventura, Cortina, Milano Richard P. Gabriel, Ron Goldman, (agosto 2003), Open Source: Beyond the Fairytales, Sun Microsystems, http://opensource.mit.edu/papers/gabrielgoldman.pdf Rifkin J., (2000), L'era dell'accesso : la rivoluzione della new economy, Mondadori, Milano Rockol.it, Usa, lo scambio 'Peer-to-Peer' su Internet si allarga ai Cd, http://www.rockol.it/news.php?idnews=77727&&pag=0 Roma M., Einstürzende Neubauten. Scene da uno psicodramma industriale, http://www.ondarock.it/Einsturzende.html Roversi A., (2004), Introduzione alla comunicazione mediata dal computer, Il Mulino, Bologna Rullani E., (2002a), Il distretto industriale come sistema adattativo complesso, In Curzio, Fortis (2002) Rullani E., (2002b), Società del rischio e reti di conoscenza, Convegno: Confini e trasgressione di confini nella sociologia economica, del lavoro, dell’organizzazione, 25-26 ottobre 2002, Università di Cagliari, http://www.retericerca.it/AIS_ELO/pdf/Cagliari/Rullani.pdf
372
Sangiorgi D., (2004), Design dei servizi come design dei sistemi di attività : la teoria dell'attività applicata alla progettazione dei servizi, Tesi di dottorato di ricerca in Disegno Industriale, XV ciclo Seassaro A., G. Simonelli, (2004), Introduzione, In Fagnoni, Gambaro, Vannicola (2004), pp.79-80 Shiva V., (1995), Monocolture della mente. Biodiversità, biotecnologia e agricoltura “scientifica”, Bollati Boringhieri, Torino Siedlok F., (2002), Characteristics and applicability of Open Source-based Product Development Model in Other than Software Industries, Dissertation Submited as part requirement for the degree of Masters of Management of University Of Durham Business School, Supervisor: Pierpaolo Andriani, http://opensource.mit.edu/papers/siedlok.pdf Simonelli G., Vignati A., (2004), La ricerca ME.Design e le esperienze di ricerca-azione sul territorio nazionale, In Fagnoni, Gambaro, Vannicola (2004), pp.110-114, Sonali Shah, (2000), Sources and patterns of innovation in a consumer products field: innovations in sporting equipment, MIT, http://opensource.mit.edu/papers/shahsportspaper.pdf Stallman R.M., (2003), Software libero, pensiero libero (vol. 1). Saggi scelti di Richard M. Stallman, Stampa Alternativa, http://creattivismo.openlabs.it/copyleft/document/free-soft-free-soc1.pdf Stallman R.M., (2003), Software libero, pensiero libero (vol. 2). Saggi scelti di Richard M. Stallman, Stampa Alternativa, http://creattivismo.openlabs.it/copyleft/document/free-soft-free-soc2.pdf Steffen A., (25 agosto 2004), Open Source Microcredit?, http://worldchanging.com/archives/001096.html Stürmer M., (3 febbraio 2005), Open source community building, University of Bern, http://opensource.mit.edu/papers/sturmer.pdf Taylor M.C, (2005), Il momento della complessità. L'emergere di una cultura a rete, Codice edizioni, Torino Thackara J., (2005), A New Approach to Design, http://www.dott07.com/approach/printer/introduction.html Thackara J., SPARK! Design and local knowledge, In Verwijnen, Jarrku (2004) The Economist, (10 giugno 2004), An open-source shot in the arm?, http://economist.com/displaystory.cfm?story_id=2724420 Trigilia C., (2005), Sviluppo locale. Un progetto per l'Italia, Laterza, Roma-Bari Tuomi I., (2001), Internet, Innovation, and Open Source: Actors in the Network, First Monday, volume 6, n. 1, http://firstmonday.org/issues/issue6_1/tuomi/index.html Tuomi I., (2005), The Future of Open Source, In Wynants, Cornelis (2005) Unione Europea, Introduction to Distributed Generation, http://europa.eu.int/comm/research/energy/nn/nn_rt/nn_rt_dg/article_1158_en.htm Vaca A., (2005), Extremadura and the Revolution of Free Software. Achieving digital literacy and modernizing the economy of one of the European Union’s poorest regions, In Wynants, Cornelis (2005) Venkatramam V., Mirti S., Picchi F., Romano C., (dicembre 2005), India /1. Network Design, Domus n. 887 Verwijnen, J., Karrku, H. (edited by), (2004), Spark! Design and Locality, UIAH Publications, Helsinki 373
Vicari Haddock S., (2004), La cittĂ contemporanea, Il Mulino, Bologna Villari B., (2003), Lâ&#x20AC;&#x2122;approccio di ricerca ME.Design. Una ricerca-azione del design per valorizzare i sistemi di risorse locali, In Castelli, Vignati, Villari (2003) Von Hippel E., (1988), The sources of innovation, Oxford University Press, Oxford-New York, http://web.mit.edu/evhippel/www/books/sources/SofI.pdf Von Hippel E., (2005), Democratizing innovation, MIT Press, Cambridge, Massachusetts, http://web.mit.edu/evhippel/www/books/DI/DemocInn.pdf Waite T., (agosto 2005), Activity Theory, Indiana University, SLIS, http://www.slis.indiana.edu/faculty/yrogers/act_theory2/ Wates N. (edited by), (2000), The community planning handbook : how people can shape their cities, towns and villages in any part of the world, Earthscan, London Watson A., (settembre 2005), Reputation in Open Source Software, College of Business Administration Northeastern University Working paper, http://opensource.mit.edu/papers/watson.pdf Wenger E., (1998), Communities of Practice: Learning, Meaning, and Identity, Cambridge University Press, Cambridge, Wenger E., McDermott R., Snyder W.M., (2002), Cultivating Communities of Practice, HBS press Wynants M., Cornelis J., (2005), How open is the future? Economic, Social and Cultural Scenarios inspired by Free and Open Source Software, VUB Press, Brussel, http://crosstalks.vub.ac.be/publications/index.html Yunus M., (agosto 2005), Is Grameen Bank different from conventionale banks?, http://www.grameen-info.org/bank/GBdifferent.htm Yunus M., (gennaio 2003), What is Microcredit?, http://www.grameen-info.org/bank/WhatisMicrocredit.html Zeller M., (1996), Determinants of repayment performance in credit groups: the role of program design, intra-group risk pooling, and social cohesionin madagasca, Food Consumption and Nutrition Division International Food Policy Research Institute, Washington, D.C., http://www.ifpri.org/divs/fcnd/dp/papers/dp13.pdf Zurlo F., (2004), Design capabilities per istituzioni locali socialmente capaci, In Fagnoni, Gambaro, Vannicola (2004), pp.81-87
374
principali siti web Amazon.....................................................................................................................http://www.amazon.com Amul..............................................................................................................................http://www.amul.com BBC Action Network........................................................................http://www.bbc.co.uk/dna/actionnetwork BBC Neighbourhood Gardener.............................http://www.bbc.co.uk/gardening/neighbourhood_gardener CAMBIA Bios...............................................................................................http://www.bios.net/daisy/bios/15 Casaleggio Associati.................................................................................................http://www.casaleggio.it Connexions................................................................................................................................http://cnx.org Creative Commons.....................................................................................http://www.creativecommons.org Demos........................................................................................................................htp://www.demos.co.uk Design Council RED Team (Open Health)..................................................http://www.designcouncil.org/RED Development gateway..........................................................................http://www.developmentgateway.org Dipex..............................................................................................................................http://www.dipex.org Distributed Proofreaders.................................................................................................http://www.pgdp.net Doors of Perception..................................................................................http://www.doorsofperception.com Drugs for Neglected Diseas Initiative (DNDi)...................................................................http://www.dndi.org eBay..............................................................................................................................http://www.ebay.com Firstmonday.........................................................................................................http://www.firstmonday.org Foundation for P2P Alternatives.......................................................................http://www.p2pfoundation.net Free / Open Source Research Community..............................................................http://opensource.mit.edu Free Software Foundation...................................................................................................http://www.fsf.org Freenet......................................................................................................................http://freenetproject.org Friendster...............................................................................................................http://www.friendster.com Global Ideas Bank.........................................................................................http://www.globalideasbank.org GNU..................................................................................................................................http://www.gnu.org Grameen Bank.........................................................................http://www.grameeninfo.org/bank/index.html Grid.org............................................................................................................................http://www.grid.org Honey Bee Network................................................................................http://www.sristi.org/honeybee.html iCompositions..................................................................................................http://www.icompositions.com Indymedia..............................................................................................................http://www.indymedia.org instructables.....................................................................................................http://www.instructables.com International HapMap Project..............................................................http://www.hapmap.org/index.html.en International Network for Social Network Analysis.........................................................http://www.insna.org Keen................................................................................................................................http://www.keen.org Kiva................................................................................................................................. http://www.kiva.org Kuro5hin...................................................................................................................http://www.kuro5hin.org Launchpad (Young Foundation)...................................................http://www.youngfoundation.org.uk/?p=45 Meetup......................................................................................................................http://www.meetup.com mysociety..............................................................................................http://www.mysociety.org/index.php NASA Mars Cickworkers................................................................................http://clickworkers.arc.nasa.gov Neubauten.org.......................................................................................................http://www.neubauten.org New Earth Fund.......................................................................................................http://www.newearth.info Ohmynews...........................................................................................................http://www.ohmynews.com Open Law.............................................................................................http://cyber.law.harvard.edu/openlaw Open Source Green Vehicle.............................................................................................http://www.osgv.org OSCar.......................................................................................................................www.theoscarproject.org P-grid.............................................................................................................................http://www.p-grid.org PledgeBank.........................................................................................................http://www.pledgebank.com SETI@Home...................................................................................http://setiathome.berkeley.edu/index.php SilverStringers................................................................................http://stringers.media.mit.edu/index.html Slashdot.....................................................................................................................http://www.slashdot.org SNP Consortium..................................................................................................................http://snp.cshl.org Solar roof...........................................................................http://www.solaroof.org/wiki/SolaRoof/HomePage Sustainable Everyday Project................................................................http://www.sustainable-everyday.net Terra Madre..................................................................................................http://www.terramadre2004.org Slow Food..................................................................................................................http://www.slowofood.it The Sims.............................................................................................http://thesims.ea.com/index_flash.php Thinkcycle...............................................................................................................http://www.thinkcycle.org Tropical Disease Initiative (TDI)....................................................http://www.tropicaldisease.org/index.html Wikipedia.................................................................................................................http://www.wikipedia.org zeroprestige.org..................................................................................................http://www.zeroprestige.org
375
376
Ringraziamenti (in un ordine orizzontale e non gerarchico, ovviamente...per chi è rimasto fuori dalla lista, ricordo che la rete sociale è veramente ampia – mentre la memoria no – e comunque la partecipazione è aperta e paritaria – open peer-to-peer – ) tutta la mia famiglia Ezio Manzini, Carla Cipolla, Andrea Mendoza, Daniela Sangiorgi per il supporto nello svolgimento della tesi Davide Carnesecchi, Andrea Vanacore, Vittorio Garatti, Elena Franceschini, Chiara Zurli, Giorgia Filattiera, Alessandra Botto, Lorenzo Tucci, Meri, Lele, Cate, Alessandra e Francesca Repetto, Simone Sambucetti, Marco Gaggelli, Umberto Zappa, Roberto Cabano, Luca del Sarto, Alex Fanton, tutti i Bruni..... Adele Martelli, Luca Martorano, Giuseppe Mautone, Luca Tarabini, Elena Lorefice, Michele Velastri, Pelin Arslan, Frà! Fagnano, Davide Ripamonti, Giuseppe Rosiello.... Albert Pedrosa, Albert Gomez, Adriana Fernandes , Ajo Clua, Carme Clua, Mar Llines, Danae Esparza, Susanna Trujillano, Jon Rodriguez, Mauro Costa.....
377
378
Attribuzione - Non commerciale - Condividi allo stesso modo 3.0 Generico
Tu sei libero: di riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare quest'opera
di modificare quest'opera
Alle seguenti condizioni: Attribuzione. Devi attribuire la paternitĂ dell'opera nei modi indicati dall'autore o da chi ti ha dato l'opera in licenza.
Non commerciale. Non puoi usare quest'opera per fini commerciali.
Condividi allo stesso modo. Se alteri o trasformi quest'opera, o se la usi per crearne un'altra, puoi distribuire l'opera risultante solo con una licenza identica a questa.
Ogni volta che usi o distribuisci quest'opera, devi farlo secondo i termini di questa licenza, che va comunicata con chiarezza. In ogni caso, puoi concordare col titolare dei diritti d'autore utilizzi di quest'opera non consentiti da questa licenza. Nothing in this license impairs or restricts the author's moral rights.
Le utilizzazioni consentite dalla legge sul diritto d'autore e gli altri diritti non sono in alcun modo limitati da quanto sopra. Questo è un riassunto in linguaggio accessibile a tutti del Codice Legale (la licenza integrale).
http://creativecommons.org/licenses/by-nc-sa/3.0/deed.it
379
380