L’
approccio presentato nel corso di questa tesi vede il ritorno dell’uomo nel ciclo di calcolo e prende il nome di Human computation. Parliamo di una nuova area di ricerca, che si occupa di costruire sistemi intelligenti che coinvolgono gli esseri umani, facendo eseguire a ognuno di essi una parte di un calcolo che sfrutti l’intelligenza dell’uomo come un fattore esclusivo. Le applicazioni di Human computation sviluppate finora appartengono ai più svariati ambiti di ricerca – dalla traduzione linguistica al ripiegamento delle proteine. Le incredibili capacità di questi sistemi metterebbero alla prova anche i più sofisticati algoritmi di Intelligenza Artificiale (AI). Grazie al crescente sviluppo del web, i sistemi di Human computation possono sfruttare le capacità di un numero senza precedenti di human computer, coinvolgendo gli utenti della rete in progetti ambiziosi che hanno, spesso, raggiunto risultati sorprendenti. Keywords crowdsourcing, human computation, intelligenza collettiva, interaction design, interazione uomo-computer, social computing, task design.
Francesco Cianciulli Tesi di laurea in Design, Comunicazione Visiva e Multimediale Relatore Prof. Luca de Mata Sapienza - Università di Roma A.A. 2011-2012
indice
04 10 30 50 72 78
Introduzione Quando i computer erano umani
Intelligenza collettiva e Saggezza della folla Galaxy Zoo - Intelligenza collettiva - La Sagezza della folla - Quattro condizioni essenziali per la Saggezza della folla - Informazione meno errore - Intelligenze collettive nella rete Sistemi di Human Computation - Crowdsourcing - L’Intelligenza collettiva e il Crowdsourcing Social computing Interazioni sociali - Definizioni - Breve storia - Wikipedia Creazione del valore sociale - Amazon raccomandation product - Vantaggi del Social computing
Human computation Il tempo è denaro - CAPTCHA e il test di Turing reCAPTCHA - Caratteristiche distintive dei sistemi di Human computation Verification games: ESP game - Progettare un sistema di Human comuputation - Conclusioni - Impara una lingua mentre traduci il web - Esperimenti
Quadro attuale e prospettive Lo stato dell’arte - Questioni aperte - Conclusioni
Bibliografia
introduzione
introduzione
quando i com ter erano u 4
human computation. applicazioni sociali dell’intelligenza collettiva
mpumani
I. Quando si parla di computer, una
delle concezioni più largamente diffuse riguardo a questo mezzo tecnologico vede una netta e sistematica opposizione rispetto all’idea di essere umano. Per quasi due secoli, una tematica ricorrente nella letteratura fantascientifica è stata proprio quella della “ribellione della macchina”, sia essa un computer o un robot. Fin dai primi esempi d’intelligenza artificiale, gli scrittori teorizzarono la possibilità di qualcosa di più di un semplice errore della macchina: la volontà del computer di ribellarsi ai propri creatori. Nel 1818, l’allora diciannovenne inglese Mary Shelley scrisse Frankenstein1, romanzo che, tralasciando le più legittime e condivise chiavi di lettura, aprì la strada a questo genere di considerazione nei confronti della macchina. L’errore della macchina, presentato nella pagina successiva, ci permette di tracciare un’ipotetica linea di congiunzione che parte dal 1818 e arriva fino al 1995, anno in cui il possessore di un personal computer dotato di un sistema operativo Microsoft Windows2 avrebbe potuto ricevere un messaggio di allerta da parte della propria macchina che, senza alternative possibili, lo informava che il sistema si era ribellato. In quei casi, avremmo assistito a una scena stranamente violenta, proprio come se ci si trovasse di fronte al mostro di Frankenstein: il possessore del PC avrebbe cominciato col percuotere sempre più violentemente la tastiera della macchina fino ad arrivare a colpire il cuore pulsante della stessa nel tentativo di mettere a tacere per sempre la macchina ribelle.
1 http://it.wikipedia.org/wiki/Frankenstein 2 Microsoft Corporation All rights reserved
5
introduzione
Figura 0.1 Microsoft Windows, fatal error.
Questa storia rappresenta una testimonianza abbastanza verosimile di come l’uomo oggi vede la macchina e potrebbe essere soltanto l’ultima di una lunga serie di episodi che hanno contribuito a minare il rapporto uomo-computer.
II. La storia successiva, invece, presenta
il computer sotto una luce completamente diversa, molto più umana. In un libro pubblicato nel febbario del 20053, David Alan Grier racconta la storia di quando sua nonna era un computer. Chiaramente non è fantascienza, When Computers Were Human è il primo approfondimento di un periodo storico della scienza e della tecnologia, durato più di due secoli, durante i quali i computer erano esseri
3 Grier 2005.
6
umani (human computer) o meglio, lavoratori non necessariamente dotati di genio nel calcolo, seppur certamente non degli idioti, che consapevolmente sceglievano una carriera da calcolatori e che, in un altro periodo storico, sarebbero potuti diventare degli scienziati veri e propri. Da un’osservazione casuale di sua nonna, “Vorrei aver usato il mio calcolo”, accennando a una formazione e una possibile carriera abbandonata per una vita diversa, David Alan Grier offre una toccante introduzione ad un mondo fatto di donne, più che uomini, che svolgevano il duro lavoro della scienza computazionale. Infatti, proprio come la nonna di Grier molte altre donne altamente istruite, vissute agli inizi del novecento, hanno studiato per diventare computer umani, perché nient’altro di più utile avrebbero potuto offrire al mondo delle scienze.
human computation. applicazioni sociali dell’intelligenza collettiva
III. Ecco quindi il significato del termine
computer4 (in uso già dalla metà del XVII secolo), “colui che calcola”, riferito proprio a quella persona che, prima dell’avvento della macchina, eseguiva i calcoli matematici. A più riprese nel corso della storia, grandi squadre di persone sono state utilizzate per effettuare calcoli lunghi e spesso noiosi che, come nei moderni computer, venivano suddivisi in modo da poter essere svolti in parallelo. Le prime applicazioni di questo approccio vengono ricondotte al campo dell’astronomia, in particolare, quando Alexis Claude Clairaut5 divise il calcolo per determinare il perielio della cometa di Halley con due colleghi, Joseph Lalande e Nicole-Reine Lepaute. In quel periodo alle donne era preclusa una carriera del genere e solo verso la fine del XIX secolo, grazie al prezioso apporto dell’astronoma americana Henrietta Swan Leavitt6 fu smantellata questa convinzione e molte donne entrarono a far parte della comunità scientifica, svolgendo proprio il mestiere del computer. A partire dai primi anni del XX secolo fino ad arrivare ai giorni nostri, il costante sviluppo delle tecnologie di calcolo ha portato ad abbandonare sempre più questa soluzione, il mestiere di human computer è scomparso e si è giunti all’affrettata conclusione che qualsiasi tipo di calcolo possa essere svolto interamente dalla macchina. Così il ruolo dell’essere umano nel calcolo è gradualmente mutato: oggi, l’uomo non è più considerato come parte attiva nel calcolo, piuttosto riveste un ruolo di sviluppo e supervisione dell’operato della macchina.
4 http://en.wikipedia.org/wiki/Human_computer 5 http://it.wikipedia.org/wiki/Alexis_Clairault 6 http://it.wikipedia.org/wiki/Henrietta_Swan_ Leavitt
7
capitolo 1
CAPITOLO 1
intelligenza lettiva e sa za della fol 10
intelligenza collettiva e saggezza della folla
a colaggezlla
1.1 Galaxy Zoo Galaxy zoo1 è un progetto astronomico internazionale web-based, in cui i partecipanti sono chiamati a classificare milioni di galassie. Sarebbe opportuno aspettarsi che gli utenti fossero tutti scienziati, o quantomeno persone che hanno a che fare con la ricerca scientifica in ambito astronomico. Invece, la comunità di Galaxy Zoo è accessibile a tutti. Il successo della prima versione del sistema, lanciato nel 2007, è stato tale da avviare una nuova fase del progetto, chiamata Galaxy Zoo: Hubble, che utilizza i dati del telescopio spaziale Hubble, lanciato il 24 aprile 1990 con lo Space Shuttle Discovery come progetto comune della NASA e dell’ESA.2 Il funzionamento del sistema è alla portata di tutti, anche per chi è a digiuno di astronomia. Superato un test iniziale, viene presentata all’utente una schermata molto semplice ed intuitiva; in primo piano c’è l’immagine di una galassia con i pulsanti di comando; basta un solo click per catalogare la galassia e passare automaticamente alla successiva. Alcune delle immagini presentate sono particolarmente spettacolari: ci si può trovare di fronte a galassie interagenti con lunghe code di stelle oppure a piccoli e densi ammassi dalle forme davvero insolite. Con un tale spettacolo davanti agli occhi e la necessità di premere solo un tasto per passare all’immagine successiva, è molto facile farsi prendere la mano e andare avanti per ore, senza sentire il peso che un tale lavoro si porta dietro.3 1 http://www.galaxyzoo.org/ 2 http://it.wikipedia.org/wiki/Galaxy_Zoo 3 Gasparri 2008.
11
capitolo 1
Figura 1.1 Galaxy Zoo Team 2008. Fonte: http://zoo1.galaxyzoo.org/Volunteers.aspx
Ecco come Kevin Schawinski, uno dei fondatori, descrive il contributo degli utenti al progetto: “I volontari di Galaxy Zoo svolgono un lavoro reale. Non si limitano a far girare passivamente qualcosa sui loro computer sperando di essere la prima persona a scoprire gli alieni. Loro sono un tassello della scienza che ne scaturisce, ciò significa che sono interessati a quello che facciamo e che troviamo. […] Non è solo per divertimento. Il cervello umano è attualmente migliore di un computer nel riconoscimento delle strutture in un progetto come questo. Sia che spendiate cinque minuti, quindici minuti o cinque ore nel sito il vostro contributo è inestimabile.”4
4 http://it.wikipedia.org/wiki/Galaxy_Zoo
12
Di fatto, la quantità di survey astronomiche5 da analizzare è talmente grande che nessun computer sarebbe in grado di sostenere un lavoro simile, così come non esisterebbero abbastanza astronomi nel mondo che vi si potrebbero dedicare. Con Galaxy Zoo il calcolo è stato scomposto e distribuito nel sistema, che ha avuto da subito un grandissimo successo, attirando decine di migliaia di iscritti in meno di un mese e riuscendo a classificare milioni di galassie che altrimenti non sarebbero mai state sfiorate da occhio umano.
5 http://en.wikipedia.org/wiki/Astronomical_survey
intelligenza collettiva e saggezza della folla
1.2 IntellIGenZa collettIva Ci troviamo, senza dubbio, di fronte ad un esempio di intelligenza collettiva: un tipo di intelligenza condivisa o di gruppo, che emerge dalla collaborazione o, come vedremo, dalla competizione di diversi individui. Il termine intelligenza collettiva, secondo Pierre Lévy6, definisce una forma di intelligenza distribuita ovunque, continuamente valorizzata, coordinata in tempo reale, che porta a una mobilitazione effettiva delle competenze.7 Oggi, tale definizione non sembra avere grande fortuna in ambito empirico, d’altronde Levy voleva gettare le basi per una sorta di antropologia del cyberspazio introducendo un concetto, quello di intelligenza collettiva, che nel mondo reale assume continuamente forme diverse. Oggi, Internet favorisce la nascita e lo sviluppo di sistemi intelligenti, come Wikipedia, dove l’elemento centrale è la comunità, intesa come aggregazione di individui, insiemi di persone che appaiono sempre più assortiti in maniera casuale.
1.3 la SaGeZZa della folla Ma quali sono le condizioni essenziali che favoriscono un’intelligenza di gruppo? Cerchiamo, ora, di indagare più a fondo questa capacità del gruppo di essere intelligente, anche riguardo ad attività che possono andare oltre il calcolo e che coinvolgono diverse aree dell’intelligenza umana di base come la risoluzione di 6 Lévy 1999. 7 Lévy 1999, pagg. 34-38.
situazioni problematiche (problem-solving) o, in ambito decisionale, fare previsioni ed emettere giudizio. Ancora una volta partirò da una storia dell’inizio del secolo scorso, più precisamente, la storia del concorso del bue di Francis Galton.8 Nell’autunno del 1906, il suddetto scienziato britannico si recò a Playmouth per la Fiera annuale del bestiame dell’Inghilterra occidentale, un’occasione in cui contadini e abitanti del luogo si riunivano per valutare la qualità dei loro animali. In uno degli stand della fiera era in mostra un bue e tutti i passanti potevano scommettere quale fosse stato il peso esatto dell’animale dopo la macellazione e chi avrebbe fatto la stima migliore avrebbe vinto un premio. Fu così che Galton, incuriosito dalla sfida e invogliato dalla grande risposta di pubblico, colse l’occasione per realizzare uno studio statistico con l’intenzione di mettere in evidenza l’analogia del concorso del bue con il concetto di democrazia, in cui persone con interessi e capacità differenti hanno lo stesso diritto di voto. Al termine della sfida, si fece consegnare i bigliettini con le stime di voto di ciascun partecipante e tornò a casa con un totale di 787 stime. Ordinò tutti i valori, tracciò un grafico per vedere se formavano una curva a campana e realizzò la media del gruppo, la risposta data dalla folla se fosse stata una sola persona. Il concorrente medio stimò che il peso del bue macellato fosse di 1207 libbre: solo 9 libbre in più della risposta corretta e, cosa più sorprendente, il giudizio della folla fu migliore persino di quello dei suoi membri migliori, quelli che dimostrarono di essere più intelligenti.9
8 http://it.wikipedia.org/wiki/Francis_Galton 9 Galton 1907.
13
capitolo 1
mata o razionale, un gruppo può comunque arrivare ad una decisione collettiva saggia.”11
Figura 1.2 Tavola di distribuzione delle stime pubblicata nel 1907 da Sir Francis Galton nell’articolo Vox populi.
Questa storia ha dell’eccezionale, è naturale che un gruppo, scelto in maniera casuale, non sia sempre più intelligente del singolo esperto. Ma Francis Galton, senza saperlo, si trovò di fronte alla prima dimostrazione empirica di ciò che James Surowiecki ha definito, quasi un secolo dopo, come Saggezza della folla10, in altre parole:
“Nelle circostanze giuste, i gruppi si rivelano estremamente intelligenti, spesso più dei loro membri migliori. Per essere intelligenti, i gruppi non hanno bisogno di essere dominati da individui dotati di un’intelligenza eccezionale. Anche se la maggior parte dei suoi componenti non è particolarmente ben infor10 Surowiecki 2007.
14
La tesi di Surowiecki, esplicata nel libro dal titolo The Wisdom of Crowds (La Saggezza della Folla), prende in prestito la definizione di Charles Mackay12, giornalista scozzese, che nel 1841 pubblicò un articolo dall’altisonante titolo Extraordinary Popular Delusions and the Madness of Crowds13, una cronaca estremamente divertente di tutte le manie di massa e le follie collettive. In effetti, nell’immaginario popolare, il gruppo tende sempre a rendere le persone stupide, secondo Friedrich Nietzsche - la follia è l’eccezione negli individui ma la norma nei gruppi.14 Eppure, nella storia del concorso del bue esiste un dato positivo, l’uomo non è fatto per prendere decisioni perfette, come sostiene Herbert Simon15, siamo solo limitatamente razionali.16 Di solito, siamo sempre meno informati di quanto vorremmo e prevedere il futuro non è una capacità propria di ogni uomo, altrimenti tutti cercheremo di arricchirci scommettendo sulle partite del campionato di Serie A. Inoltre, per compiere una stima ponderata, anche nel caso del concorso del bue, sarebbe stato opportuno lanciarsi in una serie di calcoli di cui spesso non tutti ne abbiamo le capacità e la volontà. Insomma, invece di insistere per giungere alla decisione migliore possibile, spesso ne prendiamo una che ci sembra 11 12 13 14 15 16
Surowiecki 2007, pag.13. http://it.wikipedia.org/wiki/Charles_Mackay Mackay 1980. Nietzsche 2004. http://it.wikipedia.org/wiki/Herbert_Simon Simon 1955.
intelligenza collettiva e saggezza della folla
semplicemente abbastanza buona. E, in genere, lasciamo che siano le emozioni a trasportarci in queste scelte. Nonostante tutti questi difetti, quando le nostre capacità di giudizio imperfette si aggregano tra loro in modo giusto, la nostra intelligenza collettiva può essere eccezionale.
1.3.1 PaGe Rank Questo tipo d’intelligenza può assumere forme diverse nella vita quotidiana ed è la dimostrazione del perchè Google17 scorrendo un miliardo di pagine web può trovare, in tempi brevi, proprio l’informazione che stavamo cercando. Quando Google è nato, nel 1998, Yahoo!18 era considerato il miglior motore di ricerca esistente seguito da AltaVista19 e Lycos.20 Nel giro di un paio di anni, Google è diventato il preferito di tutti gli utenti della rete, semplicemente perché è in grado di trovare la pagina giusta in un tempo che raramente supera il secondo. Google non rivela a nessuno i dettagli della tecnologia che utilizza, ma il motivo per cui è diventato il dominatore assoluto del web è proprio perchè sfrutta la Saggezza della folla. Infatti, alla base del suo sistema c’è l’algoritmo PageRank21, descritto per la prima volta dai fondatori della società, Sergey Brin e Lawrence Page, in un articolo del 1998 intitolato The Anatomy of a Large-Scale Hypertextual Web Search
17 18 19 20 21
http://www.google.com/ http://www.yahoo.com/ http://www.altavista.com/ http://www.lycos.com/ Google Inc. All rights reserved
Engine22 (Anatomia di un motore di ricerca su larga scala), ecco come i suoi creatori spiegano il funzionamento di Google:
“PageRank sfrutta il carattere democratico del web usando la sua ampia struttura di collegamenti come strumento organizzativo. In sostanza, Google interpreta un link tra la pagina A e la pagina B come un voto espresso dalla pagina A nei confronti della pagina B. Il motore di ricerca, quindi, valuta l’importanza di una pagina in base ai voti che riceve. Ma non si limita a tenere conto del numero di voti, o link: analizza anche la pagina che esprime il voto. I voti espressi da pagine “importanti” pesano di più e contribuiscono a rendere “importanti” altre pagine.”
22 Brin e Page 1998.
15
capitolo 1
1.4 QuattRo condIZIonI eSSenZIalI PeR la SaGGeZZa della folla In quei pochi secondi che passano da quando premiamo il tasto “Cerca con Google” il motore di ricerca chiede all’intero web di votare quale sia la pagina che contiene le informazioni più pertinenti alla nostra ricerca. Certo, Google è una repubblica, non una democrazia perfetta. Come spiegano Brin e Page, più persone si collegano a una pagina, più quella pagina influirà sul voto finale. Siamo di fronte, quindi, a una “media ponderata”, proprio come il prezzo di un’azione o la quotazione di una partita del campionato di Serie A, piuttosto che una media semplice come quella del concorso del bue di Galton. Eppure esistono diversi punti di contatto tra gli utenti del web e la folla di Playmouth che decise di partecipare alla gara del bue. Entrambi i gruppi, infatti, si sono dimostrati collettivamente intelligenti perché erano presenti in loro quattro condizioni essenziali che favoriscono la saggezza della folla.23
1.4.1
dIveRSItà d’oPInIone
Ognuno ha qualche informazione che gli altri non hanno, anche se si tratta semplicemente di un’interpretazione basata su fatti noti a tutti. La diversità è utile sia perché aggiunge punti di vista che altrimenti verrebbero a mancare, sia perché riduce alcuni aspetti negativi del processo decisionale di gruppo. Secondo Scott Page24, studioso di scienze politiche
23 Surowiecki 2007, pag. 32. 24 Page 2001.
16
dell’Università del Michigan, la diversità è un valore in sé, quindi il semplice fatto di essere diversificato rende un gruppo più abile nel risolvere i problemi.
1.4.2 IndIPendenZa La segretezza del voto è fondamentale affinché le opinioni di una persona non siano condizionate da quelle degli altri. In particolare, l’indipendenza è determinante per due motivi. In primo luogo, impedisce che un errore si diffonda nel gruppo: se non puntano sistematicamente nella stessa direzione, gli errori individuali non pregiudicano il giudizio collettivo. In secondo luogo, è più probabile che una serie di individui indipendenti apportino al gruppo informazioni diverse da quelle già note a tutti. L’indipendenza certo non assicura al gruppo razionalità o imparzialità; si può essere prevenuti o irrazionali, ma finché si è indipendenti non si renderà il gruppo più stupido. Potrà sembrare un paradosso, ma perché un gruppo si dimostri intelligente la cosa migliore è che ognuno dei suoi membri agisca in maniera più indipendente possibile.
1.4.3
decentRamento
Stormi di uccelli, economie di mercato, città e reti di computer, anche se sono molto diversi fra loro, hanno un aspetto in comune: il potere non risiede mai completamente in un centro. In questi sistemi, molte decisioni importanti vengono prese da singoli individui sulla base delle loro conoscenze private e specifiche, non da
intelligenza collettiva e saggezza della folla
un esperto onnisciente. Il decentramento, quindi, è inteso come specializzazione e capacità di sfruttare le proprie conoscenze specifiche. Un classico esempio di sistema decentrato proviene, ancora una volta dalla rete. Nel 1991, l’hacker finlandese Linus Torvalds25 creò la sua versione personale del sistema operativo Unix26, che chiamò Linux27. Poi rese pubblico il suo codice, in modo che tutti quelli che fossero in grado di comprendere un codice informatico potessero vedere quello che aveva fatto. Ma, soprattutto, allegò un messaggio in cui diceva:
“Se non avete problemi a diffondere gratuitamente le vostre idee, fatemelo sapere, così potrò aggiungerle al sistema.” Come si legge in una delle tante storie di Linux - delle prime dieci persone che scaricarono il sistema, cinque gli mandarono correzioni di errori, proposte di miglioramento del codice e nuove aggiunte.28
collaboratori vivono in tutto il mondo. Ciò non significa che l’eliminazione di qualsiasi autorità o di gerarchia sia la panacea di tutti i mali, lo dimostra il fatto che senza Torvalds il sistema non si sarebbe mai potuto sviluppare, infatti, è opportuno capire fino a che punto è utile decentrare e quando arriva il momento di aggregare i risultati.
1.4.4
aGGReGaZIone
L’ultima condizione che favorisce la Saggezza della folla è fondamentale per il successo del decentramento. Infatti, sarebbe inutile, nel caso di Google, cercare l’ago nel pagliaio del web se non fosse presente nel sistema un adeguato aggregatore di risultati. PageRank garantisce a tutto il sistema Google di poter attingere dalla saggezza collettiva, è un meccanismo in grado di trasformare un giudizio personale in una decisione collettiva.
A differenza di Windows, Linux non è di nessuno. Quando c’è un problema di funzionamento, viene risolto solo se qualcuno propone una buona soluzione. E non parliamo di un sistema di risoluzione dei problemi casuale, finora ha funzionato benissimo, portando il sistema operativo ad essere l’unico vero concorrente della Microsoft. Linux è chiaramente un sistema decentrato, perché non ha nessuna organizzazione formale alle spalle e i suoi 25 26 27 28
http://it.wikipedia.org/wiki/Linus_Torvalds http://www.unix.org/ http://www.kernel.org/ Kuwabara 2005.
17
capitolo 1
1.5 InfoRmaZIone meno eRRoRe
1.6 IntellIGenZe collettIve nella Rete
Come abbiamo visto, la diversità e l’indipendenza sono caratteristiche decisive all’interno delle dinamiche di gruppo: le decisioni collettive migliori nascono dal disaccordo e dalla disputa, non dal consenso e dal compromesso. Un gruppo intelligente, soprattutto di fronte ad un problema di tipo cognitivo, non chiederà ai suoi membri di modificare le rispettive posizioni per fare in modo che la decisione collettiva soddisfi tutti. Userà invece certi meccanismi – come, nel caso di Google, considerare una pagina più “importante” rispetto a un’altra – per arrivare a un giudizio collettivo che rappresenti tutto il gruppo. Il decentramento e l’aggregazione sono caratteristiche altresì importanti, ma diventano fondamentali nei sistemi che coinvolgono problematiche complesse oppure quando prendiamo in considerazione gruppi molto numerosi. In ogni caso, se un gruppo soddisfa queste condizioni, è molto probabile che il suo giudizio sia corretto. Perché? La risposta a questa domanda si basa essenzialmente su una verità matematica. Se si chiede a un gruppo numeroso di individui indipendenti e diversi tra loro di fare una previsione, ma anche di calcolare una probabilità, e poi si fa la media di quelle stime, gli errori commessi si annulleranno a vicenda. E poiché l’ipotesi di ognuno ha due componenti (una di informazione e una di errore), se si toglie l’errore rimane l’informazione. Inutile precisare che deve esserci almeno qualche informazione utile nella prima parte dell’equazione “informazione meno errore”, altrimenti sarà probabile che, anche dopo aver cancellato gli errori, il gruppo esprima un giudizio sbagliato.
Il crescente interesse per la saggezza collettiva è frutto di una serie di fattori la crescente popolarità dei social software, l’interesse accademico per l’analisi delle reti sociali, l’affermazione dell’open source come metodo concreto di produzione - tutti direttamente collegati al ruolo sempre più importante di Internet. In parte lo si deve al fatto che, alla base, l’etica della rete rispetta la saggezza collettiva ed è ostile all’idea che il potere e l’autorità debbano appartenere a pochi. Come abbiamo visto, e vedremo più avanti in dettaglio, molti dei punti di riferimento del web sono frutto della Saggezza della folla, proprio perchè la rete, per sua stessa natura, può essere definita antigerarchica. Infatti, è sempre più comune ritrovare in rete dei sistemi, tra cui diversi modelli accreditati di business, che possono funzionare anche senza la tradizionale verticalizzazione. Vediamone ora gli esempi più conosciuti, introducendo, per il momento, i diversi tipi di sistemi e segnalando gli studi più interessanti a riguardo.
18
1.6.1
uSeR-GeneRated content (uGc)
Non hanno bisogno di presentazioni. Wikipedia29 è uno degli esempi più conosciuti tra i siti web UGC, ma un altro esempio altrettanto popolare è YouTube.30 Entrambi gli esempi sono talmente popolari da aver attirato, ormai da qualche tempo, l’interesse accademico.
29 http://www.wikipedia.org/ 30 http://www.youtube.com/
intelligenza collettiva e saggezza della folla
Bryant31 parla di come le persone contribuiscono a Wikipedia e che tipo di strumenti utilizzano i cosiddetti wikipediani per organizzare e coordinare il proprio lavoro. Cosley32 presenta una proposta interessante per tutti gli utenti di Wikipedia: un sistema automatizzato per la collaborazione fra gli utenti. Kittur33 analizza come differenti strategie di coordinazione possono condizionare la qualità delle voci presenti nella più grande fra le enciclopedie online. Tra gli studi più interessanti su YouTube troviamo I tube, you tube, everybody tubes34 dove vengono messi a confronto i siti web di contenuti video UGC con i siti non-UGC. Studiando numerosi siti web UGC esistenti, diversi ricercatori hanno tentato di crearne uno ex novo in modo da aumentare anche la popolarità delle proprie ricerche.35
1.6.2 SoftwaRe oPen SouRce In precedenza abbiamo parlato di Linux, il capostipite di questo genere di approccio. Prima di Linux, uno degli imperativi di ogni software house era la legge di Brooks36, secondo la quale aggiungere sviluppatori a un progetto in corso di implementazione rallenta il suo sviluppo, una legge che, ovviamente, non è nemmeno lontanamente applicabile a un progetto open source. Raymond37 offre una buona panoramica sull’open source, uno dei diktat presenti nel suo libro dice:
31 32 33 34 35 36 37
Bryant (et al.) 2005. Cosley (et al.) 2007. Kittur e Kraut 2008. Cha (et al.) 2007. http://movielens.umn.edu http://it.wikipedia.org/wiki/Legge_di_Brooks Raymond 1999.
“given enough eyeballs, all bugs are shallow” {Presentati a un numero sufficiente di occhi, tutti i bug vengono a galla}
1.7 SIStemI dI Human comPutatIon Ritroviamo i sistemi di Human computation inquadrati, ora, nel più ampio contesto delle intelligenze collettive nella rete. La classificazione presentata in Little38, sembrerebbe distinguere nettamente i sistemi informatici presentati in precedenza (UGC e software open source) da quelli di cui mi accingo a parlare. In realtà, vedremo più avanti, come questa distinzione non sia così netta e come caratteristiche proprie di alcuni sistemi possono essere riscontrate in altri. D’altronde, non esistono studi sistematici in materia, ma piuttosto approfondimenti su aspetti particolari relativi ai diversi sistemi. Basti pensare che l’attuale utilizzo del termine Human computation39 trova origine nel dottorato di ricerca in Computer Science di Luis Von Ahn, nel recente 2005. Altri studi molto interessanti sono stati fatti a riguardo, ad esempio, in Little40 si riscontra un contributo notevole relativo alla programmazione di questi sistemi. Vediamo adesso, nel concreto, di cosa stiamo parlando.
38 Little 2011. 39 Von Ahn 2005. 40 Little 2011.
19
capitolo 1
1.7.1
QueStIon/anSweR SIteS
Sono quei siti web, come Stack Overflow41, Quora42, Expert Exchannge43 e Yahoo Answers44, che permettono agli utenti di fare domande e rispondere a quesiti già pubblicati. Ne esistono di generici, dove è possibile fare ogni tipo di domanda, e di specializzati, ad esempio, Stack Overflow è senz’altro fra i migliori Question/Answer per programmatori amatoriali e professionisti. Ogni sistema utilizza un metodo differente per motivare gli utenti a partecipare. Con molte probabilità, Yahoo Answers è il più studiato fra tutti. Le ricerche portate avanti da Bian45 si concentrano su come trovare informazioni che siano veritiere in questo genere di sistema e, più in generale, nei diversi social media.
1.7.2 PRedIctIon maRketS Tradotti in italiano con il termine “mercati predittivi”, i prediction markets permettono alle persone di comprare o vendere delle azioni il cui valore dipende dall’esito di un evento futuro. Il primo esempio di questo genere di sistema è stato l’Iowa Electronics Markets (IEM).46 Fondato nel 1988 e gestito dalla facoltà di economia della University of Iowa, l’IEM gestisce una sorta di borsa che serve a pronosticare i risultati delle elezioni presidenziali negli Stati Uniti; prima della
41 42 43 44 45 46
20
http://stackoverflow.com/ http://www.quora.com/ http://www.experts-exchange.com/ http://www.answers.yahoo.com/ Bian (et al.) 2008. http://tippie.uiowa.edu/iem/
sua nascita, l’unico strumento in grado di pronosticare l’esito di un’elezione era il sondaggio d’opinione. Aperto a chiunque voglia partecipare, l’IEM consente agli utenti di comprare e vendere contratti future in base alle stime di un certo candidato. In genere, non soltanto batte tutti i grandi sondaggi d’opinione statunitensi, ma si rivela più preciso di quei sondaggi già mesi prima delle elezioni.47 Il dato più interessante, in analogia con il concorso del bue di Galton, è che l’IEM non è molto grande (non supera mai più di qualche migliaio di giocatori) e non riflette in nessun modo la composizione dell’elettorato: la maggior parte dei suoi utenti sono maschi originari dell’Iowa. In effetti, gli utenti dell’IEM sono veri e propri scommettitori. Nel sistema girano soldi veri e, seppur con ragionevoli limiti, gli utenti possono scommettere e guadagnare denaro. Quest’aspetto introduce una delle questioni più delicate per tutti i sistemi di Human computation: l’aspetto motivazionale. Per quale ragione un utente dovrebbe utilizzare questi sistemi? Nel caso specifico, l’IEM è un mercato reale e il motivo principale che spinge gli utenti a partecipare è la possibilità di trarre un vantaggio economico. In altri sistemi, a seconda delle possibilità, il problema viene affrontato in maniera sempre diversa, certo i dati finora raccolti48 sembrano dimostrare che le persone sono più concentrate se in palio c’è una somma di denaro. Tuttavia, esistono diversi casi in cui si sono raggiunti ottimi risultati anche senza
47 http://tippie.uiowa.edu/iem/media/previous. html 48 Surowiecki 2007, pagg. 39-44.
intelligenza collettiva e saggezza della folla
Figura 1.3 Confronto fra IEM e altri pool nelle presidenziali del 2008.
coinvolgere aspetti economici, più avanti vedremo come altri sistemi di Human computation hanno tentato, talvolta con grande successo, a coinvolgere gli utenti.
1.7.3
outSouRcInG InteRmedIaRIeS
Elance49, oDesk50 e Freelancer51 sono piattaforme informatiche dove è possibile ottenere un lavoro su commissione. Questi sistemi funzionano grossomodo così: un committente pubblica una proposta di lavoro, gli utenti, spesso professionisti freelance, rispondono con la loro offerta;
49 http://www.elance.com/ 50 https://www.odesk.com/ 51 http://www.freelancer.com/
il committente, a sua volta, può decidere l’offerta che preferisce e, a progetto consegnato, pagare la somma pattuita. Sono progetti che possono durare anche diverse settimane, o addirittura mesi, ma spesso le prestazioni sono ben retribuite. Altre piattaforme simili, come DesignCrowd52, utilizzano la strategia del contest, in cui differenti proposte vengono valutate dal committente che, una volta trovato il prodotto che soddisfa le sue esigenze, può fermare la gara e pagare il prezzo accordato per la prestazione.
52 http://www.designcrowd.com/
21
capitolo 1
1.7.4
mIcRo-taSk maRketS
Con i micro-task market (o mercati di micro-lavoro) entriamo nel vivo dei sistemi di Human computation. In un micro-task market è possibile offrire e richiedere prestazioni lavorative elementari, che spesso possono essere svolte anche senza particolari competenze tecniche. Amazon’s Mechanical Turk (MTurk)53 è considerato fra i primi esempi di piattaforma online di micro-lavoro a carattere generico. Rispetto ai suoi simili, MTurk presenta alcune sostanziali differenze. In primo luogo, il lavoro non è visto in ottica concorrenziale: il primo utente che è qualificato per svolgere un determinato compito può farlo senza ulteriori passaggi, nessun altro può prendere il suo posto a meno che egli stesso non rinunci all’incarico. In secondo luogo, i lavoratori sono tutti anonimi, a ciascun utente viene assegnato un ID opaco. Infine, la decisione finale di pagare il lavoratore, in base al grado di soddisfazione, è completamente lasciata nelle mani di colui che richiede la prestazione. Non esiste alcun processo di appello per un lavoro ingiustamente rifiutato, eppure il sistema funziona in maniera eccellente: il sito ha un notevole successo e i lavori proposti vengono svolti rapidamente, spesso nel giro di 30 minuti. Per questi motivi, MTurk ha concentrato su di sé tutto l’interesse accademico nei confronti dei mercati di micro-lavoro, diventando protagonista di diversi studi interessanti condotti nell’ambito dello Human computation.
53 https://www.mturk.com/
22
Kittur54 ha studiato MTurk come una piattaforma per lo svolgimento di studi sugli utenti. Questo lavoro suggerisce alcune osservazioni utili su come progettare le attività, al fine di evitare che le persone non prendino sul serio il sistema. Uno studio particolarmente rilevante per lo Human computation riguarda gli esperimenti condotti nell’ambito della teoria economica dei giochi, che possono coinvolgere una serie relativamente complessa di azioni da parte di più giocatori. A tal proposito, Chilton55 descrive un sistema per la progettazione e l’esecuzione della teoria dei giochi. Sorokin56 valuta l’uso di MTurk come strumento per raccogliere insiemi di dati. Mason e Watts57 esaminano il rapporto tra la ricompensa e la qualità, scoprendo che, nonostante la paga sia più alta, ciò non influisce sensibilmente sulla qualità del lavoro ma aumenta la quantità dei compiti svolti dal singolo utente. Uno studio correlato58, non condotto su MTurk, rivela che sottopagare le persone, piuttosto che non pagarle proprio, può diminuire la qualità del loro lavoro. In generale, molti ricercatori hanno riscontrato che la qualità del lavoro svolto su MTurk è notevolmente elevata se paragonata all’esiguità del compenso. Proprio per questo, altri studiosi hanno espresso la loro preoccupazione per il prezzo basso in sé, come un possibile problema di etica del lavoro.59
54 55 56 57 58 59
Kittur e Kraut 2008. Chilton (et al.) 2009. Sorokin (et al.) 2008. Mason e Watts 2009. Gneezy e Rustichini 1998. Silberman (et al.) 2010.
intelligenza collettiva e saggezza della folla
1.8 cRowdSouRcInG Sono bastati pochi anni per diffondere il verbo della Saggezza della folla. Numerosi sistemi informatici, oggi, hanno aderito a quest’approccio, noto alle aziende con il termine crowdsourcing. Jeff Bezos60, l’amministratore delegato di Amazon, ha paragonato il periodo del boom di Internet al periodo Cambriano, quella fase della storia evolutiva che vide la nascita e l’estinzione del maggior numero di specie sulla terra. Ed è proprio ciò che sta succedendo anche nel campo dell’intelligenza collettiva. Dopotutto, ogni anno assistiamo alla nascita di decine di migliaia di nuovi prodotti e servizi che arrivano sul mercato e spariscono con una velocità sorprendente. La macchina a vapore, il videotelefono, il Betamax, la penna digitale: le grandi società scommettono continuamente sui perdenti. Ma - continua Bezos - “Quello che garantisce il successo di un sistema è la capacità di riconoscerli (i perdenti) ed eliminarli rapidamente”.
Il termine trova le sue origini in un articolo di Jeff Howe62, pubblicato nel giugno del 2006 su Wired. Secondo Howe, la potenzialità del crowdsourcing si basa sul concetto che, trattandosi di una richiesta aperta a più persone, si potranno riunire quelle più adatte a svolgere determinate attività, a risolvere problemi di una certa complessità e a contribuire con idee nuove e sempre più utili. Grazie ai recenti sviluppi tecnologici, si è assistito a una grande diminuzione dei costi dei computer e di altri apparecchi digitali, che hanno portato a una riduzione del divario fra professionisti e amatori. Proprio per questo, aziende appartenenti a diversi settori commerciali hanno immediatamente colto l’occasione per sfruttare il talento di grandi masse di utenti, proponendo soluzioni collaborative, più che collettive, per rispondere alle loro esigenze particolari. Nella pagina successiva, viene presentata una visione d’insieme abbastanza esaustiva delle tipologie di crowdsourcing nella rete.
Con il termine crowdsourcing61 (da crowd, folla e outsourcing, esternalizzare una parte delle proprie attività) si definisce un modello di business nel quale un’azienda o un’istituzione richiede lo sviluppo di un progetto, o parte di esso, ad un insieme distribuito di persone organizzate in una comunità virtuale attraverso gli strumenti web.
60 http://www.businessweek.com/ ebiz/9909/916bezos.htm 61 Pezzali 2009.
62 http://www.wired.com/wired/archive/14.06/ crowds.html
23
capitolo 1
Figura 1.4 Crowdsourcing landscape. Fonte: http://www.resultsfromcrowds.com/
24
intelligenza collettiva e saggezza della folla
25
capitolo 1
INTELLIGENZA SOCIAL COMPUTING
CROWDSO 26
intelligenza collettiva e saggezza della folla
A COLLETTIVA
1.9 l’IntellIGenZa collettIva e Il cRowdSouRcInG Molte di queste iniziative rappresentano davvero qualcosa di nuovo, ma, in generale, si è un po’ persa la bussola ed è sempre più difficile ritrovare il nord in un panorama tecnologico in cui regna la pervasività. Quindi, uno dei contributi di questa tesi è proprio quello di proporre un quadro più ordinato delle intelligenze collettive nella rete, cercando di capire quando è giusto usare la folla, qual è il modo migliore per interrogare un human computer in modo da promuovere e favorire la collaborazione e come costruire sistemi di intelligenza collettiva che coinvolgono lo sforzo congiunto delle macchine e degli esseri umani in maniera corretta. Nonostante la varietà di applicazioni, esistono molti problemi comuni di ricerca di base ed è proprio da questi interrogativi che prende spunto la mia considerazione in merito a questi sistemi.
HUMAN COMPUTATION
OURCING
Sono numerosi i progetti basati sul concetto di intelligenza collettiva, portati avanti ben prima dell’introduzione del termine crowdsourcing. La maggior parte di essi sembra essere riconducibile a due macroaree che si influenzano reciprocamente. La prima, il Social comupting, identifica tutti quei sistemi informatici che supportano il comportamento sociale in rete e che, per definizione, coinvolgono l’essere umano per la creazione di un valore sociale condiviso. Mentre la seconda, lo Human computation, riguarda tutti quei sistemi di calcolo supportati dall’attività umana, non necessariamente sociali, che mirano alla risoluzione di problemi su vasta scala e che, per fare ciò, devono necessariamente coinvolgere l’essere umano. 27
capitolo 2
CAPITOLO 2
SOCIAL COMPUTING 30
social computing
2.1 InteRaZIonI SocIalI Le interazioni sociali sono una parte importante della nostra vita quotidiana: parliamo con la nostra famiglia, con gli amici, con i nostri colleghi, ma ci ritroviamo anche a parlare con estranei alla fermata dell’autobus, all’università o in un negozio. Questi tipi di interazioni sociali non comprendono solo le parole: entriamo in contatto visivo, comunichiamo con un cenno della testa, con i movimenti delle nostre mani o assumendo determinate posizioni del corpo. Interazioni sociali come queste contribuiscono a dare senso e ricchezza alla nostra vita quotidiana. L’interazione sociale è ormai parte integrante anche della nostra attività in rete. Oggi, i sistemi di Social computing rappresentano il supporto di qualsiasi interazione sociale e, attraverso l’uso di software e di nuove tecnologie, ricreano convenzioni e contesti sociali a noi familiari. In questo senso l’utilizzo di blog, email, instant messaging, servizi di social network, wiki, social bookmarking e altri esempi di ciò che viene spesso chiamato social software alimenta e sviluppa il concetto di Social computing. In uno studio del 2006, effettuato dalla Forrester Research1, si descrive in maniera eccellente l’impatto di questi sistemi sul mercato:
“Easy connections brought about by cheap devices, modular content, and shared computing resources 1 http://www.forrester.com/rb/Research/social_ computing/q/id/38772/t/2
31
capitolo 2
are having a profound impact on our global economy and social structure. Individuals increasingly take cues from one another rather than from institutional sources like corporations, media outlets, religions, and political bodies. To thrive in an era of social computing, companies must abandon topdown management and communication tactics, weave communities into their products and services, use employees and partners as marketers, and become part of a living fabric of brand loyalists.” {Collegamenti mediati da dispositivi a basso costo, contenuti modulari e risorse informatiche condivise stanno avendo un profondo impatto sulla nostra economia globale e sulla nostra struttura sociale. Gli individui sempre più prendono spunto da “qualcun altro” piuttosto che da fonti istituzionali come aziende, media, religioni e istituzioni politiche. Per prosperare in un’era di social computing, le aziende devono abbandonare una tattica di gestione e comunicazione top-down e favorire lo sviluppo di comunità dei loro prodotti e servizi 32
e diventare esse stesse parte di un tessuto vivente di fedelissimi del marchio}
2.2 defInIZIonI Il termine Social computing identifica tutti quei sistemi digitali che supportano l’interazione sociale online. Quando parliamo di Social computing ci riferiamo in particolare al sistema informatico in sé e come, tale sistema, sia stato progettato per favorire l’interazione sociale. Alcune interazioni sociali online sono ovviamente - lo scambio di email con un membro della famiglia, la condivisione di foto con amici, instant messaging con i colleghi, etc. Queste interazioni sono prototipicamente sociali perché riguardano la comunicazione con persone che conosciamo. Ma, anche altri tipi di attività online vengono inquadrate nel Social computing - la creazione di una pagina web, l’offerta per un prodotto su eBay, seguire qualcuno su Twitter o fare una modifica ad una voce di Wikipedia. Queste azioni non coinvolgono direttamente persone che conosciamo e, almeno in linea teorica, non possono portare a un’interazione face to face ma ciò nonostante sono sociali, perché le facciamo pensando agli altri: la convinzione che abbiamo un pubblico, anche se composto da persone che non incontreremo mai, influenza quello che facciamo, come lo facciamo e perché lo facciamo. Ed è proprio da questa convinzione che parto per introdurre il Social computing,
social computing
nel senso più forte del termine, come un sistema in grado di supportare il calcolo informatico realizzato da una comunità di persone in rete. In questo senso, esempi di Social computing comprendono i collaborative filtering (sistemi di filtraggio collaborativo sono, ad esempio, il sistema di raccomandazione dei prodotti di Amazon), le aste online, i prediction market (di cui abbiamo parlato in precedenza), i sistemi di calcolo per la scelta sociale, i sistemi di tagging e i verification games. Oggi, i sistemi informatici che sostengono l’interazione sociale, rappresentano un campo d’azione che sta guadagnando sempre più spazio nel mondo dell’Information Technology (IT) ma che può essere, semplicisticamente, accomunato a un campo molto più generico, quello dei social network. Infatti, ultimamente, il Social computing è diventato più conosciuto per la sua relazione con una serie di tendenze recenti che includono la popolarità dei social network e, più in generale, del Web 2.0.
2.3 BReve StoRIa Il Social computing trova le sue radici all’inizio degli anni sessanta, con il riconoscimento che i computer potevano essere utilizzati anche per le comunicazioni e non solo per il calcolo. Già nel 1961, Simon Ramo2 parlò di milioni di menti collegate tra loro, prevedendo un grado di partecipazione dei cittadini in quel momento impensabile. Probabilmente la visione più conosciuta e condivisa
2 Ramo 1961.
è quella di Licklider e Taylor3 che in The Computer as a Communications Device (Il computer come dispositivo di comunicazione) parlano dello sviluppo di comunità interattive costituite da persone geograficamente separate organizzate intorno a interessi comuni e coinvolte nella comunicazione attraverso i computer. I primi sistemi di comunicazione d’uso comune emersero negli anni settanta. Parliamo del pionieristico EMISSARY di Murray Turoff e di EIES systems4 per realizzare computer-conferenze, PLATO Notes5 sviluppato presso la University of Illinois e le prime mailing list di Arpanet6. Gli anni ottanta hanno visto nascere diversi sistemi che hanno promosso l’interazione sociale attraverso la rete basandola principalmente sulla conversazione attraverso il testo, quelle che oggi comunemente chiamiamo chat o bacheche elettroniche: Internet Relay Chat, USENET e MUDs.7 I primi anni novanta sono stati caratterizzati da costanti miglioramenti delle tecnologie di comunicazione di base velocità, larghezza di banda e connettività - e dall’avvento del web, che inizialmente non promosse molto l’interazione sociale, permettendo piuttosto ai suoi utenti di visualizzare contenuti e link a pagine web8, ma segnando l’inizio della creazione e della condivisione diffusa di contenuti digitali da parte dei suoi utenti.
3 4 5 6 7 8
Licklider e Taylor 1968. Hiltz e Turoff 1993. Woolley 1994. http://www.livinginternet.com/l/li.htm Rheingold 1993. Erickson 1996.
33
capitolo 2
Figura 2.1 The Girl with the Dragon Tattoo - Wikipedia.
2.4 wIkIPedIa In questa paragrafo, esaminiamo uno degli esempi più riusciti di sistema di Social computing, Wikipedia, che, oltre al suo successo, è interessante perché offre la possibilità di presentare alcune delle caratteristiche principali che un sistema di Social computing deve avere. Wikipedia è molto più di una comunità ed è formata da un nucleo di partecipanti che interagiscono tra loro eseguendo una serie di compiti complessi. Un’enciclopedia libera che ha dimostrato di essere apprezzata anche dai ricercatori tradizionali, il che rende ancor più legittimo il suo studio come eccellente esempio di intelligenza collettiva. Come molti sapranno, il primo slogan di Wikipedia era L’enciclopedia libera che chiunque può modificare. Con poche eccezioni, ogni articolo su Wikipedia ha 34
una scheda edit che permette a chiunque di modificare il contenuto di un articolo. Il che suona un po’ come un paradosso, come si può avere una fonte autorevole di conoscenza che chiunque può cambiare in qualsiasi momento? Eppure il sistema funziona in maniera impeccabile. Anche se è difficile generalizzare vista la vastissima mole di articoli in costante sviluppo, è giusto dire che l’accuratezza di Wikipedia è sorprendente. Alcuni studi hanno dimostrato che determinati articoli sono paragonabili in precisione alle loro controparti dell’Enciclopedia Britannica9 e, più in generale, che la qualità di un articolo tende ad aumentare con il numero di modifiche ricevute.10 Indipendentemente dalla sua qualità rispetto alle enciclopedie
9 Giles 2005. 10 Kittur e Kraut 2008.
social computing
Figura 2.2 Statistiche traffico, The Girl with the Dragon Tattoo - Wikipedia.
tradizionali, Wikipedia è stata un notevole successo. Con oltre tre milioni e mezzo di articoli nella sola edizione inglese, è tra i siti più visitati sul web e può presentare voci complete e ben articolate in tempi moto rapidi.
2.4.1
contRIBuIRe a wIkIPedIa
Cominciamo la nostra analisi prendendo in esame cosa fa in concreto un collaboratore di Wikipedia. Solitamente l’obiettivo di chi contribuisce a un’enciclopedia è quello di creare un articolo da capo a fondo; ciò in Wikipedia non avviene, sarebbe considerato come un compito troppo grande. I collaboratori non scrivono da soli un articolo tutto in una volta ma aggiungono il loro contributo migliorando la voce di volta in volta. Un partecipante presenta
una bozza (stub), altri possono aggiungere paragrafi e altri ancora ampliare, modificare e condensare il testo esistente. Alcuni possono aggiungere collegamenti e riferimenti bibliografici, altri possono correggere refusi ed errori grammaticali e altri ancora possono contribuire con le immagini. Scegliendo un esempio recente, vediamo come è stato sviluppato l’articolo sul primo romanzo della trilogia di Stieg Larsson, The Girl with the Dragon Tattoo.11 Partendo da una bozza apparsa poco dopo la prima pubblicazione in lingua inglese, l’articolo è cresciuto man mano - con picchi di attività, nel periodo in cui i film sono usciti al cinema - presentandosi oggi come un articolo ben formato modificato più di 600 volte da 395 collaboratori.
11 http://en.wikipedia.org/wiki/The_Girl_with_ the_Dragon_Tattoo
35
capitolo 2
Negli ultimi trenta giorni dalla stesura di questo testo, l’articolo è stato consultato quasi 900.000 volte.12 La domanda chiave da porsi su Wikipedia è: Come è possibile che gli articoli migliorano in termini qualitativi nel tempo? Come è possibile che il sistema riesce a determinare che una particolare modifica - la sostituzione di una parola, l’aggiunta di un paragrafo o la riorganizzazione di un articolo - è un cambiamento positivo? A volte è evidente - per esempio, quando si corregge un errore di battitura - ma il più delle volte non è ovvio. La risposta è che Wikipedia si basa sugli utenti per giudicare la qualità delle modifiche di un articolo. Ma questo non basta, ciò che costituisce il punto di forza della progettazione di Wikipedia è il modo in cui supporta i propri utenti a dare giudizi del genere: una complessa serie di meccanismi di Social computing a supporto dell’attività dei suoi collaboratori.
2.4.2 valutaRe la QualItà e aPPoRtaRe modIfIcHe Due cose devono accadere affinché gli utenti siano in grado di giudicare la qualità di un cambiamento: il cambiamento deve essere reso visibile e gli utenti devono essere in grado di esprimere la loro opinione sulla necessità di questo cambiamento. Wikipedia asseconda queste necessità attraverso la Cronologia delle modifiche a cui si accede attraverso il tasto Visualizza cronologia presente su ogni scheda articolo. La Cronologia delle modifiche elenca tutte le revisioni apportate 12 http://stats.grok.se/en/latest/The_Girl_with_ the_Dragon_Tattoo
36
ad un articolo e fornisce un collegamento che consente agli utenti di annullare una determinata modifica. Quindi, se l’intero testo dell’articolo è stato sostituito con una stringa di oscenità un’azione vandalica molto più frequente di quanto ci si potrebbe immaginare - l’utente può fare clic su undo e far ritornare l’articolo al suo stato precedente. Di fatto, uno dei primi e più sorprendenti risultati di Wikipedia è che tali atti di vandalismo sono stati quasi sempre scoperti ed eliminati in due o tre minuti al massimo13 e tale risultato ha continuato a reggere nel tempo.14 Anche in considerazione del fatto che Wikipedia fornisce un meccanismo che consente ai suoi collaboratori di inserirsi in una lista per monitorare le modifiche agli articoli che interessano. Per esempio, l’articolo The Girl with the Dragon Tattoo ha attualmente 85 persone in lista.15 Ma il vandalismo, che ovviamente è un peggioramento sensibile per la pagina, è abbastanza facile da scoprire. Cosa ben più difficile è come risolvere questioni più sottili, ad esempio se una spiegazione è chiara o meno, se la riorganizzazione di un paragrafo rappresenta una miglioria per l’articolo, se una particolare immagine è utile o, ancora, se il modo in cui viene descritto qualcosa rientra nei criteri di neutralità auspicabili da un’enciclopedia. Per prendere decisioni su questo tipo di problemi, la gente ha bisogno di comunicare e la pagina Cronologia delle modifiche, in effetti, lo permette. La pagina di revisione contiene un elenco con ogni modifica apportata all’articolo in questione. Ogni voce della lista contiene 13 Viègas (et al.) 2004. 14 Priedhorsky (et al.) 2007. 15 http://toolserver.org/~mzmcbride/ watcher/?db=enwiki_p&titles=The_Girl_with_the_ Dragon_Tattoo
social computing
Figura 2.3 Cronologia delle modifiche, The Girl with the Dragon Tattoo - Wikipedia.
un modo per confrontare il cambiamento con altre versioni di quest’articolo, la data e l’ora della modifica, altre informazioni circa il cambiamento e un tasto per eliminare la modifica. Di particolare interesse, è la voce che presenta le informazioni su chi ha eseguito la modifica. In particolare, contiene: • il nome o l’indirizzo IP dell’utente, un
modo per identificarlo;
• un link alla pagina utente, un modo per comunicare direttamente con la persona; • un link a un elenco di contributi che
l’utente ha apportato a Wikipedia, un modo per giudicare l’operato della persona. Tutto ciò rende la Cronologia delle modifiche un meccanismo sociale per
l’interazione tra gli utenti. Invece di accettare un cambiamento come un dato di fatto, lo spettatore può vedere chi ha compiuto la modifica, scoprire qualcosa sull’utente (attraverso il link alla pagina della persona), valutare la sua esperienza con Wikipedia (attraverso il link ai contributi) e perfino discutere per modificare di comune accordo la voce (attraverso il link alla pagina di discussione). Infatti, i ricercatori hanno dimostrato che la qualità degli articoli di Wikipedia non è semplicemente legata al numero di persone che li modifica ma piuttosto al rapporto che esiste fra i collaboratori, che devono anche essere impegnati in pratiche di comunicazione e collaborazione16.
16 Kittur e Kraut 2008.
37
capitolo 2
Figura 2.4 Pagina utente, Treybien - Wikipedia.
Figura 2.5 Pagina utente, Gareth Griffith-Jones - Wikipedia.
38
social computing
Prendendo ad esempio la Cronologia delle modifiche in figura 2.3, si può facilmente scoprire che l’utente Treybien17 è un editor di grande esperienza, si è aggiudicato un Editor Barnstar e ha contribuito a 40 articoli su libri e film. Anche se qualcuno non è d’accordo con un cambiamento di Treybien, dovrebbe quantomeno indugiare ad annullare un suo contributo, dato il livello di esperienza dell’utente. Il secondo editor della lista18, invece, lascia molto più spazio ad informazioni di carattere biografico. Anche lui ha realizzato regolari modifiche a Wikipedia nel corso degli ultimi sei mesi, in particolare sul cinema, si può anche dare un’occhiata ai suoi contributi individuali per scoprire che ha collaborato in modo serio.
2.4.3 IdentItà e comunIcaZIone
ricevuto dalla comunità, infatti, Wikipedia ha la consuetudine di incoraggiare i collaboratori dando loro riconoscimenti simbolici - l’esempio più noto, come visto in precedenza, è la barnstar. In aggiunta alla pagina utente, ci sono due altre pagine generate automaticamente. La pagina di contributo elenca ogni cambiamento che quella persona ha fatto per Wikipedia e include un link diff che mostra le differenze che l’utente ha apportato alla pagina. Mentre, la pagina di discussione supporta la conversazione con altri utenti. Entrambe le pagine hanno un link diretto alla Cronologia delle modifiche. In più, esiste uno spazio dedicato alle discussioni sul contenuto dell’articolo stesso. Ad esempio, la pagina di discussione di The Girl with the Dragon Tattoo ha sette questioni aperte, una su se sia legittimo caratterizzare il protagonista come “incorruttibile”, un’altra sul perché il titolo inglese è così diverso dal titolo originale in svedese e ancora un’altra sulla questione di inserire o meno una nota su una presunta disputa riguardo alla paternità dell’opera.
I link presenti nella pagina Cronologia delle modifiche illustrano un altro aspetto di Wikipedia: la presenza di diversi meccanismi per valorizzare l’identità e la comunicazione. Ogni persona che contribuisce a Wikipedia ha una pagina utente, una pagina contributi e una pagina di discussione. Come abbiamo visto, la pagina utente è come una homepage, dove un collaboratore può inserire quello che vuole per presentarsi. Il profilo spesso include una serie di informazioni circa le proprie competenze professionali, conoscenze acquisite e gli argomenti che l’utente desidera modificare. Questa pagina è anche il luogo dove i collaboratori di Wikipedia visualizzano i premi che hanno
Anche se tutti questi modi descritti finora potrebbero sembrare una ricetta per il caos, nel complesso sembrano funzionare bene. Le persone parlano fra loro e le loro discussioni tendono a concentrarsi sul se e sul come modificare il contenuto di un determinato articolo. Per esempio, più della metà dei commenti sulle pagine di discussione sono richieste di coordinamento19 ma anche quando le questioni risultano irrisolte, i collaboratori spesso raggiungono un consenso di massima per procedere con le modifiche.
17 http://en.wikipedia.org/wiki/User:Treybien 18 http://en.wikipedia.org/wiki/User:Gareth_ Griffith-Jones
19 Viègas (et al.) 2004.
39
capitolo 2
Di particolare rilievo non è tanto che le persone raggiungono tale autorizzazione a procedere, ma piuttosto il modo in cui trovano l’accordo. Wikipedia ha una sua politica20, una policy, un ampio insieme di regole e linee guida che la governano. Per esempio, uno dei principi fondamentali di Wikipedia è che gli articoli devono adottare un punto di vista neutrale e cercare di rappresentare equamente tutte le visioni significative pubblicate da fonti affidabili. Un’altra politica è quella della verificabilità: i lettori devono essere in grado di controllare che il materiale di Wikipedia provenga da una fonte consultabile. Ciò che è importante ai fini della comprensione dei sistemi di Social computing, non sono le politiche o le linee guida in sé, ma piuttosto la loro funzione di fornire un’infrastruttura adeguata alla discussione. I collaboratori che si trovano in disaccordo con le linee guida di Wikipedia possono discuterne e apportare delle modifiche alla politica stessa. Infatti, proprio come tutti gli articoli presenti su Wikipedia, la policy ha le proprie schede personali di Modifica, Discussione e Visualizza cronologia che vengono, al pari di altri articoli, ampiamente discussi e modificati. Così l’articolo sulla policy di Wikipedia ha sette sezioni ed è stato curato da oltre 1700 utenti nel corso del primo decennio della sua vita ed è stato visualizzato oltre 180.000 volte negli ultimi 30 giorni21. Pur non essendo così tanto quanto l’articolo The Girl with the Dragon Tattoo, indica tuttavia che si tratta di una risorsa utilizzata attivamente.
20 http://en.wikipedia.org/wiki/Wikipedia:Policy 21 http://stats.grok.se/en/latest/ Wikipedia:Policies_and_guidelines
40
Sia l’uso di criteri guida per le modifiche che l’evoluzione delle politiche collettive da parte della comunità degli utenti Wikipedia sono argomenti largamente discussi in un articolo molto interessante intitolato Don’t Look Now, But We’ve Created a Bureaucracy22.
2.4.4
RISultatI
Ciò che abbiamo visto fin qui dimostra che nonostante qualsiasi utente possa modificare una voce, il lavoro prodotto quotidianamente su Wikipedia non viene elaborato in modo semplice. Sistemi a supporto dell’identità, comunicazione fra gli utenti e applicazione di regole contribuiscono a realizzare un complesso processo di Social computing che porta alla creazione e allo sviluppo di articoli di alta qualità. Detto questo, non è sorprendente che ci sia un nucleo di collaboratori, spesso indicati come wikipediani, responsabili della maggior parte dei contributi. Ci sono vari modi per dare il proprio apporto a Wikipedia ma, in generale, i ricercatori concordano sul fatto che una piccola percentuale di editori contribuisce alla maggior parte dei contenuti - il 10% dei collaboratori fornisce tra 80 - 90% dei contenuti visualizzati23 e i wikipediani che contribuiscono di più danno un contributo più duraturo e si appellano alle norme più frequentemente per giustificare le loro modifiche24.
22 Butler (et al.) 2008. 23 Priedhorsky (et al.) 2007. 24 Panciera (et al.) 2009.
social computing
Wikipedia è un risultato notevole, è un sistema autonomo che produce articoli ben strutturati tanto rapidamente da essere tra i siti più visitati del web. Ci siamo domandati come sia possibile che gli articoli di Wikipedia migliorino nel tempo, notando che, per esempio, i problemi più evidenti, come il vandalismo, sono risolti entro due o tre minuti. Abbiamo visto che, Wikipedia, come sistema, è consapevole in qualche modo dei suoi contenuti. In particolare, tiene traccia di ogni cambiamento apportato all’articolo e fa sì che i cambiamenti individuali siano visibili e modificabili mediante le pagine di revisione. Il sistema riconosce che alcuni cambiamenti sono necessari a differenza di altri e, rendendo più semplice agli utenti la visualizzazione e il giudizio su questi cambiamenti, supporta una creazione di valore sempre più elevato per i suoi articoli. E poiché la qualità può essere una questione sottile, Wikipedia fornisce mezzi di discussione e politiche che guidano gli utenti nel prendere decisioni coerenti su questi cambiamenti. In questo senso vediamo il modus operandi dei sistemi di Social computing: gli utenti aggiungono i contenuti e il sistema li elabora migliorandone l’usabilità.
41
capitolo 2
2.5 cReaZIone del valoRe SocIale Secondo Thomas Erickson, interaction designer e ricercatore presso il Social Computing Group del Watson Labs di IMB, il Social computing ha assunto una propria autonomia verso la fine degli anni novanta e l’inizio del 2000, quando si superò la concezione che un sistema di interazione sociale dovesse semplicemente servire come piattaforma per la condivisione di contenuti e la conversazione online.25 La chiave di sviluppo è stata la crescente capacità da parte dei sistemi digitali di elaborare i contenuti generati dalle interazioni sociali e di riportare i risultati di tale elaborazione all’interno del sistema. Prima, lo sviluppo di un sistema di computer-conferenza serviva soltanto come piattaforma per la conversazione in rete, mentre i contenuti della conversazione stessa potevano essere compresi ed elaborati dai soli esseri umani partecipanti. Oggi, i sistemi digitali forniscono mezzi di comunicazione passiva attraverso cui le persone interagiscono. In altre parole, l’avvento dei moderni sistemi di Social computing si completa, secondo Erickson, quando i sistemi digitali iniziano ad elaborare contenuti generati dagli utenti e farne uso per i propri scopi, producendo valore e nuove funzionalità per gli utenti. Esempio per eccellenza di creazione di valore a partire dall’elaborazione di contenuti generati dagli utenti è Pagerank, l’algoritmo utilizzato da Google, di cui abbiamo parlato in precedenza. L’intuizione fondamentale alla base di Pagerank è che l’importanza di una pagina web può essere valutata osservando il
25 Erickson 2011.
42
numero di pagine che puntano ad essa (ponderata per l’importanza di quelle pagine che può essere ricorsivamente valutata nello stesso modo). L’assunto che ne deriva è che l’atto di creare un link a una pagina da parte di un essere umano, è indice che tale pagina è importante. Così Pagerank estrae e aggrega i risultati dei giudizi umani espressi in termini di creazione di link, e li utilizza per valutare l’importanza delle pagine e determinare l’ordine in cui visualizzarle. Questo è sicuramente fra i più importanti esempi del riconoscimento che le azioni in rete di un determinato numero di persone possono essere sfruttate per fornire un servizio prezioso.
2.6 amaZon RaccomandatIon PRoduct Amazon26 è un rivenditore online che, come molti sapranno, vende una vastissima gamma di prodotti oltre a fornire la possibilità ad altri rivenditori al dettaglio di aprire un proprio negozio online. In linea teorica non vi è nulla nel core business di Amazon - vendita di prodotti online - che giustifichi l’implementazione di un sistema di Social computing, ma Amazon ha avuto la meglio nei confronti dei suoi competitors proprio perché ha utilizzato diverse strategie per differenziarsi dagli altri store online. Per comprendere meglio questo concetto, daremo uno sguardo da vicino al meccanismo di raccomandazione dei prodotti in vendita su Amazon.
26 http://www.amazon.com/
social computing
Figura 2.6 Fight Club: A Novel – Scheda del prodotto in vendita su Amazon.
Amazon permette ai suoi utenti di recensire i prodotti online, ogni recensione consiste in un testo e un rating da 1 a 5 stelle. I prodotti possono raccogliere molte recensioni – ad esempio il best-seller Fight Club: A Novel27, il romanzo che ha reso celebre Chuck Palahniuk, ha accumulato oltre 700 recensioni. Se questo sistema di recensioni si fermasse qui, come in un comune store online, sarebbe interessante e utile ma non di certo considerabile una strategia di Social computing: sarebbe simile ai primi sistemi che servivano come piattaforme per la produzione di contenuti generati dagli utenti ma che, al tempo stesso, potevano
essere compresi solo da parte degli utenti stessi. Sarebbe stato utile per fornire un gran numero di recensioni ma sarebbe improbabile che un utente legga davvero tutte le 724 recensioni di Fight Club: A Novel. La differenza è che Amazon ha gestito con intelligenza le tipologie d’informazione e di feedback che un utente può inserire e ciò ha sancito l’ingresso del suo meccanismo di raccomandazione dei prodotti nel territorio del Social computing e, più precisamente, in quel genere di strategia, molto diffusa in ambito commerciale e nei sistemi di social networking, detta collaborative filtering.
27 http://www.amazon.com/Fight-Club-NovelChuck-Palahniuk/dp/0393327345/ref=sr_1_2?ie= UTF8&qid=1330187973&sr=8-2
43
capitolo 2
2.6.1
collaBoRatIve fIlteRInG
Il filtraggio collaborativo, spesso abbreviato con le lettere “CF”, è stato introdotto nel 1992 dallo staff di ricerca Xerox nell’ambito del progetto Tapestry28, un sistema che consentiva agli utenti di rintracciare dei documenti basandosi su commenti lasciati da altri utenti. Più in generale, quando parliamo di collaborative filtering ci riferiamo a una classe di strumenti e meccanismi che ci permettono di recuperare informazioni predittive relative ad un prodotto, ad esempio un libro in vendita su Amazon, attingendo da una massa ampia e indifferenziata di conoscenza, rappresentata nel nostro caso dall’insieme delle recensioni prodotte dalla comunità di lettori presenti su Amazon. Un classico esempio di collaborative filtering è il sistema di suggerimento dei generi e pezzi musicali a partire da un insieme di conoscenza di base dei gusti e delle preferenze di un dato utente a noi collegato. Da notare che, nonostante questo tipo d’informazioni ci appare riferito al singolo utente, i dati derivano sempre dalla conoscenza elaborata su tutto l’arco degli utenti del sistema. Tornando ad Amazon, oltre alla classificazione da 1 a 5 stelle a partire dalla quale il sistema è in grado di produrre una media generica di valutazione e altri tipi di statistiche, Amazon raccomandation product consente agli utenti di giudicare le recensioni stesse: i lettori possono votare se una recensione è stata utile o meno, possono contrassegnare come “inappropriato” un determinato contenuto e commentarlo come meglio credono. La cosa più sorprendente è che i consumatori fanno davvero tutto questo-
28 Goldberg (et al.) 1992.
44
la recensione “più utile” di Fight Club: A Novel29 è stata votata da oltre 300 lettori e ha ricevuto più di 20 commenti. Ciò è significativo perché i voti degli utenti e le loro valutazioni possono essere utilizzati per fornire informazioni preziose, come Pagerank utilizza i link. Infatti, utilizzando queste informazioni, Amazon mette a disposizione due elementi nell’interfacciautente che aumentano notevolmente l’usabilità del sistema: • un grafico della distribuzione del rating
del libro, che offre agli spettatori un primo colpo d’occhio sulla valutazione generale degli utenti; • un sistema di ricerca relativo alle
recensioni di quel prodotto; • utilizzando il numero di voti “utili”
estrapola due recensioni particolarmente significative secondo il sistema: la recensione più utile fra quelle positive e quella più utile fra quelle negative. Tali elementi - che si basano su calcoli effettuati a partire dagli input degli utenti - non fanno altro che rendere la vita più facile ai nuovi possibili acquirenti di Amazon, che possono facilmente interagire con grandi quantità di dati. Come detto, il primo elemento integra i risultati di tutte le recensioni di un libro e fornisce non solo la media dei voti ma rende visibile anche la distribuzione del rating. Il secondo valuta in tandem il rating delle recensioni e i voti utili raccolti al fine di evidenziare due particolari punti di vista - quello più critico e quello più favorevole.
29 http://www.amazon.com/Fight-Club-NovelChuck-Palahniuk/product-reviews/0393327345/
social computing
Figura 2.7 Fight Club: A Novel – Recensioni degli utenti su Amazon.
Ora, anziché trovarsi di fronte a decine, centinaia o migliaia di recensioni, l’utente può guardare la distribuzione complessiva e leggere le recensioni più utili. Come in Wikipedia, anche su Amazon è valorizzata l’identità degli utenti; ciò aumenta l’utilità di una recensione e la possibilità di attrarre nuovi potenziali acquirenti. Inoltre, la possibilità di recensire in maniera utile e di essere riconosciuto come l’autore della recensione “più utile” può servire a incentivare i revisori a scrivere in maniera più accurata. Nei fatti, questi meccanismi producono un circolo virtuoso: un loop di feedback positivi che favoriscono le vendite. Inoltre, come Pagerank estrae dal web i link che si presentano con maggiore frequenza, Amazon utilizza la cronologia degli acquisti di un utente per identificare altri utenti con cronologie simili e fornire le cosiddette “raccomandazioni”.
Questo dimostra chiaramente come, già a partire dai primi anni del 2000, questi sistemi sono stati concepiti per essere più di una semplice piattaforma per l’interazione sociale favorendo le funzionalità di utilizzo dei risultati non solo da parte degli utenti ma anche dai sistemi stessi. Ciò che emerge dall’esempio di Amazon è la tendenza da parte degli attuali sistemi di Social computing a sfruttare, ogni qual volta si presenti l’occasione, le potenzialità dell’interazione sociale elaborando e riutilizzando le informazioni fornite dagli utenti.
45
capitolo 2
2.7 vantaGGI del SocIal comPutInG Perché è importante il Social computing? Oltre al fatto che l’interazione supportata dai sistemi di Social computing è gratificante di per sé, tali sistemi sono in grado di ottenere risultati migliori rispetto ai sistemi puramente digitali.
I sistemi di Social computing producono risultati più efficienti. Amazon può contare su tutta la sua base di clienti per recensire un libro, può fornire giudizi molto più rapidamente e in maniera più affidabile rispetto alle recensioni prodotte da Publishers Weekly. Tornando a un esempio familiare, il bestseller The Girl with the Dragon Tattoo30 ha ricevuto cinque recensioni a un mese dalla sua pubblicazione in lingua inglese del 2008, eppure il libro era sconosciuto, in termini di vendite. Allo stesso modo, Wikipedia offre oltre tre milioni e mezzo di articoli in lingua inglese e può generare articoli di attualità con una velocità impressionante. Ad esempio, nel giro di un’ora dal terremoto del Tohoku del 2011, un articolo di tre paragrafi fu pubblicato immediatamente e, nelle successive 24 ore, fu modificato più di 1.500 volte producendo un’ articolo dettagliatissimo con mappe, foto e oltre 70 riferimenti bibliografici.31
30 http://www.amazon.com/Dragon-Tattoo-MovieVintage-Lizard/dp/0307949486/ 31 http://en.wikipedia.org/ wiki/2011_T%C5%8Dhoku_earthquake_and_ tsunami
46
I sistemi di Social computing aumentano la qualità dei risultati. Un buon esempio è il concorso di programmazione open source lanciato da Matrix Laboratory.32 MatLab è un pacchetto software commerciale per realizzare analisi matematiche che utilizza un linguaggio di programmazione chiuso, una delle strategie di promozione utilizzate dai suoi creatori è stata quella di bandire un contest di programmazione. Ai concorrenti veniva posto un problema, la sfida era sviluppare un programma che lo risolvesse nella maniera più rapida ed efficace possibile. I concorrenti caricavano nel sistema il codice sorgente MatLab dei loro programmi che venivano immediatamente valutati e classificati con un punteggio. Ciò che ha reso il concorso qualcosa di insolito ed interessante è che il codice sorgente inserito veniva reso pubblico. Così, ogni volta che veniva aggiornata la classifica dei migliori programmi, gli altri concorrenti potevano scaricare e studiare il codice sorgente in modo da rielaborarlo e renderlo sempre un po’ più veloce. Ripetendo questo processo decine di volte, il codice veniva rapidamente ottimizzato, attingendo ed integrando le conoscenze specialistiche di un’intera comunità di programmatori MatLab.33
32 MatLab Central 2010. 33 Gulley 2004.
social computing
I sistemi di Social computing producono risultati percepiti come più affidabili e più validi. Amazon rappresenta uno degli esempi più calzanti per evidenziare la recente tendenza da parte dei consumatori a ritenere più affidabile il giudizio di una comunità di utenti, piuttosto che quello di un’unica voce come potrebbe essere, ad esempio, un noto critico di Publishers Weekly, che può avere valori e pregiudizi che non sono in sintonia con il lettore comune. Uscendo per un attimo dal mondo digitale, si può notare che il concetto di razionalità per una comunità di persone risiede nella visione più largamente condivisa, quella che riflette il consenso popolare piuttosto che nella visione fornita per partito preso. Ma attenzione perché, nei sistemi digitali, questa fiducia viene facilmente messa in discussione. Un’asta online su eBay ne è la dimostrazione, ogni scorrettezza all’interno del sistema - imbrogli nelle aste o vicende di collusione tra banditori e offerenti qualora venga percepita dai consumatori rischia di minare la legittimità di tutto il sistema.
I sistemi di Social computing attingono da competenze che sono esclusivamente umane.
digitano la stessa parola vincono e ricevono dei punti. Lo scopo di questo gioco online, che ha attirato a sé una comunità di oltre 200.000 persone, è produrre etichette testuali per le immagini presenti sul web - un compito che, in generale, un software non può eseguire. Ultimamente, Google ha acquistato l’intero progetto ESP game trasformandolo in Google Image labeler35 e, a breve, sarà online la versione beta. Sicuramente si potrebbe pensare a tutta la vicenda di ESP game come il classico colpo fortunato, la storia di un nerd americano che mette a punto un sistema di estrema utilità per un colosso informatico come quello di Mountain View e che ricava da questa storia abbastanza denaro per ritirarsi su una spiaggia dei Caraibi. Invece il team di Luis Von Ahn, ideatore di ESP game e professore associato presso la Carnegie Mellon University di Pittsburgh, crede con convinzione che costruire sistemi informatici che combinano l’attività degli esseri umani e quella dei computer sia una soluzione concreta e brillante per la risoluzione di diversi problemi su vasta scala. Nel prossimo capitolo parleremo di Human computation, un tipo di sistemi di calcolo supportati dall’attività umana che si collocano in un territorio immediatamente attiguo a quello dei sistemi di Social computing.
ESP game34 è un gioco online in cui un utente e un compagno anonimo guardano una stessa immagine e cercano di indovinare le parole che vengono in mente all’altra persona. Entrambi inseriscono parole contemporaneamente e quando 34 http://www.gwap.com/gwap/gamesPreview/ espgame/
35 http://en.wikipedia.org/wiki/Google_Image_ Labeler
47
capitolo 3
CAPITOLO 3
HUMAN COM TION 50
HUMAN COMPUTATION
3.1 Il temPo è denaRo “Construction of the Empire State Building: 7 million human-hours. The Panama Canal: 20 million humanhours. Estimated number of humanhours spent playing solitaire around the world in one year: billions. A problem with today’s computer society? No, an opportunity.”1 {Costruzione dell’Empire State Building: 7 milioni di ore di lavoro. Il Canale di Panama: 20 milioni di ore di lavoro. Stima del numero di ore di lavoro passate a giocare solitario nel mondo in un anno: miliardi. Un problema con la società del computer di oggi? No, un’opportunità}
PUTA-
L’opportunità di cui parla Luis Von Ahn prende in considerazione la possibilità di sfruttare le potenzialità di calcolo del cervello umano in relazione a una recente tendenza che vede un notevole aumento del tempo che l’uomo trascorre a contatto con la tecnologia quotidianamente. I sistemi di Human computation si concentrano sul tempo, sfruttando le energie umane per risolvere problemi che i computer non possono ancora affrontare da soli. Anche se, negli ultimi cinquant’anni, i computer hanno compiuto progressi significativi in diversi ambiti, tuttavia non possiedono ancora l’intelligenza 1 Von Ahn 2005.
51
capitolo 3
concettuale di base e le capacità percettive scontate per la maggior parte degli esseri umani. Sfruttando le competenze e le forze dell’uomo in modo nuovo, si possono risolvere problemi computazionali su larga scala e cominciare ad insegnare ai computer molte di queste soluzioni. Parliamo di un approccio generale per riuscire a sfruttare la potenza di calcolo che ogni essere umano possiede, alcune possibili applicazioni di questa tecnica riguardano il tagging, la localizzazione di oggetti nelle immagini, le traduzioni, il monitoraggio e il controllo di grosse quantità di dati. Le notevoli possibilità rappresentate dal crescente sviluppo dei sistemi di Human computation possono coinvolgere diversi ambiti di ricerca, come abbiamo visto, Galaxy Zoo è stato sviluppato per la classificare le galassie utilizzando una comunità di migliaia di human computer nella rete. La stessa intuizione è alla base di CAPTCHA2, ma l’applicazione è completamente differente: difendere i siti web dallo spam.
3.2 caPtcHa e Il teSt dI tuRInG Quasi tutti gli utenti del web hanno risolto almeno una volta un CAPTCHA. Parliamo di quelle immagini contenenti stringhe di testo distorto che possono essere lette soltanto da un essere umano e che si presentano come un fastidioso seppur semplice test da superare al termine della registrazione di un account mail o per il buon fine di acquisto online. CAPTCHA, è l’acronimo di “Completely Automated Public Turing Test to Tell Computers
2 http://www.captcha.net/
52
Figura 3.1 CAPTCHA.
and Humans Apart” letteralmente Test di Turing pubblico e completamente automatizzato per distinguere un computer da un essere umano. Un test di Turing è una sfida classica per un’Intelligenza Artificiale, un criterio matematico per determinare se una macchina sia in grado di pensare. Questo test è stato introdotto da Alan Turing3, uno dei padri dell’informatica, nell’articolo Computing machinery and intelligence, apparso nel 1950 sulla rivista Mind.4 Non è assolutamente scontato che una macchina riesca a superare un test di Turing, che, secondo l’intelligenza da testare, può assumere realizzazioni diverse. Turing stesso prende spunto da un gioco chiamato “gioco dell’imitazione” con tre partecipanti: un uomo A, una donna B, e una terza persona C. Quest’ultimo è tenuto separato dagli altri due e tramite una serie di domande deve stabilire qual è l’uomo e quale la donna. Dal canto loro, anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un’identificazione errata, mentre B deve aiutarlo. Affinché C non possa disporre di alcun indizio (come l’analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse. Il test di Turing
3 http://it.wikipedia.org/wiki/Alan_Turing 4 Turing 1950.
HUMAN COMPUTATION
si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chi è l’uomo, e chi la donna, è simile prima e dopo la sostituzione di A con la macchina, allora la macchina stessa dovrebbe essere considerata intelligente, dal momento che, in questa situazione, sarebbe indistinguibile da un essere umano. Per macchina intelligente, Turing ne intende una in grado di pensare, capace di concatenare idee ed esprimerle: tutto si limita alla produzione di espressioni non prive di significato.5 A differenza del “gioco dell’imitazione”, un CAPTCHA può essere generato automaticamente da un software, ma è un test che la maggior parte degli umani riesce a superare con facilità mentre i sistemi informatici attuali non possono superarlo. Si noti il paradosso: CAPTCHA è un programma in grado di generare test di qualità che esso stesso non può superare. In questo senso, i CAPTCHA sono simili ai test di Turing perchè servono a distinguere gli esseri umani dai computer però, a differenza del gioco dell’imitazione condotto da Turing, il giudice ora non è un essere umano ma un computer.
tempo, arrivando ad essere considerato uno standard contro lo spam, indispensabile per ogni genere di sito web, mail provider, social network, blog, wiki, rivenditori online di prodotti, etc. Secondo alcune stime6, si digitano ogni giorno oltre 100 milioni di CAPTCHA, ciò dimostra che, pur rappresentando qualcosa di non pertinente ai fini di una determinata azione condotta sul web, il test non molesta eccessivamente l’utente che accetta la sfida e risolve un CAPTCHA ormai in maniera del tutto automatica. L’opportunità colta dagli sviluppatori di CAPTCHA, che inserisce questo genere di sistema nel paradigma dello Human computation, è stata quella di riprogettare il sistema pensandolo come un software che possa, nel lungo periodo, sostenere la digitalizzazione ad opera umana di numerosi testi prodotti in epoca non digitale. Il sistema in questione è stato denominato reCAPTCHA e, a quanto pare, contribuirà a preservare la conoscenza umana rendendola più accessibile a tutti.
Fin dalle sue prime versioni, CAPTCHA è stato utilizzato da diversi siti, fra i quali Gmail e Yahoo mail, per risolvere uno dei principali problemi che da sempre affligge il mondo del web, lo spam. Agli utenti viene richiesto di digitare una serie di caratteri distorti renderizzati all’interno di un’unica immagine per provare al sistema la loro appartenenza al genere umano e per far sì che il servizio offerto non venga utilizzato in maniera impropria. L’efficacia di questo test è testimoniata dall’enorme fortuna che CAPTCHA ha avuto nel corso del
5 http://it.wikipedia.org/wiki/Test_di_Turing
6 Von Ahn (et al.) 2008.
53
capitolo 3
3.3 RecaPtcHa reCAPTCHA7 è un servizio di anti-bot di proprietà di Google8 attualmente utilizzato da oltre 40.000 siti web ed è la dimostrazione che vecchi testi stampati, a partire dai quotidiani per arrivare agli show radiofonici, possono essere trascritti in digitale, parola per parola, semplicemente risolvendo CAPTCHA nel Web. reCAPTCHA funziona in questo modo, le pagine di un libro vengono acquisite e trasformate in immagini bitmap attraverso una scansione guidata da due differenti software OCR (Optical Character Recognition). La trascrizione è utile affinchè il testo possa essere indicizzato, ricercato e classificato ma, nella quasi totalità dei casi, l’operato dei software OCR non risulta essere sufficiente per il riconoscimento di tutte le parole presenti in un testo che, per diverse ragioni, presentano sempre un 20% di errore. La soluzione proposta9 consiste nel mettere alla prova la scansione ottica realizzata dai software integrando la risposta umana e quella del computer. Per aumentare la sicurezza e l’efficacia del sistema, solo le parole che non vengono automaticamente riconosciute dai software OCR sono sottoposte al giudizio umano. In ogni caso, per arrivare al suo obiettivo di CAPTCHA (distinguere gli esseri umani dai computer), il sistema deve essere in grado di verificare la risposta dell’utente. Per fare ciò, reCAPTCHA presenta due parole all’utente, una, la cui risposta è sconosciuta e un’altra, detta “di controllo”, la cui risposta è conosciuta dal sistema. Se l’utente inserisce correttamente la parola di controllo, il 7 http://www.google.com/recaptcha 8 Google blog 2009. 9 Von Ahn (et al.) 2008.
54
Figura 3.2 reCAPTCHA.
sistema ne deduce che è un essere umano e si predispone fiducioso a che esso digiti l’altra parola correttamente.
3.3.1 Il SIStema Si inizia con un’immagine di una pagina scansionata, due differenti software OCR analizzano l’immagine e i loro output vengono allineati attraverso un algoritmo detto standard string matching
HUMAN COMPUTATION
e comparati con un dizionario di lingua inglese. Tutte le parole che vengono decifrate in maniera diversa dai software OCR o che non vengono riconosciute nel dizionario inglese sono segnalate come “sospette”. Secondo le analisi condotte dal team di Von Ahn10, circa il 96% di queste parole sospette vengono decifrate in maniera sbagliata dalla maggior parte dei software OCR; al contrario, il 99,74%
delle parole non marcate come “sospette” vengono decifrate in maniera corretta da entrambi i programmi di riconoscimento ottico dei caratteri. In seguito, ogni parola sospetta viene inserita in un’immagine assieme ad un’altra parola della quale si conosce la risposta, le due parole vengono distorte insieme per assicurare che nessun programma possa decifrarle e l’immagine che ne deriva viene utilizzata come CAPTCHA. Agli utenti viene chiesto di digitare entrambe le parole correttamente, quindi ogni reCAPTCHA possiede una parola sconosciuta e una di controllo presentata in maniera casuale. Per diminuire la probabilità che un programma automatico cerchi di indovinare in maniera casuale la risposta corretta, la frequenza delle parole di controllo viene normalizzata; per esempio, la parola più comune e la parola meno comune hanno la stessa probabilità di ricorrenza. Il vocabolario delle parole di controllo contiene più di 100.000 voci, in modo che un bot che cerca di indovinare una parola può avere una probabilità di successo su 100.000 tentativi. Inoltre, solo le parole che entrambi i software OCR non identificano vengono utilizzate come parole di controllo. Per limitare l’errore umano nel processo di digitalizzazione, reCAPTCHA invia ogni parola sospetta a diversi utenti, ogni volta con una distorsione differente, il programma è in grado di utilizzare tre differenti algoritmi di distorsione. Allo stato di partenza, una parola viene considerata dal sistema come “sconosciuta”, non appena un utente inserisce la risposta corretta associata alla parola di controllo le risposte degli altri utenti vengono registrate come tentativi plausibili per quella parola precedentemente sconosciuta.
10 Von Ahn (et al.) 2008.
55
capitolo 3
Se i successivi tentativi umani corrispondono fra loro, ma presentano delle differenze con entrambi i tentativi dei software OCR, la parola viene archiviata come risolta e inserita come parola di controllo in un altro test reCAPTCHA. Nel caso di discrepanze nella risposta umana, reCAPTCHA invia la parola a più esseri umani come “parola sconosciuta” e sceglie la risposta con il più alto numero di “voti”, ogni risposta umana conta come un voto mentre la risposta dell’OCR conta un voto e mezzo. Per riconoscere le parole che non sono leggibili, reCAPTCHA possiede un bottone che permette agli utenti di richiedere una nuova coppia di parole e, quando sei utenti rifiutano una parola che non ha ancora ricevuto alcuna identificazione, la parola viene scartata come illeggibile. Dopo che tutte le parole sospette in un testo sono decifrate, il sistema applica un processo di post produzione per vagliare una varietà di plausibili errori umani: sempre dalle analisi dei dati11, il 67,87% delle parole richiede due responsi umani per essere considerata corretta, il 17,86% ne richiede tre, il 7,10% ne richiede quattro, il 3,11% ne richiede cinque e solo il 4,06% ne richiede sei o più (fra queste sono incluse le parole scartate come illeggibili).
3.3.2
RISultatI
Uno schieramento su vasta scala del sistema ha permesso di collezionare un buon numero di risultati. Primo fra tutti, il sistema ha portato le più alte garanzie in
11 Von Ahn (et al.) 2008.
56
termini di qualità tra i servizi automatizzati di trascrizione ad opera umana. Un altro risultato importante è che un CAPTCHA rappresenta una soluzione praticabile per sfruttare grandi quantità di sforzi mentali umani. Esattamente dopo un anno dalla sua nascita, gli esseri umani avevano risolto più di 1.2 miliardi di CAPTCHA e decifrato correttamente oltre 440 milioni di parole sospette. Se ipotizziamo che un libro possieda 100.000 parole (400 pagine, 250 parole per pagina), il sistema ha portato alla traduzione di oltre 17.600 libri, tutti interamente trascritti da esseri umani. Il sistema, inoltre continua ad accrescere la sua popolarità e si attesta, oggi, sulla soglia dei 160 libri trascritti per giorno. D’altra parte, ci sono molte ragioni per le quali un sito web decide di utilizzare reCAPTCHA. Per prima cosa, utilizzando soltanto parole provenienti da libri, reCAPTCHA è in questo momento più sicuro del convenzionale CAPTCHA che genera da solo e in maniera casuale stringhe di caratteri distorti. Inoltre, il sistema di distorsione dei caratteri utilizzato da CAPTCHA presenta dei limiti; infatti, sono stati sviluppati diversi software che imparano l’algoritmo di distorsione e, dopo un adeguato training, riescono a decifrare i caratteri distorti. Addirittura c’è chi reputa meno oneroso pagare persone in giro per il web per risolvere CAPTCHA: è il caso delle cosiddette società di spam, vere e proprie aziende online che utilizzano lo spamming non per pubblicizzare i propri prodotti ma come un servizio da vendere a terze parti. Queste società assoldano persone nel web per risolvere CAPTCHA, pagandole 2.50 $ per ora di lavoro. Considerando che un uomo riesce a risolvere mediamente 720 CAPTCHA all’ora, le società di spam
HUMAN COMPUTATION
riescono a pagare 1/3 di centesimo di dollaro per un account mail.12 In quanto a reCAPTCHA, le parole in uso in questo sistema risultano attualmente più difficili da decifrare per un computer. Gli esseri umani, al contrario, possono decifrare un reCAPTCHA con grande facilità: gli utenti di un sito web dotato di reCAPTCHA solitamente presentano meno reclami di quelli che utilizzano il semplice CAPTCHA. Un’altra ragione per la quale i siti web decidono di adottare reCAPTCHA è che reCAPTCHA presenta due parole anziché una. Quest’aspetto non muta il tempo di risoluzione del test, un CAPTCHA standard presenta da sei a otto caratteri scelti casualmente (che non sono parole di lingua inglese) che richiedono lo stesso tempo di risoluzione rispetto a due parole appartenenti alla lingua inglese. La differenza dei tempi medi di risoluzione non è statisticamente rilevante (CAPTCHA 13,51 secondi, reCAPTCHA 13,06 secondi) segnaliamo, tuttavia, che il tempo speso per risolvere un reCAPTCHA è minore in quanto le parole, tutte appartenenti alla lingua inglese, rappresentano qualcosa con cui il cervello umano ha già una certa confidenza. reCAPTCHA è un caso esemplare, di fatto, è fra i sistemi di Human computation più diffusi nel web ed è importante che continui ad avere un impatto positivo su tutta società moderna contribuendo alla digitalizzazione della conoscenza umana.
12 Von Ahn 2006.
57
capitolo 3
Figura 3.3 reCAPTCHA su www.ryanair.com.
3.4 caRatteRIStIcHe dIStIntIve deI SIStemI dI Human comPutatIon reCAPTCHA, principale caso di studio presentato finora, ci aiuta a delineare l’idea di fondo comune a tutti i sistemi di Human computation, ovvero che gli sforzi di calcolo umano sprecati possono essere sfruttati per risolvere problemi che i computer non possono ancora risolvere. A partire da quest’assunto è possibile delineare le tre caratteristiche distintive dei sistemi di Human computation.13 In primo luogo, c’è l’esclusività umana che caratterizza in ogni caso questi sistemi: sempre e solo gli esseri umani possono contribuire a questo genere di approccio, non è possibile concepire un sistema simile adatto ad un tipo di intelligenza differente. La seconda caratteristica è lo sforzo consapevole: l’uomo calcola volontariamente qualcosa, non è 13 Law 2011.
58
semplicemente portatore di un sensore o un dispositivo tecnologico che svolge il calcolo ma è esso stesso parte attiva del processo. Ritorniamo, quindi, alla questione della motivazione, discussa in precedenza in merito ai prediction markets. Non sempre un utente si sottopone di buon grado a una sfida che implica necessariamente uno sforzo mentale: per quanto semplice sia la richiesta un essere umano difficilmente la accetterà senza una debita ricompensa. In un sistema di Human computation, il cervello umano viene considerato alla stregua di un processore in un sistema distribuito, si parla infatti di human computer, ogni azione rappresenta una piccola parte di un calcolo enorme ma, a differenza dei processori di un computer, gli esseri umani richiedono una motivazione per partecipare ad un calcolo collettivo, che, nel caso di reCAPTCHA (figura 3.3), risiede nell’accessibilità di un determinato contenuto sul web.
HUMAN COMPUTATION
La terza caratteristica, comune a tutti questi sistemi, è il controllo esplicito dei risultati. Infatti, gli esseri umani sono chiamati a partecipare attivamente al processo di calcolo, ma i risultati sono sempre determinati da un algoritmo e non dalle dinamiche naturali della folla. In generale, un algoritmo si può definire come un procedimento che consente di ottenere un risultato atteso eseguendo, in un determinato ordine, un insieme di passi semplici.14 Affermando che i passi costituenti di un algoritmo debbano essere semplici, si intende soprattutto che essi siano specificati in modo non ambiguo, ovvero immediatamente evidenti a chi sarà chiamato ad applicare l’algoritmo, cioè il suo esecutore. Così, “rompere le uova” può essere un passo legittimo di un “algoritmo di cucina”, e potrebbe esserlo anche aggiungere sale quanto basta se possiamo assumere che l’esecutore sia in grado di risolvere da solo l’ambiguità di questa frase. Al contrario, un passo come preparare un pentolino di crema pasticciera non può probabilmente considerarsi semplice; potrebbe però essere associato a un opportuno rimando a un’altra sezione del ricettario, che fornisca un algoritmo apposito per questa specifica operazione. La caratteristica principale di un algoritmo di Human computation è che l’output viene determinato da una comparazione con l’essere umano (evidenziata in figura 3.4 dalle frecce di colore più chiaro). Tornando all’esempio precedente, l’azione preparare un pentolino di crema pasticciera, non essendo risolvibile in un unico passaggio, viene scomposta in due passaggi semplici - montare il bianco a neve e lavorare
14 http://it.wikipedia.org/wiki/Algoritmo
i tuorli con lo zucchero15- e presentata all’essere umano affichè li svolga; una volta che i singoli passaggi saranno considerati esauriti si passerà all’ultima fase, ovvero quella di aggregazione degli outputs. Purtroppo identificare i passi semplici in cui suddividere un’operazione non è sempre così immediato: il task design è una disciplina nata con lo sviluppo diffuso delle tecniche di crowdsourcing. Molti problemi non possono essere inseriti in tali sistemi senza prima identificare una strategia di destrutturazione dei processi che riesca ad identificare le azioni risolvibili da un essere umano che, allo stesso tempo, vengono considerate difficili per un AI.16
PREPARARE UN PENTOLINO DI CREMA PASTICCIERA
Risolvibile? V Risolvi
F Decomponi
MONTARE IL BIANCO A NEVE
LAVORARE I TUORLI CON LO ZUCCHERO
Figura 3.4 Un esempio di algoritmo di Human computation.
15 http://ricette.giallozafferano.it/Cremapasticcera.html 16 Kulkrani e Can 2011.
59
capitolo 3
3.5 veRIfIcatIon GameS: eSP Game Come abbiamo visto, l’idea generale di Human computation non rappresenta qualcosa di assolutamente nuovo. Chiaramente, la possibilità di rendere concreto un approccio del genere è aumentata notevolmente con la crescita del web, che ha ridimensionato in scala, portata e diffusione tutte le possibili applicazioni dell’intelligenza collettiva. Abbiamo iniziato parlando dell’enorme numero di ore che un uomo trascorre giocando a solitario al computer, oggi un fenomeno sempre più consistente nel web è quello dei giochi online, nel prossimo paragrafo analizzeremo i verification games e vedremo come viene progettato un sistema di Human computation che supporta l’interazione fra gli utenti, che vengono attratti dal prodotto non perché interessati a risolvere un problema di calcolo su vasta scala, ma semplicemente per divertirsi. ESP game appartiene alla classe di sistemi catalogati come Human computation, ma i diversi meccanismi di interazione sociale presenti in esso, lo portano in un territorio attiguo al Social computing. Questo tipo di sistema è stato progettato per permettere a un gran numero di persone di eseguire un compito semplice ripetutamente nel tempo. Come abbiamo visto, l’arte di progettare questo tipo di sistema sta nell’identificare un problema complesso che può essere risolto dalla ripetizione massiccia di una semplice azione e capire come motivare i partecipanti ad effettuare diverse volte questo compito. ESP game è sorprendente sia per il successo che ha riscosso che per la semplicità della sua progettazione. Il gioco consiste semplicemente nell’assegnare etichette testuali alle immagini sul web, in altre parole, creare 60
un metadato.17 Nonostante la facilità, non è un compito molto avvincente e, vista la mole di immagini esistenti sul web, questo avrebbe potuto rappresentare un grosso problema. ESP game ha reinterpretato il processo di etichettatura delle immagini in chiave ludica, in modo da riuscire a reclutare un gran numero di persone. Nei suoi primi cinque anni di esistenza, è stato utilizzato da 200.000 persone producendo oltre 50 milioni di etichette immagine.18
3.5.1
GIocHI con uno ScoPo
ESP game è parte di un Human Computation market19 chiamato Games with a Purpose (GWAP)20, ovvero, Giochi con uno scopo. Il gioco funziona come segue. L’utente si collega al sito web21, dopo una breve attesa, viene accoppiato ad un partner anonimo e il gioco comincia. Ad entrambi i partecipanti è visibile un’immagine, per la quale viene richiesto di inserire le parole-etichette, in questa fase vengono visualizzate le “parole tabù” che non possono essere utilizzate come risposta. Non appena i partecipanti digitano la stessa parola, entrambi ricevono dei punti e possono passare a una nuova immagine che, qualora risultasse troppo difficile, può essere sostituita premendo il tasto pass. Ogni partita dura tre minuti ed entrambi i partecipanti ricevono dei punti ogni volta che scrivono la stessa parola.
17 http://it.wikipedia.org/wiki/Metadato 18 Ahn e Dabbish 2008. 19 Little 2011. 20 http://www.gwap.com/gwap/ 21 http://www.gwap.com/gwap/gamesPreview/ espgame/
HUMAN COMPUTATION
Una volta finita la partita, viene presentata a ciascun giocatore una schermata che riassume il risultato della singola partita e il punteggio cumulativo di tutte le partite
giocate. Ai giocatori viene anche mostrato quanto manca per raggiungere il livello successivo e come ci si è piazzati nella classifica giornaliera.
Figura 3.5 ESP game - Schermata di gioco.
Figura 3.6 ESP game - Schermata di fine partita.
61
capitolo 3
3.6 PRoGettaRe un SIStema dI Human comuPutatIon ESP game ha una serie di caratteristiche che illustrano bene le problematiche progettuali che dovrebbe affrontare un sistema di Human computation. Come vedremo in seguito, sistemi diversi possono affrontare gli stessi problemi in maniera differente ma ESP game offre diverse soluzioni brillanti.
3.6.1
calcolo
I sistemi di Human computation svolgono diversi compiti per produrre valore, spesso applicando algoritmi a partire dai risultati generati dagli utenti. ESP game esegue i calcoli invogliando gli utenti a usare le loro abilità percettive e cognitive per generare diverse etichette per una foto e aggregando i risultati di tutte le partite online è in grado di produrre un risultato prezioso. Il prodotto di una singola partita è un insieme di immagini ognuna delle quali ha una serie di parole digitate da entrambi i giocatori in risposta a quell’immagine, oppure ha un pass. Mentre più coppie giocano sulle stesse immagini, vengono prodotti diversi set di etichette. Le migliori etichette saranno quelle che ricorrono con più frequenza e dopo un po’ sarà il gioco ad aggiungerle alla lista delle “parole tabù”. Ciò fa in modo che i giocatori producano etichette sempre più precise, fino a raggiungere un livello tale che, una volta presentata l’immagine e la sua lista di “parole tabù”, la maggior parte dei giocatori decide di passare. A questo punto, l’immagine viene archiviata perché ha già un insieme esaustivo di etichette prodotte con una 62
certa frequenza. Un tale risultato non potrebbe mai essere raggiunto da un sistema puramente digitale, l’intervento umano diventa in questo modo la parte più preziosa di tutto il processo di calcolo.
3.6.2
Reclutamento e motIvaZIone
La capacità di un sistema di Human computation di produrre un risultato è vincolata ai contenuti generati dagli utenti, questo significa che il sistema deve adottare misure per garantire un numero sufficiente di utenti motivati a partecipare. Come abbiamo visto, non è un problema per Amazon, perché il meccanismo di raccomandazione dei prodotti è perfettamente integrato all’interno del sistema e può anche capitare che parte di coloro che sono attratti da Amazon lo sono più per le funzionalità e l’esperienza d’acquisto offerta piuttosto che per i prodotti stessi. Non essendo questo il caso di ESP game, il sistema deve fare di tutto per attrarre persone e ciò avviene sfruttando al massimo la dimensione ludica come meccanismo per incentivare il reclutamento e motivare i giocatori. La gente sente parlare del gioco tramite il passaparola, i giocatori possono guadagnare punti invitando altri utenti e tornano a giocare perché è divertente. Una volta che i potenziali giocatori arrivano sul sito, il problema si sposta sul coinvolgimento. A tal fine ESP game è ben progettato: rapida interazione, design brillante ed effetti sonori appropriati. Altre caratteristiche che catturano l’utente sono il tempo limitato, l’attribuzione di punti per le risposte giuste, l’indicatore del livello che mostra i punti cumulativi e il suono di un orologio negli ultimi momenti
HUMAN COMPUTATION
Figura 3.7 ESP game - Parole Tabù.
del gioco. Inoltre, al termine della partita il giocatore viene invogliato a partecipare nuovamente dalla schermata finale con i punti accumulati, i livelli degli altri utenti, i punti necessari per raggiungere il livello successivo e i punti necessari per battere il miglior giocatore della giornata. Tutto ciò incoraggia i giocatori a registrarsi e a creare un’identità per accumulare punti attraverso le diverse sessioni. Queste caratteristiche servono a coinvolgere gli utenti, ad animarli, per favorire il loro ritorno - questioni che qualsiasi sistema di intelligenza collettiva dovrebbe affrontare.
3.6.3 IdentItà e SocIaBIlIty Un sistema di Human computation non solo deve attrarre e motivare i propri utenti ma deve farli sentire inclusi all’interno di un sistema. Solitamente, i partecipanti sono abituati a creare una propria identità
per interfacciarsi con gli altri e a tale identità è legata anche la reputazione del giocatore. ESP game, in realtà, rappresenta un esempio relativamente semplice di creazione dell’identità, in quanto i suoi partecipanti non sono autorizzati a parlare tra loro durante il gioco altrimenti potrebbero barare. Tuttavia, ESP game permette ai propri giocatori di creare un’identità per rafforzare alcuni aspetti sociali del gioco. I giocatori possono registrarsi, creare un nickname, un’icona e altri elementi tipici di un profilo. La comunicazione durante il gioco è proibita, ma i giocatori possono prendere parte alla chat presente sul sito. Più in generale, il design evidenzia la presenza di altri utenti. Una volta che si sceglie di giocare, vi è una breve attesa mentre il sistema seleziona il partner di gioco.
63
capitolo 3
Avvenuto l’accoppiamento, viene visualizzato il nome del giocatore e appare l’avatar nella schermata di gioco, un tipico meccanismo social per aumentare l’interesse verso il gioco. Ma cosa succede quando qualcuno si presenta per giocare e non c’è un avversario disponibile nel sito? Un problema da non sottovalutare, in quanto la partita non potrebbe aver luogo e il giocatore difficilmente tornerà a visitare il sito. Per ovviare a questo tipo di problema ESP game ricorre ad un software autonomo, un bot. Abbreviazione di robot, un bot è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli esseri umani.22 Ne esistono di diverse tipologie, ma, in generale, sono utilizzati per automatizzare compiti eccessivamente gravosi per gli utenti umani. In questo caso, il visitatore viene accoppiato ad un altro giocatore, senza sapere che questo sia un bot, un software che risponde a partire da immagini che sono già state etichettate da almeno un paio di giocatori umani con i tempi dei giocatori precedenti, restituendo all’utente l’impressione di giocare contro qualcun’altro.
3.6.4
attIvItà dI dIRectInG e focuSInG
Un altro problema che i sistemi di Human computation devono affrontare è in che modo focalizzare le attività dei loro utenti. In ESP game, quest’attività viene fatta attraverso le “parole tabù”. Come già detto, le “parole tabù” servono ad aumentare l’ampiezza del set di etichette prodotte per un’immagine, escludendo quelle che molte coppie di giocatori precedenti hanno 22 http://it.wikipedia.org/wiki/Bot
64
già inserito. Le “parole tabù” permettono quindi di produrre un set di etichette in modo più accurato ed inoltre guidano l’attività descrittiva dell’utente, per cui se si presenta verde come “parola tabù” difficilmente si utilizzeranno altri colori per descrivere l’immagine. Il sistema potrebbe utilizzare altri metodi di focusing e directing come selezionare immagini tutte di un determinato tipo (immagini di dipinti) o reclutando giocatori appartenenti a gruppi particolari (studenti di arte). Molti altri sistemi di Social computing utilizzano meccanismi simili che servono a segmentare il tipo di calcolo che il sistema esegue.
3.6.5 monItoRaGGIo e contRollo della QualItà Gli esseri umani sono in grado di eseguire calcoli difficili o addirittura impossibili per i sistemi digitali ma è anche vero che il prodotto dei loro calcoli potrebbe essere impreciso, così molti sistemi di Human computation richiedono un rigoroso monitoraggio e un controllo della qualità dei risultati prodotti. Problemi di qualità possono derivare da ignoranza, pregiudizi, inattenzioni o scelte intenzionali. Nel caso di ESP game, la principale minaccia per la qualità è barare. Il gioco di per sé funziona così bene che i giocatori potrebbero giocare per il solo gusto della competizione. ESP game ha quindi sviluppato diverse strategie per identificare truffe e raggiri, che avvengono, ad esempio, quando un utente accede due volte cercando di giocare contro se stesso, ma questo può essere evitato impedendo la connessione da indirizzi IP corrispondenti.
HUMAN COMPUTATION
Oppure quando due giocatori si mettono d’accordo su quali parole inserire (ad esempio, “uno”, “due”, “tre”) e tentano di accedere nello stesso momento con la speranza di essere accoppiati, ma anche questo può essere evitato con periodi di attesa abbastanza lunghi e un numero sufficiente di giocatori. Qualora non ci fossero abbastanza giocatori in attesa per garantire una buona probabilità di un incontro casuale, ESP game ricorre nuovamente ad un bot. Infine, l’inganno potrebbe verificarsi quando viene resa pubblica una strategia di inserimento delle parole, attraverso un’altro sito web accessibile a tutti. Questo tentativo può essere rilevato da un improvviso picco di attività o un aumento delle prestazioni e viene contrastato, ancora una volta, associando ai giocatori un bot.
3.7 concluSIonI Questi esempi mettono in luce diversi aspetti primari in un sistema di Human computation. In primo luogo, per quanto riguarda la progettazione, che gli imbrogli possono essere smascherati, è semplicemente necessario individuare le strategie di truffa e bloccarle, o almeno ridurre la loro probabilità di successo. In secondo luogo, l’atto di barare è un problema solo per alcuni sistemi e si verifica principalmente quando l’appeal del gioco non è strettamente relazionato alle finalità del sistema. Infine, barare toglie il divertimento al gioco, la sua esistenza è quindi testimonianza della buona riuscita di ESP game. A differenza dei meccanismi di Amazon, ESP game deve funzionare come un sistema completo, risolvendo problemi di reclutamento dei partecipanti, dando loro un’identità all’interno del sistema, focalizzando la loro attenzione sui compiti da svolgere, incoraggiando la partecipazione al gioco, il monitoraggio e il controllo della qualità dei risultati. ESP game fa questo con successo perché i compiti richiesti sono semplici, ben strutturati e quindi capaci di favorire un’interazione intuitiva. D’altra parte gli ideatori del sistema, Luis Von Ahn in primis, hanno dimostrato in più circostanze la loro ingegnosa capacità nello sviluppare ogni singolo aspetto riconducibile all’approccio descritto.
65
capitolo 3
3.8 ImPaRa una lInGua mentRe tRaducI Il weB
Sono numerose le lingue presenti nel web, ma la più usata è sicuramente l’inglese.23 L’inglese è parlato da più di mezzo miliardo di persone come madrelingua o come seconda lingua ed è compreso, anche se con diversi livelli, da almeno un altro mezzo miliardo. Tutte queste persone, contribuiscono quotidianamente allo sviluppo di Internet in inglese. Il cinese mandarino, ad esempio, è la lingua più parlata al mondo ed è la seconda lingua del web, la popolazione cinese online sta crescendo notevolmente e ci si aspetta che avrà un notevole impatto su Internet in un prossimo futuro. Inoltre, è interessante rilevare la scarsa presenza della lingua hindi, nonostante sia una delle lingue più parlate al mondo. Questo è dovuto sia alla scarsità di accesso ad Internet della maggioranza della popolazione indiana, sia alla preferenza nell’uso dell’inglese da parte di quelli che hanno accesso a Internet. In ogni caso sembra essere comunque una situazione temporanea, infatti, anche la popolazione indiana online sta crescendo notevolmente e ci si aspetta che avrà un effetto sulla rete pari a quello della Cina.24 Questo scenario stimola alcune importanti considerazioni in merito all’accessibilità dei contenuti online, allo stato attuale, infatti, i sistemi di traduzione automatica non risultano essere abbastanza affidabili e, secondo le stime degli esperti, non lo saranno prima di quindici o vent’anni.25
23 http://www.internetworldstats.com/stats7.htm 24 http://it.wikipedia.org/wiki/Lingue_di_Internet 25 http://blog.ted.com/2011/12/06/massive-scale-
66
La traduzione, quindi, resterà appannaggio dell’essere umano ancora per molto ma l’eccessiva mole di lavoro, ancora una volta, rende necessario l’appello all’intelligenza collettiva. Diverse questioni riguardanti la traduzione da una lingua, quasi sempre l’inglese, all’altra sono riscontrabili in ogni tipo di sistema informatico, in particolar modo nel mondo dei social network. Sono state molte le piattaforme che hanno fatto appello ai loro utenti per tradurre contenuti funzionali al sistema, spesso non cogliendo tutte le opportunità derivanti dalla potenza di calcolo presente in un determinato contesto di interazione sociale.
3.8.1
duolInGo
Tali opportunità hanno preso corpo, recentemente, in uno dei progetti più interessanti mai proposti nell’ambito delle intelligenze collettive nella rete, parliamo di Duolingo.26 Duolingo è nato con un chiaro obiettivo: tradurre contenuti nelle maggiori lingue presenti sul web. Dovendo affidare questo compito a una comunità di utenti in rete, certamente non tutti traduttori professionisti, i primi due ostacoli da superare per la buona riuscita del progetto erano la mancanza di persone bilingui e la motivazione a partecipare. La soluzione proposta sarebbe in grado di risolvere entrambi i problemi ed è esplicata in maniera eccellente dal playoff del progetto: Learn a new language for free while simultaneously translate the web (Impara una nuova lingua gratuitamente mentre traduci il web). In altre parole, su
online-collaboration-luis-von-ahn-on-ted-com/ 26 http://duolingo.com/
HUMAN COMPUTATION
Duolingo è possibile imparare o praticare una lingua traducendo contenuti presi direttamente da Internet. Agli utenti, vengono presentati differenti tipi di attività educative che, una volta svolte, andranno a contribuire alla traduzione di diversi contenuti presenti sul web. Ancora una volta, le stime sono sorprendenti. Basta pensare che soltanto il 20% degli articoli in lingua inglese presenti su Wikipedia sono stati tradotti in spagnolo, ma con l’impiego di un milione di utenti su Duolingo è possibile tradurre Wikipedia dall’inglese allo spagnolo in ottanta ore. Un’impresa decisamente fuori dal comune, volendo ipotizzare per assurdo un’opera colossale di traduzione dei quasi tre milioni di articoli in questione si arriverebbe alla sensazionale cifra di 50 milioni di dollari.
durante l’apprendimento come le voci di Wikipedia, gli articoli del New York Times o le trasmissioni radio PBS. In secondo luogo, è completamente gratuito, come abbiamo visto in altri sistemi di Human computation, le persone pagano con il loro tempo che, in questo caso, sarebbe comunque destinato all’apprendimento di una lingua. Non ci dilungheremo oltre sul funzionamento di Duolingo che, attualmente, è ancora in fase di sviluppo, ma le persone che finora hanno preso parte alla versione beta del sofware, hanno già mostrato grande entusiasmo nei confronti del sistema, oltre che per le sue potenzialità, anche perché rappresenta un ottimo modello per l’insegnamento delle lingue in ambito scolastico, qualcosa che, al momento, rimane ancora un privilegio da ricchi.
3.8.2 SocIal+Human Duolingo è dotato di un’interfaccia davvero semplice e tutte le sue funzionalità sono ben integrate all’interno del sistema. Un meccanismo di valorizzazione dell’identità rende l’interazione con gli altri utenti un momento piacevole e, allo stesso tempo, utile ai fini dell’apprendimento. In altre parole, Duolingo possiede le funzionalità tipiche di un sistema di Social computing e la potenza di calcolo propria di un sistema di Human computation. Anche se ai più scettici potrebbe sembrare un metodo insolito per imparare una lingua, il modello di apprendimento learning by doing, proposto su Duolingo, non si discosta molto da quello utilizzato per altri software di apprendimento delle lingue. Ma, Duolingo, ha due differenze sostanziali. In primo luogo, Duolingo utilizza esclusivamente contenuti reali 67
capitolo 3
Figura 3.8 Beyond your window, un’immagine dall’India.
3.9 eSPeRImentI
3.9.1 Beyond youR wIndow
I micro-task markets sono sistemi di Human computation che permettono di accedere a una vasta rete di intelligenze umane con l’efficienza e l’economicità di un computer. Queste piattaforme contribuiscono ogni giorno alla crescita di un nuovo segmento del mercato del lavoro: migliaia di semplici attività, che a volte non richiedono alcuna attitudine particolare, vengono svolte quotidianamente da un numero considerevole di lavoratori riuniti intorno a questi sistemi.
Il progetto presentato in questa sede è stato condotto su Microworkers1, un microtask market specializzato in strategie di corporate. Sul sito è presente una lista di prestazioni, con tanto di prezzi, per tutte le azioni di web marketing più comuni – ad esempio, un clic ad una fan page di facebook viene pagato 0,10 centesimi di dollaro. L’esperimento nasce dalla volontà di introdurre all’interno di questi sistemi un compito che coinvolge un aspetto dell’intelligenza umana che in un microtask market viene spesso sottovalutato: la creatività.
In un micro-task market è possibile trovare ogni tipo di offerta e richiesta di lavoro che, in qualche modo, coinvolge la potenza dell’intelligenza umana distribuita, assecondando la nozione per cui determinati compiti sono semplici per gli esseri umani ma difficili per i computer. Ad esempio, i lavori che in questi sistemi ricorrono con una certa frequenza sono: la trascrizione di clip audio, la classificazione di prodotti, il tagging di immagini, ma anche compiti più complessi come le traduzioni linguistiche.
La campagna Beyond your window, condotta su Microworkers, è un progetto fotografico realizzato con la collaborazione di diversi fotografi, rigorosamente non professionisti, provenienti da tutto il mondo. Il brief della campagna comportava un impiego di tempo inferiore ai cinque minuti e presentava un unico vincolo creativo:
1 http://microworkers.com/
68
HUMAN COMPUTATION
fotografare ciò che si vede dalla propria finestra nel momento in cui si accetta la richiesta di collaborazione. Ogni lavoratore è stato pagato 0.50 centesimi di dollaro per svolgere il proprio compito. L’intero album fotografico è
stato completato nel giro di poche ore dalla pubblicazione e i risultati sono stati pubblicati sul sito web del progetto2.
2 http://beyondyourwindow.tumblr.com/
69
capitolo 4
CAPITOLO 4
quadro attu prospettive 72
quadro attuale e prospettive
uale e e
4.1 lo Stato dell’aRte Lo sviluppo di nuove tecniche di Human computation ha proposto diverse soluzioni per risolvere problemi su vasta scala che, nel corso degli ultimi anni, hanno permesso gradualmente di superare problematiche sempre più complesse. Oggi, alcune fra le applicazioni più interessanti sfruttano la folla per:
Tradurre i contenuti sul web Duolingo è un software web-based che permette di imparare o esercitare una lingua. Oltre all’apprendimento, Duolingo mette a disposizione dell’utente diverse pratiche giornaliere tratte da articoli del New York Times, voci di Wikipedia, etc.
Monitorare telecamere di sicurezza Le telecamere oggi costano sempre di meno ed è possibile installarle ovunque. È in fase di sviluppo, un gioco che chiede agli utenti di controllare telecamere di sicurezza con il fine di segnalare eventuali attività illegali e avvertire le autorità.
Perfezionare la ricerca sul web È il caso di ESP game, sistemi simili sono tutti i verification games presenti su GWAP, come Tug a Tune1 che permette di classificare i suoni in base all’umore che suscitano, ma anche Verbosity2 che ha lo scopo di collezionare frasi di senso comune in relazione ad una determinata parola.
1 http://www.gwap.com/gwap/gamesPreview/ tagatune/ 2 http://www.gwap.com/gwap/gamesPreview/ verbosity/
73
capitolo 4
Riassumere testo e correggere bozze Soylent3 è un add-in per Microsoft Word che sfrutta il contributo della folla per eseguire alcune azioni tipiche dell’elaborazione di un testo, come fare un riassunto, correggere una bozza o identificare le parole-chiave.
Estrapolare informazioni particolari da Twitter Grazie a TweetQL4 e TweetInfo5 è possibile mettere in evidenza determinati argomenti discussi su Twitter. Allo stesso modo, è possibile rilevare terremoti, mappare il tempo meteorologico o mostrare i sentimenti delle persone riguardo ad un tema scelto, ad esempio, la politica.
Descrivere fotografie in tempo reale VizWiz è un’applicazione mobile che consente alle persone non-vedenti di scattare una fotografia accompagnata da una domanda riguardante l’oggetto fotografato e ricevere, in tempo reale, la risposta della folla. 6
Contribuire alla ricerca sul ripiegamento delle proteine
a risolvere puzzle per la scienza. Foldit prevede una serie di tutorial in cui l’utente manipola semplici proteine, ma periodicamente vengono rilasciati dei puzzle (proteine da progettare o di cui bisogna trovare la reale struttura tridimensionale), in modo da aiutare la scienza nella ricerca contro importanti malattie.
Contribuire alla ricerca in campo astronomico e delle scienze naturali Abbiamo già parlato di Galaxy Zoo, sulla scia di quest’ultimo sono nati diversi progetti paralleli, raccolti sul sito Universe Zoo8, come Moon Zoo9 che chiede ai suoi utenti di classificare crateri lunari o WhaleFM10 per classificare i suoni prodotti dalle balene e capire cosa stanno dicendo.
Segnalare le note spese sospette dei politici inglesi Investigate your MP11 è un progetto promosso da The Guardian.12 Una grande mole di note spese dei politici inglesi è messa a disposizione dei lettori del popolare quotidiano britannico con lo scopo di segnalare le spese sospette, stimolando i giornalisti a condurre un’inchiesta in merito ai casi particolari.
Foldit7 è un gioco online sul ripiegamento proteico e la progettazione di nuove proteine. Gli utenti sono chiamati 3 4 5 6 7
74
http://projects.csail.mit.edu/soylent/ https://github.com/marcua/tweeql/ http://twitinfo.csail.mit.edu/ http://groups.csail.mit.edu/uid/turkit/ http://fold.it/portal/
8 https://www.zooniverse.org/ 9 http://www.moonzoo.org/ 10 http://whale.fm/ 11 http://mps-expenses.guardian.co.uk/ 12 http://www.guardian.co.uk/
quadro attuale e prospettive
4.2 QueStIonI aPeRte Gli spunti che seguono sono solo alcune delle questioni ancora irrisolte che dovranno essere affrontate per riuscire a compiere ulteriori passi in avanti nell’utilizzo delle tecniche più sofisticate di crowdsourcing.
4.2.1
contRollo della QualItà neI RISultatI
Come visto nel caso reCAPTCHA, è indispensabile che ogni sistema presenti agli utenti alcuni problemi di cui è già a conoscenza della risposta. In questo modo, è possibile scoprire se un utente stia effettivamente compiendo l’azione richiesta in maniera corretta e porsi fiduciosi nei confronti del suo operato. Allo stesso tempo, questa strategia potrebbe rivelarsi un’arma a doppio taglio, perché richiede l’intervento umano per un’azione che non è strettamente connessa allo scopo del sistema, è piuttosto qualcosa che andrà ad incidere sulla qualità del risultato finale. Visto che, non tutti i sistemi di Human computation possono permettersi un simile spreco di energie, una soluzione alternativa potrebbe essere ricercata nella condivisione dei risultati all’interno del sistema. Ad esempio, per un micro-task market come MTurk sarebbe opportuno che una HITs (Human Intelligence Task, l’unità minima di lavoro su MTurk) rifiutata sia visibile a tutti gli utenti. Infatti, in un sistema che fa appello a una risorsa così creativa come l’intelligenza umana è spesso difficile individuare un modus operandi univoco, diversi utenti utilizzeranno sempre soluzioni differenti per arrivare ad un risultato identico. Proponendo la condivisione dell’errore, sarà possibile
quantomeno mostrare come il lavoro non va fatto, visto che al contrario sarebbe considerato insostenibile per il sistema.
4.2.2 InteRfaccIa-utente Progettare un’interfaccia-utente è un compito complesso, a tal proposito anche i sistemi di Human computation non fanno eccezione. In questo campo, un punto di riferimento sono senz’altro le interfacce di interazione uomo-macchina (Human Computer interaction, HCI) con opportuni vincoli progettuali derivanti dalle peculiarità di questi sistemi, che coinvolgono spesso un’utenza eterogenea. L’interazione nei sistemi di Human computation è molto simile a quella delle interfacce data entry – ovvero di caricamento dati, un’operazione comune ad ogni data base - con l’eccezione che di solito questo genere di interfaccia è utilizzata da persone addestrate o che, comunque, hanno dimestichezza con il software. In altre, parole la sfida che ogni designer dovrebbe intraprendere nella progettazione di un’interfaccia-utente per un sistema di Human computation è quella di insegnare all’utente come fare qualcosa mentre quel qualcosa viene svolto contestualmente. Proprio perchè, come nel caso di Galaxy Zoo, non è importante il tempo di interazione con il sistema, anche se si utilizza per pochi minuti, si otterrà un risultato comunque positivo se il compito viene svolto in maniera corretta.
75
capitolo 4
4.2.3 PRoGettaZIone dI StandaRd Diverse operazioni basic, come la comparazione fra due elementi, la classificazione e la descrizione di un’immagine dovrebbero avere un’interfaccia standard ottimizzata. Così facendo, si potrà avere un comune denominatore per sottoporre agli utenti un numero definito di attività che, nel corso della breve storia dello Human computation, sono state più frequenti. Per arrivare a questo risultato, è importante cercare di capire come si possono ottenere valutazioni migliori. A tale proposito, sono numerosi i quesiti ancora irrisolti e non avrebbe senso porsi delle domande, se non riferite a un sistema nello specifico. Ad esempio, quando due immagini vengono messe a confronto in un verification game, sarebbe legittimo domandarsi se sia meglio presentarle all’utente una a fianco all’altra oppure una sopra l’altra. Tentare di stabilire un procedimento generico è una delle soluzioni praticabili, quantomeno per tutti quei compiti che generalmente ricorrono in questi sistemi, permettendo a chiunque di accedere ai codici di programmazione. In questo senso, il lavoro presentato cerca di mettere a fuoco i sistemi che hanno ottenuto maggiori risultati proprio con lo scopo di stabilire un punto di partenza per le future sperimentazioni.
4.2.4
vaRIaBIlI
I sistemi informatici acquisiscono grande potere dal fatto che tutte le azioni che il computer può fare possono essere raccolte 76
in un set definito di operazioni semplici da eseguire, quantomeno in termini di tempo. Ad esempio, se un determinato calcolo richiede l’esecuzione di un gran numero di operazioni con la virgola, possiamo ricorrere a un particolare processore con un chip che renderà quest’operazione più rapida. Questo è uno dei più grandi vantaggi che la scienza computazionale mette a disposizione - la possibilità di eseguire calcoli complessi senza dover specificare alla macchina tutti i passaggi per arrivare al risultato desiderato. Purtroppo, con un human computer tutto ciò non è sempre scontato. L’impiego dell’essere umano nel calcolo coinvolge numerose variabili indipendenti che, naturalmente, non sono assimilabili a quelle della macchina. Ad esempio, quando un calcolo è troppo semplice, l’essere umano avrà bisogno di un’elevata motivazione per accettare una sfida noiosa, mentre una macchina svolge un compito sempre nella stessa maniera, indipendentemente dalla natura della sfida. Allo stesso modo, anche le variabili dipendenti, come il tempo di esecuzione, possono dimostrarsi imprevedibili per un human computer. Nel caso di una macchina, possiamo prevedere con abbastanza precisione quanto tempo può durare e quanta memoria dovrà essere utilizzata per una determinata operazione. Invece, nel caso di un essere umano, il tempo diventa una variabile assolutamente indefinita. La larghezza di banda, è solo uno degli elementi influisce sulla velocità di un’operazione in rete, tutti gli altri fattori vengono inquadrati nel concetto di latenza. Il termine si riferisce ad alcuni ritardi che tipicamente possono incorrere durante un calcolo. I sistemi di Human computation
quadro attuale e prospettive
sono definiti sistemi ad “alta latenza” perchè possono subire un allungamento dei tempi di calcolo spesso imprevedibile, riuscire a dominare tale indeterminatezza sarà fondamentale nello sviluppo di questi sistemi.
4.3 concluSIonI
stata messa in pratica. Questo accade perché oggi la possibilità di accesso a tecnologie sofisticate a basso costo non ha precedenti nella storia e ha determinato una dissoluzione delle barriere in ogni settore. Lo stesso dovrà accadere per i sistemi Human computation e per tutta l’area di ricerca che coinvolge le intelligenze collettive nella rete, solo così potremmo avvantaggiarci tutti delle risorse creative della folla.
Nel corso di questa tesi è stato presentato un paradigma generale che permette di sfruttare la potenza dell’intelligenza umana per risolvere diversi problemi che i computer ancora non possono risolvere. Questo nuovo approccio ha contributo a superare la convinzione che il calcolo informatico possa essere eseguito soltanto dalla macchina, introducendo in diversi ambiti dell’Information Technology la concreta possibilità di ricorrere alle infinite risorse dell’intelligenza umana. Uno degli aspetti fondamentali dello Human computation è senz’altro quello di aver sollecitato una maggior coscienza collettiva della rete. Inoltre, la possibilità di avere gli strumenti giusti per poter sfruttare la potenza della collettività rappresenta un punto di svolta nel processo di democratizzazione del web. I sistemi di Human computation stanno acquisendo una visibilità notevole da parte delle grandi aziende, oltre che un interesse accademico ormai consolidato. Ovunque, la grande richiesta di sperimentazione con queste tecnologie rende necessario un abbassamento drastico di ogni tipo di barriera all’ingresso per poter permettere a tutti in maniera diffusa di poter “giocare” con le intelligenze collettive. In tutti i settori dell’ Information Technology siamo sempre più consapevoli che: se un’idea funziona, da qualche parte nel web è già 77
bibliografia
BIBlIoGRafIa Jiang Bian, Yandong Liu, Eugene Agichtein, Hongyuan Zha. Finding the right facts in the crowd: factoid question answering over social media. In Proceeding of the 17th international conference on World Wide Web, WWW ‘08, New York, 2008. ACM. pp. 467–476. Sergey Brin, Lawrence Page. The Anatomy of a Large-Scale Hypertextual Web Search Engine. Computer Science Department, Stanford University, Stanford, 1998. Consultabile online: http://infolab.stanford. edu/~backrub/google.html Susan L. Bryant, Andrea Forte, Amy Bruckman. Becoming wikipedian: transformation of participation in a collaborative online encyclopedia. In Proceedings of the 2005 international ACM SIGGROUP conference on Supporting group work, GROUP ‘05, New York 2005. ACM. pp. 1–10. Brian Butler, Elisabeth Joyce, Jacqueline Pike. Don’t look now, but we’ve created a bureaucracy: the nature and roles of policies and rules in wikipedia, New York 2008. ACM. pp. 1101-1110. Meeyoung Cha, Haewoon Kwak, Pablo Rodriguez, Yong-Yeol Ahn, Sue Moon. I tube, you tube, everybody tubes: analyzing the world’s largest user generated content video system. In Proceedings of the 7th ACM SIGCOMM conference on Internet measurement, IMC ‘07, New York 2007. ACM. pp 1–14. Lydia B. Chilton, Clayton T. Sims, Max Goldman, Greg Little, Robert C. Miller. Seaweed: a web application for designing economic games. In Proceedings of the ACM SIGKDD Workshop on Human Computation, HCOMP ‘09, New York 2009. ACM. pp. 34–35. Dan Cosley, Dan Frankowski, Loren Terveen, John Riedl. Suggestbot: using intelligent task routing to help people find work in wikipedia. In
78
Proceedings of the 12th international conference on Intelligent user interfaces, IUI ‘07, New York 2007. ACM. pp. 32–41. Thomas Erickson. The world wide web as social hypertext. In Communications of the ACM, 31 (1), 1996. ACM. pp. 15-17. Thomas Erickson. Social Computing. “Encyclopedia of Human-Computer Interaction”, 2011. Consultabile online: http://www.interaction-design.org/ encyclopedia/social_computing.html Francis Galton. Vox populi, Nature, 1949(75), 1907. pp. 450-451. Consultabile online: http:// tomayko.com/writings/galtons-ox Daniele Gasparri. Galaxy zoo: classificare l’universo con un click!, 2008. Consultabile online: http://www.danielegasparri.com/Italiano/ articoli/astronomia_amatoriale/Galaxyzoo_ gasparri.pdf Jim Giles. Internet encyclopaedias go head to head, 2005. pp. 900-901. Uri Gneezy, Aldo Rustichini. Pay enough or don’t pay at all. Quarterly Journal of Economcis, 115:791–810, 1998. David Goldberg, David Nichols, Brian M. Oki, Douglas Terry. Using collaborative filtering to weave an information tapestry, 1992. ACM. Google official blog. Google buy reCAPTCHA, 16 settembre 2009. http://googlesystem.blogspot.com/2009/09/ google-buys-recaptcha.html David Alan Grier. When computers were human. Princeton University Press, Princeton 2005. Ned Gulley. In praise of tweaking: a wiki-like programming contest, 2004. pp. 18-23 Starr Roxanne Hiltz, Murray Turoff. The Network Nation: Human Communication via
Human computation. applicazioni sociali dell’intelligenza collettiva
Computer. MIT Press, 1993.
mathworks.com/matlabcentral/contest/
Aniket Kittur, Robert E. Kraut. Harnessing the wisdom of crowds in wikipedia: quality through coordination. In Proceedings of the 2008 ACM conference on Computer supported cooperative work, CSCW ‘08, New York 2008. ACM. pp. 37–46.
Friederich Nietzsche. Al di là del bene e del male. Milano, Rusconi, 2004.
Anand Kulkarni, Matthew Can. Turkomatic: Automatic Recursive Task Design for Mechanical Turk. CHI 2011, Vancouver 2011. Ko Kuwabara. Linux: A bazaar at the edge of chaos (originally published in Volume 5, Number 3, March 2000) First Monday [Online], Volume 0 Number 0 (3 October 2005). Consultabile online: http:// firstmonday.org/htbin/cgiwrap/bin/ojs/index. php/fm/article/view/1482/1397 Edith Law. The 3rd Human computation workshop. (HCOMP 2011) in Tutorial part 1 http://humancomputation.com/2011/Tutorial. html
Scott Page. Return to the Toolbox. Articolo non è pubblicato, vedi Surowiecki 2007. Katherine Panciera, Aaron Halfaker, Loren Terveen. Wikipedians are born, not made: a study of power editors on Wikipedia. In: GROUP09 - International Conference on Supporting Group Work 2009. pp. 51-60. Marialuisa Pezzali. Crowdsourcing: quando la rete... trova la soluzione. «Il Sole 24 ORE», 2009. Consultabile online: http:// www.ilsole24ore.com/art/SoleOnLine4/ Economia%20e%20Lavoro/2009/02/ crowdsourcing-rete-soluzione. shtml?uuid=169c9a06-f22b-11dd-ba338852ec7bfa32&DocRulesView=Libero
Pierre Lévy. L’ intelligenza collettiva : per un’antropologia del cyberspazio. Feltrinelli, Milano 1999.
Reid Priedhorsky, Jilin Chen, Shyong Lam, Katherine Panciera, Loren Terveen, John Riedl. Creating, destroying, and restoring value in wikipedia. In: GROUP07: International Conference on Supporting Group Work 2007. pp. 259-268.
J. C. R. Licklider, Robert W. Taylor. The Computer as a Communication Device. In Science and Technology, 1968. pp. 21-31.
Simon Ramo. The Scientific Extension of the Human Intellect. In Computers and Automation, 1961. pp. 9-12.
Greg Little. Programming with Human Computation, MIT press, 2011.
Eric S. Raymond. The Cathedral and the Bazaar. O’Reilly & Associates, Inc., Sebastopol 1999.
Charles Mackay. Extraordinary Popular Delusions and the Madness of Crowds. Harmony Books, 1980. Winter Mason, Duncan J. Watts. Financial incentives and the ”performance of crowds”. In Proceedings of the ACM SIGKDD Workshop on Human Computation, HCOMP ‘09, New York 2009. ACM. pp. 77–85. MatLab Central. MatLab Central: MatLab Programming Contest, 2010. http://www.
Howard Rheingold. The Virtual Community: Homesteading on the Electronic Frontier. MIT Press, 1993. M. Six Silberman, Joel Ross, Lilly Irani, Bill Tomlinson. Sellers’ problems in human computation markets. In Proceedings of the ACM SIGKDD Workshop on Human Computation, HCOMP ‘10, New York 2010. ACM. pp. 18–21.
79
bibliografia
Herbert Simon. A Behavioral Model of Rational Choise. Quarterly Journal of Economics 69, 1955. pp. 99-118. A. Sorokin, D. Forsyth. Utility data annotation with amazon mechanical turk. In Computer Vision and Pattern Recognition Workshops, 2008. CVPRW ‘08. IEEE Computer Society Conference on, june 2008. pp. 1–8. James Surowiecki. La saggezza della folla. Roma, Fusi orari, 2007. Alan M. Turing. Computing machinery and intelligence, in Mind, 59, 1950. pp. 433-460. Fernanda B. Viégas, Martin Wattenberg, Kushal Dave. Studying cooperation and conflict between authors with history flow visualizations. Proceedings of ACM CHI 2004 Conference on Human Factors in Computing Systems April 24-29, 2004, Vienna, Austria. pp. 575-582. Luis Von Ahn. Human Computation. Ph.D. in Computer Science. Carnegie Mellon University, Pittsburgh, PA, 2005. Luis Von Ahn. Human Comupation – Google TechTalks 2006. Consultabile online: http://video.google.com/videoplay?doc id=-8246463980976635143 Luis Von Ahn, Laura Dabbish. General Techniques for Designing Games with a Purpose. Communications of the ACM, 2008. pp. 58-67. Luis Von Ahn, Benjamin Maurer, Colin McMillen, David Abraham, Manuel Blum. reCAPTCHA: Human-Based Character Recognition via Web Security Measures www. sciencemag.org SCIECE vol 321, 12 settembre 2008. Luis Von Ahn, Laura Dabbish. Labeling images with a computer game. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (Vienna, Austria, Apr. 24–
80
2). New York 2004. ACM. David R. Woolley. PLATO: The emergence of online community, 1994. Consultabile online: http://thinkofit.com/plato/dwplato.htm
teStI conSultatI Federico Casalegno. Le cybersocialità : nuovi media e nuove estetiche comunitarie. Il saggiatore, Milano 2007. The Guardian (2011). Investigate Your MP’s Expenses. Retrieved 19 June 2011 In The Guardian - guardian.co.uk Jane Klobas. Oltre Wikipedia. I wiki per la collaborazione e l’informazione. Sperling & Kupfer, 2007. Edith Law, Luis Von Ahn. Human Computation. Morgan & Claypool Synthesis Lectures on Artificial Intelligence and Machine Learning, 2011. Giuseppe Longo. X-Informatics. Mille anni di progresso. Seminario, Dipartimento di Astrofisica, Università degli Studi di Napoli Federico II, 2011. Matteo Motterlini. La “saggezza della folla” ai tempi dei social network. «Il Sole 24 ORE», 2011. Luis Von Ahn, Shiry Ginosar, Mihir Kedia, Ruoran Liu, Manuel Blum. Improving Accessibility of the Web with a Computer Game. Computer Science Department, Carnegie Mellon University, 2006. Luis Von Ahn, Ruoran Liu, Manuel Blum. Peekaboom: A Game for Locating Objects in Images. Computer Science Department, Carnegie Mellon University, 2006. Erik Von Hippel. Democratizing Innovation, MIT press, 2005. Consultabile online: http:// web.mit.edu/evhippel/www/democ1.htm
In copertina: Human computers in the NACA High Speed Flight Station “Computer Room”