Edito da: Elmat SpA Autore e curatore del Volume: Gianluca Ziggiotti Realizzazione editoriale: MultiPiani Srl Ideazione e Consulenza Marketing: MultiPiani Srl • www.multipiani.com Progetto Grafico: MultiPiani Srl • Lara Deganello Elmat SpA Via Uruguay, 15 • 35127 Padova Tel. +39 049 7623011 • Fax +39 049 761800 www.elmat.com Tutti i diritti sono riservati. Nessuna parte del libro può essere riprodotta o diffusa con un mezzo qualsiasi, fotocopie, microfilm o altro, senza il permesso di Elmat SpA. All right reserved. No part of this book shall be reproduced, stored in a retrieval system, or transmitted, by any means, electronic, mechanical photocopying, recording or otherwise without written permission from the publisher. Stampa: Litografia Nino Andretta - Padova Finito di stampare nel mese di: dicembre 2008, 1a Edizione Printed in Italy
PREFAZIONE
a cura di Umberto de Julio* Amministratore Delegato Italtel S.p.A.
Per chi come me ha trascorso gran parte della vita ad occuparsi di innovazione e di tecnologia, scorrere questo libro significa ripercorrere le tappe più significative di quell’avventura straordinaria che ci ha portato in poco più di trent’anni dalla macchina da scrivere e dal telefono a disco fino ad Internet e alla telefonia mobile. Un’avventura i cui protagonisti sono uomini dalle menti brillanti che hanno saputo dare corpo alle loro idee, appassionati ricercatori, giovani o meno giovani, con il pallino dei computer e della rete; aziende che hanno lasciato un segno nella storia moderna dell’informatica; prodotti che hanno segnato un’epoca, come il mouse, ma che oggi si preparano già a entrare a far parte del passato per lasciar spazio a nuove soluzioni; tecnologie che hanno influenzato profondamente il costume della società. Spesso dietro le innovazioni più dirompenti c’è un’idea semplice. E, molte volte, l’innovazione nasce in un garage, nella stanza degli hobby di un giovane studente o negli edifici di un’università piuttosto che nei grandi laboratori R&D delle multinazionali. Questa semplicità di contesto è solo apparente: dietro le innovazioni che hanno segnato il nostro tempo e profondamente modificato il modo di vivere, lavorare, relazionarsi delle persone ci sono la voglia di affrancarsi dal bisogno, l’impegno, l’ispirazione, il coraggio. Un’idea nasce dal bisogno forte di trovare soluzioni a problemi complessi, alleviare la fatica fisica dell’uomo, migliorare le condizioni di vita. O, più semplicemente, nasce dal bisogno dell’uomo di indagare e conoscere il mondo che lo circonda. Ma non basta avere un’idea di base per arrivare all’innovazione. Occorre perseverare nella sperimentazione della propria idea attraverso test, prove, aggiustamenti progressivi. Occorre il coraggio di affrontare la sconfitta o di andare incontro alla cultura consolidata del proprio tempo. La storia ci propone esempi famosi di grandi innovatori e rivoluzionari osteggiati o non compresi dai loro contemporanei: valga per tutti l’esempio di Galileo ed Einstein. Thomas Edison ha descritto tutto ciò molto efficacemente: “Genius is 1% inspiration and 99% transpiration”. Affinchè la capacità di innovare dei singoli, le loro idee, i loro sogni possano diventare progetti, prodotti, iniziative industriali, opportunità di lavoro occorre un Paese con la cultura dell’innovazione. Un Paese che decida finalmente di mettere in cima alle sue priorità la Scuola e la Ricerca e di promuovere un moderno sistema di finanziamento, pubblico e privato, a supporto della nascita e della crescita di nuove iniziative imprenditoriali. Io mi auguro che questo possa finalmente avvenire nel nostro Paese e che la prossima edizione di questo libro possa aggiungere a quelle di oggi tante altre storie di uomini, di aziende, di tecnologie, anche italiane.
* Umberto de Julio Laureato in Ingegneria Elettronica all’Università di Roma, vanta una profonda esperienza nel settore delle telecomunicazioni, avendo ricoperto la carica di Responsabile delle Strategie di Telecom Italia SpA da luglio 1999 ad aprile 2000 e quella di Amministratore Delegato di Telecom Italia Mobile dal ‘98 al ’99. Membro di numerosi organismi internazionali per la definizione degli standard, è stato Consigliere di Amministrazione di molte importanti aziende, come Telecom Italia, TIM, CSELT, Finsiel, SSGRR, Fintech, Italtel, Telespazio Saritel e Telit, oltre che Presidente dell’Associazione Elettrotecnica ed Elettronica Italiana (AEI) e Presidente del Quadrato della Radio. Attualmente è Vice Presidente di ANFOV, membro del CdA di Sielte, Tiscali.
INDICE
AZIENDE
Olivetti
Ebay
PERSONE
Faggin
Fanning
RITRATTI
Kildall
PRODOTTI
Mouse
Playstation
TECNOLOGIE
Bluetooth
SPONSOR
Alvarion
BIBLIOGRAFIA
Dell
APC
Negroponte
Mitnick
Mp3
YouTube
iPod
USB
Axis
Sun Microsystems
Turing
Silicon Valley
Wikipedia
CD/DVD
GPS
D-Link
Stallman
Skype
Fax
Virus
Atari
Apple
Yang&Filo
Torvalds
Worniak
Motorola StarTac
World Wide Web
IBM
Intel
VoIP
pag. 28
Mozilla Fondation Amazon
pag. 50
SuperMario
Masterizzatore
Wireless
Netscape
ADSL
Polycom
pag. 6
Allen
Clark
Captain Crunch
Emule
Microsoft
pag. 72 pag. 94 pag. 116
pag. 128
AZIENDE
6
Selezionare il nome di dieci Aziende che hanno cambiato il volto dell’Information Technology è stato solo in apparenza un compito facile. La scelta, in alcuni casi obbligata visto il contributo delle piÚ importanti multinazionali alla causa del progresso, ha premiato anche alcune realtà che muovendosi su binari paralleli rispetto al tradizionale modo di intendere la tecnologia, hanno comunque inciso sul nostro modo di sentirci moderni.
7
AZIENDE
100% OLIVETTI Nel 1908 nasceva l’azienda che per più di 50 anni è stata testimone e portabandiera del progresso tecnologico dell’intera penisola
8
Nel 2008 compirà cent’anni una delle principali aziende italiane, che forse più di altre ha rappresentato nel suo secolo di vita il carattere e la complessità della nazione. Olivetti è storia economica e imprenditoriale del nostro Paese, ma è stata soprattutto, tra alti e bassi, una grande impresa di alta tecnologia. Fondata a Ivrea da Camillo Olivetti come “prima fabbrica italiana di macchine per scrivere”, la società ha saputo gestire nel tempo l’evolversi del mercato, aprendosi con più o meno fortuna alle nuove frontiere dell’elettronica, dell’informatica e delle telecomunicazioni. Nel panorama dell’industria italiana e internazionale, Olivetti si è inizialmente distinta per un particolare stile aziendale, faticosamente creato e in qualche modo imposto da Adriano Olivetti negli anni ’30, che per qualche decennio ha intriso l’essenza stessa dell’impresa e dei suoi prodotti. Eccellenza e innovazione, qualità e design, ma anche un forte impegno a favore di arte e cultura e una marcata sensibilità nei confronti dei dipendenti inseriti nel contesto territoriale in cui vivono e lavorano. Anche in quell’alternarsi continuo di fasi di segno opposto, tra successi e momenti di crisi, che hanno caratterizzato la vita dell’azienda canavesana, la filosofia del gruppo, pur nella complessità delle sue singolari espressioni, ha creato un modello industriale e sociale rivoluzionario, in tempi non ancora sospetti. È con questi presupposti che nasce e si sviluppa “l’orgoglio Olivetti”, che inciderà sulle future scelte e dinamiche aziendali. Negli anni ’50 la società è già leader incontrastata nella tecnologia meccanica dei prodotti per ufficio, con la mitica Lettera 22 a farla da padrone e a segnare per anni i ricordi di
Adriano Olivetti
impiegati, giornalisti e scrittori. Definita da una giuria internazionale “il primo dei cento migliori prodotti degli ultimi cento anni”, la macchina per scrivere più famosa d’Italia introduce il design e l’estetica come aspetti fondamentali del prodotto industriale. È il momento della prima e importante svolta tecnologica: Olivetti dedica anima e corpo all’elettronica, ma la contemporanea morte del patron Adriano e gli ingenti investimenti rivolti al nuovo mercato, provocano un deficit finanziario che mette in ginocchio la società. Sono gli anni della faticosa ricostruzione, dove vengono però poste le premesse per un nuovo ciclo di sviluppo culminato con il lancio di alcuni veri e propri “pezzi da novanta” in grado di riscuotere enormi consensi in Europa e negli Stati Uniti: la prima macchina per scrivere elettronica e i primi personal computer (M20 e il più famoso M24) consentono all’azienda piemontese di assumere uno status che la posizionerà al pari dei colossi dell’informatica mondiale. Un bel colpo per tutto il sistema Paese e per il settore dell’Information Technology nazionale che, di fatto, nasce proprio grazie a Olivetti. Ma la fine di quello che è da molti considerato il “sogno di un’impresa” è vicina, per tanti motivi e tante responsabilità. C’è chi accusa i vertici della politica italiana di non aver dimostrato particolare interesse alla vicenda, chi punta il dito sull’eccessiva miopia del nostro sistema bancario, chi semplicemente se la prende col destino. Sta di fatto che dopo aver intuito, ancora una volta, il forte potenziale di un nuovo mercato (quello delle telecomunicazioni), Olivetti crolla sotto i colpi dell’iper competitività e della caduta dei prezzi, rimettendo in discussione ancora una volta assetti e politiche finanziarie. Il resto, come si dice, è storia recente. Tra alti e bassi, avventure in borsa poco fortunate e mutamenti di scenario, Telecom investe e coordina le operazioni di rilancio del marchio. L’industria dal “volto umano”, punta di diamante mondiale per innovazione e capacità di guardare avanti, nel corso della sua vita ha saputo coniugare progettazione e produzione, management e design, architettura e servizi sociali, editoria e grandi eventi. Forse sedutasi troppo sugli allori e di certo mal gestita in determinati periodi della sua lunga evoluzione industriale, Olivetti sarà comunque ricordata per il contributo in valore aggiunto che ha saputo dare al settore e all’intera nazione.
9
AZIENDE
DA PASSATEMPO A MINIERA D’ORO Pierre Omidyar ha creato un mercato globale e lo lascia gestire ai suoi clienti che sono nel contempo venditori, acquirenti, magazzinieri e addetti alla spedizione
10
Le intuizioni più fortunate sono generalmente considerate, col senno di poi, anche le più scontate e casuali. Immaginare un sito Internet dedicato al commercio 24 ore su 24 di oggetti di qualsiasi genere attraverso la modalità di vendita dell’asta, al giorno d’oggi è facile, perché comprare e vendere on line è il pane quotidiano dell’era moderna. Ma nel 1995 le cose non stavano ovviamente così. eBay nacque come parte del sito personale di monsieur Pierre Omidyar, americano di origine iraniana ma nato a Parigi (un bel frullato di culture diverse). Lo scopo iniziale era quello di creare una semplice comunità con poche regole e alcune striminzite categorie di prodotto, contando sui suggerimenti degli iscritti per il miglioramento della struttura e del funzionamento delle aste. Il primo oggetto venduto da Omidyar fu, per meno di 15 dollari, un puntatore laser rotto. Pierre intuì subito di aver generato qualche cosa di grande e destinato a durare nel tempo non appena si mise in contatto con l’acquirente per chiedere se avesse ben compreso la natura dell’oggetto. Il cliente l’aveva capito eccome, ma la cosa non rappresentava un problema: collezionava puntatori laser rotti (sono pazzi questi americani!). Il successo della società fondata da Omidyar con la collaborazione dell’amico Jeff Skoll fu immediato. eBay, in origine Auction Web, è diventato il “big market” che conosciamo oggi nel 1997 (in Italia nel 2001), anche attraverso una massiccia campagna promozionale in Internet. Inizialmente il nome scelto da Omidyar per la registrazione fu Echo Bay che apparteneva però a una compagnia aurifera (che la coincidenza abbia portato bene?) e si optò quindi per l’abbreviazione
Pierre Omidyar
e B a y. G r a z i e a d u n a f o r t e s t r a t e g i a d i m a r k e t i n g , p u b b l i c i t à e accordi commerciali (American On-Line su tutti), eBay fu presto identificata dalla gente come la più grande “community” commerciale al mondo per le aste on line. Quotata in borsa nel 1998, eBay dopo un solo anno capitalizzava 19 miliardi di dollari, chiudendo sempre i bilanci in positivo. Le metodologie d’acquisto sono cresciute nel tempo e alla classica asta se ne sono aggiunte delle altre, come l’acquisto immediato e la trattativa privata. Il giro d’affari di quello che sarebbe a breve divenuto il sito principale dedicato al commercio elettronico ha raggiunto velocemente la soglia dei miliardi di dollari, grazie anche alla sua veloce diffusione in tutto il mondo. Il modello che sta alla base del trionfo di eBay prevede che la società si prenda carico della funzione di intermediario per la gestione dei propri iscritti mantenendo viva la comunità e sfruttando in pieno le potenzialità della rete, anche e soprattutto per ricavare introiti dalle inserzioni pubblicitarie. Nel corso degli anni agli annunci di compravendita standard si sono alternati quelli più bizzarri, come nel caso del fidanzato che ha deciso di mettere in vendita la propria ragazza, stanco di sborsare cifre mostruose per il suo “mantenimento” o il più triste annuncio di una coppia di giovani genitori che hanno messo all’asta (ahimè) il figlio di 7 mesi. Ma c’è anche chi ha fatto di peggio. Un tizio ha venduto Niente (un foglio di carta con scritto “Niente”) e un ateo ha venduto la sua anima ad un ex predicatore evangelico. Nel 2002 eBay ha acquisito il sistema di pagamento elettronico PayPal, che offre l’opportunità di agire senza che sia necessario dispensare in alcun modo i propri dati o i numeri delle carte di credito e conta più di milione di conti virtuali aperti. La strada di una delle aziende più proficue della storia imprenditoriale recente è ancora tutta in discesa. Milioni di utenti utilizzano quotidianamente eBay per rovistare tra gli annunci sparsi in più di mille categorie diverse e il trend sembra non essere intenzionato a fermarsi. Per quanto riguarda Omidyar, dicono sia rimasta una persona modesta e con i piedi per terra, nonostante i faraonici conti correnti, convinta di aver creato qualcosa di grandioso quanto fragile. Che si tratti di falsa modestia?
11
AZIENDE
WE MAKE COMPUTING EASY Computer direttamente dal produttore al consumatore, prezzi iper concorrenziali e assistenza efficiente. Nasce da qui la fortunata epopea della Dell Computer, Inc.
12
L’investimento iniziale, nel 1984, fu di mille dollari. A questo potremmo aggiungere una buona dose di determinazione, caparbietà e impegno, ma nient’altro che provenga direttamente da tasche o conti correnti. Quel migliaio o poco più di bigliettoni statunitensi, tuttavia, ha permesso a Michael Dell di fondare la sua personale “aziendina” a Round Rock, in Texas, che oggi fattura qualcosa come più di 50 miliardi all’anno, in valuta USA. Nel corso delle sue ormai venticinque, lunghe primavere di storia, la Dell Computer, è diventata la prima computer company del mercato americano, sostenendo ritmi di vendita vertiginosi, con crescite medie annue anche del 30%. Cos’ha portato un piccolo imprenditore, che all’inizio della sua carriera smerciava computer ai propri compagni di università, a divenire in poco tempo uno dei manager più famosi del mondo? La maggior parte delle risposte sta nel particolare approccio commerciale scelto da Dell, il direct model, che permette all’azienda di rivolgersi direttamente al consumatore finale, evitando gli intermediari e consentendo così di abbattere i costi del canale e soprattutto i prezzi. Ciascun cliente può scegliere, direttamente sui siti Dell (via fax, prima dell’avvento di Internet), la configurazione desiderata del proprio computer in base alle proprie esigenze e vedersi recapitato il prodotto direttamente a casa in pochissimi giorni. Le relazioni si fanno così più dirette, più specializzate. L’avanzamento degli ordini avviene online e nessun pc viene assemblato a stock, ma solo a ordine ricevuto, azzerando in pratica le scorte di magazzino e garantendo un’alta rotazione dei pezzi. Altro aspetto fondamentale del “sistema Dell” è la forte partnership con
Michael Dell
i migliori fornitori del settore che permette da un lato di ottenere elevate performance di prodotto, grazie alla qualità dei componenti, dall’altro di assicurare la presenza prioritaria degli stessi componenti nelle sue sedi di assemblaggio anche in caso di eccedenza della domanda rispetto all’offerta (come una sorta di corsia preferenziale). Il tutto arricchito da un servizio post vendita che si basa sull’assistenza on-site: più di metà delle richieste di intervento vengono risolte direttamente in Rete, mentre le restanti coinvolgono fornitori esterni in grado di offrire maggiore flessibilità e un tempo di intervento molto limitato. Michael Dell ha vinto la sua sfida stabilendo obiettivi concreti e realizzandoli con la medesima concretezza, costruendo un business e una ricchezza spropositata (è uno degli uomini più ricchi del pianeta, a poco più di quarant’anni) con un modello di approccio al mercato rivoluzionario per l’epoca. Il commercio elettronico basato sul build-to-order e sul just in time ha reso Dell leader in un mercato che, riducendo il valore dei componenti di circa il 50% all’anno a causa del costante progresso tecnologico, impone solitamente una difficile gestione degli articoli a magazzino divenuti ormai obsoleti. La strategia adottata dalla società texana permette di non restare al palo, diminuendo oltretutto i tempi per l’introduzione delle nuove generazioni di computer. Ma tutto sarebbe stato così apparentemente facile, anche senza l’aiuto della Rete? I dubbi rimangono. Internet ha rappresentato e rappresenta anche oggi un mezzo che sembra fatto apposta per un tipo di business come quello sviluppato da Dell. Sfruttando le sue potenzialità e le sue infrastrutture i tempi di reazione si sono ridotti, le relazioni si sono intensificate e le transazioni sono migliorate, grazie a una forte maglia di siti web specializzati, presenti in molti Paesi. La mission coniata da Michael Dell, “We make computing easy. We do business directly with customers, one at a time, and we do it better that anyone in the world.” (Rendiamo facile l’informatica, creiamo il business direttamente con i consumatori e lo facciamo meglio di qualsiasi altro al mondo) suonerà anche spocchiosa e altisonante, ma se la sua società, statistiche alla mano, è quella che vende di più al mondo, un motivo ci sarà.
13
AZIENDE
IL “TUBO” NON PERDE…COLPI Lancia tormentoni, immortala “bravate” giovanili, divide i politici, crea e distrugge a piacimento. Nulla può sfuggire all’occhio inquisitore di YouTube
14
Quando gli storici di domani analizzeranno la nostra epoca si imbatteranno in una delle vicende tecnologiche e finanziarie più strabilianti degli ultimi anni. La storia di YouTube, il principale portale gratuito di video del mondo e uno dei siti più chiacchierati della Rete, inizia il 23 febbraio 2005 quando Jawed Karim, grazie ad un software da lui creato in collaborazione con Chad Hurley e Steve Chen, carica online un video amatoriale che lo vede alle prese con gli elefanti di uno zoo. Scene di vita quotidiana, diciotto secondi banali, senza tante pretese, come tanti altri in migliaia di riprese self-made. Ma la formula utilizzata dai tre futuri fondatori è così semplice e immediata che in poco tempo viene completamente stravolto il modo di concepire e condividere i video in Internet. La novità sta nello streaming che permette agli utenti di scaricare i contenuti nel momento stesso della visualizzazione, senza costringerli a salvarli prima di poterli vedere. Il “giocattolo” funziona, l’opinione pubblica fa il suo dovere e il passaparola contribuisce ad aumentarne la popolarità. YouTube nasce, non a caso, in un ambiente fertile, che gli consente di mettere solide radici e alimentarsi della curiosità e del voyeurismo di milioni di persone e vive e si evolve in continuazione, perché così vuole Sua Maestà il Web. La diffusione dei personal computer è ormai capillare: il computer, desktop o laptop che sia, è presente praticamente in ogni casa, i prezzi diventano più che accessibili, con un sempre più progressivo aumento delle prestazioni. La rete è diventata un mezzo fondamentale per qualsiasi attività, sia lavorativa che di svago. Se a questo aggiungiamo che la banda a disposizione è aumentata esponenzialmente
(si arriva a navigare a svariati Megabit/s), e che le tecnologie necessarie alla produzione, alla gestione e al montaggio dei video coinvolgono utenti con qualsiasi esperienza e capacità, possiamo giustificare i clamorosi numeri del mito YouTube. Gli ultimi dati (giugno 2006) parlano da soli: 100 milioni di video visualizzati quotidianamente con 65.000 nuovi filmati aggiunti ogni 24 ore, oltre 20 milioni di accessi al mese, con utenti di qualsiasi età e classe socio-economica. Ma la cifra che più testimonia l’importanza di questo autentico dominatore della scena contemporanea è un’altra: con 1,65 miliardi di dollari, Google acquista nel 2006 la società da Jawed e soci. “YouTube – afferma Glauco Benigni nel bel libro YouTube, La Storia - ha reso (quasi) ogni attività umana degna di essere filmata e condivisa e ha creato, all’interno del web, il luogo più ovvio per rendere pubblici tutti quegli atti che prima erano considerati (solo) privati. Di fatto, grazie alla sua semplicità, sta risolvendo la visione del futuro, il sogno mediatico della comunicazione interattiva globale, consentendo un potenziale contatto facile e gratuito tra ogni membro della popolazione mondiale”. Nonostante le polemiche legate ai continui episodi di violazione dei copyright (con spettacoli televisivi e video musicali spesso caricati senza autorizzazione nonostante il regolamento vieti l’upload di materiale protetto dal diritto d’autore se non se ne è titolari), e i casi di contenuti particolarmente violenti e “scomodi” che hanno addirittura costretto alcune nazioni a bloccare alla popolazione l’accesso al sito, YouTube ha consentito anche ad emeriti sconosciuti di regalarsi più di un singolo momento di popolarità, creando vere e proprie celebrità musicali e cinematografiche. Dalle stalle alle stelle, insomma. Sulla scia di YouTube, molti altri hanno cercato di emulare il fortunato modello, dando vita a innumerevoli versioni e tipologie di siti di condivisione video di vario genere. Non tutti forse sapranno, però, che oltre alla semplicità e alla genialità dell’idea, il merito va a una delle tante società di Incubator (che solitamente mettono disposizione soldi liquidi a fondo perduto per realizzare un’idea), la Sequoia Capital, che molto prima di Google ha investito e sostenuto il progetto YouTube, e che si è ritrovata con una plusvalenza decisamente positiva già dopo solo due anni.
15
AZIENDE
IL SOLE DELLA SILICON VALLEY Capitanata da un ragazzone californiano sempre sorridente, la Sun Microsystems si diverte a fare a spallate con Microsoft e vive in completa simbiosi con l’organismo Rete
16
Tra i “fantastici quattro” c’è sempre qualcuno che più degli altri spicca agli occhi del grande pubblico ed esercita un fascino particolare. Ma in questo caso non stiamo parlando di supereroi o di band che hanno fatto la storia della musica, ma di un gruppo di giovani studenti universitari che nel 1982 decisero di tramutare le loro idee innovative in un progetto concreto, dando vita alla Sun Microsystems. Il leader e attuale presidente della compagnia, Scott McNealy, è senza alcun dubbio la personalità che maggiormente è salita agli onori della cronaca, in modo particolare per le battaglie verbali, mediatiche e legali con l’uomo più ricco e odiato dell’informatica, Mr. Bill Gates. Assieme ai suoi compagni d’avventura (Vinod Khosla, Andy Bechtolsheim e Bill Joy), McNealy ha anticipato le tendenze di sviluppo del mercato, sicuro che l’elaborazione in Rete avrebbe premiato gli sforzi e gli investimenti dell’azienda e rappresentato il nuovo veicolo di comunicazione e di scambio dei dati ancor più dei personal computer. Ed è proprio verso la metà degli anni ’90, quando Internet si apre al mondo e si trasforma in un mezzo per instaurare collaborazioni e rapporti commerciali, che la Sun registra la prima significativa crescita della sua promettente storia. I suoi server (i computer usati per “ospitare” i siti web), potenti e affidabili, costituiscono un’infrastruttura fondamentale per l’e-business ma l’evoluzione dell’impresa la porta a distinguersi anche come leader per la fornitura di sistemi di storage, hardware, microprocessori e software. Fin dal suo ingresso nel settore la Sun Microsystems ha dovuto vedersela con Microsoft, “il” concorrente per antonomasia che domina la
Scott McNealy
scena forte di una sorta di monopolio nei sistemi operativi. Nonostante questo, la società di McNealy & Co. è riuscita ad assicurarsi la sua bella fetta di mercato, con conseguenti fatturati da capogiro. Il segreto, che poi diventerà il modus operandi della Sun, è quello di impegnare energie e risorse nel lancio di prodotti sostitutivi, sia a livello di sistema operativo, con Solaris che si rivela una valida alternativa a Windows, sia per quanto riguarda la suite StarOffice, che cerca di fare le veci del pacchetto di programmi Office. La polemica tra McNealy e Gates, tuttavia, ha origini diverse e nasce nell’estate del 1995, quando la Sun Microsystems, nelle vesti di James Gosling e Bill Joy, ha la brillante idea di creare un linguaggio di programmazione denominato Java, che si interpone fra il sistema operativo e le applicazioni, permettendo quindi di sviluppare il software una volta per tutte. Va da sé quale ruolo di assoluto protagonista possa assumere un’applicazione del genere che permette, tramite la sua Virtual Machine di eseguire tutti i programmi sviluppati Java bytecode su qualsiasi piattaforma. Dopo la sua introduzione sul mercato, Java ha creato una sorta di breccia nella supremazia di Microsoft, ma ha anche implicitamente dichiarato che si può trasformare l’informatica rendendola più semplice, economica e standardizzata. Forte di queste convinzioni, la Sun Microsystems ha concesso alla Microsoft la licenza di distribuire Java con i sistemi operativi Windows e con Internet Explorer, che però ha alterato alcune parti del linguaggio in modo da rendelo incompatibile coi sistemi non-Windows. Scoperto l’altarino, McNealy, furioso, ha portato l’azienda di Nedmond in tribunale, vincendo la causa e imponendo pesanti sanzioni. La crociata anti-Gates continua, e il presidente non perde mai l’occasione per “smascherare” i difetti del software di casa Microsoft. Il successo della Sun, che è presente in oltre 100 paesi con più di 35mila dipendenti, sta nel suo comporre tutto “in casa”, a differenza della generalità delle imprese che assemblano hardware e software acquistati dall’esterno, ma anche nella sua parallela e strepitosa evoluzione con la Rete. Non c’è stata nessun altra società che ha tratto maggior profitto dalla crescita del fenomeno Internet. Non è un caso che il motto preferito di McNealy sia “The Network is the computer” (“La Rete è il computer”). E non è un caso nemmeno che il suo cane si chiami Net.
17
AZIENDE
IL PRIMO VIDEOGAME NON SI SCORDA MAI In seguito domineranno le multinazionali giapponesi, ma il divertimento di “una volta” era prerogativa di Atari, che ci ha regalato le antenate delle moderne console
18
I meno giovani ricorderanno probabilmente con un pizzico di malinconia l’età dei videogiochi coin-op, quelli a monete o a gettoni, per intenderci. Seppur con una grafica e un sonoro rudimentali e ridicoli se paragonati ai moderni software in commercio, gli anni ’70 hanno incoronato a idoli di massa titoli come Pac-Man, Tetris e Space Invaders. Gli stessi meno giovani potranno facilmente sorridere davanti alle immagini delle primissime console domestiche e alle ingombranti cartuccione-gioco che hanno assicurato tante ore di divertimento a milioni di appassionati. In entrambi i casi molto è dovuto ad un’azienda pioniera nell’industria dell’intrattenimento elettronico, Atari. Fondata nel 1972 da Nolan Bushnell, la società californiana investe subito in un videogame che funziona sul televisore di casa e che si chiama Pong. Si tratta un prodotto che permetterà di costruire una solida base per l’immediato futuro e che diventerà un successo senza precedenti anche nella versione “da bar”, una sorta di capostipite dei giochi a gettone per locali pubblici. Nel 1976 Bushnell cede la proprietà dell’azienda alla Warner Communications Inc., sotto il controllo della quale Atari conosce un vertiginoso sviluppo, vendendo milioni di console Atari 2600, la vera punta di diamante della storia della compagnia. Commercializzata inizialmente come Atari VCS (Video Computer System) viene presentata nell’ottobre del 1982 e nonostante le prime difficoltà per via del ridotto parco giochi a disposizione, le vendite della console accelerano con l’acquisto dei diritti di alcuni famosi coin-op che offrono all’utenza una maggiore scelta. Il nome di Atari diventa sinonimo di console, ma nel
breve l’azienda comincia a dover fare i conti con una forte competizione (la prima ad insidiare il suo primato è la Intellivision della Mattel, che vanta una grafica più sofisticata) e con l’abbassamento dei prezzi causato dall’avvento massiccio di home computer. Dopo 40 milioni di pezzi venduti e 120 milioni di cartucce acquistate dai videogiocatori di tutto il mondo, Atari è costretta, nel 1992, a fermare la produzione della sua 2600. Negli anni seguenti si susseguono vari tentativi di rilanciare il marchio, con progetti più o meno riusciti (come l’Atari 7800, la console portatile Atari Lynx e l’Atari Jaguar) che però non riescono a reggere il confronto con colossi come Nintendo, Sega e Sony. Il risultato è una rapida successione di fusioni e cambi di proprietà, che minano la reputazione e le finanze dell’azienda. Negli ultimi anni Infrogames ha completato l’acquisizione delle azioni per undici milioni di dollari considerandola un’opportunità per ridefinire, rifocalizzare e dare nuova energia ad un marchio incredibile. L’avventura di quella che è stata per un lungo periodo la regina dell’industria del divertimento videoludico è destinata quindi a continuare. Richard Simon, uno dei più affermati analisti di Wall Strett, l’ha battezzata la società cresciuta più in fretta nella storia degli Stati Uniti. Qualcun’altro, negli anni d’oro, aveva previsto un futuro perennemente radioso all’azienda che è rimasta, finché le è stato concesso, un grande laboratorio con una filosofia di lavoro che coinvolgeva tutte le attività della società e convertiva l’alta tecnologia e le più avanzate acquisizioni dell’elettronica in prodotti di largo consumo. I posteri hanno assistito a ben altri scenari e un happy ending in realtà non si è mai verificato. Probabilmente era destino, diranno i più superstiziosi, perché il nome della compagnia era già tutto un programma (Atari, infatti, nel gioco cinese Go! Equivale all’espressione “scacco matto”, anche se i fondatori hanno sempre ricondotto la scelta a una maggiore facilità di pronuncia, soprattutto per i partner internazionali). Ironia a parte, sono in molti quelli che ancora oggi davanti alla console 2600 nera dai finti profili in radica non riescono a nascondere sentimenti che rasentano la commozione. Ma a tutti viene comunque data la possibilità di rivivere le emozioni di un tempo grazie ad emulatori che permettono di giocare, con i moderni computer, i classici arcade di ieri.
19
AZIENDE
DIE HARD. DURA A “MARCIRE” La travagliata vicenda della Mela che sembrava avvizzita ma che è rifiorita grazie alla maturità e al coraggio del suo figliol prodigo
20
È una sorta di corsa ad ostacoli l’avventura di Apple Computer nel mondo dell’informatica. Gioie e fasti si mescolano a dolori e periodi di magra, a cadute, clamorose sconfitte e incredibili ritorni d’immagine. La società di Cupertino nasce nella seconda metà degli anni ’70, quando un mercato dei personal computer ancora di fatto non esiste se non sotto forma di grandi mainframe che occupano interi locali nei centri di ricerca e nelle grandi aziende. Qualcuno sogna però un computer che possa servire in maniera completa ogni singolo utente (e qualcuno di molto noto farà propria questa filosofia, successivamente) e, per gioco e per diletto, Steve Wozniak, seguendo i consigli del fidato amico Steve Jobs, costruisce artigianalmente il suo prototipo, nel 1975. Si tratta di Apple I, il primo prodotto messo in commercio dalla neonata società californiana. Nel ’78 è il turno di Apple II, una macchina abbastanza semplice anche per gli utenti alle prime armi, che consente alla società di Wozniak e Jobs di divenire in breve tempo leader nel settore home ed educational, con migliaia di prodotti venduti a famiglie, scuole e piccole industrie. La condizione di Apple all’inizio degli anni ottanta è quindi estremamente favorevole, con un’entrata trionfale nel neonato mercato dell’informazione, con le giuste competenze e praticamente nessun rivale. La sua posizione competitiva cambia però bruscamente con l’arrivo di IBM che, nonostante l’utilizzo di un sistema operativo (il DOS di Microsoft) e di un microprocessore (Intel) che rende rigidi e freddi i suoi computer in confronto alla grafica e al suono di Apple, offre un sistema relativamente “aperto” che altri fabbricanti
Steve Jobs
possono riprodurre, a differenza della società della Mela, che ha invece deciso di puntare su uno standard chiuso e di proprietà. In breve la proliferazione di IBM-compatibili, cloni simili a quelli in circolazione con la sensibile differenza di un prezzo inferiore, causa il primo rallentamento di Apple, che perde in quota di mercato e tenta di rispondere, nel 1984, con Lisa, il primo personal computer con un interfaccia utente grafica dotata di icone e finestre che permette la simultaneità di molte applicazioni e un mouse point-and-click. Nonostante la bella idea il prodotto non aggredisce il mercato a causa di un prezzo troppo elevato ed è così che Jobs si lancia in un progetto ancora più ambizioso: lo sviluppo di una macchina con molte delle caratteristiche della precedente versione, ma più economica. Il risultato è Apple Macintosh, che diventa una pietra miliare nello sviluppo dell’industria del computer ma che, nonostante caratteristiche assolutamente nuove e rivoluzionarie, non riesce a vendere quanto previsto, soprattutto per la lentezza delle prestazioni e per la mancanza di software Mac-compatibili. Nubi minacciose si stagliano all’orizzonte. Nel 1985 prima Wozniak, poi Jobs, lasciano la compagnia. Le sorti dell’azienda vengono affidate a John Sculley, che ha il discutibile merito di firmare nello stesso anno il peggiore accordo mai sottoscritto dalla società di Cupertino, quello con la Microsoft di Bill Gates, che in cambio dello sviluppo di software per Mac, si appropria di alcuni elementi di interfaccia grafica di casa Apple, che perde così la proprietà intellettuale della sua più grande innovazione tecnologica. Il risultato è Windows e non è il caso di ricordare cosa abbia significato questo per le sorti dell’intero mercato. Tra alti e bassi e tra un cambio al vertice e uno alla strategia, Apple rimane faticosamente a galla fino al 1997, con il ritorno di Steve Jobs al ponte di comando. Criticato per alcune sue scelte (come la richiesta di un aiuto finanziario a Gates pur non di non veder “morire” la sua amata Mela), Jobs ha tuttavia il merito di aver ridato linfa vitale a un’azienda col fiato corto e sull’orlo del collasso, grazie anche alle tecnologie di NeXT, l’azienda che lui stesso aveva fondato durante l’“esilio”. Con il lancio di alcuni capolavori (l’iMac, l’iPod e l’iPhone su tutti), il lavoro dell’ex ragazzo prodigio ha dato i suoi frutti. Oggi Apple, con la massiccia presenza nel settore musicale e un cambio di architettura hardware che abbraccia i chip Intel, ha ripreso a navigare in acque più calme.
21
AZIENDE
PERMETTE, SIGNORA? IBM, una delle più longeve società dell’informatica, ha percorso le tappe più significative del cammino che ha portato l’uomo e il computer a convivere fino a oggi
22
Quando si dice secolare tradizione. Mancano pochissimi anni al centesimo compleanno della più grande azienda di informatica del mondo. La International Business Machine, meglio conosciuta col nome di IBM o in linguaggio più colloquiale Big Blue, è stata infatti costituita per come la conosciamo nel lontanissimo 1911, ad Armonk, New York, da Thomas J. Watson. Fin dalla nascita ha espresso un’identità e una cultura originale, una sorta di enorme personalità collettiva coesa e unita che ha sempre condizionato ogni sua attività e strategia. Un fattore di identificazione fortissimo costruito attorno a una convinzione nemmeno troppo audace: essere la numero uno nel mondo nella costruzione dei “cervelli elettronici”. È così che l’organizzazione si è sempre portata dietro una sensazione di marcata superiorità, vestendo i panni di un’immensa macchina per vendere la vera cultura e tecnologia dell’informatica. La chiave del successo probabilmente è stata tutta qui, in un’immagine di “imperiale” presenza sul mercato, legittimata anche nei momenti di crisi che la compagnia ha dovuto affrontare nel corso della sua storia. Inizialmente leader nel mercato dei mainframe (Sistemi Centrali utilizzati da grandi aziende e istituzioni, utilizzati per elaborare con alte prestazioni grandi moli di dati), con il predominio stabile assicurato dalla serie 360, IBM ha ottenuto un successo strepitoso grazie a un’innovazione chiave: la compatibilità software. È infatti dei primi anni ‘60 la realizzazione dell’Os, il primo sistema operativo per mainframe in grado di evolvere nel tempo, garantendo all’utente la stabilità del suo patrimonio software applicativo in modo pressoché indipendente
dal susseguirsi delle generazioni hardware. Tra il 1965 e il 1975 la società quasi quintuplicò le sue dimensioni e i suoi impianti informatici si diffusero ovunque nelle aziende del mondo occidentale. Ma l’era del micro computer era alle porte e i dirigenti di Big Blue dovettero inventarsi una valida alternativa al prodotto Apple, una macchina destinata all’uso personale capace di inventare un nuovo modo di intendere l’informatica. IBM, con tempi di sviluppo troppo lunghi e dopo vari tentativi falliti, trovò la formula giusta affidando a una equipe la realizzazione di un computer, copiando i metodi utilizzati dai concorrenti e procurandosi esternamente tutti i componenti necessari. Il risultato della collaborazione con un “novello” del panorama del settore, il giovane Bill Gates, porterà alla creazione del 5150, da tutti considerato il primo Personal Computer della storia. Come tutti i prodotti IBM era una macchina solida e affidabile, che garantiva un livello di servizio impensabile per gli altri costruttori di microcomputer e personal computer dell’epoca. Anche se non era la miglior macchina tecnologicamente avanzata disponibile (vedi Apple II), l’esperienza e il nome dell’IBM, assieme all’aspetto austero e professionale del 5150, ne fecero lo standard de facto nell’industria del personal computer. Il successo di IBM non passò inosservato: le industrie informatiche orientali si misero subito al lavoro per clonare il PC IBM. La clonazione, cioè la duplicazione, fu possibile poiché IBM forniva assieme al PC anche gli schemi elettrici, ed il listato del sistema operativo era facilmente ottenibile. In pochi anni il mondo fu invaso da enormi quantità di PC clonati, dalle prestazioni sempre più brucianti e dai costi sempre più bassi. A cavallo tra gli anni ’80 e ’90, con l’emergere dell’informatica distribuita, IBM subì un’altra flessione a cui pose rimedio puntando su servizi a valore aggiunto e sulla serie AS/400 (oggi iSeries) dedicata alle imprese. Attualmente l’azienda produce computer di quasi tutte le dimensioni ed è attiva nei settori dei server, dei microprocessori, della realizzazione di software, nei servizi informatici e nella consulenza aziendale. Forte della sua venerabile età, IBM ha sempre saputo trarre profitto dalla capacità di trasformare le idee in progetti e i progetti in produzioni e distribuzioni su scala mondiale. Perdoniamole pure qualche scelta sbagliata, qualche ritardo di troppo nell’adattamento al frenetico mercato dell’informatica e all’evolversi delle tecnologie. Stiamo parlando pur sempre di una “signora” del settore…
23
AZIENDE
ANCHE I COMPUTER HANNO UN CUORE I microchip Intel sono ancora oggi i più venduti del mercato. Merito di una gestione sapiente di partnership e concorrenza e di uno sviluppo no limit
24
In principio era Intel. Quarant’anni fa nasceva la futura prima e indiscussa produttrice mondiale di microprocessori, il vero motore di qualsiasi computer. Nel 1968 due “cervelli” di tutto rispetto, Robert Noyce e Gordon Moore, forti dell’esperienza e degli studi in materia, decisero di creare una società specializzata nella produzione di circuiti integrati di silicio, una tecnologia che di lì a poco segnerà la storia della moderna elettronica. La chiamarono Intel, da Integrated Electronics. Inizialmente leader nella fabbricazione di componenti per memorie (con il primo chip per computer RAM), nel 1971 l’azienda costituì la fucina creativa di una rivoluzionaria invenzione, che vide l’italiano Federico Faggin alla testa del gruppo di ricerca: il microprocessore 4004. Conscia delle enormi possibilità legate allo sviluppo e alla produzione dello strumento, Intel spostò gradualmente la sua attenzione dalle memorie ai microchip, e divenne un vero colosso in materia con una crescita inarrestabile che la porterà a controllare l’85 per cento dell’intero mercato. Dagli anni ’80 ai giorni nostri modelli sempre più elaborati di semiconduttori Intel hanno dominato la scena della moderna tecnologia. Un elemento chiave dalla fama di Intel è lo storico 8086, il primo processore x86 a 16-bit che nel 1981 venne scelto (nella versione derivata chiamata 8088) da IBM per il mitico 5150, “il” personal computer per antonomasia. Anche la NASA ha adottato l’8086 per il sistema di controllo degli space shuttle e curiosamente nel 2002 dovette procurarsene alcuni esemplari tramite eBay, poiché Intel da tempo non poteva più fornirne. I videogiocatori di tutto il mondo ricorderanno
con affetto un altro prodotto griffato Intel, il 486, per molto tempo unica porta di ingresso per chi volesse intendere il computer anche come un divertimento. Presentato nel 1989, il 486 offriva interessanti funzionalità per l’epoca (come una memoria cache di 8kb unificata per dati e istruzioni, e un’ulteriore unità di calcolo). Con il suo successore, l’Intel Pentium, l’azienda ha abbandonato del tutto la numerazione nei nomi dei propri processori, ma ha dovuto fare i conti con un difetto (in gergo bug) che il sistema riscontrava in alcune operazioni di divisione che a volte non risultavano corrette, sobbarcandosi così critiche da destra e manca soprattutto da parte dei media. Negli anni ’90 Intel è stata anche la maggiore responsabile delle innovazioni hardware dei PC, tra cui il bus PCI, il bus PCI Express, l’Universal Serial Bus (USB) e le prime architetture per server multiprocessori (SMP). La forza della compagnia è sempre stata quella di credere fortemente nell’idea di una continua evoluzione delle prestazioni dei computer come stimolo per il raggiungimento di un livello via via più alto di applicazioni in grado di soddisfare ogni esigenza degli utenti. Attualmente Intel si occupa della produzione, oltre che dei famosissimi microprocessori, anche di componenti di rete, chipset per schede madri, schede video e altri circuiti integrati. Nonostante qualche raro passaggio a vuoto (vedi il caso del Pentium III, il processore dotato di una funzionalità capace di trasmettere in automatico un numero seriale, con ovvie ed immediate polemiche per implicazioni sulla privacy), Intel ha interpretato bene il ruolo di autentica dominatrice del mercato giocando bene le sue carte. Ha conquistato la fiducia e l’appoggio dei colossi dell’informatica (Microsoft e recentemente Apple) e ha sancito accordi storici anche con i propri rivali, come con la AMD (Advanced Micro Devices): dal 1976, infatti, entrambe le compagnie possono usare le tecnologie dell’avversario senza doverne richiedere il consenso. Con una sola mossa il (quasi) monopolio è stato servito, tanto che AMD ha poi accusato Intel di manovre poco legali. Negli ultimi tempi la società di Santa Clara ha dato vita a numerose altre partnership, acquisizioni e intese commerciali, anche con giganti della tecnologia (RIM, Yahoo!, Google) con lo scopo di lanciarsi in nuove avventure e ampliare la propria gamma di prodotti e servizi.
25
AZIENDE
TRUFFALO BILL? L’immagine di Gates è un ritratto a tinte chiare e scure. Il successo di Microsoft è tutta farina del suo sacco? E intelligenza fa sempre rima con trasparenza?
26
Mai nessun’altra azienda è stata legata così strettamente alle vicende del suo fondatore come la Microsoft Incorporation con Bill Gates. L’occhialuto più controverso e meno amato del pianeta si è infatti reso responsabile delle sorti della compagnia fin dalla sua nascita, avvenuta ad Albuquerque nel 1975, muovendo con attenzione i fili del suo destino come un abile marionettista farebbe con i propri burattini. Oggi ha lasciato l’azienda, pur rimanendone il proprietario e il principale azionista, ma questo non significa che abbia mollato la presa. Non sarebbe da lui. I più malevoli affermano che abbia lasciato la squadra in dieci, poco prima della sconfitta per mano di Google e della concorrenza, ma Gates non può certo vantare moltissimi estimatori e quindi la questione andrebbe analizzata perlomeno col beneficio del dubbio. La motivazione ufficiale dell’abbandono (parziale) dell’attività è quella di un bisogno maggiore di tempo da poter dedicare alla famiglia e alla beneficenza. Ecco servita la risposta degli “anti-Gates”: le cause umanitarie servono solo come scappatoie fiscali, altro che filantropia. Questi sono alcuni dei motivi per cui è molto difficile scindere le gesta del capitano da quelle della sua truppa. Microsoft è una delle aziende d’informatica più grandi e popolari del mondo, e il suo nome è legato allo sviluppo e alla diffusione dei personal computer, soprattutto per quanto riguarda la parte software. La strada aperta dall’MS-DOS, scelto da IBM per l’arcinoto 5150 (il primo vero personal della storia) e consolidata con Windows e il pacchetto Office è costellata di un’infinità di vicende commerciali e legali che hanno plasmato l’identità e la fama della società.
Bill Gates
La guida di Gates ha certamente contribuito a rendere più ambigua l’immagine di Microsoft, che al di là dei meriti ha di fatto stabilito un monopolio nel mercato dei sistemi operativi con tutti i mezzi a sua disposizione, contribuendo solo in parte alla rivoluzione alla quale ha pur partecipato come protagonista e approfittando con cinismo delle scoperte altrui per imporsi al grande pubblico. Alle grandi doti di businessman di Gates vengono infatti contrapposte caratteristiche meno nobili, come la spregiudicatezza e la scorrettezza in affari. I sentimenti nei suoi riguardi sono quindi polivalenti e si va dall’ammirazione allo sgomento, come se il leader di Microsoft avesse scardinato sicurezze e offerto chiavi interpretative diverse con un approccio allo stesso tempo visionario e utilitaristico. Gates merita sicuramente una parte del successo ottenuto. È pur sempre stato un giovane talento col fiuto per il denaro, con le intuizioni giuste (le sue o quelle prese a prestito, non fa differenza) che è diventato un mito, seppur con alcuni tratti distintivi della sua personalità poco politically correct. Bisogna riconoscere la sua visionaria capacità di arrivare in meta prima degli altri. Prima di lui, il computer era puro ferro, divenuta materia pensante e miracolosa grazie alla centralità del software. A Gates vengono contestate mille appropriazioni indebite, cattivi prodotti, la voglia di giocare sporco con le regole e tattiche poco ortodosse: ma nell’epoca del capitalismo dell’informazione l’importante è stato saper dare in pasto a chi aveva fame le idee migliori. Solo così Microsoft ha saputo raggiungere il primato commerciale a scapito della concorrenza, nonostante le numerose dispute in tribunale (cause antri trust e violazioni di sentenze precedenti). Gli standard proprietari della compagnia sono stati imposti come dati di fatto ma le quotazioni della programmazione open source (libera e indipendente) sono in costante ascesa, e il predominio quasi totale del mercato è attualmente scalfito da alternative valide, efficienti e gratuite. L’impero di Gates si sta inesorabilmente sgretolando? Alcuni pensano di sì: l’avvento di Internet è stato sottovalutato e Microsoft ha perso colpi e ha cercato di recuperare con le armi che l’hanno resa apparentemente invincibile: la competizione, le spallate, il tentativo di rimanere al passo coi tempi. Ma forse le battaglie di oggi non sono più quelle di ieri.
27
PERSONE
28
La lunga strada che ha portato alla modernità è costellata di intuizioni geniali, di superbe menti che hanno saputo ritagliarsi un posto nella storia e di correnti di pensiero che hanno spostato gli equilibri, offrendo punti di vista piÚ che alternativi. Protagonisti, in tutti i casi, sono uomini coraggiosi, spesso incompresi, a caccia del sogno di una vita, e simboli di un’epoca nuova, che hanno creduto con passione nel cambiamento come fattore unico e necessario per una crescita universale.
29
PERSONE
IL SIGNOR CHIP È UN ITALIANO Un nostro connazionale, il veneto Federico Faggin, quasi quarant’anni fa dava alla luce il microprocessore, un’invenzione che ha rivoluzionato il XX secolo
30
Dal Veneto alla Silicon Valley il passo è breve, in certi casi. Casi rari, quasi unici, che dimostrano se ancora ce ne fosse bisogno che la storia viene scritta anche da apparenti coincidenze. Essere nel posto giusto al momento giusto, direbbe qualcuno. Con il talento giusto, ci sentiamo di aggiungere noi. Perché Federico Faggin, il papà del microprocessore, il suo talento se l’è portato a spasso per il mondo, ben stretto su quel volo che una volta atterrato negli States gli avrebbe regalato così tanta notorietà. Non a caso, nella Hall of Fame di Akron, in Ohio, il suo ritratto viene esposto in compagnia di altri illustrissimi inventori: Guglielmo Marconi ed Enrico Fermi. Faggin si ricorda il gennaio 1971 (ma non la data precisa, perché con una media di 12/14 ore di lavoro quotidiane ogni giorno potrebbe essere stato un giorno qualunque). E si ricorda come fosse ieri quando, alle quattro di mattina del fatidico giorno x, dopo un’intera notte da lupo solitario sull’ultima versione del suo chip, tornò dalla moglie per comunicarle la lieta notizia. L’Intel 4004 era appena entrato a far parte di un’epoca. Ma facciamo un passo indietro, per ricostruire le tappe che hanno portato il nostro connazionale a firmare, anche fisicamente (vedi foto), la piastrina di 4x3 millimetri che rappresenta la prima forma di microprocessore venuta al mondo. Laurea in Fisica all’Università di Padova, Faggin, classe 1941, comincia il suo percorso in una società produttrice di semiconduttori, la SGS. L’azienda spedisce quasi subito il giovane studioso a Palo Alto, in California, per un periodo di aggiornamento presso gli stabilimenti della consociata Fairchild, leader nel settore dei semiconduttori. Siamo alla fine
Federico Faggin
degli anni ’60 e Faggin si dedica con passione alla tecnologia MOS (metallo-ossido-semiconduttore), apportando essenziali innovazioni in materia che gli torneranno utili quando, terminata l’esperienza alla Fairchild, passerà alla piccola e neonata Intel. A quel tempo, nel 1970, i prodotti che garantivano il fatturato del futuro colosso mondiale dell’elettronica erano le memorie a semiconduttore, soluzioni in grado di sostituire i tradizionali e ormai obsoleti anellini di ferrite con i quali era semplicemente impensabile costruire memorie di grandi capacità (a ogni bit di memoria corrispondeva infatti un minuscolo anellino di materiale ferromagnetico, che veniva magnetizzato in un verso o in quello opposto). Quando la società giapponese Busicom propose a Intel di realizzare i chip necessari a costruire una macchina calcolatrice programmabile, lo studio e la realizzazione vennero affidati all’ingegnere Ted Hoff e al programmatore Stanley Mazor. Fu solo in un secondo momento, quando il progetto rimase a languire a lungo senza sviluppi e la Busicom fu ad un passo dalla rescissione del contratto, che entrò in gioco Faggin. Lo sviluppo dei chip appariva secondario ai piani alti dell’azienda concentrata, come detto, sullo sviluppo del settore delle memorie, e venne quindi affidato al neoassunto fisico italiano, che cominciò subito la progettazione del chip set. Dei quattro moduli in lavorazione, l’ultimo, denominato 4004, costituiva un’unità centrale di elaborazione (CPU) completa, prima nel suo genere in quanto integrata in un unico dispositivo. Realizzare tutte le parti essenziali di un calcolatore in una lastrina di silicio necessitava di contributi fortemente innovativi sia a livello circuitale sia per quanto riguardava la tecnologia degli integrati. Dopo mesi di duro lavoro, la committente ebbe quello che da tempo cercava. 2300 transistor MOS (per l’epoca un risultato strabiliante) su un “biscotto” di silicio, a formare il cuore di un intero calcolatore in grado di elaborare in parallelo 4 bit. Era il 1971 e la strada verso il moderno computer era stata aperta.Il microprocessore cambierà il volto alla nostra società, per l’elevato contributo tecnico ma anche per l’influenza che avrà sul nostro modo di vivere, pensare e lavorare.
31
PERSONE
NAPSTER, IL PECCATO ORIGINALE Il software che sconvolse il pianeta e gli equilibri delle super potenze discografiche nacque dalla mente di un filantropico diciannovenne statunitense. E fu un vero e proprio terremoto
32
Che le profezie catastrofiche di studiosi, fattucchiere e veggenti di quartiere narrassero di un’imminente fine del mondo alle soglie del terzo millennio è risaputo a tutti. Al di là di qualsiasi fantomatico accostamento planetario o profetico armageddon mai avvenuto, però, per qualcuno il 2000 segnò veramente la fine di un’era. Stiamo parlando delle Major discografiche, che fino a quel momento non avevano mai nemmeno sentito parlare di tale Shawn Fanning, allora studente poco più che maggiorenne alla Northeastern University di Boston, in Massachusetts. Il giovane americano col pallino della Rete, nell’autunno del 1999 diffuse il primo sistema di peer-to-peer di massa, noto con il nome di Napster. Il servizio, completamente gratuito, consentì agli utenti di condividere file musicali in formato Mp3, con il duplice vantaggio di una buona resa qualitativa in uno spazio di memoria ridotto. Nei mesi seguenti al lancio il software ebbe un successo sensazionale, tanto da riuscire a raccogliere milioni di utenti in poche settimane (addirittura 60 milioni nel momento di massimo splendore). Il programma non fu per certo il primo canale di file sharing utilizzato nella storia. La condivisione avveniva anche prima, seppur in maniera molto più limitata, attraverso server FTP pubblici e privati o IRC (Internet Relay Chat). La peculiarità rivoluzionaria di Napster rispetto ai precedenti modelli di condivisione, stava però nel ruolo dei server, che non ospitavano fisicamente i file ma si limitavano all’indicizzazione del materiale condiviso dagli utenti connessi, rendendo possibile la fondamentale funzione di ricerca.
Shawn Fanning
È qui che entrarono in gioco le schiere dei migliori avvocati delle case discografiche che portarono in tribunale la società che gestiva i server di Napster con l’accusa di una reiterata violazione del diritto d’autore, storica fonte di guadagno delle multinazionali etichette musicali. Il dibattito, tuttora accesissimo, ha segnato profondamente la storia recente dell’informatica al punto da coinvolgere anche gli stessi artisti, da un lato ertisi a paladini della giustizia e dei loro già astronomici conti correnti (il gruppo dei Metallica su tutti, ma anche il rapper Eminem, solo per citarne alcuni), dall’altro a difensori della libertà di scambio in nome di una più romantica passione per la musica tout court (chiedere al cantante Prince, a Neil Young o Lou Reed). Il processo Napster tenne col fiato sospeso tutti gli appassionati: chi ne voleva decretare la morte, perché in fondo condividere è un anche un po’ sinonimo di rubare, e chi lo amava per il ruolo di novello Robin Hood della Rete, in grado di mettere in ginocchio un’industria ricca e conservativa che poco si curava dei poveri portafogli di milioni di acquirenti, anche nel caso di mediocri uscite commerciali. Sul tema ci marciarono in molti, politici e mass media su tutti, diffondendo nell’opinione pubblica l’idea di Napster come vero e proprio distributore di file protetti da copyright più che di un programma che ne facilitava la condivisione. Nel luglio del 2001 la Corte d’Appello di San Francisco ordinò l’immediata chiusura dell’attività a causa della ripetuta violazione del diritto d’autore, con aggiunta di un indennizzo di 26 milioni di dollari come forma di risarcimento per le malefatte passate. La sentenza rappresentò una boccata d’aria per le corporation discografiche, almeno in un primo momento. Napster, purtroppo per loro, aveva dato il la (per restare in tema) a tutta una serie di piattaforme alternative che in breve tempo avrebbero raccolto i consensi degli orfani del peer-to-peer, evolvendosi in modelli con funzionalità che offrivano la possibilità di scambiare qualsiasi tipo di file e non più solo Mp3. Il piccolo Davide ha sconfitto Golia. I colossi discografici e cinematografici (quest’ultimi solo recentemente toccati dalle moderne forme di condivisione) hanno dovuto accettare, sebbene a malincuore, l’insindacabile giudizio della Rete, che è valso molto di più di quello di un’aula di tribunale. È così che il tanto odiato strumento di milioni di Arsenio Lupin è divenuto il partner ideale delle più rappresentative Major internazionali, che ora utilizzano Internet per offrire musica a prezzi stracciati. Sembrerà esagerato parlare della fine di un’era, ma l’energica spallata del “giocattolo” inventato da Shawn Fanning al mondo della musica non è niente di più simile ad una colossale e gigantesca rivoluzione.
33
PERSONE
IL FUTURO? CHIEDI A NEGROPONTE… È il direttore di un centro di ricerca all’avanguardia, si reca nei quattro angoli del pianeta per stabilire rapporti, ottenere appoggi, riscuotere consensi e guardare avanti un po’ prima degli altri
34
Lo hanno chiamato guru dei media, evangelizzatore del digitale, profeta dell’era cyber e anche “venditore di fumo”. Nicholas Negroponte, al di là degli appellativi più o meno azzeccati e veritieri, è in ogni caso unanimamente riconosciuto come un personaggio che ha segnato la storia moderna dell’informatica e della comunicazione. Laureato al prestigioso MIT di Boston, ricercatore, professore, consulente, ambasciatore e conferenziere, Negroponte è un tuttofare dalle mille risorse e attività. Fondatore di uno dei laboratori più prestigiosi del mondo, il MediaLab, è stato costantemente al centro di progetti che hanno permesso di modificare equilibri, accorciare divari tecnologici e sensibilizzare l’opinione pubblica. Con la sua filosofia del Being Digital ha orientato a un massiccio cambiamento di rotta avvenuto, secondo lui, nel 1995. Il suo libro, bestseller tradotto in 25 lingue e caposaldo della letteratura di settore, pubblicato in Italia col titolo Essere Digitali, ha affrontato tematiche che riguardano l’evoluzione della società con l’avvento di Internet, il rapporto uomo-computer, il futuro dell’informazione e della comunicazione. Per alcuni anni, almeno per i successivi cinque in seguito al lancio del volume, Negroponte ha insistito sul concetto di Rete come occasione di emancipazione, socializzazione e arricchimento immaginativo, non monopolizzabile da nessun potere, al contrario delle pessimistiche visioni di altri autori come Gibson che la associano a temi come l’amoralità e la disumanizzazione progressiva. Il contatto che avviene tra la gente nel mondo virtuale dà loro più fiducia da spendere poi in quello reale, rafforzando quindi le relazioni e non limitandole.
Nicholas Negroponte
La rivoluzione, così com’è cominciata, silenziosamente si è conclusa. Mandare una mail non suscita più nessun brivido, comperare o vendere azioni in Borsa con un solo click non genera nessuna emozione. Tutto è divenuto “naturale”, quasi banale. Ci accorgiamo dell’importanza del Web solo quando siamo costretti a farne a meno. Nel caso contrario, tutto scorre con leggerezza, come non fosse mai successo niente. Per questo Negroponte parla già di una nuova era. Non c’è più nulla di controculturale nell’utilizzo della Rete, colonna portante della nostra vita quotidiana, ed è giunto il momento della biotecnologia. Le vere novità tecnologiche rilevanti per il futuro dell’umanità e i problemi etici più complessi per la nostra mente, verranno senza dubbio da questo settore, in continua espansione. Gli sviluppi più importanti porteranno alla costruzione di macchine capaci di senso comune, in grado di pensare in maniera autonoma, dal comportamento intelligente. Sarà una sfida che metterà in moto un cambiamento epocale, intrecciando la rivoluzione biotecnologica con quella digitale. Se da un lato lo sguardo è rivolto a un orizzonte forse troppo avveniristico (ma ricordiamoci che molto tempo prima del boom di Internet Negroponte aveva previsto buona parte di ciò che poi si è verificato), dall’altro è posato anche sui Paesi e le culture che riescono con difficoltà ad adeguarsi al progresso in atto. Sul piano tecnologico, la sfida è anche quella di prendere tutte le iniziative e fare gli investimenti necessari per garantire l’accesso più universale possibile al sistema-pianeta. È proprio seguendo questa filosofia che gli sforzi di Negroponte e della moglie cercano di colmare il Digital Divide (il divario digitale tra mondo sviluppato e Terzo Mondo) attraverso l’informatizzazione delle popolazioni più sfortunate. L’idea di fondo è quella di un computer poco costoso (100 dollari al massimo) che presenti le funzionalità complete per consentire la connessione e di conseguenza facilitare la conoscenza e l’istruzione soprattutto delle nuove generazioni. Attualmente i campi di ricerca del MediaLab spaziano ad ampio raggio andando dalla stampa tridimensionale alla musica, dall’olografia alla grafica computerizzata, dalla cognizione umana alle reti, dagli agenti intelligenti alla computazione. Qualcosa si muove quindi, come sempre, nella mente di Nicholas Negroponte.
35
PERSONE
IO SONO LEGGENDA Lo sfortunato padre dell’informatica e dell’intelligenza artificiale ha lasciato ai posteri una preziosa eredità: le basi per il moderno computer
36
“Causa del decesso: cianuro di potassio autosomministrato in un momento di squilibrio mentale”. Il soggetto in esame non è l’ennesimo caso investigativo dell’infallibile detective di una moderna serie poliziesca, ma è Alan Mathison Turing, una delle menti più brillanti del secolo e uno dei pionieri dello studio della logica dei computer, dagli anni ’30 agli anni ‘50. Matematico alla Cambridge University, Turing passerà alla storia per il suo fondamentale contributo allo sviluppo delle tesi sull’intelligenza artificiale e sulla relazione macchine-natura. La sua vita è stata un continuo confrontarsi con lo scetticismo e l’ostilità dell’ambiente scientifico e con i costi a volte eccessivamente elevati dei suoi progetti. È il 1936 quando Turing formula il primo di una serie di modelli teorici che verranno poi ricordati per la loro sorprendente attualità: la macchina di Turing. Antenato del moderno computer, il metodo prevedeva che la macchina riuscisse a compiere qualsiasi operazione semplicemente leggendo una serie su una banda composta dalle cifre uno e zero, che descrivevano i passaggi necessari per risolvere un particolare problema. Far eseguire ad un computer un compito particolare era soltanto una questione di suddivisione dell’istruzione in una serie di istruzioni più semplici, che è lo stesso processo che viene affrontato anche dai moderni programmatori. Le innate capacità logiche e matematiche di Turing vennero messe al servizio della madrepatria Inghilterra durante il secondo conflitto mondiale, per decifrare i codici nazisti sviluppati da un sistema altamente complesso, denominato Enigma, in grado di generare un codice che mutava
Alan Turing
costantemente. Il team di Turing adottò le necessarie contromisure, realizzando uno strumento, Colossus, che decifrava in modo veloce ed efficiente i codici nemici. Composto da un insieme di servomotori, Colossus rappresentò il primo passo dell’umanità nella direzione dei computer digitali. Prendendo spunto dalla tesi secondo la quale si potesse creare una macchina intelligente semplicemente seguendo gli schemi del cervello umano, nel 1950 Turing pubblicò un altro caposaldo della letteratura di settore, conosciuto come il Test di Turing, il “Santo Graal” che darà vita a buona parte dei successivi studi sull’intelligenza artificiale. Le macchine possono pensare? Secondo il geniale matematico inglese in un certo senso sì, ed egli tentò di dimostrarlo con un esperimento: una persona poneva delle domande, tramite una tastiera, sia ad un’altra persona sia ad una “macchina intelligente”, che poteva definirsi tale solo se avesse fornito delle risposte in grado di trarre in inganno l’intervistatore sull’origine della risposte stesse. Turing entrava spesso in dibattiti infuocati con altri scienziati per via delle sue concezioni radicali sul futuro dell’informatica: dal nostro punto di vista, le sue idee erano logiche e tutt’altro che sorprendenti, per i suoi contemporanei erano perlomeno stravaganti. Ritornando all’inizio del nostro racconto, Turing finì la sua folgorante carriera accademica ufficialmente per suicidio avvenuto il 7 giugno 1954, anche se sul suo decesso sono state avanzate successivamente altre ipotesi. Un morso a una mela avvelenata, come si dice, per rendere omaggio a una delle favole che più amava, Biancaneve, o un esperimento accidentalmente finito male. Qualsiasi sia stata la causa della sua morte, Turing è stato senza dubbio una personalità sensibile e uno dei più grandi precursori dell’informatica moderna. Che la sua tragica fine sia legata alla dura condanna per omosessualità e alle relative conseguenze psico-fisiche (castrazione chimica, cure ormonali) poco ci interessa e forse accrescerebbe solo di più l’amarezza per il destino di un uomo in un certo senso troppo incompreso. Gli odierni scienziati informatici fanno ancora riferimento ai suoi scritti, il suo concetto dell’algoritmo si trova al centro di ogni programma. All’epoca era invece solo una voce fuori dal coro.
37
PERSONE
L’ULTIMO CROCIATO Si ispira a Nelson Mandela, Ghandi e Martin Luther King. Stallman, il predicatore della “libertà del software”, da anni si scaglia contro il potere delle big dell’informatica
38
Alzi la mano chi davanti alla fotografia di Richard Stallman scommetterebbe anche un misero euro sulla certezza di trovarsi davanti ad uno dei personaggi più importanti della storia dell’informatica moderna. Anche i più convinti sostenitori della teoria che “l’abito non fa il monaco” si farebbero forse ingannare dal suo aspetto apparentemente trasandato, dalla sua barba lunga e grigia, che faciliterebbero più la sua associazione a qualche circolo religioso o setta di predicatori. E, in un certo senso, non andrebbero nemmeno poi così lontani dalla verità. Perché Stallman predica eccome, predica ad alta voce e predica ovunque gli capiti in giro per il mondo, nonostante sia un ateo convinto. Si fa portavoce del movimento per il “software libero” e un risoluto assertore dell’abbandono del copyright e dei brevetti (definiti addirittura “un crimine contro l’umanità”), che frenano la ricerca e lo sviluppo e aumentano il divario tecnologico nei confronti dei Paesi sottosviluppati. Secondo Stallman ogni persona deve essere libera di eseguire il programma per qualsiasi scopo, di studiare come funziona per poterlo adattare alle proprie necessità, di ridistribuire copie al fine di aiutare gli altri, e di migliorare il programma facendo circolare le versioni successive, in modo che l’intera comunità ne possa trarre beneficio. La sua battaglia ha inizio nel 1984, con la fondazione del progetto GNU, un software alternativo e compatibile con quello all’epoca dominante, Unix (non a caso GNU sta per GNU’s not Unix, cioè GNU non è Unix). Poco tempo dopo, ispirato dallo stile degli autentici hacker purosangue intenzionati a migliorare il mondo per mezzo del software, che
Richard Stallman
con lui avevano condiviso gioie e dolori al Laboratorio di Intelligenza Artificiale del famosissimo MIT al nono piano del 545 di Tech Square a Cambridge, in Massachussetts, costituisce la Free Software Foundation (FSF) inventando di fatto un nuovo modello di produzione e distribuzione della conoscenza. L’origine del malcontento di Stallman, ipotizzano alcune fonti, sarebbe derivato da un episodio alquanto curioso. Ai tempi del MIT, siamo nel corso degli anni ’70, una delle stampanti dell’istituto sembrava soffrire di un difetto di gestione degli input e si inceppava ogniqualvolta troppi utenti lanciavano contemporaneamente, da uffici diversi, i loro processi di stampa. All’epoca i codici dei programmi erano resi disponibili e Stallman approfittò della sua genialità per modificare e correggere il software e facilitare il lavoro dei colleghi. Ma in poco tempo le stampanti e i computer del Centro vennero sostituiti con modelli più avanzati che però non prevedevano la diffusione del linguaggio di programmazione: per Stallman e soci fu la fine di un sogno e di un’ideale. Grazie a Internet il movimento FSF prende velocemente quota sventolando alta la bandiera della libertà: libertà del codice sorgente che è anche e soprattutto libertà d’espressione, perché impedisce alle piattaforme proprietarie di creare barriere che bloccano l’innovazione. Il predicatore pioniere del copyleft creerà da qui in poi molte licenze per software liberi, tra cui la diffusissima GPL (General Public License), e svilupperà programmi indipendenti come Emacs, un editor di testi, e altri utili strumenti come compilatori, debugger e build automator. Stallman, con il Software Libero, ha con testardaggine perseguito le sue intenzioni, impegnandosi attivamente ed esponendo le sue tesi in conferenze, convegni, saggi e pubblicazioni. Le sue idee hanno ispirato nel 1991 Linus Torvalds, il giovane creatore di Linux (anche se Torvalds, nella sua autobiografia, si definisce “rivoluzionario per caso”, mentre Stallman è un “rivoluzionario convinto”), e hanno stimolato la nascita di Wikipedia, l’enciclopedia libera online, che permette ai lettori di partecipare attivamente alla sua realizzazione. Alcune pubbliche amministrazioni e scuole statali hanno recentemente abbandonato i sistemi operativi proprietari per abbracciare un software libero. Non a tutti sta simpatico, a molti risulta tuttora indigesto. Ma Richard Stallman, per un motivo o per un altro, verrà comunque ricordato, questo è poco ma sicuro.
39
PERSONE
ANCORA UN ALTRO ORACOLO GERARCHICO UFFICIOSO* Per creare dal nulla una multinazionale i vademecum servono a poco se intuito, intelligenza e un pizzico di fortuna decidono di farla da padrone
40
Cosa trasforma in giovani miliardari due semplici studenti a caccia di una laurea in Informatica? Cosa permette loro di passare dai pasti di una mensa universitaria a cene di gala con importanti esponenti del mondo politico e della finanza? La risposta a entrambe le domande è un’idea che, come spesso capita, non parte con particolari propositi di successo. Jerry Yang, promettente alunno originario di Taiwan, e David Filo, severo assistente didattico della Stanford University, diventano amici quasi per caso. È il 1994 e Jerry discute con David per il voto di un esame, ritenuto troppo basso. Se la prende a male, si lamenta, protesta vivacemente, ma il tutor è irremovibile e il voto di Yang non cambia. I due, nonostante l’accesa divergenza d’opinioni legano quasi subito, scoprono di avere nella navigazione in Rete una passione comune e cominciano a passare ore e ore a surfare insieme sul Web. All’epoca Internet è un cantiere in continuo divenire, con centinaia di siti che spuntano quotidianamente come funghi, ma la navigazione risulta noiosa. I motori di ricerca risultano ridondanti e inaffidabili, per trovare velocemente le informazioni richieste bisogna affidarsi spesso al caso e le risposte risultano quasi sempre deludenti. E qui nasce l’idea: creare un sistema cooperativo d’archiviazione online organizzato per categorie gerarchiche ramificate, che consentano di raggiungere il risultato per deduzione e non per semplice fortuna. La “rubrica” personale di Yang e Filo, inizialmente denominata Jerry and David’s Guide to the World Wide Web (La guida di Jerry e David per il World Wide Web), diventa uno strumento utilissimo anche per tutti gli altri studenti
Jerry Yang & David Filo
dell’ateneo che possono sfruttare il database dei colleghi, ospitato inizialmente in due giganteschi server dell’università. Visto l’inaspettato exploit di consensi, Yang e Filo si mettono sulle tracce di un investitore disposto a finanziare e supportare il progetto e nel 1995, grazie alla “spinta” della Sequoia Capital (non nuova a operazioni di venture capitalism come con Apple, Atari, Oracle e Cisco Systems) nasce Yahoo!, in assoluto la prima vera directory della storia di Internet. Da lì in breve il cammino verso il successo farà tappa obbligata prima nella pubblicità a pagamento, fonte di redditizi e facili introiti, poi nello sviluppo del progetto da directory a portale, concetto che stravolge il significato di sito web. Il portale costituisce un punto di partenza e non solo un mero punto di passaggio per l’accesso a un gruppo consistente di risorse. I servizi e i contenuti messi a disposizione da Yahoo! conquistano in fretta milioni di utenti, che si affezionano al suo stile, lo scelgono come propria home page, si abbonano al suo servizio gratuito di posta elettronica, consultano online notizie di ogni genere e tengono d’occhio le quotazioni delle loro azioni in borsa. Yang e Filo hanno visto premiato il loro tempismo, probabilmente anche aiutati dal contesto storico (a metà anni ’90 il boom della Rete ha favorito investimenti online a volte anche scriteriati), ma va dato loro merito di aver perseguito con tenacia i loro obiettivi, improvvisandosi all’occorrenza businessmen capaci di creare partnership durature (come quella con Netscape), vantaggiosi accordi commerciali (con British Telecom e News Corp) e rifiutare faraoniche proposte d’acquisto (Microsoft si è recente spinta fino alla cifra di 50 miliardi di dollari). Dal ’95 ad oggi Yahoo! ha dato prova di continuità e non ha mai snaturato la propria funzionalità e la propria immagine (rimasta pressoché immutata dai tempi di Stanford). Il suo punto di forza, nonostante la supremazia conquistata da Google come motore di ricerca tout court, è ancora basato sulla ricchezza dei contenuti (offerti quotidianamente in 20 lingue diverse) e sulla diversificazione dei servizi offerti agli utenti. L’azienda, con strutture localizzate in ben 25 nazioni, ha incrementato nel tempo dimensioni e fatturati, confermandosi ai vertici del settore tecnologico informatico. Yang e Filo, dicono, non si curano molto dei loro denari e nemmeno di essere stati inseriti nella top ten dei miliardari d’America under 40. Sacrosanta modestia…
*Yet Another Hierarchical Officious Oracle (acronimo di Yahoo!)
41
PERSONE
IL PINGUINO FAI DA TE Un po’ per gioco, un po’ per sfida, un po’ per caso. Il software libero più famoso del mondo è nato così, dalle menti più creative di un gruppo capitanato da un giovane mentore
42
Finlandia, anni ’90. Un ragazzo come molti altri (con solo un pizzico di genialità oltre alla media) sta per far conoscere al mondo la sua nuova creatura, un sistema operativo che aprirà orizzonti finora sconosciuti nel mondo dell’informatica. Tutto comincia all’università di Helsinki: Linus Torvalds, giovane studente dalle particolari doti di sviluppatore, partecipa al progetto Minix, il primo kernel simile a Unix che poteva essere eseguito su di un comune personal computer. La novità del programma, lanciato dal professor Andrew Tanenbaum, risiedeva nel fatto che potesse essere distribuito con il codice sorgente, operazione insolita per i tradizionali sistemi operativi che custodiscono gelosamente in cassaforte le istruzioni del linguaggio di programmazione. Ma c’era un punto di Minix che a Torvalds proprio non andava giù: offrire agli altri il codice sorgente senza per contro permettere di apportare modifiche a meno di previa autorizzazione dell’autore era un po’ come regalare a dei bambini una caramella con l’incarto di filo spinato. Bisognava ripartire da zero. L’esigenza di un sistema operativo gratuito si stava diffondendo a macchia d’olio, alcuni difetti di MS-DOS cominciava a provocare tra gli utenti un certo malumore e andava pian piano formandosi un partito “anti-Microsoft”. Linus si chiude nella sua camera e a soli 22 anni inizia la scalata che lo condurrà a breve nell’Olimpo delle personalità più rilevanti dell’informatica. Nel mese di agosto del 1991 il giovane finlandese posta sul newsgroup di Minix il seguente messaggio: “sto lavorando (solo per hobby) a un sistema operativo (gratuito) per i cloni 386 (486) AT”, comunicando ad altri utenti la sua volontà di sviluppare un
Linus Torvalds
sistema Unix-like, rigorosamente open-source che potesse girare sui più normali ed economici personal computer. Dalla collaborazione e dal lavoro comune di migliaia di appassionati nascerà Linux, considerato da tutti come il più serio concorrente di Windows della Microsoft. Questa è la vera novità: un programma messo a punto grazie a un gigantesco sforzo collettivo, senza sborsare un centesimo, utilizzando Internet e il proprio tempo libero, per un risultato che definire eccellente è riduttivo. Una sorta di piccolo miracolo d’intelligenza, passione e tenacia. L’idea di condividere il codice sorgente, già sviluppata e promossa dal professor Tanenbaum, è stata arricchita dalla possibilità offerta agli appassionati e agli esperti di tutto il mondo di poter migliorare e perfezionare il progetto, coordinato da Torvalds in veste di supervisore dei lavori. La prima versione di Linux, la 0.02, è dell’ottobre del 1991, di pochi mesi successiva alla diffusione del messaggio. Ma è un anno dopo che il sistema operativo viene ufficialmente distribuito su CD-Rom e caricato sui server FTP in Rete. I tecnici e gli utilizzatori del programma lo definiscono uno dei migliori mai comparsi sulla scena e moltissimi estimatori di Torvalds accrescono la fama di Linux e del suo ideatore, che si trasferisce, nel 1997, nella Silicon Valley. Centinaia di programmatori continuano a migliorare liberamente il software e altrettanto liberamente condividono con chiunque i loro progressi. Linux è ormai adottato da molti colossi dell’industria, a cominciare da IBM che finanzia, insieme ad altre importanti realtà del settore, un progetto di ricerca per lo sviluppo del kernel-Linux. Torvalds, il “dittatore benevolo” (così soprannominato per la neutralità con cui si pone nelle dispute tra i vari programmatori), con il suo faccione occhialuto da bravo ragazzo, è dunque l’artefice e protagonista principale di una vera rivoluzione. Al di là degli scopi altruistici originari, Linux, la cui mascotte è un simpatico pinguino pacioccone, è utilizzato in tutti i continenti e nelle basi spaziali della NASA e gestisce la maggior parte dei server che diffondono Internet. La sua ascesa è stata inarrestabile. Purtroppo per Microsoft e Bill Gates, le rivoluzioni non possono essere programmate e nemmeno gestite. Le rivoluzioni semplicemente accadono.
43
PERSONE
CAPITAN CLARK In piena frenesia da New Economy, un uomo affronta il Far West della Silicon Valley con uno spiccato senso dell’orientamento ed entra nell’élite dei miliardari d’America
44
Jim Clark non naviga di certo in cattive acque, e da un bel po’ di tempo oramai. E se nella vita privata viaggia a bordo di Hyperion, una futuristica barca di quasi 50 metri di lunghezza munita di ogni sorta di tecnologia, si potrà anche facilmente intuire come gli affari gli vadano a gonfie vele. La sua storia è divenuta leggenda tra le pagine del fortunato libro del giornalista Michael Lewis intitolato The New New Thing, che ne celebra le spericolate avventure imprenditoriali. Clark nasce nel 1945 in una cittadina del Texas e approccia lo studio dell’informatica con un corso serale. La sua scalata alla notorietà inizia proprio da qui. Dopo una laurea in fisica e un dottorato all’Università dello Utah gli viene assegnata una cattedra alla Stanford University, una delle più prestigiose della costa occidentale degli Stati Uniti, dove con la collaborazione di alcuni promettenti studenti progetta un chip (Geometry Engine) che permette di elaborare immagini tridimensionali in tempo reale, con prestazioni di gran lunga superiori ai sistemi concorrenti. Nel 1982, forte della sua intuizione, dà inizio alla sua carriera di imprenditore e fonda la Silicon Graphics Incorporate, una miniera di denaro inesauribile, la prima società della storia che grazie alla potenza delle sue macchine ha lanciato iperrealiste simulazioni 3D, poi utilizzate dai migliori registi di Hollywood per gli effetti speciali di alcune pellicole cult come Terminator 2 e Jurassick Park e anche dalla NASA. Nonostante il sorprendente fatturato e la crescita esponenziale dell’azienda, Clark abbandona nel 1994 (con un gruzzolo importante di azioni, però) a causa, sembra, di dissensi interni in merito alla creazione
di un nuovo dispositivo. Lo spirito tempestoso di Jim lo porta però quasi subito a buttarsi a capofitto sul progetto che forse più degli altri gli regalerà tanta popolarità. Con la fondamentale collaborazione e la consulenza tecnica del giovanissimo Marc Andreessen (che si era distinto per essere stato il primo ad ideare un web browser chiamato Mosaic), Clark crea la Netscape Communication, una start-up che batte il record di capitalizzazione in borsa nonostante i problemi finanziari legati alla scelta di distribuire gratuitamente il software Netscape (un browser che raccolse l’eredità di Mosaic e che viene a tutti gli effetti considerato il primo vero “sfoglia pagine” dell’era Internet). In piena New economy non era poi così inusuale che gli investitori puntassero su progetti anche apparentemente poco consistenti. Clark conquista un altro importante tassello della sua notorietà, e se ne va con tempismo (e anche con un notevole gruzzoletto) poco prima dell’inversione di tendenza che trascina il mercato verso il baratro. Dal ’96 in poi si lancia in nuove esperienze dando vita a Healton, una rete di servizi per il settore sanitario, a myCFO, una società online di consulenza finanziaria, a Shutterfly, popolare piattaforma per la fotografia digitale. Clark è il tipico esemplare di una generazione di pionieri votati alla ricerca ossessiva di un’intuizione, di un’idea, di un qualcosa che riesca a cambiare il modo di vivere alle persone. In quegli anni nella Silicon Valley, ricco sobborgo di San Francisco divenuto la Mecca di ogni nuova tecnologia, l’intenso brulicare di cervelli eccentrici e tarantolati guarda al futuro confidando in una improvvisa illuminazione: una new new thing, per essere precisi. Jim, dal canto suo, naviga a vista, come un vero e proprio lupo di mare, forte della fama conquistata, di una barca da fare invidia ai potenti di tutto il mondo e delle sue fenomenali intuizioni. Recentemente ha lanciato la sua ultima sfida, che prende il nome di DNA Science, una società che focalizza la sua attenzione sulle applicazioni diagnostiche della genetica, con l’obiettivo di trovare tramite Internet centomila donatori di geni per investigare sull’origine delle malattie e cercare di trovare le contromisure adatte. In questo caso ci auguriamo tutti che non sia solo un investimento passeggero, ma che l’avventura continui a lungo e sempre con il vento in poppa.
45
PERSONE
IDRAULICO TRICOLORE Un “picciotto” adottato dal Sol Levante, trapiantato nel Regno dei Funghi e cittadino del mondo. Super Mario fa a gara ovunque, anche di popolarità
46
Origini italiane, un lavoro modesto e una vita semplice, il tutto concentrato in un pugno di pixel. Per essere eccezionali, a volte, basta essere normali. Lo sa bene Super Mario, il mitico personaggio creato da Nintendo nel lontano 1981 che riesce ancora a far divertire milioni di fan con un mix vincente di giocabilità, originalità e grande cura nel design. Mario viene considerato uno dei più importanti eroi della storia dei videogiochi ed è apparso in centinaia di titoli di vario genere, quasi tutti un grande successo. La saga di Super Mario è in assoluto la più premiata in termini di vendite: in quasi trent’anni di onorata carriera, quasi 200 milioni di videogiochi che l’hanno visto protagonista sono finiti nelle case degli appassionati di tutto il mondo. E ad ogni nuova uscita, Mario continua tutt’oggi a ben interpretare il ruolo da star che gli spetta, battendo record su record e facendo breccia nei cuori di pubblico e critica. Il personaggio di Mario comparve per la prima volta nel 1981 nel videogioco Donkey Kong (che segnò la nascita di un genere nuovo: il platform) ed è frutto di un’intuizione del game designer della Nintendo Shigero Miyamoto. A partire dai primi anni ‘70, sotto la guida del dinamico presidente Hiroshi Yamauchi, la casa nipponica cominciò prima ad orientare la propria produzione verso giochi tecnologicamente più evoluti e successivamente a concentrarsi sul nascente mercato dei videogame, allora dominato dalle società americane, Atari su tutte. Nonostante gli scarsi mezzi a disposizione, il progetto di Miyamoto si rivelò una trovata geniale: inizialmente pensato come un intrepido carpentiere, Mario deve vedersela con uno furioso scimmione sgancia botti, con l’obiettivo di
divincolarsi tra rampe e piattaforme e salvare la bella fanciulla prigioniera del mostro (un classico di tutte le sue successive avventure che lo vedono girovagare in lungo e in largo alla ricerca della Principessa Peach). L’aspetto buffo e pacioccone di Mario deriva proprio dai limiti della tecnologia del tempo: i programmatori decisero di vestirlo di una salopette da lavoro di un colore diverso dalla maglietta non per una scelta di stile ma perché non potevano animare correttamente i suoi movimenti senza far sparire le sue braccia. I baffi e le basette, inoltre, derivano dall’impossibilità di mostrare la bocca e le orecchie, mentre il cappellino, secondo un’ammissione dello stesso Miyamoto, è stato aggiunto perché disegnare i capelli, allora, era un’impresa difficile. Conosciuto inizialmente come Jumpman, il nome definitivo gli venne affibbiato dalla (pare) netta somiglianza con Mario Segali, proprietario dello stabile della sede americana della Nintendo negli anni Ottanta. Dopo la sue entrata trionfale nel mondo del divertimento elettronico, Super Mario è sopravvissuto al passaggio di consegne dal 2D al 3D (con l’avvento della console Nintendo 64) risultando anzi egli stesso motore attivo del cambiamento. Per almeno due decenni si è divertito ad affrontare a martellate crudeli nemici di fine livello (il malvagio Re Bowser su tutti), infilarsi nelle tubature dei mondi più sconfinati e spaccare mattoni a testate. Si è riscoperto pilota di go-kart, tennista, golfista e calciatore, senza mai perdere lo smalto di un tempo. Mario è un vero e proprio simbolo, un’icona della Nintendo (di cui è divenuto, non a caso, la mascotte) ma soprattutto della generazione dei ragazzi di ieri, oggi e domani. E non importa se adesso le sue movenze sono contornate di effetti speciali, perché Mario non è mai scaduto nel banale, rinnovandosi costantemente per adattarsi alle varie epoche, ma rimanendo il buffo e caparbio ometto che abbiamo sempre conosciuto. Protagonista (assieme al compagno di mille avventure, il cugino Luigi) anche di una pellicola hollywoodiana e di un fumetto, non si contano i gadget che gli sono stati dedicati, ma è difficile trovare un motivo unico per spiegare un successo che non trova eguali nel settore. La risposta sta probabilmente nella semplicità di quell’iniziale pugno di pixel e nell’eccezionalità del suo essere normale come tanti altri, soprattutto quelli che stavano dall’altra parte del joystick.
47
PERSONE
CAMBIO VITA, MI DIVERTO Paul Allen non è solo l’alter ego di Bill Gates. Dopo la parentesi in Microsoft ha deciso di voltar pagina e dedicarsi a hobby e passioni, compresa quella per gli affari
48
Secondo un cliché molto comune sarebbe solo l’ex socio di Bill Gates. C’è chi lo considera solo (si fa per dire) uno dei tanti fortunati miliardari partoriti dalla New economy. Entrambe le definizioni risultano però riduttive per descrivere la profonda e polivalente personalità di Paul Allen, co-fondatore della Microsoft e antesignano della rivoluzione digitale. La sua è una storia coinvolgente come poche, che stupisce, commuove e fa sorridere nello stesso tempo. Cresciuto in una benestante famiglia di Seattle, Paul frequenta la prestigiosa Lakeside High School ed è qui che conoscerà il compagno di molte avventure, quel giovanotto occhialuto che tanto ama, come lui, l’informatica. Insieme a Gates, Allen focalizza la sua attenzione sul Basic, un linguaggio di programmazione che consentirà loro di lì a poco di cogliere al volo l’occasione di una vita, studiandone una particolare versione per l’Altair 8080, il primo personal della storia costruito dalla MITS di Ed Roberts. Grazie alla loro illuminante idea fondano la Microsoft con il dichiarato obiettivo di sopperire alla scarsa disponibilità di computer con una presenza capillare sulle scrivanie di tutto il mondo. Sembra girare tutto a meraviglia: Allen è a capo del reparto Ricerca e Sviluppo e nei primi anni di vita la società sforna programmi che segneranno il corso dell’informatica moderna. Ms-Dos, Word, Windows, tutto dal 1980 al 1982. La strada del successo sembra essere spianata, ma il destino, come spesso accade, ha in programma una triste sorpresa per l’eccentrico Paul. Nel 1983 gli viene riscontrato il morbo di Hodgin, un tumore del sistema linfatico che lo costringe a una lunga pausa, condita da riflessioni
Paul Allen
che cambieranno il suo modo di vedere gli affari e la vita. Si separa dall’amico fraterno e una volta guarito decide di dedicarsi ad altro. È l’inizio di una nuova esistenza, che lo porta a riflettere sulle scelte fatte in precedenza: la sua filosofia è quella di un mercato aperto a realtà indipendenti e in libera concorrenza tra loro, una visione diametralmente opposta rispetto a quella del “totalitarismo informatico” ricercato da Gates. Forte di queste convinzioni, Allen fonda nel 1985 Asymetrix, una società che sviluppa software per la creazione di semplici applicativi in grado di essere utilizzati soprattutto da utenti meno esperti. Il suo spirito filantropico lo porta ben presto alla creazione di fondazioni benefiche (la Paul G. Allen Foundation for the Arts, la Paul G. Allen Charitable Foundation e la Paul G. Allen Foundation for Medical Research) e più recentemente ad investire nella ricerca scientifica (con il contributo fondamentale ad un telescopio radar che scandaglia lo spazio in cerca di segnali di vita intelligente). I suoi interessi a 360 gradi lo stimolano a lanciarsi in mille iniziative imprenditoriali: è così che per passione dello sport diventa presidente di una franchigia di basket, i Portland Trail Blazers, e di una di football, i Seattle Seahawks. È per la sua incommensurabile adorazione per la musica e Jimi Hendrix che fonda un museo completamente dedicato al mitico chitarrista, l’Experience Music Project, e fonda una band con cui decide di strimpellare a tempo perso (quale?), e un sito Internet interattivo (Emplive.com) che consente ai visitatori di imparare a suonare. Tutto questo, però, non gli impedisce di concentrarsi sugli affari: l’impero di Paul Allen avvolge in toto l’universo digitale, dalla Tv via cavo alle compagnie di telecomunicazione, dalle società Internet alle case discografiche. Leggenda vuole che non ci sia giorno in cui non concluda un accordo, ma la sua invidiabile attitudine a far coincidere gli hobby con gli affari non deve ingannare e soprattutto non deve cancellare quanto di buono ci sia stato nell’Allen “prima fase”. Non sarà forse noto come Gates, ma senza di lui oggi probabilmente la Microsoft non esisterebbe. A volte la storia, pensano in molti, andrebbe riscritta per rendere giustizia a tutti i protagonisti. Ma le regole del gioco sono queste e Allen ha dimostrato che al gioco ci sa stare eccome. Nei suoi panni, al terzo posto della classifica degli uomini più ricchi degli Stati Uniti, non ci staremo forse anche noi?
49
RITRATTI
50
Vicende appassionanti che divertono, commuovono, stupiscono e incuriosiscono. Racconti che vivono di luoghi e personalità uniche e particolari, di progetti destinati a lasciare il segno e perseguiti con costanza, di scommesse vinte o clamorosamente perdute. Un percorso a balzi nella storia della tecnologia che ci aiuta a comprendere la nascita di alcuni miti della contemporaneità , a riflettere sull’evoluzione di tendenze ormai consolidate e a sorridere amaramente di fronte ai casi della vita.
51
RITRATTI
GLOBAL GOOGLING Tutti lo usano, tutti lo amano, molti non ne possono più fare a meno. Google è il motore dell’informazione. Cercare per credere…
52
Il motore di ricerca più famoso del mondo, l’azienda che più di altre è il sogno di qualsiasi dipendente, il più clamoroso esordio in borsa di tutti i tempi. Stiamo parlando di Google e l’elenco degli awards che si è aggiudicato nel primo decennio di attività non si esaurisce di certo qui. Parliamo anche di numeri che, come è risaputo, contano (eccome) più di tante parole. I numeri sono il soffio divino che ha generato Page Rank, la formula matematica in grado di migliorare e rivoluzionare l’indicizzazione e la pertinenza delle informazioni ricercate in Rete. Non a caso Google deriva il suo nome da “googol”, che designa il numero composto dalla cifra 1 seguita da cento zeri, a simboleggiare la quantità apparentemente infinita di documenti e pagine disponibili in Internet. Migliaia sono i server che ogni giorno frugano in lungo e in largo il web, milioni e milioni le pagine quotidianamente visitate dagli utenti di tutto il mondo, in più di cento lingue diverse. Miliardi (in valuta dollari), infine, gli investimenti e il giro d’affari che coinvolge quella che è stata definita una “macchina da soldi”che pare non aver limiti. I creatori di questo “mostro” della ricerca sono due baldi giovanotti, all’anagrafe Larry Page e Sergey Brin. Nel 1998 gli allora venticinquenni studenti di Stanford, in California, non si aspettavano probabilmente di costruire un’impresa che avrebbe in brevissimo tempo sbaragliato tutti i concorrenti arrivando a valere più di due colossi come Ford e General Motors messi insieme, ma di certo avevano le idee ben chiare fin dall’inizio. Uno di loro aveva scelto per la tesi di dottorato l’eloquente titolo di: “Come scaricare su computer tutto il
Larry Page & Sergey Brin
contenuto del World Wide Web, non per forza bruta, ma in modo da renderlo utilizzabile”. La missione che sembrava impossibile divenne un chiodo fisso per Page e Brin, che riuscirono però a realizzare il sogno di una vita: far accedere chiunque a tutta la conoscenza e l’informazione dell’umanità. Il problema che da tempo assillava i navigatori di tutto il globo era l’incapacità dei motori di ricerca di garantire delle risposte efficaci, precise, rilevanti e attendibili ai criteri di scelta e alle chiavi inserite dagli utenti. La formula Google risolveva questo inconveniente alla radice: il software sviluppato da Page e Brin, infatti, era capace di valutare automaticamente il valore dei documenti e la loro desiderabilità. Il tutto spezzettando la ricerca fra migliaia di computer messi in parallelo su una rete che è divenuta la più grande mai realizzata con una capacità di memoria mai vista. L’idea geniale di creare un archivio infinito di pagine, testi, dati e quant’altro la Rete mettesse a disposizione delle persone, semplicemente googlando l’informazione via computer, è stata realizzata mediante l’indicizzazione quotidiana di qualsiasi documento con la contemporanea memorizzazione di una copia dei “nuovi arrivati” su server. In questo modo nel caso un utente chiedesse una pagina inaccessibile o scomparsa, potrebbe comunque consultare un duplicato d’archivio. Era dall’epoca di Gutenberg e della stampa che un’invenzione non trasformava così radicalmente l’accesso alle informazioni. Diffondere conoscenze è un merito di tutto rispetto, sia dal punto di vista morale che strettamente economico. Il numero di inserzionisti disposti ad essere “legati” al motore di ricerca più famoso e conosciuto del mondo è in costante crescita e ha dato vita a un network di affiliati che si autoalimenta e genera denaro, da alcuni simpaticamente chiamato Google Economy. La soluzione adottata da Google (AdWords), permette la pubblicazione di annunci su misura che appaiono in maniera contestuale accanto ai risultati di ricerca quando gli utenti utilizzano una delle parole chiave scelte dall’inserzionista, che pagherà in base alle visite ricevute (pay per click). Dopo il crollo della New economy erano in pochi a credere ancora nelle potenzialità del Web, ma Google ha disatteso ogni previsione, diventando un gigante della pubblicità online e un idolo globale, e trasformando la sua identità. Non più solo motore di ricerca ma anche traduttore universale, gestore di posta elettronica e curioso occhio satellitare (Google Earth), approdando recentemente nella telefonia mobile e proponendo un personale web browser (Chrome). Il suo fascino universale gli consente di attraversare e toccare culture, lingue e paesi diversi senza mai perdere di intensità. In un mondo di incertezze Google fornisce risposte gratuite in modo affidabile a chiunque le cerchi, gratificando mente e spirito.
53
RITRATTI
IBM? NO GRAZIE Una gallina dalle uova d’oro si presenta all’Intergalactic Digital Research, ma l’affare del secolo va in fumo
54
A quante persone è capitato di guardarsi indietro e pentirsi di una scelta fatta o di una decisione presa troppo in fretta? Sono in pochi però ad aver rimpianto come Gary Kildall di aver lasciato sfumare un accordo che lo avrebbe potuto lanciare nell’olimpo dei miliardari d’America. Un bel giorno la dea bendata bussò alla sua porta, ma l’allora imprenditore di Seattle (prematuramente scomparso in circostanze drammatiche a soli 52 anni) decise di non cogliere l’occasione di una vita, presentata su un piatto d’argento. A bussare, nello specifico, furono gli uomini della IBM, in cerca di un valido sistema operativo in grado di essere installato nel loro primo personal computer. Kildall, che nel 1974 aveva fondato assieme alla moglie Dorothy la Intergalactic Digital Research, sfruttando, ironia della sorte, il poco interesse dimostrato da Intel ai diritti del suo CP/M (Control Program/Microcomputer), non credette nel progetto e consegnò di fatto il potenziale cliente tra le braccia di due giovani più lungimiranti di lui: Bill Gates e Paul Allen. La Microsoft all’epoca produceva solo linguaggi di programmazione, ma Gates e Allen fiutarono subito l’affare e dopo aver acquisito i diritti del sistema operativo QDOS (Quick and Dirt Operating System) della Seattle Computer Products e averlo modificato in modo da farlo girare su una macchina a 16 bit, proposero alla IBM la loro versione col il nome di MS-DOS. Il successo fu così grande che tutti i fabbricanti che seguirono la scia del PC IBM si affidarono al programma di Microsoft e non a quello di Kildall, per la maggior parte dei clienti troppo costoso. Sulla vicenda del rifiuto di Kildall a IBM sono
emerse in seguito divertenti indiscrezioni che in alcuni casi puzzano però un po’ troppo di leggenda metropolitana. Si narra infatti che quel giorno il presidente della Intergalactic Digital Research fosse in volo su aereo privato e che avesse affidato la scelta alla discrezionalità della moglie Dorothy, incapace di andare oltre a piccole mansioni gestionali all’interno della società. Alcune fonti raccontano addirittura di un colloquio molto breve, dovuto ad un’imminente partenza per le vacanze di Dorothy, troppo impegnata ad organizzare il viaggio per prestare attenzioni ai rappresentanti di Big Blue. La versione ufficiale di Kildall dà un altro tono alla vicenda. I motivi del rifiuto sarebbero da appuntare ad IBM che non avrebbe voluto accollarsi la spesa per il lavoro di adattamento del CP/M (200.000 dollaroni dell’epoca) e avrebbe preteso tutti i diritti sul software. Troppo quindi il distacco tra domanda e offerta, troppo il rischio di un clamoroso buco nell’acqua. Con tutta probabilità la verità sta, come si dice, nel mezzo. IBM era uno dei tanti produttori che avevano iniziato la pionieristica avventura nel nuovo business dei microcomputer e nessuno poteva immaginare quanti consensi avrebbe ottenuto il prodotto proposto a Kildall. Dall’altra parte Kildall aveva già soddisfacenti rapporti con aziende del calibro di Hewlett-Packard, che all’epoca garantivano entrate sicure a dispetto di investimenti potenzialmente incerti. Comunque sia andata veramente la vicenda, passerà alla storia come la più grande occasione mancata del mondo dell’informatica. La Microsoft divenne la prima software house del pianeta, a Kildall restarono solo barzellette impietose e sarcastiche che per un bel periodo circolarono tra gli addetti ai lavori e la certezza che, col senno di poi, un pizzico di spirito d’osservazione in più avrebbe cambiato il suo destino. La vita gli riservò un altro brutto tiro, e fu purtroppo l’ultimo. Entrato in un bar, in California, dove si era trasferito, venne aggredito da un gruppo di motociclisti che non avevano apprezzato uno stemma applicato sul suo giubbotto di pelle, uccidendolo con violenti colpi alla testa. Sebbene la ricostruzione dei fatti sia tuttora incerta, di sicuro Gary Kildall non sarà ricordato dai posteri come una persona nata sotto una buona stella.
55
RITRATTI
IL VOLO SILENZIOSO DEL “CONDOR” Più capi di imputazione di Al Capone, in isolamento come il peggiore dei criminali. L’accusa? Aver “curiosato” nei Pc delle multinazionali più importanti del mondo
56
Scrivere un pezzo su una persona come Kevin Mitnick è un po’ come farlo per un’icona del rock. Non si sa se nel momento in cui è dato alle stampe la persona in oggetto sia in carcere o meno. L’hacker più famoso del mondo, nome in codice El Condor, ha recentemente dovuto imbattersi di nuovo nelle forze dell’ordine quando, di ritorno dal Sud America, è stato fermato dalla polizia all’aeroporto di Atlanta poco dopo essere sceso dall’aereo. Gli agenti, alla vista di tre portatili, diversi dischi rigidi esterni, tre iPhone, quattro cellulari e il kit usato nelle conferenze (tra cui un dispositivo per sottrarre i dati alle tessere con chip a radiofrequenza), si sono “illuminati”, credendo di averlo colto con l’attrezzatura per clonare carte di credito. Ancora oggi Mitnick è lo spauracchio di governo e multinazionali, nonostante recentemente sia passato dall’altra parte della barricata, divenendo CEO dell’azienda di consulenza e sicurezza informatica chiamata Mitnick Security Consulting LLC. Molto probabilmente coloro che per troppi anni gli hanno dato la caccia in lungo e in largo su tutto il territorio statunitense sono convinti che una rondine non faccia per niente primavera. La vita di Kevin sembra la trama di un film e non a caso il regista John Badham si ispirerà alla sua vicenda per la pellicola WarGames, storia di un adolescente con la passione per l’informatica e un pizzico di curiosità di troppo. Nato in California nel 1963, già durante l’adolescenza Mitnick manifesta un’innata propensione per l’elettronica. Timido e silenzioso, a 8 anni è un provetto “radioamatore”, vagabonda per i negozi della città in cerca di pezzi usati e si offre per piccoli lavoretti in cambio di hardware da riciclare. A differenza
dei suoi coetanei preferisce la solitudine della sua stanzetta ai campetti di basket della zona. Una volta scoperti i personal computer e subito dopo i modem, la “carriera” di Kevin è costellata di intrusioni telematiche (da quelle negli archivi degli istituti scolastici fino ai sistemi informatici della compagnia telefonica Pacific Bell) e di arresti per reati più o meno rilevanti. Abbandonata la filosofia hacker, inizia a fare cracking e sceglie come nickname “Condor” dopo aver visto il film “I tre giorni del condor” di Sydney Pollack. Negli anni novanta comincia ad introdursi illegalmente nei sistemi di società sempre più grosse e importanti, sfruttando i numerosi bug che la maggior parte dei sistemi informatici presenta, e soprattutto utilizzando la tecnica della cosiddetta ingegneria sociale, cioè l’acquisizione di informazioni riservate direttamente dalle persone coinvolte. L’FBI, spinto dal governo statunitense posto sotto pressione dalle Big Companies come IBM, Digital, Sun Microsystems e Fujitsu, si mette sulle sue tracce. Il 14 febbraio del 1995 per Mitnick sarà un San Valentino poco romantico: dopo 168 mesi di inseguimenti, intercettazioni e false piste, la corsa di Kevin attraverso le reti di mezzo mondo finisce a Raleigh, piccolo centro nello Stato del North Carolina. Tradito da un confidente che l’ha “venduto” al super esperto di sicurezza Tsutomu Shimomura (consulente del Governo USA) viene arrestato e incarcerato senza processo. Sconterà una condanna di circa quattro anni di reclusione mentre l’opinione pubblica infiammerà il web e la stampa in nome dell’informazione come diritto innegabile dell’uomo. D’altronde Mitnick le informazioni riservate a cui aveva accesso mica le vendeva o barattava, le teneva semplicemente per sè. Dopo il rilascio, nel gennaio del 2000, e l’interdizione all’uso di qualsiasi computer e telefono cellulare, il Senato americano ha richiesto la sua collaborazione per la difesa e la sicurezza degli organismi informatici governativi. Il talento del genio delle intrusioni al servizio della nazione è un prezzo che Mitnick decide di pagare volentieri pur di riacquistare la possibilità di riprendere il volo. Solitario, silenzioso, come quello di un Condor.
57
RITRATTI
LA CULLA DELL’IT La Silicon Valley è una “fetta d’America” che non ha paragoni. L’Information Technology, quella che conta, ha messo radici qui, e impone trend e tendenze al mondo intero
58
È un luogo dove da almeno trent’anni si progettano e si decidono i destini tecnologici del pianeta, un Eldorado che tantissimi imprenditori hanno deciso di conquistare, un Paese dei Balocchi per ingegneri ambiziosi e creativi. Metafore a parte, quando si parla di Silicon Valley ci si riferisce però a un’area ben precisa, che si estende a sud di San Francisco fino a San Jose e che comprende parte delle contee di Santa Clara, San Mateo, Santa Cruz e Alameda. Le basi di quello che sarebbe diventato a breve il “motore economico” degli Stati Uniti furono gettate a Palo Alto negli anni ’40, quando William Hewlett e David Packard, su consiglio di Frederick Terman, allora preside della facoltà di ingegneria di Stanford (l’università che avrà enorme importanza per lo sviluppo successivo dell’economia della Valle), fondarono quella che sarebbe diventata una delle più grandi e famose imprese ad alta intensità tecnologica: la Hewlett-Packard. Terman si era spesso lamentato del fatto che, fino a quel momento, i suoi studenti dovessero recarsi sulla East Coast per trovare lavoro presso le grandi corporation, che erano invece completamente assenti negli stati occidentali, e incentivò i due ricercatori a perseguire i loro progetti. Fu il primo passo, quello decisivo. Da lì in poi, infatti, le cose presero una piega diversa. La Silicon Valley orienterà sempre più i suoi sforzi alla ricerca, sia di base che applicata, e l’economia dell’area tenderà progressivamente a specializzarsi nelle applicazioni dei settori basati sull’elettronica. Si comincerà con i semiconduttori prima e con i microprocessori poi, fino ad arrivare, tra la fine degli anni ’70 e l’inizio degli anni ’80, al Personal Computer e,
più recentemente, a Internet e al nuovo paradigma tecnologico. Molti si domanderanno quale sia la formula magica del successo di una zona che fino a mezzo secolo fa produceva frutta beneficiando delle favorevoli condizioni del clima californiano, e che in un batter d’occhio si è trasformata in feudo di ricchezza come pochi al mondo. Apple, Netscape, Sun Microsystems, Cisco Systems e molte altre tra le più grandi aziende del settore fanno parte di questa sorta di “distretto” dalle sconfinate potenzialità. Il successo della “valle del silicio” dipende essenzialmente da tre fattori. Innanzitutto dalla presenza di imprenditori creativi, che oltre a dedicarsi anima e corpo ai progetti hanno fatto e fanno anche cultura, definendo stili di vita e promuovendo iniziative sociali di rilievo. In secondo luogo, dalla stretta interazione fra aziende e mondo accademico, con alcune delle più prestigiose università del paese (oltre alla già citata Stanford, anche le famosissime Berkley e San Jose e una serie di college che garantiscono una preparazione accademica di tutto rispetto) che ha “offerto” la crème de la crème alle società della “Valle”. Infine, ma aspetto non meno importante, dalla forte predisposizione al rischio e dalla disponibilità di ingenti capitali per finanziare le imprese più coraggiose. Il caso della Silicon Valley, per certi versi unico nel panorama industriale mondiale, ha portato i governi di vari Paesi a tentare di replicarne il successo attraverso interventi di politica industriale che via via hanno dato vita a parchi scientifici e tecnologici e a piani finanziari per la nascita di nuove imprese nei settori high-tech. Questi nobili intenti hanno avuto fortune alterne, ma hanno perlomeno avuto il pregio di far emergere un modello di sviluppo ben preciso. La Silicon Valley, però, forse in virtù di quei fattori che rendono spesso inimitabili “le opere prime” rispetto alle repliche anche ben riuscite, ha saputo innovare costantemente, non fossilizzando le proprie capacità creative e produttive su di un solo prodotto, ma individuando, strada facendo, nuove possibilità di crescita che si sono alimentate e superate a vicenda. Solo così è riuscita a superare momenti di crisi e fasi di empasse che hanno contraddistinto il mercato con l’entrata di una spietata concorrenza all’inizio degli anni ’90.
59
RITRATTI
LIBERO SAPERE IN LIBERO WEB Una semplice tecnologia infiamma la comunità virtuale e accende la diffusione del sapere libera e universale. Ma ci si può fidare del “cervello sociale”?
60
Il Web 2.0, fin dalla sua nascita, si è fondato sui principi di dinamicità e interazione. È un approccio filosofico alla rete che ne connota la dimensione sociale, la condivisione e la partecipazione attiva nella creazione dei contenuti rispetto al mero “consumo” degli stessi. Il content management ha portato in breve ad una diversa gestione dell’informazione, che viene usufruita nell’ambiente stesso in cui nasce e si trasforma. Oggi un’unica tecnologia è in grado di supportare al meglio tutto il ciclo di vita dei contenuti: è l’approccio Wiki, una strada promettente per sviluppare le basi di una conoscenza pubblica e privata che sia il più universale possibile. È proprio in linea con la filosofia di distribuzione libera che nasce Wikipedia (l’unione della parola hawaiana wiki, che significa veloce, e pedia, il suffisso che in greco sta per insegnamento), uno dei più significativi sviluppi di comunità virtuale degli ultimi anni. Richard Stallman credeva fortemente nelle potenzialità del world wide web per lo sviluppo di un’enciclopedia universale online e le sue teorie furono fonte di ispirazione per molti, su tutti James Wales e Larry Sanger che nel 2000 avviarono l’ambizioso progetto Nupedia, che è stato, a tutti gli effetti, il primo caso di contenitore di informazioni aperto e libero. Il processo di redazione, revisione e pubblicazione, tuttavia, risultava lento e macchinoso, con ben sette passaggi obbligatori, monitorati esclusivamente da esperti in materia, prima della pubblicazione. I presupposti per una versione più accessibile, senza barriere all’ingresso, a cui tutti potevano contribuire prevalsero sulla staticità di Nupedia: nel gennaio 2001 la versione
James Wales
inglese di Wikipedia fa il suo approdo sul web. Il software Wiki, a differenza di Nupedia, permetteva però non solo di consultare liberamente le informazioni, ma anche di modificare e aggiungere i contenuti, concedendo a qualsiasi utente la possibilità di interagire attivamente alla creazione e alla redazione delle varie voci. Croce e delizia di Wikipedia, la sua troppa “democraticità” ha fatto piovere sul modello collaborativo della costruzione del sapere numerose critiche, non ultime quelle degli editori specializzati nella produzione di enciclopedie, che ritengono che permettere a chiunque di scrivere il materiale renda tutto molto inaffidabile. Gli stessi utenti potrebbero non essere esperti negli argomenti in questione e Wikipedia non offre nessun tipo di processo formale e sistematico di revisione dei contenuti. La comunità wikipediana, conscia di questi limiti, dopo l’entusiasmo iniziale in cui si preoccupava più della quantità degli articoli che della loro qualità, sta attualmente valutando metodi alternativi per riuscire a definire una linea di condotta ed eventuali forme di protezione tali da garantire maggiore affidabilità dei contenuti e un punto di vista neutrale, pilastro fondamentale della Wiki-filosofia. Bisogna comunque sottolineare anche il lato positivo della faccenda, messo in rilievo in più occasioni non solo dai sostenitori del progetto ma anche da alcuni testate giornalistiche di tutto rispetto. Il tempo ha premiato l’impegno dei molti collaboratori che gratuitamente lavorano per tenere alto il livello delle informazioni pubblicate. A fronte di alcune situazioni critiche, tra cui quelle che comprendono azioni di teppismo telematico, con individui che volontariamente danneggiano i contenuti e arrecano disagio nei lettori, Wikipedia può comunque contare su un team di controllo che nel più breve tempo possibile elimina articoli controversi o ritenuti “deboli” o carenti dal punto di vista informativo. I numeri parlano chiaro: Wikipedia è uno dei dieci siti più visitati del mondo, con milioni di accessi giornalieri, così come milioni sono le voci disponibili e gli utenti registrati. Con 250 lingue differenti (di cui circa 180 attive), è l’enciclopedia più grande del mondo e sulla scia del suo successo hanno preso vita alcuni specifici progetti paralleli, sempre gestiti dalla Wikimedia Foundation (organizzazione no profit che incoraggia la crescita e lo sviluppo di progetti open content, basati sul Wiki): tra questi il Wikizionario, dizionario multilingue, Wikiquote, raccolta di citazioni, e Wikinotizie.
61
RITRATTI
VIVONO TRA NOI Popolano la Rete in cerca di un varco per intrufolarsi nei nostri computer. I malware di ogni genere attaccano in massa, ma le difese non mancano
62
Solo recentemente si è diffusa la consapevolezza dell’importanza di un efficace sistema per difendersi dagli attacchi informatici. L’avvento di Internet, l’uso massiccio dell’e-mail come mezzo per comunicare sia a livello lavorativo che privato e la possibilità di accedere alla Rete tramite pochi semplici passaggi anche da parte degli utenti più giovani o meno esperti, hanno esposto la comunità a rischi più frequenti rispetto al passato. Ma la storia dei virus ha origini remote. Già nel 1945 il matematico John Von Neumann dimostra la possibilità di costruire una macchina o un programma in grado di replicarsi autonomamente, una sorta di prototipo concettuale dei moderni “parassiti del computer”. Più tardi, nel 1959, alcuni programmatori dei Bell Laboratories sviluppano un gioco, Core Wars (La Guerra dei Nuclei), in cui ognuno dei partecipanti scrive un programma in grado di riprodursi e lo nasconde nel computer con lo scopo di distruggere i virus degli altri. Chi, al termine della “battaglia”, può vantare il maggior numero di programmi ancora in circolazione viene decretato il vincitore. Gli stessi creatori concepiscono anche il primo antivirus della storia, chiamato Reeper, in grado di distruggere le copie generate proprio da Core Wars. Se questo può essere considerato a tutti gli effetti un divertente test di laboratorio, nei primi anni ’80 le cose si fanno più serie. È il 1981 quando compare quello che da molti è considerato il primo virus conosciuto, Elk Cloner, che si diffonde nei dischetti di Apple II presentando come segno di riconoscimento alcune rime sullo schermo. Il 1983 è l’anno della coniazione del termine computer virus, che Fred Cohen definisce
come “un programma che può infettare altri programmi, modificandoli in modo da includere una copia possibilmente evoluta di se stesso”. La teoria dei programmi auto-replicanti è ormai di dominio pubblico. Nel gennaio del 1986 due fratelli gestori di un computer shop in Pakistan creano il primo Boot virus, che infetta il Boot sector di qualsiasi floppy disk venga inserito nel computer, con lo scopo di limitare la copia illegale del loro programma. A breve farà la sua apparizione anche il primo File virus della storia, creato dal tedesco Ralph Burger e denominato Virdem, che si replica attaccando una sua copia ad un altro file. La sua creatura attira molto interesse, tanto che alla fine decide di pubblicare un libro che contiene l’intero codice di un virus allora in circolazione, Vienna, lanciando in un certo senso la moda di scrivere e diffondere varianti dello stesso. L’evoluzione continua delle tecniche di contagio e l’ingresso di nuovi “talenti” nella cerchia degli sviluppatori, consentono di creare versioni sempre più particolari di virus informatici. I virus crittografati (che rendono più difficile la riparazione in quanto lasciano solo una piccola porzione di testo in chiaro), i worm (che si diffondono senza l’aiuto di una persona attraverso una rete sfruttando i bug del sistema operativo) fino ad arrivare, negli anni ’90, ai modelli polimorfi, capaci di cambiare ad ogni infezione, e ai macro virus, che utilizzano i meccanismi dei linguaggi di programmazione e attaccano anche i file più comuni. Degno di nota è sicuramente Chernobil, che nel 1998 è stato il primo a riuscire nell’impresa di paralizzare completamente l’hardware dei Pc, costringendo i più sfortunati a rimuovere e sostituire il chip del computer. Negli ultimi dieci anni, come anticipato, migliaia di virus sfruttano la Rete per attaccare i computer di tutto il mondo (come Melissa, che utilizzando il client di posta dell’utente spediva ai primi cinquanta destinatari dell’agenda una copia di se stesso). Le minacce si sono evolute e non riguardano più solo virus e worm, bensì spyware, adware, phishing per non parlare di veri e propri atti di terrorismo informatico. I motivi della massiccia diffusione di file infetti sono da ricercare nelle menti degli autori: alcuni pensano siano economici (con ipotesi che coinvolgono perfino le potenti multinazionali del settore), altri che risiedano solamente nel sadico piacere di infastidire il prossimo. Le teorie sono molte, a noi non resta altro che prevenire. Internet è un’arma a doppio taglio e lo è ancora di più quando vi è disinformazione. Fornendosi di un buon antivirus e soprattutto effettuando gli aggiornamenti del caso, tuttavia, c’è poco da temere. Il lato oscuro della Rete girerà al largo.
63
RITRATTI
L’ALTRA METÀ DELLA MELA Costantemente in competizione con se stesso, con spiccate doti per le imprese impossibili, Steve Wozniak aveva un sogno nel cassetto. Costruire un computer tutto per sé…
64
La coppia scoppia, capita anche nella migliori famiglie. E i fan protestano, increduli, e immaginano quanto bello sarebbe rivedere assieme due incredibili talenti di un certo calibro. Mi perdonino i Litfiba, ma qui stiamo parlando di qualcuno a cui nelle enciclopedie verrà riservato un trattamento ben diverso, perché in questo caso si tratta di pietre miliari dell’informatica moderna. Steve Jobs e Steve Wozniak erano grandi amici, cementati fin dalla giovane età dalla passione per l’elettronica e i computer. Insieme fondarono Apple, un’azienda dal radioso destino, già segnato in partenza da promettenti idee e talento da vendere. Ma questa è un’altra storia. Le luci della ribalta, dopo la scissione, hanno premiato Jobs, forse la parte tecnicamente meno “geniale” del duo, che si diverte ancora a sfrecciare con la sua Porsche nera tra le polverose strade della Silicon Valley. Wozniak, dal canto suo, si è accontentato di una vita tranquilla sulle colline californiane, di un inserimento nella National Inventors Hall Of Fame e di una laurea ad honorem, rimanendo comunque “nel giro” come ricercatore onorario della società e investendo il suo tempo e il suo denaro in fondazioni con scopi didattici. Eppure Woz, come si faceva chiamare dagli amici, è stato l’autentico “braccio” della coppia. Nessuno vuole sottovalutare il lavoro di Jobs, che si è ritagliato il pur autorevole ruolo di “mente”, ma il lavoro di Wozniak ha uno spessore diverso, se non altro perché il cuore del successo, la scheda dell’Apple I, è in toto opera sua. Era il 1975 e già da un paio d’anni l’introverso giovanotto di Cupertino lavorava alla Hewlett-Packard, nel reparto calcolatrici elettroniche. Il suo
Steve Jobs & Steve Wozniak
sogno, però, era quello di progettare un computer da solo, come hobby, per divertirsi e mostrarlo agli amici e senza alcun intento commerciale. Quando visitando una fiera scoprì che la MOS Technology vendeva un nuovo microprocessore, il 6502, a circa venti dollari, non si fece sfuggire l’occasione. Scrisse una versione di Basic adatta e si dedicò giorno e notte al progetto, nel garage di Jobs che tanto aveva stimolato l’amico a credere in quello che stava facendo. Il risultato fu strabiliante per l’epoca: un gioiello tecnologico avanti anni luce rispetto ai modelli Altair che al tempo dominavano il mercato. I primi pezzi della neonata Apple furono venduti a un commerciante locale, colpito dalla completezza del prodotto e dalle evidenti migliorie rispetto ai computer della concorrenza. Con alle spalle un’azienda che nel giro di pochi anni aveva conquistato importanti fette di mercato e che con la quotazione in borsa l’aveva reso milionario, Wozniak nel 1977 sviluppò il modello Apple II, che riuscì a ripetere e superare il suo predecessore. L’entusiasmo di Woz venne spezzato solo nel 1981, quando l’aereo privato su cui viaggiava precipitò al suolo provocandogli una perdita momentanea della memoria e segnando profondamente il suo carattere. Non riuscendo a concentrarsi come una volta negli affari della Apple, lasciò momentaneamente la società, riuscì a laurearsi in informatica e in ingegneria elettrica e colse anche l’occasione per sposarsi. Nel 1983 tentò il ritorno a casa base ma resistette solo fino al 1985, quando ancora convalescente, abbandonò definitivamente la compagnia. Jobs ne fece una questione personale e nonostante anche lui avesse deciso di tagliare (per il momento) i ponti con Apple, non ci pensò due volte a mettere il bastone tra le ruote a Woz, che nel frattempo aveva deciso di fondare la CL9 che si occupava di sviluppare interruttori per l’uso domestico. Da quel momento le strade dei due hanno preso direzioni diverse. Il ragazzo prodigio che leggeva e riprogettava i manuali dei computer in commercio per poi spedire i suoi consigli alle ditte che li producevano, il goliardico hacker che si imbottiva di cibo spazzatura e che si divertiva a compiere assurde telefonate raccontando barzellette sui polacchi alla gente, ha deciso di cambiare aria, recitando metaforicamente il ruolo dell’alieno che una volta giunto sulla Terra e dopo aver mostrato a tutti “come si fa” saluta e se ne torna a casa.
65
RITRATTI
COME TI FREGO IL CONTASCATTI È considerato uno degli hacker più simpatici e bizzarri della storia. Fino a quando ha potuto si è divertito a telefonare, con la stessa disinvoltura, ad amici o alle più alte cariche di Stato
66
Ora è diventato un consulente nell’ambito della sicurezza informatica, ma John Draper, in arte Captain Crunch, prima di arrivare a ritagliarsi un ruolo così importante, di “marachelle” ne ha commesse eccome visto che è considerato il phone freaker più famoso della storia. Il termine, che probabilmente non dice granché, è un gergo per descrivere, nello specifico, l’attività di persone che studiano, sperimentano, o sfruttano, per hobby o utilità, i telefoni, le compagnie telefoniche e i sistemi che li compongono. Nato in California, dopo un’infanzia abbastanza anonima John si unì a un gruppo di ragazzi alla costante ricerca di metodi per non pagare le chiamate, tanto quelle urbane quanto quelle intercontinentali. Il segreto stava tutto in una particolare frequenza (2600 Hz), che corrispondeva a quella emessa da un fischietto giocattolo in regalo in ogni confezione dei famosissimi cereali “Captain Crunch” (da qui il soprannome di Draper). Fu proprio John a capire il motivo: la frequenza era il segnale che le centraline telefoniche della compagnia Bell utilizzavano per identificare il riaggancio della cornetta. Per evitare l’addebito della chiamata bastava effettuare il numero in teleselezione e poi, al momento giusto, fischiare nella cornetta. Grazie a questa scoperta, Draper, esperto di elettronica, cercò di creare uno strumento in grado di riprodurre il segnale generato dal fischietto e creò la prima Blue Box, un piccolo apparecchio elettronico che aveva l’unico scopo di trarre in inganno il contascatti, instradando la chiamata desiderata aggirando il normale meccanismo di commutazione. Per telefonare gratis era necessario che la chiamata iniziale, quella “dirottata”,
John Draper “Captain Crunch”
non fosse soggetta a tariffazione (bastava quindi passare, ad esempio per un qualsiasi numero verde). La prima chiamata fu fatta nella Città del Vaticano, al telefono privato del Papa. La pratica, ovviamente illegale, fu monitorata dall’FBI che sospettava l’esistenza di un traffico delle Blue Box in ambiente malavitoso, per la gestione dei traffici sporchi del crimine organizzato. Draper, rintracciato dalle forze dell’ordine, nel 1971 venne spedito al carcere di Lompoc e condannato a due anni di reclusione e non servirono le giustificazioni mosse a sua difesa, che lo dipingevano come un giovane che telefonava semplicemente per la gioia di telefonare. Uscito di prigione (ci tornerà nel 1974 con l’accusa di aver ricompiuto gli stessi misfatti) scoprì i computer e diventò membro del People Computer Club, dove conobbe Steve Wozniak (che assieme a Jobs smerciò le Blue Boxes agli studenti dei campus universitari che non si potevano permettere di spendere troppi soldi per le telefonate), con il quale instaurò un’amicizia di lunga durata tanto da accettare senza esitazioni, qualche anno dopo, la proposta del giovane patron di casa Apple di coinvolgerlo in alcuni progetti aziendali. Uno dei lavori più importanti “griffati” John Draper fu la realizzazione del primo word processor denominato inizialmente Text Writer e, successivamente, Easy Writer. La biografia di Captain Crunch non riserva altre particolari vicende degne di nota. Quello che più colpisce è sicuramente il suo aspetto da genio ribelle: faccia simpatica, folta barba bianca, un coccodrillo come animale domestico e l’occhio di chi la sa veramente lunga. Uno spirito libero, una sorta di zingaro della Rete, con idee geniali quanto bizzarre. Un esempio? Scoperto un numero riservato della Casa Bianca e la password d’accesso per parlare con il Presidente, telefonò a Richard Nixon per avvertirlo di una crisi imminente in atto a Los Angeles. Alla domanda su quale tipo di crisi si trattasse, Draper rispose: “È finita la carta igienica, Signor Presidente”. È un episodio, forse il più clamoroso, che dimostra come Captain Crunch si divertisse ad eludere ogni tipo di sistema protetto in modo stravagante. Ovviamente, le sue capacità di hackeraggio sono state recentemente “sfruttate” nel verso opposto, per realizzazione di un modello informatico di difesa chiamato Crunch Box.
67
RITRATTI
LA GUERRA DEI BROWSER Sotto i “colpi” della Mozilla Foundation, i prodotti Microsoft perdono terreno e la loro popolarità ne risente. E l’attacco è appena iniziato
68
Dalle ceneri di un codice sorgente può nascere qualcosa e, perché no, anche qualcosa di buono. L’hanno pensata così quelli della Mozilla Organization, quando nel 1998 Netscape Communications Corporation ha deciso di non continuare lo sviluppo del browser Netscape Navigator a causa delle difficoltà incontrate dopo il lancio di Internet Explorer da parte di Microsoft, e rilasciando i codici sorgente con licenza “aperta” sotto il nome di Open Netscape. Il risultato del lavoro “preso in carico” da Mozilla fu Mozilla Suite, un pacchetto di programmi comprendente un browser, un client di posta elettronica, un editor di pagnie HTML e un client IRC. Nell’estate del 2003 American Online (AOL, il più grande internet service provider del mondo) ha deciso di dismettere Netscape Communications Corporation ritirandosi dal progetto Mozilla, che aveva fino a quel punto appoggiato finanziariamente, e favorendo la nascita di Mozilla Foundation, un’organizzazione non-profit con sede in California che prese a tutti gli effetti il posto di Mozilla Organization, estendendo però le sue attività, soprattutto quelle che precedentemente erano copyright di Netscape. Costituita per continuare a supportare a livello organizzativo, economico e legale la direzione del progetto open source Mozilla, la fondazione coordina il rilascio delle versioni dei software, stabilisce le linee guida alla base del processo di sviluppo, mantiene l’infrastruttura base necessaria e offre lavoro a diversi programmatori regolarmente stipendiati e a un alto numero di volontari fedeli alla causa. I finanziamenti di aziende e privati hanno visto la partecipazione della Sun Microsystems (assegnino di 2 milioni
di dollari) e del creatore di Lotus 1-2-3 Mitch Kapor, che si è candidato alla Direzione Generale della Fondazione donando 300mila dollari. L’obiettivo del progetto è sempre stato quello di produrre il miglior browser sulla piazza e contrastare il dominio di Explorer che da sempre monopolizza il mercato mondiale con altissime percentuali di penetrazione. Firefox, giunto di recente alla versione 3.0, ha conquistato nonostante tutto un quinto dei navigatori (con più di tre punti percentuali guadagnati nel 2008), ed è un web browser che fa della facilità d’uso, della stabilità, della personalizzazione, della sicurezza e della velocità le sue peculiarità principali. Anticipando il “nemico” attraverso piccoli ma fondamentali espedienti (che hanno poi costretto Explorer a imitare le sue trovate), Firefox regala all’utente la più semplice navigazione possibile, integrando la sua interfaccia con funzionalità di ricerca avanzate (come la navigazione a schede, il ripristino della sessione in caso di chiusura improvvisa e la protezione a salvaguardia delle informazioni più delicate). Ma Mozilla Foundation è anche Thunderbird, altro programma rigorosamente open source. Si tratta di un client di posta elettronica, sviluppato parallelamente al “fratello maggiore” Firefox con lo scopo (guarda un po’) di concorrere con Outlook Express, programma gratuito fornito da Microsoft assieme al sistema operativo Windows. Nonostante Gates e compari non lo ritengano un avversario particolarmente competitivo, Thunderbird ha superato le più rosee aspettative con 2 milioni di download dopo il lancio della sua prima versione. Thunderbird rende la gestione delle e-mail più sicura, più veloce e più semplice di quanto non lo sia mai stata sfruttando le migliori implementazioni di funzionalità come i filtri intelligenti per la posta indesiderata, un correttore ortografico integrato, il supporto alle estensioni, e molto altro ancora. Recentemente Mozilla Foundation ha creato il progetto Lightning, per unire le funzioni di Thunderbird a quelle del suo terzo celebre software, Mozilla Sunbird, che, gestendo i calendari, permette a Thunderbird di entrare in concorrenza diretta con la versione completa di Outlook, fornita a pagamento da Microsoft nel pacchetto Office, diventando così ancora più appetibile per i clienti aziendali.
69
RITRATTI
SCEGLI, CLICCA E ACQUISTA Un immenso centro commerciale dove non esistono code alle casse e resse ai parcheggi. Su Amazon basta avere le idee chiare e un mouse a portata di mano
70
Sembra una storia come tante altre e per certi aspetti lo è. Inizia in un garage adibito a magazzino, con tre computer, un capitale di investimento di 300 mila dollari e un’intuizione davvero azzeccata: usare Internet per l’acquisto di libri online. Fino a qui non fingiamo di essere stati colpiti dall’originalità del copione, che sembra entrare di diritto nella categoria “solita minestra da sogno americano della New economy”. L’unicità di Amazon.com, infatti, non sta tanto nella trama, ormai un classico dell’era del digitale, ma nella sua capacità di sopravvivere all’inesorabile tramonto di molte delle compagnie dell’e-commerce, “scoppiate” con la stessa facilità con cui erano spuntate sul mercato. Niente visita al cimitero delle dot.com, quindi, ma una sorta di fedeltà alla visione originaria di Internet e alle tradizionali tecniche di vendita che la avvicinano più alla “old” che alla New economy (procedure snelle di acquisto e vendita, politiche di costo azzeccate, per fare degli esempi). Investire quasi tutto in nuove tecnologie e innovazione, trasferirne i vantaggi ai consumatori e ritagliarsi in questo modo un ruolo di protagonista centrale rimanendo sempre un passo avanti rispetto alla concorrenza. E ancora perseguire un approccio al consumatore che fa del contatto diretto e della totale personalizzazione dell’offerta il punto di partenza e di arrivo di ogni transazione. Se Amazon è oggi la vetrina virtuale più grande del pianeta, in grado di offrire continuamente nuove sezioni all’interno delle quali l’acquirente può divertirsi con l’one click shopping (acquistare solo premendo il bottone del mouse), molto si deve anche alla determinazione e al coraggio del suo fondatore, Jeff Bezos.
Jeff Bezos
Proclamato Uomo dell’anno 1999 dal prestigioso Time Magazine, è uno dei più famosi Re Mida della Net Economy. Gioviale e allegro, Bezos ha aperto i battenti di Amazon nel luglio del 1995 e ha sempre affrontato i momenti più critici della propria azienda con il sorriso sulle labbra e la giusta concentrazione. I primi tempi, infatti, non sembravano promettere bene, con pesanti perdite a causa degli ingenti investimenti in sviluppo e qualche errore di troppo nella gestione delle spese, che portarono solo tardivamente alla produzione di utile. Nonostante tutto, Amazon.com è sempre rimasta l’impresa più evoluta del mondo in ambito di e-commerce. Nessuno si opporrà se diciamo che il commercio elettronico sia nato e si imponga ancora oggi come prodotto “made in Amazon”. La compagnia rimane tuttora un grande centro di sperimentazione e laboratorio di nuovi modi e idee di far business in Rete. All’interno del famoso bazar si può trovare di tutto o quasi: libri (ovviamente), cd e dvd, software, elettronica, oggetti da cucina, ferramenta, giocattoli, articoli da giardino, abbigliamento e articoli sportivi, gastronomia, gioielli e orologi, cosmetici, strumenti musicali e l’elenco potrebbe continuare ancora per un bel po’. Sarà pure un’azienda con un occhio sempre attento alle proprie finanze, ma Amazon ha alcuni punti di forza che la rendono un cavallo davvero vincente: la tecnologia avanzata, un patrimonio di conoscenze ed esperienze frutto di più di un decennio di presenza sul campo, un grande portafoglio di clienti fedeli e non per ultimo l’integrazione e la partnership con rivenditori e società specializzate nel commercio elettronico e nei servizi ad esso complementari. Le ultime trovate di Bezos & Co. hanno conquistato di recente anche l’Europa, ma non ancora l’Italia. Le cause sono diverse: da una parte l’azienda statunitense punta molto più alla crescita in Asia e ad investimenti diversi che non all’immediata conquista del Bel Paese che, dal canto suo, non offre sicuramente le condizioni ideali, con infrastrutture e organizzazioni aziendali non ancora pronte per il grande salto a cui si aggiunge un approccio dei consumatori all’e-commerce ancora troppo timido, seppur in costante crescita
71
PRODOTTI
72
Hanno fatto la storia, intromettendosi a piccoli passi nella quotidianitĂ di mezzo mondo o impattando come un treno in corsa sulle abitudini dei consumatori. Hanno cambiato radicalmente le regole del gioco, lanciando mode e tendenze. Buttati nella mischia per creare valore e un ritorno economico per le aziende che, spesso con nemmeno cosĂŹ tanta convinzione, hanno investito nei loro progetti. Prodotti che sono finiti per diventare, prima che importanti successi commerciali, delle vere icone della modernitĂ .
73
PRODOTTI
1968: STORIA DEL PRIMO TOPO AL POTERE Ha recentemente compiuto quarant’anni lo strumento che ha contribuito a ridurre la distanza tra uomo e macchina
74
Lo spirito generoso di Douglas Engelbart attorno al 1950 sentì il bisogno di dover fare qualcosa per il progresso dell’umanità. L’inventore statunitense, tuttora vivo e vegeto, avrebbe potuto essere facilmente scambiato per un visionario idealista, ma come spesso capita sono poi i fatti a dimostrare quanto prezioso sale in zucca possiedano certe perle rare della nostra società. Tutto ha inizio durante il secondo conflitto mondiale: Engelbart, arruolato nell’esercito statunitense come tecnico radar nelle Filippine, legge un articolo dal titolo inequivocabile (As We May Think1) che ne influenzerà pensieri, opere e filosofia di vita. L’autore, Vannevar Bush, argomenta sul senso della scienza e dei suoi impieghi in pace e in guerra. Il giovane Shawn, qualche anno più tardi e con una laurea in ingegneria elettrica sulle spalle, comincia a riflettere sull’utilità di uno spazio di informazione dove le persone possano formulare ed organizzare le loro idee con incredibile velocità e flessibilità, semplicemente sedendosi davanti a un monitor. Nel 1963 fonda con altri colleghi l’Augmentation Research Center, il proprio personale laboratorio di ricerca, lanciando il progetto NLS, un elaborato sistema di gruppo ipermedia la cui essenza deriva dall’idea di computer come estensione delle capacità cognitiva e comunicativa dell’uomo. A conti fatti l’NLS rappresentò la prima implementazione di successo dell’ipertesto, che facilitava in questo caso la creazione di librerie digitali e le raccolte di documenti. Durante la Joint Computer Conference al Convention Center di San Francisco, nel 1968, davanti agli occhi attenti di oltre mille esperti del settore, Engelbart presenta,
tra le altre cose, lo strumento che per molti rappresenta tuttora un fedele compagno di banco: il mouse. Le basi per l’utilizzo dell’odierno personal computer sono state poste proprio quel giorno e i filmati dell’evento sono disponibili in Rete2. Tecnicamente parlando, il mouse di Engelbart è rifinito da una scocca in legno e riceve le informazioni di movimento inviate da due rotelle metalliche che rappresentano gli assi cartesiani orizzontali e verticali. Lo spazio a due dimensioni viene così esplorato attraverso l’estensione elettronica. Grazie all’evoluzione del progetto e alla collaborazione con Bill English, il prodotto, inizialmente rifiutato da IBM, viene successivamente introdotto con successo all’interno di Xerox (col nome di “Bug”), in dotazione ai personal computer aziendali. La definitiva consacrazione del progetto-mouse è però del 1984, quando Steve Jobs, incuriosito dalle potenzialità dello strumento, lo integra a Lisa, il primo Macintosh della storia: il piccolo “topolino” fa il suo vero debutto in società ed entra nelle case degli utenti. Dal punto di vista etimologico, la disputa è tra l’associazione spontanea del dispositivo al roditore per semplice somiglianza fisica (teoria che va per la maggiore), o risultato di un acronimo (per alcuni Manually Operated User Selection Equipment, per altri Machine Operator’s Unique Spotting Equipment). I modelli si susseguono fino ad arrivare alle più recenti versioni di puntatori ottici e wireless. L’evoluzione e lo sviluppo lasciano però lentamente il posto a una diversa concezione del mouse che, seppur sempre legato alla sua funzione di interfaccia tra uomo e computer, ha assunto negli ultimi tempi lo status di gadget in grado di personalizzare con stile la nostra vita quotidiana. Le aziende produttrici stupiscono proponendo coloratissimi modelli di design e perfino dispositivi muniti di un minuscolo schermo LCD integrato. La vita del topolino più intelligente del mondo (non se la prenda il buon vecchio Mickey Mouse), è destinata prima o poi a spegnersi per lasciare il posto a sistemi di controllo e gestione sempre più interattivi? La risposta è prevedibile ed è data dalla storia stessa di qualsiasi tecnologia che difficilmente riesce a sostenere il passo frenetico e costante del progresso. Le nuove frontiere permettono già un’interazione in tre dimensioni e in alcuni casi anche il puntamento diretto, bypassando di fatto il ruolo di questo piccolo grande oggettino da scrivania che è comunque rimasto sulla cresta dell’onda per più di 40 anni. Chapeau.
1
Come potremmo pensare
2
http://sloan.stanford.edu/MouseSite/1968Demo.html
75
PRODOTTI
PLAYSTORIA Dal Lontano Oriente a milioni di abitazioni in tutto il mondo, il feticcio culturale che ha cambiato le “regole del gioco”
76
L’ormai lontano 1994 sarà per sempre ricordato dagli appassionati di calcio del Bel Paese come un anno da incubo. L’Italia perde la finale dei campionati mondiali di calcio ai rigori contro il Brasile e il contraccolpo psicologico trascina milioni di tifosi nella depressione più assoluta, alimentata ulteriormente da un’ infausta notizia che giunge dal Sol Levante. Esce infatti a Natale la console per videogiochi che rivoluzionerà il mercato: la PlayStation “griffata” Sony. A differenza dei più fortunati amici nipponici, invece, noi italiani non potremo nemmeno provare il gusto di giocare la rivincita virtuale e dovremo accontentarci, ancora per un po’, del vecchio e buon Personal Computer. Nel maggio del 1995, ad appena sei mesi dal lancio, la PlayStation ha già fatto breccia nel cuore di oltre un milione di giocatori giapponesi, mentre sia gli USA che l’Europa stanno ancora a guardare. Ma è solo questione di tempo. Il sistema a 32 bit basato su CD esce in tutto il mondo quattro mesi dopo e nel giro di un anno la distribuzione raggiunge i 9 milioni di unità. Il successo planetario della console fa sorridere soprattutto se si pensa che il progetto PlayStation è stato il frutto di un misunderstanding (o forse qualcosa di più) tra Sony e Nintendo. Partito inizialmente come semplice collaborazione tra le due potenze (un drive di supporto di Sony per lo sviluppo della console Super Nintendo chiamato “SNES-CD”), il rapporto si estinse tra mille polemiche per problemi, guarda caso, fondamentalmente economici. Sony, nonostante le cause legali che cercarono di sbarrarle la strada, decise di sfruttare il lavoro fatto fino a quel momento per dedicarsi al lancio di una console vera e
propria. La fortuna strizzò l’occhio al colosso giapponese agevolato anche dal calo di popolarità della tecnologia SNES di Nintendo, divenuta ormai obsoleta, e riuscì nel suo intento, inaugurando una nuova era nel settore dei videogiochi. Per molti fan di tutto il mondo il merito è di Ken Kutaragi, conosciuto ai più con il soprannome di “Papà PlayStation”, attualmente presidente onorario della Sony, che ha partecipato al team di sviluppo del primo e storico modello. Nonostante l’indiscusso contributo di Kutaragi alla causa, è indubbio che uno dei fattori dello straordinario successo della PlayStation in occidente sia da attribuirsi al costo irrisorio di una modifica hardware che consentiva di utilizzare sulla macchina CD duplicati con un semplice masterizzatore, rendendo notevolmente più economico l’approvvigionamento di materiale videoludico, rispetto all’acquisto dei corrispettivi “originali”. Sta di fatto che, modifica hardware o meno, il fenomeno PlayStation ha segnato e sta segnando tuttora un pezzo della storia dell’entertainment domestico. Passano gli anni, nuove versioni appassionano milioni di utenti (la Playstation 3 ha recentemente seguito, in ordine di tempo, i modelli PSOne, PS2 e PSP), e il dispositivo è ancora sulla cresta dell’onda, diverte, appassiona e incanta, nonostante la concorrenza spietata di altrettanto validi competitor come Microsoft (con la console XBox 360) e Nintendo (con le super interattive Wii e DS). PlayStation è stata la prima piattaforma ad investire nella grafica tridimensionale, regalando ai videogiochi la spinta necessaria a condurli nell’era moderna, per non dimenticare le periferiche introdotte successivamente al lancio del primo modello, come il joypad DualShock, con una configurazione dei comandi (due levette analogiche integrate e l’effetto vibrazione) in grado di adattarsi ad ogni tipo di gioco. In tempi recenti hanno fatto la loro comparsa anche nuovi accessori, come l’EyeToy, i microfoni SingStar e le chitarre Guitar Hero, che certificano, se ancora ce ne fosse bisogno, come Sony non abbia mai abbandonato lo sviluppo dei propri prodotti, aprendo il mondo dei giochi ad un pubblico sempre più ampio e regalando nuove esperienze di aggregazione intuitive e divertenti.
77
PRODOTTI
iPOD GENERATION È un’icona culturale moderna, è l’Mp3 player per antonomasia e averlo è diventato quasi un must. L’iPod fa tendenza…merito di Apple?
78
Se ce l’hai sei “in”, se non ce l’hai sei “out”. La gamma di uno dei prodotti più venduti degli ultimi anni, l’iPod di casa Macintosh, si arricchisce costantemente di nuovi modelli, che si ergono a idoli incontrastati dei giovani (e anche meno giovani) di mezzo mondo e rappresentano sempre più una fonte inesauribile di incassi per la società di Cupertino. Le mitiche cuffiette bianche, dal design inconfondibile, appaiono oramai ovunque: le ritroviamo nelle orecchie dei pendolari o degli scolari sui mezzi pubblici, in quelle dei runner e degli atleti che vogliono ritagliarsi un momento di speciale concentrazione o ancora in quelle di chi ha soltanto deciso di essere fashion. Lanciato nel 2001, il lettore di musica digitale che è divenuto in poco tempo una pedina fondamentale nella strategia commerciale di Apple, ha creato fin da subito una schiera ben nutrita di fan affezionati raggiungendo il boom di vendite vero e proprio nel 2004 (quasi 8 milioni e mezzo di dispositivi venduti nell’arco dell’anno). Il mercato tenta fin da subito e in più modi di seguire a ruota la fortunata esperienza iPod, ma il piccolo di casa Apple si differenzia dagli altri lettori per una serie di caratteristiche che lo rendono apparentemente invincibile: l’elevata capacità di memorizzazione (in costante ascesa, modello dopo modello) rispetto alle dimensioni complessive e l’integrazione con il software iTunes per la gestione dei contenuti, che con il tempo permetterà di acquistare i brani o interi album online (rappresentando il “lato buono” degli Mp3 in Rete) e che diventerà di pari passo famoso (a torto o a ragione) quanto il suo illustre compagno d’avventure. Il settore si sviluppa velocemente negli anni, si intravedono
le prime custodie e primi accessori e comincia a profilarsi all’orizzonte quella che poi diverrà la fiorente industria del “made for iPod”, alimentata da migliaia di prodotti, dai sistemi audio ai porta carta igienica (ebbene sì), dai case antropomorfi alle interfacce per auto. Ma Apple merita davvero tutta la fama e il riconoscimento per la creazione del gioiellino da 160 milioni di pezzi1 (a conti fatti più del 73% del mercato statunitense)? C’è chi non la pensa così: il riproduttore di musica per antonomasia, l’Mp3 più famoso al mondo non sarebbe nato proprio nella Silicon Valley, bensì dalla mente di un pionieristico sconosciuto inglese di 50 anni che porta il nome di Kane Kramer. L’antenato dell’iPod, battezzato dal suo creatore “IXI”, poteva caricare al massimo tre minuti e mezzo di musica, usava un semplice chip come supporto e aveva le dimensioni di una carta di credito. Ma le inconfondibili caratteristiche di quello che sarebbe diventato un simbolo della Apple c’erano tutte: tasto centrale di controllo, forma rettangolare con i bordi arrotondati, schermo di navigazione. Nel 1979, Kramer, all’epoca 23enne, compilò un brevetto internazionale e mise in piedi una società per sviluppare l’idea, contando sulla rapida evoluzione dei sistemi di stoccaggio dei dati. Ma poco dopo l’azienda si frantumò e l’inglese si trovò senza le 60mila sterline necessarie a rinnovare il brevetto depositato in 120 Paesi. Il progetto, così, divenne di pubblica proprietà. La società di Steve Jobs non ha fatto altro che rilevare i brevetti scaduti di Kramer (che sta ora negoziando con Apple dei risarcimenti che coprano almeno il design dell’iPod) e applicarci il simbolo della mela morsicata. A parte gli aspetti progettuali, messi recentemente in discussione dal caso Kramer, è cosa certa che la popolarità del lettore Mp3 più acquistato del globo derivi anche da indiscutibili meriti legati esclusivamente alla capacità di Jobs & Co. di credere nella tecnologia digitale come nuovo strumento per l’ascolto “portatile” della musica e di sviluppare un prodotto di alta qualità che ha aggredito il mercato innovando e respingendo l’agguerrita concorrenza di chi ha quasi sempre giocato la carta di un prezzo inferiore pur di ostacolare la folle corsa del prodotto. Il lettore della Apple ha stravolto il concetto di personalizzazione dell’esperienza musicale e del divertimento che ora è davvero totale. I gusti, le passioni e le emozioni di ogni utente vengono trasferiti con uno stile e un design inconfondibile ovunque ci si trovi e in qualsiasi momento lo si voglia. Compatto e solido, l’iPod ha già probabilmente oltrepassato la sottile linea che separa un prodotto di successo da una vera e proprio rivoluzione generazionale.
1
Conferenza Steve Jobs, California, settembre 2008
79
PRODOTTI
L’INVASIONE DEI DISCHI METALLICI Girano da sempre sui lettori di tutto il pianeta. Supportano il nostro lavoro, divertono, emozionano…e sono dei veri “duri”
80
Hanno una lunga storia alle spalle e ancora oggi rappresentano uno strumento per alcuni utile, per altri indispensabile, nel vivere quotidiano di milioni di persone. Stiamo parlando del CD-ROM e del DVD, i due supporti di memorizzazione di informazione digitale utilizzati tipicamente nei Personal Computer ma anche in altri ambiti come l’hi-fi, l’home video e l’entertainment. Il CD-ROM, acronimo di Compact Disc Read Only Memory (Memoria a sola lettura su Compact Disc), ha imposto la sua supremazia sugli ormai desueti supporti di memorizzazione magnetici grazie ad alcune importanti caratteristiche tecniche che l’hanno reso per molto tempo la prima scelta per qualsiasi esigenza di archiviazione e immagazzinamento di dati, suoni, immagini e filmati. Simile a un Compact Disc audio (quest’ultimo inventato congiuntamente nel 1979 da Sony e Philips), il CD-ROM è stato sempre molto apprezzato per la sua funzionalità, il basso costo, la grande capienza e la sicurezza garantita alle informazioni. La praticità di questo supporto, unita alla sua relativa affidabilità, ne hanno decretato un successo tale da convincere le industrie del settore a investire ingenti capitali nella ricerca in questo campo, con il lancio del primo modello ad uso commerciale nel 1982, sempre per mano di Philips. Il tempo ha ovviamente giocato il ruolo del tiranno che relega in un angolo, col suo lento incedere, tutte le tecnologie che non riescono a restare al passo con la frenetica corsa dell’innovazione (soprattutto in un settore come l’IT), ma il CD-ROM ha retto bene l’urto dei nuovi supporti di memorizzazione (prima i DVD-ROM, successivamente i supporti
d’archiviazione USB), mantenendo saldo il ruolo di comprimario di tutto rispetto. Un normale CD-ROM può essere solamente letto, e sebbene la sua evoluzione abbia prodotto anche supporti riscrivibili (CD-RW), è palese che il “disco compatto” non ha oramai più tante carte da giocare nei confronti dei moderni supporti di massa portatili e di dimensioni molto contenute (qualche centimetro in lunghezza e intorno al centimetro in larghezza) che si collegano al computer mediante la comune porta USB. Difficilmente però il CD-ROM scomparirà in un battibaleno: l’invasione di penne USB e chiavette di ogni genere porterà sicuramente ad un suo utilizzo sempre più blando, sia dal punto di vista della semplice archiviazione, sia da quello strettamente musicale (molte le aziende automobilistiche o i lettori hi-fi che supportano già lo standard USB, per esempio). Ma possiamo star certi che la “scorza metallica” del caro CD-ROM non ci lascerà a brevissimo. Discorso a parte meritano i DVD, con un utilizzo volto inizialmente al settore video per uso domestico e solo successivamente all’archiviazione. Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell’elettronica di consumo tra cui Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer (il cosiddetto DVD forum). L’intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla concorrenza fra formati che si erano presentati al tempo dell’introduzione delle videocassette per uso domestico. Inizialmente pensato in tre formati diversi, il supporto DVD ha ottenuto un grande successo già dopo il suo imminente lancio, nel 1997. Lo standard che, guarda caso, non è riuscito a imporsi è stato il DVD-Audio, che aveva la pretesa di sostituire il CD Audio (ancora lui, l’immortale!) grazie a una maggiore fedeltà e capacità. Seguendo il classico iter dei “cugini”, il DVD ha poi arricchito la sua offerta con i modelli per la registrazione (i DVD-ROM) e quelli riscrivibili (DVD-RW). Più recente è l’introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e con una capienza di circa 9 GB di informazioni: il formato DVD+R Dual Layer (DVD-R DL).
81
PRODOTTI
PARLA CHE TI PASSA Nonostante l’ostilità delle multinazionali della telefonia, la voce corre sempre di più sulla Rete e il portafogli ringrazia. Skype ha aperto le danze. Il dado è tratto
82
Per il principio secondo cui a grandi invenzioni corrispondono anche grandi rivoluzioni, l’avvento della tecnologia VoIP (Voice Over Ip) ha portato una ventata di giacobino entusiasmo tra i sostenitori del partito “gratis è molto meglio che a pagamento”. I portabandiera di questo diffuso movimento internazionale sono Janus Friis e Niklas Zennström, due sviluppatori scandinavi che amano farsi ricordare più per i software che hanno immesso sul mercato piuttosto che per i loro cognomi poco orecchiabili. Tralasciando il client Kazaa, che pur si è distinto al fianco di Napster nella massa di sistemi peer-to-peer per lo scambio di file musicali (e non solo) in Rete, la coppia si è resa famosa per un’altra applicazione che, nonostante la sua apparente semplicità, ha regalato gioie a internauti e dolori alle compagnie telefoniche. Stiamo parlando di Skype, un programma proprietario freeware (quindi almeno in parte gratuito) di messaggistica istantanea e VoIP. Introdotto nel 2002, in Italia è stato argomento di dibattito durante le “adunate” del Grillo Parlante, il comico Beppe Grillo (sempre lui!), che, nel mezzo delle sue invettive contro le multinazionali delle telecomunicazioni, ha avuto perlomeno il merito di aver diffuso in parte dell’opinione pubblica nazionale la funzionalità e l’efficienza del meccanismo. Accanto alle tradizionali funzioni dei più comuni client (chat, trasferimento di file), Skype ha sviluppato la sua notorietà sulla possibilità di telefonare gratuitamente (da computer a computer) o a costi irrisori (da computer a telefono fisso o cellulare, con il servizio SkypeOut) semplicemente sfruttando il collegamento a Internet. È la logica del Voice Over Ip, che permette di eseguire il traffico vocale
Janus Friis & Niklas Zennström
completamente online, digitalizzando le chiamate e veicolando i messaggi sotto forma di pacchetti di dati in Rete. Il sistema è la falsariga di un network peer-to-peer (con i pro e i contro che questo comporta), con le informazioni che viaggiano orizzontalmente sui computer degli utenti e non in verticale su grossi server centrali. La comodità e la praticità del servizio ha conquistato milioni di persone (si parla di un totale di circa 340 milioni di aficionados in tutto il globo), grazie anche a un virale passaparola mediatico. Qualsiasi computer con collegamento Internet a banda larga e munito di un microfono (integrato o a parte) o di un telefono che supporta il protocollo VoIP, permette a due persone in qualunque angolo del pianeta di “chiacchierare” senza sborsare un centesimo (quando entrambi sono connessi), o di pagare solo l’ultimo tratto della comunicazione (quando passa sulla normale rete telefonica del Paese in oggetto), nel caso di telefonata a numeri fissi o mobili. Recentemente, la funzione di videochiamata e la modalità SkypeIn, che consente l’acquisto di un numero telefonico di un qualsiasi Paese da collegare all’account del programma (utile nel caso in cui un’impresa italiana, ad esempio, necessiti di poter contattare ed essere contattata da una sua filiale estera a tariffe vantaggiose) hanno esteso i servizi disponibili. Nel 2005 eBay, il più grande sito di aste online, ha acquistato l’azienda Skype Technologics per 2.6 miliardi di dollari, per permettere un dialogo diretto tra venditore e acquirente durante le fasi di contrattazione. A fronte di tanto successo bisogna sottolineare come il sistema sia soggetto ad alcune critiche. Sfruttando la famosa porta 80 (la stessa dedicata alla navigazione in Internet che permette di evitare i firewall), infatti, insidie come worm o trojan potrebbero agire indisturbate in barba ai navigatori; inoltre, basandosi sulle regole del file sharing, una piccola parte delle risorse di banda degli utenti potrebbero essere sfruttate come nodo dalla “comunità” per migliorare il funzionamento del sistema, mettendo a repentaglio le prestazioni dei computer connessi. Per questi e altri motivi, è stato addirittura creato un software, SkypeKiller, che offre la possibilità di rimuovere Skype da tutti i Pc delle reti aziendali o degli uffici pubblici direttamente dal terminale di amministrazione, per prevenire effetti indesiderati dovuti a un massiccio utilizzo dello strumento.
83
PRODOTTI
SQUILLO TAGLIA SMALL Dopo i primi dinosaurici modelli, Motorola lancia lo StarTac, il primo a miniaturizzare il concetto di telefono cellulare
84
In trentacinque anni di evoluzione è “dimagrito”, si è fatto bello, è divenuto uno status symbol. Ne è passata di acqua sotto i ponti dai primi timidi squilli, nel lontano 1973, ma il telefono cellulare ha via via incrementato la sua notorietà e il suo notevole impatto sulle abitudini e i costumi delle persone. Ispirato dalla serie televisiva Star Trek e dalle allora avveniristiche strumentazioni di bordo, Martin Cooper, direttore in Motorola, lanciò il progetto per lo sviluppo del capostipite della fortunata serie di prodotti che farà la fortuna dell’azienda, il DynaTac (DYNamic Adaptive Total Area Coverage). Con un’autonomia di trentacinque minuti e “solo” (parametri dell’epoca) dieci ore per la ricarica, il cellulare pesava più di un chilo ed era grande 24 centimetri. La prima telefonata, dicono i ben informati, Cooper la fece al suo eterno rivale in affari, Joel Engel dei Bell Labs di At&t. Solo un decennio più tardi, nel 1983, iniziano le prime offerte commerciali, anche se il prezzo d’acquisto del DynaTac (circa 4mila dollari) ne circoscrive l’utilizzo a ricchi e potenti. Con il trascorrere degli anni e grazie a una maggiore accessibilità economica, tuttavia, la percentuale di diffusione del “magico orpello” non ha più conosciuto soste. Popolazioni sognanti l’hanno prima ammirato nel 1987 nella pellicola di Oliver Stone Wall Street, con il premio Oscar Michael Douglas alle prese con “il mattone” durante una scena sulla spiaggia, e in seguito eletto a incontrastato dominatore della scena sociale. Uno dei più celebri, se non il più celebre dei telefoni cellulari della storia è senza ombra di dubbio lo StarTac di Motorola, che può essere considerato a ragione il primo ad aver coniugato design e funzionalità.
Con il caratteristico sistema di apertura e chiusura a conchiglia, che caratterizzerà buona parte della produzione successiva, lo StarTac ha dimostrato come l’oggetto fashion possa essere portatore di valori come qualità e multifunzionalità. Capace di avvertire l’utente dell’arrivo delle chiamate o SMS tramite la vibrazione (oggi ci fa sorridere quanto certe funzioni siano retrò, ma all’epoca si trattava di vere rivoluzioni), il gioiello di Motorola ha finalmente circoscritto il concetto di “portatile” (che in certi casi deve trascendere il significato di “trasportabile”) divenendo, con i suoi 88 grammi di peso, il telefono cellulare più piccolo e più leggero del mondo. Nel 2005, la prestigiosa rivista statunitense Pc World l’ha piazzato non a caso al sesto posto della classifica dei 50 migliori gadget di tutti i tempi, premiando con tutta probabilità la sua capacità “tascabile” di portare a spasso contatti e voce. Popolare come pochi altri (è infatti apparso in numerose pellicole Holliwoodiane), lo StarTac rimarrà nei ricordi di molti, se non altro perché ha segnato l’inizio di un percorso, anche di stile, che potremmo chiamare di “democratizzazione del telefonino”, che ha collocato Motorola nell’élite dei produttori del settore, almeno fino all’arrivo di Nokia. Il telefono cellulare, non vi è dubbio, ha cambiato il nostro modo di comunicare, di prendere appuntamenti, di memorizzare, di parlare e di scrivere, e perfino di divorziare o illuminare le stanze buie. Facciamo molta fatica a rinunciarci, ora che è sempre più una porta d’accesso non solo al traffico voce, ma anche al Web e alle e-mail. Stime recenti parlano di più di tre miliardi di dispositivi in circolazione, con una penetrazione nei Paesi industrializzati che supera il cento per cento (in Italia si arriva al 150 per cento). È paradossale, tuttavia, come proprio Motorola, che si è distinta per più di un’intera generazione tra i leader del mercato della telefonia mobile, recentemente abbia deciso di mettere in vendita la divisione di telefonini e smartphone per dedicarsi alle tecnologie di Rete e ai servizi, sotto le pressioni di alcuni importanti investitori e a causa di ingenti perdite. Per la serie i primi saranno gli ultimi…
85
PRODOTTI
CHI HA PAURA DEL MULO CATTIVO? La Rete pullula di navigatori a caccia di musica e video a titolo gratuito. La legge è incerta, le major del disco e del cinema piangono. Colpa (anche) di un animaletto innocente
86
Chi è senza peccato scagli la prima pietra. Se il mondo della musica e quello del cinema risentono di un calo di vendite considerevole, la colpa è un po’ di tutti e non solo di chi se la prende. La pirateria è divenuta un modo di essere e non più esclusivamente un modo di fare. Troppo facilmente e troppo economicamente ci si può procurare una copia ben riuscita del proprio film preferito o dell’ultima fatica discografica del cantante del momento. Si fa un grande parlare del fenomeno del Peer-to-Peer (lo scambio online, in buona parte illegale, di file di vario genere) che però è solo la punta dell’iceberg. Sotto alla gelida superficie di un mare mosso per definizione, nascono ed evolvono altri aspetti, di matrice sociale e culturale, che contribuiscono a rendere il tutto ancora più complicato. Inizialmente il fenomeno pirateria era pratica di pochi, soprattutto dei più giovani, che sono soliti recepire con maggiore facilità e in anticipo le tendenze meno ortodosse, non fosse per le ridotte possibilità di potersi permettere costanti investimenti nel negozio sotto casa. Dagli spogliatoi di scuole e impianti sportivi, lo “smercio” illegale di cd e dvd è arrivato fino agli uffici di aziende e degli enti pubblici, coinvolgendo attori di ogni genere, età e classe sociale. Uno dei protagonisti assoluti di questa fiera del “ciò che è mio è tuo e siamo tutti contenti” è un software open source (libero) di cui si sente molto parlare e che si è distinto nell’affollata offerta di prodotti per il file sharing in Rete: eMule. Il ciuco più famoso (ma per alcuni, ahimè, anche più lento) del Web si è aggiudicato la palma di “migliore in campo” offrendo al popolo di Internet un mix di innovative
funzioni (per soddisfare le esigenze dei più “smanettoni” e permettere un’elevata personalizzazione) e un’interfaccia grafica semplice, simpatica e accattivante. Il progetto eMule nasce nel 2002 quando il programmatore tedesco Hendrik Breitkreuz, insoddisfatto del client eDonkey2000, raduna intorno a sé altri sviluppatori con lo scopo di creare un programma eDonkeycompatibile ma con caratteristiche più innovative. Al raggiungimento del suo quinto compleanno, il software supera i 300 milioni di download in tutto il mondo, una cifra che non sembra destinata a fermarsi da qui in avanti. Il funzionamento di eMule prevede la possibilità per l’utente di potersi collegare sia alla rete eDonkey, formata da client e server, sia alla rete Kad, creata dal software stesso e priva di server. Quest’ultimi vengono sfruttati alla scopo di caricare le liste file degli utenti connessi e consentire la ricerca del materiale presente ma mai per il download, che avviene sempre in maniera diretta tra i computer collegati. Ai punti di forza (oltre al doppio metodo di ricerca anche la superiore probabilità di scovare file rari e una stabilità maggiore rispetto alle alternative disponibili) corrispondono giocoforza anche altrettanti punti di debolezza: le maggiori critiche mosse a eMule derivano dai lunghi tempi di collegamento necessari per un migliore funzionamento del programma (non sono consigliate le visite “toccata e fuga”) che obbligano in un certo modo l’utente a dover fare i conti con attese a volte estenuanti per il download, e dalla distribuzione di materiale protetto da copyright, avversa da case discografiche, cinematografiche e simili. È la vexata questio per eccellenza, un argomento di dibattito che imperversa da anni e coinvolge istituzioni, politici e opinion leader. La legge italiana proibisce la condivisione di file soggetti a diritti d’autore, ma il fenomeno non accenna a rallentare. Inizialmente la comunità insorgeva per i prezzi troppo alti di compact, film e programmi in commercio, ma una volta stabiliti criteri diversi di approccio commerciale, la “musica” non è certo cambiata e l’ingordigia collettiva non ha mai messo fine alla fame di file. Negli ultimi tempi sta emergendo una tendenza che non esclude di associare un corrispettivo economico (ovviamente basso) a una proposta qualitativamente adeguata. Tra il mondo free e il mondo pay, quindi, non esisterebbero distanze abissali, ma sostanzialmente solo uno scarto generazionale che influenzerebbe le scelte di spesa.
87
PRODOTTI
FACCE DA FACEBOOK Ritrovarsi online come a scuola, dialogare e parlare di sé, creare e sviluppare nuovi contatti… ma occhio alla privacy. Pregi e difetti del social network per eccellenza
88
Solo ai posteri sarà concesso stabilire con precisione il peso e la rilevanza di alcuni fenomeni, attribuendo loro la qualifica di “moda passeggera” o etichettandoli come “evoluzioni epocali”. Chi li vive in prima persona può solo azzardare un’analisi di massima ma difficilmente obiettiva. Cosa diranno allora gli storici di domani dei social network? Quando si iniziò a parlare di Web 2.0, cioè di quelle tecnologie che abilitano gli utenti a creare e distribuire contenuti “autoprodotti” ci si riferiva soprattutto a prodotti come i weblog e Wikipedia, ma lo strepitoso successo di siti come MySpace prima, e Facebook poi, ha dirottato l’attenzione dei media (e gli investimenti del venture capital) sulle infinite potenzialità delle “reti sociali”. Facebook in particolare ha raggiunto recentemente cifre da record, con oltre 100 milioni di utenti iscritti (in Italia il boom è rappresentato da crescite annue anche del 961 per cento) e un valore stimato attorno ai 16 miliardi di dollari. Mark Zuckerberg, deus ex machina e attuale amministratore delegato della società, ha avuto la brillante idea, all’epoca dei suoi studi ad Harvard, di creare un network in grado di tenere in contatto gli studenti universitari ai quali successivamente si aggiunsero quelli dei licei e delle scuole di tutto il mondo. Il nome deriva da quello degli annuari accademici americani con le foto di ogni singolo membro (facebooks appunto), distribuiti a tutti gli studenti e al personale della facoltà come un mezzo per conoscere le persone del campus. Zuckerberg, vista la facilità con cui la sua pensata aveva fatto presa su un numero sempre più elevato di utenti, ha deciso di “aprire” il network ai programmatori
Mark Zuckerberg
indipendenti, che adesso possono creare dei programmi ad hoc per integrare nella piattaforma ogni genere di applicazioni, nonché (è qui viene il bello o il brutto a seconda dei punti di vista) l’attivazione di un servizio che consente a ognuno di essere aggiornato in tempo reale su quanto stiano facendo i suoi amici di network. Ecco allora che Facebook è diventato quello che tutti (o quasi) conosciamo oggi, un enorme portale che ospita risorse di ogni genere (foto, video, testi, confidenze private, musica, e molto altro) che gli utenti pubblicano in pagine personali condividendole con gruppi di conoscenti virtuali, e uno spazio in cui incontrarsi, dialogare e comunicare liberamente. Facebook si articola in una miriade di microgruppi, simulando la quotidianità delle nostre relazioni sociali, che uniscono, ad esempio, tutti i compagni di classe di una determinata scuola e di un particolare anno, i fan di un gruppo musicale o i sostenitori di un preciso movimento d’opinione. Chi cerca trova con un’alta probabilità contatti persi negli anni, ex fidanzati, amori estivi mai dimenticati, amici di un tempo volati in chissà quale parte del mondo. Facebook facilita rimpatriate e incontri, feste a tema e raduni con un ampio seguito di partecipanti. E Zuckerberg? Il giovane classe ’84 si tiene stretta la sua preziosa invenzione, e si dice contento dell’inesauribile voglia di comunicare della gente, valore universale che rappresenta la chiave del successo di Facebook. Il miliardario più giovane del mondo resiste per il momento alle offerte della maggiori società che vogliono mettere le mani sul progetto, che vive (e bene) grazie ai massicci introiti pubblicitari e alle inserzioni di centinaia di migliaia di aziende. Fatturati da record, che aumentano giorno dopo giorno il valore del network. Non mancano comunque le critiche. Facebook è un palcoscenico in cui spesso ribalta e retroscena coincidono, e nascono polemiche sulla reale protezione dei dati personali (più volte assicurata dal team di Zuckerberg) e sull’effettiva possibilità che le proprie informazioni vengano eliminate una volta deciso di uscire dalla comunità. Per coloro che compilano i profili con eccessiva “disinvoltura”, poi, c’è il pericolo di osservatori poco discreti (aziende in primis) che possono farsi un’idea forse troppo “completa” di un probabile candidato da aggiungere alle proprie fila. Non per ultima, infine, la questione della privacy, che secondo alcuni sarebbe messa in crisi dalla funzionalità che monitora forse eccessivamente il lato privato degli utenti, le loro azioni e i loro sentimenti. Vinceranno i sostenitori o i detrattori? Agli storici di domani la risposta.
89
PRODOTTI
CARO AMICO TI SCRIVO… Copie d’archivio, fac-simili perfettamente funzionanti, sosia poco “originali” ma non nei contenuti. Qualsiasi sia lo scopo, il masterizzatore lascia il segno
90
Da semplice operaio, diligente e laborioso, a importante “addetto ai lavori” in parte responsabile (volente o meno) di uno dei fenomeni più importanti della contemporaneità: la pirateria. Il masterizzatore ha conquistato la scena con il ruolo che forse meno gli apparteneva, quello del complice silenzioso e dell’instancabile “socio” nelle attività illegali di diffusione di materiale coperto da diritto d’autore. È bene sottolineare, tuttavia, che la filosofia che teorizza la condivisione come fenomeno necessario e universale (giusta o sbagliata che sia) è nata successivamente all’introduzione del dispositivo hardware in questione, che ha inizialmente svolto il compito per cui era stato creato (trasferire dati di qualsiasi genere su un supporto dalla grande capacità, il CD-ROM) e solo in seguito ha influito sul nostro modo di intendere l’approvvigionamento e la distribuzione di musica e contenuti protetti da copyright. La storia del processo di masterizzazione è di recente sviluppo. Archiviare dati, informazioni, documenti o altro è sempre stato un bisogno dell’uomo nell’era digitale dove i bit hanno lentamente sostituito la carta come strumento per la catalogazione. Dai dati ai file mp3 e ai video il passo è stato tuttavia breve. I primi masterizzatori per CD risalgono agli inizi degli anni ’90. Con velocità di scrittura limitate (2x) e costi altissimi, il loro commercio era ristretto ai pochi che se li potevano permettere e che per un certo periodo hanno rappresentato la “casta dei privilegiati” (almeno fino a quando il prodotto non è stato commercializzato in massa). La qualità delle prime versioni pirata dei compact disc musicali risentivano di alcune problematiche legate al processo di masterizzazione,
operazione inizialmente molto delicata. Nei primi modelli il laser dello strumento richiedeva un invio dei dati costante, e bastava poco per interferire con la fase di scrittura che spesso si arrestava causando la perdita del supporto (in gergo il disco si “bruciava” ed era da cestinare). Tuttavia, con l’introduzione dei masterizzatori dotati di tecnologia burn proof o safe link, che riusciva a salvare il CD anche in caso di interruzione nell’affluenza dei dati, il problema è stato risolto. A questo va aggiunta una vera impennata nell’aumento esponenziale delle velocità di scrittura e delle capacità dei prodotti, sempre più precisi, disponibili sul mercato, che ha provocato un conseguente incremento della domanda e un abbassamento dei prezzi. Dopo avere raggiunto qualità fino a qualche anno prima impensabili, hanno fatto la loro comparsa i DVD, supporti digitali sui quali potevano essere scritti fino a 4,7 Gb di dati, promossi sul mercato anche dalle maggiori case cinematografiche, che contribuirono ben presto a farne il nuovo standard per l’alta definizione. Come in passato accadde per i compact disc, anche con la nascita dei DVD le case di produzione di apparecchi elettronici ed informatici destinati all’uso domestico cominciarono a costruire i primi masterizzatori e dvd recorder, ovviamente venduti a prezzi non proprio competitivi e affetti dalla “sindrome dell’errore di scrittura” che, tuttavia, è andata progressivamente scomparendo, tanto che oggi disponiamo di una vasta gamma di modelli tutti affidabilissimi. L’evoluzione non si è ancora arrestata: basta pensare che Sony ha da poco immesso sul mercato, contestualmente al lancio della PlayStation 3, i Blu-Ray Disc, dei supporti in grado di contenere fino a 25 Gb di dati, e i costruttori hanno già sfornato i primi masterizzatori Blu-Ray. La storia, quindi, ricomincia da dove non era (mai) terminata. Al masterizzatore rimane incollato quel ruolo che non hai mai voluto interpretare del tutto, quel misto di capro espiatorio e “untore” dell’era moderna che lo vede spesso soggetto di critiche ingiustificate. Se gli scaffali abbondano di dispositivi di ultima generazione e di software in grado di bypassare le originali protezioni poste a difesa dei contenuti proprietari, la colpa va ricercata altrove, senza nascondersi dietro un masterizzatore.
91
PRODOTTI
LA GRANDE NAVE HA SPENTO I MOTORI Netscape, storico primo amore per milioni di internauti, ha chiuso recentemente i battenti. Ma dalle sue ceneri è spuntato Firefox. Explorer è avvisato
92
I primi passi nelle allora placide acque della giovane Internet gli utenti li hanno mossi con Netscape Navigator, il capostipite di tutti i web browser. La storia inizia nell’aprile del 1994 quando Jim Clark, Mark Andreessen e altri programmatori, che avevano collaborato alla creazione del primo prototipo di browser estremamente innovativo chiamato Mosaic (per permettere di esplorare liberamente le pagine Internet con il mouse), fondarono la Mosaic Communications, poi divenuta Netscape Communications Corporation. Sei mesi dopo, l’azienda mise a punto un browser dapprima noto semplicemente come Netscape, e poi chiamato Netscape Navigator. Distribuito in shareware agli utenti Internet (in forma di prova per un periodo di tempo in previsione di un successivo acquisto), si diffuse molto rapidamente. L’azienda metteva a disposizione anche una copia a pagamento, che differiva da quella gratuita per l’assistenza tecnica garantita. In breve tempo il browser Navigator divenne praticamente lo standard per la navigazione su Internet: nel giro di un anno e mezzo dal lancio, veniva utilizzato da oltre 40 milioni di persone, vale a dire da circa il 75% del mercato mondiale. Nello stesso periodo Netscape elaborò diversi software per server, affinché le grandi compagnie fossero in grado di creare reti locali per la gestione di database, per la creazione di pagine Web e per la conduzione di attività di commercio elettronico. Le vendite andarono benissimo: l’azienda balzò dal fatturato di 1,4 milioni di dollari del 1994 agli 80,7 milioni dell’anno successivo. La sua quotazione in continua ascesa venne però bloccata nel 1995 quando il gigante del software, Microsoft
Corporation, lanciò un proprio browser, battezzato Internet Explorer, che subito si profilò come un forte concorrente di Navigator. Poiché Microsoft lo distribuiva, oltre che in Rete, anche come shareware nel pacchetto del sistema operativo Windows 95, Microsoft venne accusata da Netscape di concorrenza sleale e citata in giudizio. Per la società di Andreessen e soci, tuttavia, era appena cominciata la lenta parabola che avrebbe portato Netscape ad un pensionamento anticipato. Agli inizi del 1998, per vincere la crescente competizione con Microsoft, Netscape ha deciso di rendere l’ultima versione standard di Navigator disponibile in shareware, anziché limitarsi alla vendita. Per guadagnare il favore dell’opinione pubblica, e incrementare le visite al sito Web di Netscape, Netcenter, con i conseguenti guadagni in termini di pubblicità che questo comportava, la società ha inoltre promesso di cedere liberamente il codice sorgente ai programmatori capaci di migliorarne sostanzialmente le funzionalità e l’efficacia. Nel novembre dello stesso anno America Online (AOL), il principale provider per Internet statunitense, ha annunciato l’acquisizione di Netscape Communications Corporation, ed ha iniziato a lavorare sulla conversione della sua web suite di punta Netscape Communicator in un software open-source, sotto un nuovo nome: Mozilla. AOL ha giocato un ruolo significativo nel lancio del browser Netscape 6, il primo browser Mozilla-based (rilasciato nel 2000), ed ha continuato a fare da fondamenta per le iniziative di sviluppo e marketing del browser Netscape-branded. Nel 2003 AOL decise però di ritirarsi dal Progetto Mozilla, contribuendo (anche economicamente) a creare la Mozilla Foundation (che sostituì la precedente Mozilla Organization), e, dalla versione 8 in avanti, lo sviluppo del Netscape Navigator fu interamente basato sul codice del più noto Mozilla Firefox. Sebbene gruppi interni ad AOL abbiano investito una grande quantità di tempo ed energia nel tentativo di far rivivere Netscape Navigator, questi sforzi non hanno avuto successo nell’erodere quote di mercato nei confronti di Microsoft Internet Explorer. Lo sviluppo dei browser marchiati Netscape è terminato nel 2008 (con la versione 9) ma rivive, sotto mentite spoglie, in Mozilla e nel suo Firefox, degno erede di un prodotto che ha permesso a moltissima gente di accedere a Internet e cominciare a familiarizzare con la Rete.
93
TECNOLOGIE
94
Il progresso rappresenta da sempre il miglioramento complessivo dell’umanità e della società in cui viviamo. Come in una sorta di organismo che muta e si evolve in continuazione, la ricerca e lo sviluppo di soluzioni e metodi rivoluzionari in grado di facilitare l’esistenza e il rapporto tra le parti in gioco, influiscono sulla capacità della specie di controllare ed adattare il proprio ambiente. Ogni nuova tecnologia è un grande balzo in avanti, modifica lo status quo e spesso genera benessere e assuefazione. Come faremmo ora senza molte di loro?
95
TECNOLOGIE
“DENTE BLU” IL CONQUISTATORE Il nome BluetoothTM accomuna i popoli della gelida Scandinavia di un lontano passato e miliardi di utenti di tutto il mondo. Parola d’ordine? Comunicare
96
L’associazione tra un antico re vichingo e un moderno protocollo di trasmissione potrebbe non risultare facilmente immediata, visti i quasi mille anni che li separano, nemmeno agli occhi (e alle orecchie) degli storici più arguti. Eppure una piccola parte della tecnologia che negli ultimi anni ha contribuito a rivoluzionare la comunicazione tra dispositivi è legata a doppio filo alle vicende e alle origini di un conquistatore scandinavo del decimo secolo. Stiamo parlando dello standard BluetoothTM da una parte, e di King Harold Blåtand (in inglese Harold Bluetooth) dall’altra. La specifica industriale BluetoothTM, usata per collegare a breve distanza cellulari, auricolari, stampanti e computer, è stata battezzata con un nome alquanto singolare (bluetooth significa letteralmente in lingua anglosassone “dente blu”) proprio in onore di Re Aroldo I di Danimarca (911-986). Aroldo aveva la carnagione e i capelli scuri, caratteristiche poco consone al suo popolo di appartenenza, e ai suoi contemporanei apparse raro come un blåtand (“un dente blu”, per l’appunto ), secondo un modo di dire del luogo. Aroldo il Dente Blu fu il primo sovrano a unificare il Regno di Danimarca, allora frammentato in una miriade di villaggi e città-stato. La sua capacità di unire e far comunicare popoli diversi ha ispirato la scelta del nome per il protocollo che riesce a “far parlare tra loro” dispositivi diversi. La storia e la basi dell’odierno BluetoothTM le getta Ericsson (azienda svedese, tanto per restare in zona), che nel 1994 inizia una ricerca volta inizialmente a creare una nuova interfaccia di comunicazione a onde radio e a basso costo tra i cellulari e i diversi accessori. Nel giro di qualche anno il progetto si fa via
via più ambizioso e l’obiettivo diventa quello di realizzare una vera e propria nuova tecnologia in grado di far comunicare qualsiasi tipo di dispositivo a breve distanza svincolandosi dai più datati e spesso ingombranti cavi di connessione. La posta in palio è alta, ed Ericsson decide di allargare il gruppo di sviluppo: nasce il SIG (Special Interest Group) che prevede la collaborazione di colossi del settore come Nokia, Intel, IBM e Toshiba, ognuno con il suo particolare e specifico apporto al progetto in base alle competenze. Oggi il SIG conta tra le sue fila oltre 6.000 aziende che si impegnano e collaborano per migliorare ogni giorno questa tecnologia innovativa, proponendo nuove e interessanti soluzioni di applicazione. Nel luglio del 1999 escono sul mercato le prime specifiche tecniche del neonato BluetoothTM seguite a ruota da aggiornamenti e nuove versioni fino ad arrivare alla recente diffusione di massa del protocollo. Il radio microchip alla base della tecnologia BluetoothTM viene attualmente installato su una moltitudine di apparecchi (più di un miliardo di dispositivi venduti all’anno da qui al 2010, secondo una recente stima del SIG). Cellulari, computer, auricolari, mouse: la presenza della tecnologia Bluetooth è data ormai per scontata. Così scontata che forse non ci rendiamo conto di quanto oggi questo tipo di connessione senza fili sia diffusa e di quanto sia entrata di prepotenza nel nostro stile di vita. Dalla comunicazione all’informatica, dalla medicina ai videogiochi, dall’intrattenimento ai trasporti: sempre più utenti si sono resi conto di quanto utile sia lo standard BluetoothTM e di come abbia semplificato molte operazioni. Telefonare mentre si è alla guida in maniera completamente sicura e mantenendo le mani sul volante, ascoltare la musica grazie a cuffie wireless senza per contro che ne risenta la qualità e molto altro ancora. Il futuro è già scritto: la tecnologia BluetoothTM continuerà ad invadere il mercato e a conquistare le abitudini della gente. Quindi, parafrasando il celebre detto popolare: Lunga vita al Re!Lunga vita al Re Dente Blu.
97
TECNOLOGIE
FEBBRE MP3. IL CONTAGIO CORRE SUL FILO Nato come semplice standard audio, il formato digitale compresso ha scatenato una dilagante caccia al file, trasformando le Rete in un grande Juke Box
98
La digitalizzazione dell’audio è stato sicuramente uno dei momenti che più hanno segnato la recente storia della musica. Da quando, però, questa innovazione ha letteralmente “influenzato” anche il rapporto domestico con la musica, uscendo dal solo ambito professionale, l’argomento è divenuto un vero e proprio fenomeno sociale. La possibilità, a portata di tutti, esperti e meno esperti, di reperire brani o anche interi album in Internet anziché nel classico negozio di dischi, è da qualche tempo l’ultima frontiera per i navigatori della Rete. Tutto questo è dovuto all’avvento di una tecnologia che sta tracciando, nel giro di pochissimi anni, una netta linea di demarcazione tra passato, presente e futuro. Stiamo parlando, ovviamente, dell’MP3 (Mpeg Layer III), uno standard di compressione per file audio arrivata come un fulmine a ciel sereno a mischiare (per alcuni bene, per altri male) le carte del mercato musicale. Le sue origini risalgono agli anni Ottanta, quando l’industria dell’audio e del video avvertì la necessità di definire nuovi standard che potessero facilitare l’avvento della progressiva digitalizzazione delle informazioni. Fu così che al Fraunhofer Institut, in Germania, un gruppo si pose l’obiettivo di creare un formato di file audio molto compresso ma di alta qualità e brevettò l’MP3 nel 1989 proponendolo successivamente all’ISO (International Standards Organization). Il gruppo di ricerca che si formò sotto la guida dell’italiano Leonardo Chiariglione (in seguito definito il “padre dell’MP3”) con il nome di MPEG (Moving Picture Experts Group) ottenne un grande successo con la presentazione del primo standard MPEG-1, le cui specifiche
pubblicate dall’ISO nel 1993 prevedevano tre diversi algoritmi di compressione e decompressione dei segnale, detti Layer. Nel 1994 è il turno dell’MPEG-2, anch’esso diviso in tre Layer, che diviene operativo nel 1997 con significative innovazioni rispetto alla precedente versione. È il Layer 3 di questo standard che riscuoterà il maggiore successo, proprio per il suo formato aperto, le cui caratteristiche sono a disposizione di chiunque ne faccia richiesta, e per la sua straordinaria attitudine di poter “viaggiare” su canali di trasmissione lenti e a capacità limitata come quelli di Internet. Quando è stato introdotto, la musica online era distribuita o in file di piccole dimensioni, ma di scarsissima qualità audio, oppure in file di buona qualità ma troppo pesanti. L’ascolto della musica via Internet non era dunque agevole. L’MP3 ha cambiato tutto, rendendo possibile una qualità audio molto più elevata pur mantenendo accettabile la dimensione dei file. L’Mpeg Layer III ha subito preso piede ed è riuscito ad inserirsi nel settore meglio dei suoi predecessori. Tecnicamente la sua utilità fondamentale è quella di permettere di economizzare le informazioni necessarie per tramutare in bit le onde sonore che compongono un brano musicale. L’algoritmo usato dall’MP3 si basa su un modello psicoacustico dell’orecchio umano elaborato informaticamente al Fraunhofer Institut; in base a questi studi l’MP3 opera una serie di tagli delle frequenze che non verrebbero comunque percepite, perché coperte da altre, risparmiando quindi notevolmente in termini di spazio di memorizzazione. I primi segni di “contagio globale” in rete sono dovuti al celebre Winamp, il primo lettore di MP3 che abbia avuto diffusione su Internet, sviluppato nel 1997 da Justin Frankel e Dmitry Boldyrev. In una decina d’anni hanno visto la luce nuovi strumenti, nuovi codificatori, estrattori da CD, e così si è venuto a creare un mercato vivace e competitivo. MP3 è diventato il termine più cercato nei motori di ricerca, ed è tuttora il più usato, trasferito, condiviso, decodificato e copiato tra i formati musicali in Internet anche e soprattutto in relazione al discusso mondo del peer to peer, un sistema (poco legale) di condivisione di file in rete. Non c’è ombra di dubbio: il fenomeno MP3 non è stata l’ennesima promessa mancata, bensì una variabile in grado di determinare sensibili cambiamenti nel costume dell’intera società.
99
TECNOLOGIE
DATEMI UNA PORTA E COLLEGHERÒ IL MONDO Fino a pochi anni fa la comunicazione tra periferiche e computer era un’operazione abbastanza ostica. Ma qualcuno finalmente parlò un linguaggio universale e semplice
100
Lo standard USB (Universal Serial Bus) viene comunemente considerato una delle innovazioni più popolari degli ultimi tempi in ambito informatico. Rilasciato nel 1995, con il debutto ufficiale nella produzione nel 1997 e con Windows 98 come primo sistema operativo a supportare la nuova tecnologia, questo tipo di porta di comunicazione seriale ha notevolmente semplificato l’interfaccia tra il Personal Computer e gli innumerevoli dispositivi ad esso collegabili come mouse, scanner, fotocamere, webcam, drive portatili e molti altri. Oltre alla praticità, lo standard di connessione ha migliorato la funzionalità plug ‘n play, risultando particolarmente veloce soprattutto nella versione USB 2.0 (che tra non molto verrà tra l’altro sostituita dalla potente 3.0) e consentendo di collegare e scollegare alcuni dispositivi senza dover necessariamente riavviare il computer (hot swap), in quanto subito rilevati dal sistema. Poco tempo dopo la sua comparsa, l’USB è divenuto immediatamente uno standard quasi universale, al punto da sostituire le precedenti modalità di connettività (porte seriali e parallele) che andavano per la maggiore. I principali produttori hanno collettivamente deciso di aderire alla nuova tecnologia, che si è quindi imposta sulle più antiquate porte di comunicazione. Oggi, non si può concepire un computer senza almeno quattro porte USB (con la possibilità di accrescere il numero attraverso un dispositivo HUB USB), perché ciò provocherebbe più di qualche grattacapo agli utenti che hanno ormai assimilato e fatto proprie le molteplici qualità del sistema. Per i componenti multimediali, ormai, lo standard USB è il metodo di collegamento più utilizzato mentre
nelle stampanti sopravvivono ancora molti modelli dotati anche di porta parallela per questioni di compatibilità. Incredibile successo ha riscosso la famosissima penna USB, un oggetto piccolo quanto indispensabile per tutti coloro che col Pc ci lavorano e ci convivono, che ha ispirato col tempo gadget e nuove periferiche, alcune volte dalle funzionalità alquanto particolari. Si passa dal dispositivo rinfresca e riscalda bevande alla ventola contro l’afa, dalla comodissima radio FM al depuratore d’aria contro chi soffre particolarmente il fumo del collega d’ufficio. Il marchio USB gode quindi di ampio riconoscimento, perché sinonimo di ottime prestazioni e di immediatezza d’uso. All’interno del computer, l’USB non ha rimpiazzato lo standard ATA (Advanced Technology Attachment) che consente trasferimenti dei dati molto più veloci ed è utilizzato principalmente per le memorie di massa dove è ancora considerata l’interfaccia più comune e la meno costosa per tale applicazione, e nemmeno lo standard SCSI (Small Computer System Interface) progettato per realizzare il trasferimento di dati fra diversi dispositivi interni di un computer (detti devices) collegati fra di loro tramite un bus. Per contro l’USB viene molto utilizzato negli hard disk esterni dove si preferisce privilegiare la praticità di poter collegare e scollegare a caldo il componente rispetto alla velocità di una connessione tipo ATA. USB, infine, non ha ancora totalmente rimpiazzato il connettore PS/2 (il connettore Mini-DIN della tastiera), perché molti produttori preferiscono mantenerlo in auge per consentire agli utenti di poter utilizzare le economiche tastiere che prevedono il suo utilizzo per collegarsi al computer. L’evoluzione dello standard USB si concentra su due strade. La prima prevede un innalzamento della velocità massima di trasferimento con la versione 3.0 (4.8 Gbps, dieci volte superiori al 2.0) che avrà, tra le altre cose, la capacità di ricevere e inviare dati simultaneamente. La seconda, chiamata wireless USB (WUSB), prevede l’abbandono dei cavi per la comunicazione tramite onde radio, ed è un’estensione senza fili per l’USB dotata di elevata ampiezza di banda a corto raggio, che combina la velocità dei dispositivi USB con la praticità della tecnologia wireless.
101
TECNOLOGIE
LASSÙ QUALCUNO CI GUARDA Ci dice sempre dove siamo, ci indica la retta via (ma non fa il moralista) e osserva tutti i nostri movimenti. Il GPS, al giorno d’oggi, è indispensabile
102
Una sera di qualche anno fa Beppe Grillo, durante una delle sue apparizioni più riuscite, descrisse all’incirca così una tecnologia che cominciava a entrare, seppur ancora in una forma primitiva, nelle abitudini della gente: “Girare per le strade di Roma è un bel problema, per fortuna che adesso non devo più fermarmi a chiedere le informazioni ai passanti perché ho il GPS. Solo che il problema è un altro: al navigatore non basta dire di dover andare in via De Gasperi. Lui vuole il nome, di De Gasperi. Quindi mi devo comunque fermare a chiedere: come cavolo si chiama De Gasperi?!”. Nonostante la battuta, il comico genovese presentava al grande pubblico uno dei vari campi di applicazione del Global Positioning System (GPS), il sistema di individuazione della posizione. La progettazione del GPS parte ufficialmente, per scopi esclusivamente militari, nel 1963, in piena guerra fredda, e viene finanziata dal Dipartimento della Difesa USA e classificata top secret per almeno 15 anni. Lo sviluppo tecnologico ha spesso tratto sostanziali benefici e forti accelerazioni dalle ricerche in campo militare. Il primo satellite viene messo in orbita nel 1978 ma è solo con il completamento della seconda versione del GPS (tra il 1989 e il 1994), che il governo statunitense decide di rendere pubblici i parametri di accesso per sfruttare il sistema anche per scopi civile. I satelliti, già dotati di un apposito canale radio sfruttabile autonomamente, denominato L1 (o appunto canale civile), rappresentano con ogni probabilità il più sofisticato e complesso sistema tecnologico permanente mai creato dal genere umano e un punto di svolta epocale per la sicurezza pubblica e privata. Il sistema
GPS è attualmente composto da 24 satelliti operativi e 3 satelliti latenti (in attesa di entrare in funzione in caso di bisogno), che orbitano a più di 20000 chilometri dalla Terra e sono controllati da cinque stazioni dislocate in vari angoli del pianeta. Le potenzialità del sistema GPS sono enormi, in parte ancora oggi da scoprire e affinare, dalla sicurezza personale a quella lavorativa, dalla protezione civile alla navigazione stradale, aerea e marittima. La crescente miniaturizzazione dei circuiti elettronici ha favorito l’avvento sul mercato di ricevitori GPS a costi molto contenuti e prestazioni impensabili fino a pochi anni fa. Il GPS funziona in ogni angolo del pianeta (anche se alcuni ostacoli di tipo ambientale possono limitarne l’utilizzo), 24 ore su 24, giorno e notte, 365 giorni all’anno e con qualsiasi condizione meteo e permette la localizzazione precisa con uno scarto d’errore massimo di circa 15, 20 metri. Il suo funzionamento si basa sul principio della triangolazione spaziale che gli strumenti compiono conoscendo la posizione dei satelliti e il tempo di ricezione del segnale. Il servizio è attualmente gratuito, a meno di sorprese inaspettate e ogni decisione è nelle mani del legittimo proprietario, il Governo degli Stati Uniti. Anche l’ESA (Ente Spaziale Europeo) sta lavorando al proprio sistema di posizionamento satellitare, chiamato Galileo. Gli ingenti investimenti privati a supporto del progetto, che dovrebbe divenire operativo a cavallo tra il 2010 e il 2011, impongono però un accesso a pagamento per il servizio, cosa che ha provocato più di qualche malumore nella comunità scientifica. Il navigatore satellitare personale rappresenta ad oggi l’applicazione più diffusa della tecnologia, un cult che si sta imponendo con modelli sempre più precisi e performanti. I dispositivi di questo genere possono essere degli All-in-One portatili (con ricevitore incorporato, display, processore e altoparlante), o adattati alla navigazione satellitare attraverso un ricevitore GPS esterno e un software dedicato per gestire la cartografia. Esistono tuttavia altri utilizzi che sfruttano le potenzialità del sistema a scopi preventivi. Negli States, ad esempio, stanno avendo un enorme successo particolari orologi GPS per bambini, che consentono alle madri di controllare gli spostamenti del figlio quando è all’aperto e per il prossimo futuro quasi tutti i telefoni cellulari saranno provvisti di moduli satellitari.
103
TECNOLOGIE
PENSIERI E PAROLE, NERO SU BIANCO Molto prima del rivoluzionario avvento della Rete, i documenti viaggiavano via cavo grazie a uno strumento che ha radici lontane: il fax
104
La necessità di trovare uno standard per la trasmissione dei dati ha origini remote ed è un leit motiv costante della storia dell’umanità e del progresso tecnologico. A metà del diciannovesimo secolo, la posta e il telegrafo erano gli unici strumenti che permettevano di comunicare, anche a livello intercontinentale, in maniera organizzata ma ancora poco pratica. La necessità di poter fare di più era sentita, soprattutto nei casi in cui si volesse trasmettere direttamente scritti e immagini. I primi tentativi di realizzare una macchina che riproducesse, attraverso l’utilizzo di una rete di telecomunicazione, “facsimili” di scrittura risalgono alla metà dell’ ‘800: nel 1843 lo scozzese Alexander Bain brevettò il Recording Telegraph, uno strumento in grado di inviare immagini su linee telegrafiche, mentre nel 1856 fu presentato il primo vero dispositivo mai realizzato in paragonabile all’odierno fax, il pantelegrafo dell’abate Giovanni Caselli. Il pantelegrafo era un grande telaio di ghisa composto da due montanti fra i quali oscillava un pendolo della lunghezza di due metri. Per poter funzionare l’apparecchio aveva bisogno di un gemello il cui pendolo doveva muoversi in perfetta sincronia con l’altro. Il messaggio, scritto su un foglio di stagno, veniva letto da uno stiletto di platino (che fungeva da conduttore) mosso dal pendolo e quindi tradotto in segnali e trasmesso ai circuiti del telegrafo elettrico. Catturati dall’altro pantelegrafo i segnali venivano poi riportati dallo stiletto ricevente su un foglio chimico. Il sistema venne utilizzato nel 1866 tra Parigi e Lione ma la complessità e la delicatezza non ne facilitarono la diffusione e il pantelegrafo fu presto eliminato, a
causa anche degli eccessivi costi di realizzazione. La storia del fax, per come oggi lo conosciamo, ha invece inizio nel 1966, quando la Xerox presentò il primo fax commerciale, anche se solo nella seconda metà degli anni Ottanta, a partire dal Giappone, dominatore allora del mercato dell’elettronica per prodotti di massa fabbricati da aziende del calibro di Sharp, Canon e Toshiba, si ebbe una diffusione significativa a livello mondiale. In Italia il fax venne presentato per la prima volta alla stampa nel 1974 nel corso della mostra della Stampa e dell’Informazione di Roma, ma anche nel nostro Paese solo negli anni Ottanta il mercato del nuovo mezzo ebbe una qualche rilevanza. Dalla sua introduzione il fax prese a diffondersi capillarmente non solo negli uffici, ma anche nelle famiglie, con un vero e proprio boom registrato nei primi anni ’90. Attualmente, sebbene il fax sia ampiamente usato nelle aziende, è in progressiva obsolescenza, superato dalle tecnologie di Internet e in particolar modo dall’e-mail che può esserne considerata l’erede. Il fax tradizionale è ad oggi ancora impiegato per la sua praticità, specialmente se utilizzato da personale poco aggiornato sulle tecnologie informatiche, ma le moderne alternative esistono e permettono l’invio per posta elettronica di file di immagini allegati con risoluzione a discrezione del mittente. Si tratta di un sistema estremamente più versatile e pratico. La tecnologia che per molti anni ha rappresentato un decisivo passo in avanti nella comunicazione soprattutto a livello commerciale per molti è giunta ormai al capolinea. Molti server sono in grado di ricevere i messaggi fax e consegnarli in una qualsiasi classica casella di posta elettronica, permettendo all’utente di decidere solo dopo averne visualizzato il contenuto se stamparli o meno. Ne è passato di tempo da quando, a metà ‘900, si vociferava di uno strumento che avrebbe potuto inviare i quotidiani direttamente nelle case delle persone, sostituendo le macchine per la stampa editoriale. Il fax non sarà forse arrivato a tanto, sarà stato anche sopravvalutato, ma ha lasciato il segno perché ha trasmesso di casa in casa, di ufficio in ufficio, messaggi che hanno rappresentato degli spaccati della nostra vita privata e lavorativa.
105
TECNOLOGIE
PRESI NELLA RAGNATELA Un universo di informazioni e contenuti da esplorare saltando tra le infinite pagine di un libro che non ha né un inizio né una fine. Ma attenzione a non perdersi…
106
Il World Wide Web non è Internet, ma una sua funzionalità. È giusto specificare questa distinzione perché spesso, a torto, i due termini vengono utilizzati come sinonimi, sia dalla maggior parte degli utenti, sia dai mass-media. È indubbio che gran parte del successo del “fenomeno Internet” sia dovuto proprio alla diffusione del Web, ma la convinzione che le due cose coincidano è tecnicamente scorretta: Internet indica infatti quella complessa struttura composta da migliaia di reti locali e di WAN (Wide Area Network) collegate tra loro a formare una grande Rete mondiale pubblica, mentre il World Wide Web (WWW o W3, come dicono gli americani), è una particolare applicazione che consiste in un protocollo, ossia in un insieme di regole per gestire le informazioni su Internet, che va a integrare il protocollo di base (il TCP/IP), permettendo di identificare e accedere a documenti integrati in rete tramite i linguaggi per la descrizione di ipertesti (HTML, il più diffuso e semplice, ma anche ASP, PHP, JSP, linguaggi server side che impongono al server una “traduzione” dei contenuti in HTML in base alle richieste dell’utente). La “grande ragnatela”, così come è stata soprannominata sia per la traduzione letterale (World Wide Web significa ragnatela intorno al mondo), sia come pregnante metafora che sta a indicare lo sconfinato, intricato e labirintico collegamento di contenuti e pagine informative ipertestuali e multimediali, è stata ideata intorno al 1990 da Tim Berners-Lee un ricercatore del CERN di Ginevra (Conseil Europeen pour la Recherche Nucleaire, il più importante laboratorio di ricerca europeo). Lo scopo del lavoro di Tim e di un suo collega,
Tim Berners-Lee
Robert Cailliau, era quello di offrire alla comunità di scienziati dell’istituto un sistema per elaborare in rete documentazione elettronica non solo testuale ma anche multimediale. Il modo di inviare immagini, tabelle e grafici e suoni esisteva già, ma era necessario creare un modello unificato che facilitasse la comunicazione e la cooperazione dei ricercatori. Per alcuni anni lo strumento ideato e sviluppato da Berners-Lee e Cailliau rimase un’applicazione impiegata a malapena nel luogo in cui era nata. L’impulso decisivo alla sua diffusione a livello planetario, infatti, avvenne solo agli inizi del 1993, quando Marc Andreessen ed Eric Bina, ricercatori presso il National Center for Supercomputing Applications (NCSA) dell’Università dell’Illinois, realizzano il primo browser, l’interfaccia grafica multipiattaforma per “sfogliare” e accedere ai documenti pubblicati su World Wide Web: Mosaic. Il 30 aprile 1993, il CERN mette a disposizione del grande pubblico la sua nuova creatura (rinunciando, tra l’altro ad ogni diritto d’autore), e nel giro di pochi mesi il WWW conquista gli utenti e diventa la modalità più diffusa per inviare e ricevere dati online: chiunque disponga di un computer con accesso a Internet e di uno spazio web dedicato (dato dalla memoria di particolari server), può distribuire e pubblicare contenuti multimediali (come testi, immagini, audio e video) e software (programmi e applicazioni) o fornire particolari servizi fruibili da chiunque utilizzi un browser che gli consenta di navigare tra le pagine della “ragnatela”. Le caratteristiche innovative dell’architettura informativa del World Wide Web hanno dato inizio a un processo di espansione tecnologica senza pari nel passato. La sua diffusione, la facilità di utilizzo delle interfacce e la sua organizzazione ipertestuale hanno permesso di innescare una vera e propria rivoluzione nel panorama degli strumenti di comunicazione. Tim Berners-Lee è stato paragonato, per importanza, a un inventore dal calibro di Edison, perché il WWW è considerata una conquista dell’umanità e per di più una conquista gratuita, in quanto “donata” al mondo senza alcuna speculazione economica. Vista l’utilità e la natura aperta e pubblica dello standard, oggi possiamo utilizzare il Web per comunicare, ricercare informazioni, interfacciarci con altri utenti, senza difficoltà. A nome di tutti, quindi, grazie Tim.
107
TECNOLOGIE
IL TEMPO DELL’E-MAIL Per qualcuno hanno intensificato i rapporti, per altri li hanno irrigiditi. Probabilmente si scrive di più adesso che un tempo, ma perché preferiamo le e-mail a una sana chiacchierata?
108
E venne il tempo dell’e-mail, e niente fu più come prima. Parliamoci chiaro, per descrivere dettagliatamente il rivoluzionario strumento della posta elettronica non basterebbero nemmeno i buoni propositi, soprattutto se si decidesse di analizzarlo sotto tutti gli aspetti, da quello sociale a quello linguistico passando per quello economico. La chiocciolina ha fatto parecchia strada, e nemmeno così lentamente, dal lontano 1971, quando un ricercatore della Bolt, Beranek & Newman, Ray Tomlinson, spedì il primo messaggio di posta elettronica della storia a tutti coloro che erano collegati ad ARPANET, l’embrione dell’attuale Internet. Circa un decennio dopo, nel 1982, venne definito l’SMTP (Simple Mail Transfer Protocol), il protocollo di trasmissione dei messaggi e-mail tuttora in uso. Alla fine degli anni ’80 il simbolo @ commerciale diventa lo standard universale per la comunicazione via posta elettronica: scelto quasi per caso dallo stesso Tomlinson, la famosa chiocciola aveva da una parte il vantaggio di indicare at (in italiano presso) dall’altro quello un po’ meno originale di essere uno dei pochi segni della tastiera quasi mai utilizzati. Da un punto di vista strettamente storico non vi è molto altro da aggiungere, a meno che non vi incuriosisca il fatto che nel 1976 la regina Elisabetta scrisse il suo primo messaggio e-mail. Con la graduale diffusione dei Personal Computer e con la nascita del web, il concetto di corrispondenza si è notevolmente ampliato e la povera carta da lettera è finita presto nel dimenticatoio per lasciare posto alla più “arida” posta elettronica. Se infatti la comunicazione via e-mail è diventata il fenomeno di massa che è diventata grazie alla
velocità di trasmissione dei messaggi rispetto alla posta tradizionale, ai costi ridotti di collegamento e alla possibilità di spedire documenti, foto o contributi audio in qualsiasi momento e luogo, è anche vero che la comunicazione stessa non si svolge più in un contesto sociale concreto e che gli interlocutori sono forse troppo separati. La voce, i gesti e tutti i segnali che caratterizzano la comunicazione faccia a faccia vengono dunque perduti. Queste sue lacune non hanno tuttavia impedito all’e-mail di assicurarsi un posto stabile nella nostra cultura, tanto da trasformare, in un certo qual modo, le modalità tradizionali dello scambio comunicativo. La posta elettronica viene usata per gestire agende o contatti, delegare mansioni, mandare comunicazioni aziendali e formali, ma anche lettere d’amore o simpatici messaggi di amicizia con regole stilistiche e grammaticali diverse da quelle canoniche. Non a caso il mezzo digitale si adatta benissimo allo slang giovanile: i messaggi si animano di emoticons (riproduzioni stilizzate delle principali espressioni facciali umane) spesso realizzate con i simboli della tastiera per esprimere emozioni e sentimenti. Miliardi di utenti vi fanno totale affidamento per gestire la loro vita lavorativa, creando in alcuni casi una sorta di dipendenza da “invia/ricevi”, accentuata dall’avvento dell’e-mail mobile che offre la possibilità di gestire la corrispondenza al di fuori dall’orario lavorativo. A dispetto di chi pensava che nella tempesta di mezzi e tecnologie del Web 2.0 potesse risultare ormai uno strumento vecchio e superato, l’e-mail ha invece confermato di avere un ruolo ancora importante come mezzo di comunicazione, promozione e anche interazione con siti, blog e applicativi web. Tra gli usi estremamente attuali della posta elettronica vi sono sempre più le strategie di marketing, l’abbondare di servizi di newsletter su abbonamento gratuito, o ancora le funzioni alert di molti dispositivi di videosorveglianza e sicurezza, che consentono all’utente di essere avvisato in caso di necessità. Certo, molti problemi che da tempo affliggono la mail generation (fra tutti l’eccessiva presenza di corrispondenza spazzatura, gli spam, e il fenomeno del furto d’identità, il pishing) non sono ancora stati completamente risolti, ma questo è forse, come si dice, il prezzo della notorietà.
109
TECNOLOGIE
DATECI DEL VoIP! Sempre più persone si avvicinano e si affezionano alla tecnologia che permette di chiacchierare in digitale sulla rete Ip. Addio vecchio telefono?
110
Il VoIP (Voice over Internet Protocol), il sistema che permette di effettuare una comunicazione vocale attraverso Internet, sta lentamente ma anche inesorabilmente modificando le regole e le strategie del mercato degli operatori telefonici di tutto il mondo. Nonostante la modalità non possa essere considerata completamente nuova, infatti, solo recentemente, grazie soprattutto alla diffusione delle connessioni Internet Adsl, il terreno appare pronto per uno sviluppo massiccio di questi servizi. Il VoIP sfrutta la commutazione di pacchetto (packet-switched) delle comunicazioni Internet applicandola alla voce che, quando è necessario (ossia quando gli utenti stanno parlando), viene trasformata in “pacchetti” di segnale digitale che vengono poi “spacchettati” e ricomposti in segnale sonoro nell’apparecchio del ricevente. Si tratta una modalità innovativa di telefonata, in un settore da anni statico come quello delle telecomunicazioni. Il mercato delle aziende rappresenta per il momento quello di maggior interesse per gli “operatori Ip”, in primo luogo perché sono le imprese ad utilizzare con maggiore continuità delle connessioni a banda larga, e successivamente perché la sopravvivenza delle stesse aziende è al giorno d’oggi legata sempre più alla flessibilità e alla velocità di reazione ai cambiamenti, che portano alla creazione di organizzazioni aziendali sempre più snelle che fanno dello scambio di informazioni, sia interno che esterno, obiettivo di vitale importanza. Il futuro della comunicazione potrebbe prospettarsi come una grande rete integrata per applicazioni che diventeranno sempre più convergenti: è la cosiddetta Unified Communications,
e cioè l’insieme di quei servizi e applicazioni voce, dati e Internet (posta elettronica, video, instant messaging) che viaggiano rigorosamente su reti Ip. Per il momento i vantaggi della sola tecnologia VoIP offrono di per sé più che una valida alternativa alla linea telefonica tradizionale. Al di là dell’aspetto fondamentale dell’abbattimento dei costi associati al canone, alle bollette e alle spese di attivazione, il Voice Over Ip riduce anche le spese di infrastruttura (basta una rete Ip e niente di più), offrendo avanzate funzionalità (come salvare messaggi vocali sul proprio computer o utilizzare la funzione centralino per smistare le chiamate all’interno di una rete locale) e ampie prospettive di implementazione senza per contro modificare la parte hardware. Il futuro è ancora tutto da definire, ma c’è chi scommette che presto molte delle linee di telefonia fissa tradizionale saranno sostituite da quelle su Ip. Sia la domanda sia l’offerta (ma forse più la prima che la seconda) necessitano ancora di un po’ di tempo per comprendere pienamente la portata e l’importanza della fase di transizione tecnologica che stiamo attraversando, che richiederà numerosi investimenti sia in termini finanziari, sia nella costruzione di infrastrutture per la banda larga, che è il vero fattore abilitante del sistema. Nel frattempo fanno capolino i cosiddetti “Internet players” tra cui Yahoo, MSN e Google, che strizzano l’occhio al VoIP, e si sta valutando anche l’emergente e potenziale sviluppo della modalità di comunicazione VoIP all’interno del segmento delle telecomunicazioni mobili. Le opportunità offerte dalla nuove tecnologia hanno permesso l’affermarsi di imprese globali, Skype in primis, il più noto software VoIP gratuito diffuso in tutto il mondo: consente di chiamare e videochiamare gratutitamente da PC a PC e a prezzi estremamente competitivi verso i telefoni di casa ed i cellulari. In Italia il suo successo è cresciuto rapidamente con la diffusione delle connessioni a banda larga, e il passaparola e la promozione indiretta fatta al software da Beppe Grillo durante i suoi spettacoli. Lo scenario sembra ben delineato. Nel momento in cui il traffico vocale diventerà per imprese e consumer una commodity quasi gratuita le compagnie di telecomunicazioni sentiranno la necessità di offrire servizi sempre più evoluti e completi ai propri clienti, per continuare a creare valore e profitto anche nell’era del VoIP.
111
TECNOLOGIE
ALWAYS ON LINE Un futuro nemmeno tanto lontano ci permetterà di ricevere informazioni e comunicare liberi da vincoli materiali, ovunque. Basta perdere il filo…
112
Siamo entrati nell’era della comunicazione totale che si basa su un’ideologia che fa dell’accesso ad Internet anytime and anywhere (sempre e ovunque) uno dei suoi punti più forti. La tecnologia wireless è sicuramente la soluzione per la connettività più in voga del momento e la sua storia è abbastanza recente. La comunicazione senza l’utilizzo del cavo (wireless, appunto) fu pensata inizialmente per il trasferimento voce, con l’adozione di dispositivi e infrastrutture appositamente dedicati. Solo verso la fine degli anni ‘90, con la crescita esponenziale del fenomeno Internet, si è reso necessario lo sviluppo di una tecnologia, rimasta fino a quel momento latente, per il trasferimento dei dati senza l’utilizzo di una connessione fissa (o cablata), che ha portato alla nascita di protocolli come WAP e GPRS in grado di sfruttare le tecnologie già preesistenti. Si trattava di reti di dati wireless a lungo raggio, a partire dalle quali furono in seguito sviluppati standard a medio (meno di 100 metri) e breve raggio (le wireless LAN) come l’802.11, che dettava le specifiche a livello fisico e datalink per l’implementazione di una rete LAN wireless. Questo standard, impiegando dapprima i raggi infrarossi e successivamente la tecnologia basata su onde radio nella banda 2.4 GHz, supportava un transfer rate di 1 o 2 Mbit/s. Così nel 1997 fu introdotto lo standard IEEE 802.11b (il cui nome commerciale è Wi-Fi) che, oltre a mantenere la compatibilità con lo standard precedente, consentiva un transfer rate di 5.5 e 11 Mbit/s, divenendo così il più diffuso, il più utilizzato e il più conosciuto tra i protocolli per la comunicazione wireless. Il difetto della nuova versione, tuttavia, si
manifestò essere la sicurezza, che unita ad un prezzo non certo alla portata di tutti impedì in un primo momento massicci investimenti nella tecnologia, utilizzata solo nei casi in cui l’uso dei cavi era difficile oppure impossibile. Il tempo ha comunque giocato, come spesso accade, un ruolo importante nel dettare i ritmi della diffusione di nuove tendenze e conseguentemente a una maggiore accessibilità di costo, le connessioni wireless sono entrate a far parte del nostro modo di lavorare e di divertirci e il mercato è in costante ascesa. In Italia, rispetto al Nord Europa e agli Stati Uniti d’America, l’avvio è stato particolarmente cauto e la fioritura delle reti senza fili solo recentemente ha conosciuto una certa popolarità dovuta all’estrema facilità con cui queste possono essere realizzate, sia a livello pubblico che privato. Ad oggi le reti wireless vengono installate soprattutto negli aeroporti, nelle università e nei parchi pubblici delle grandi città e risultano essere molto apprezzate anche dagli home users, permettendo la condivisione di dati e della connessione Internet (mediante Router) tra i computer della famiglia. In anni recenti stanno prendendo piede le reti wireless a banda larga e a copertura estesa, per le quali è stato proposto lo standard 802.16, conosciuto anche come WirelessMAN (Wireless Metropolitan Area Network) che viene sfruttato dall’emergente tecnologia WiMax. Qualcuno potrebbe dimostrare (come è accaduto e come sta accadendo tutt’oggi) una certa riserva nel considerare totalmente affidabili questo tipo di connessioni, individuando parecchie “zone d’ombra” nel sistema. I segnali radio, viaggiando nell’etere, possono essere intercettati con più facilità, ma esistono le necessarie contromisure di tipo crittografico per garantire la riservatezza dei dati scambiati. Lo standard più recente, il protocollo WPA2, permette una navigazione protetta. Le reti wireless sono, e saranno sempre più un’importante forma di connessione per molte attività: l’idea di un punto d’accesso pubblico (hotspot) attraverso il quale collegare il proprio dispositivo e sfruttare una linea ad alta velocità, ha stravolto i tradizionali modelli della mobilità dei dati. Con il giusto appoggio di una normativa chiara e di infrastrutture appropriate, la frontiera del wireless non avrà limiti.
113
TECNOLOGIE
LA BANDA NON STA A TEMPO Un collegamento alla Rete che permetta un rapido ed efficace dialogo tra imprese, amministrazioni e cittadini. In Italia non sempre è la regola, spesso è l’eccezione
114
L’informazione è il bene più prezioso della modernità e non a caso le viene attribuito un ruolo strategico, di sviluppo economico e socio-culturale. È un’informazione che non va intesa nei termini e nei modi tradizionali ma in un’accezione più ampia, mirata a rappresentare a 360 gradi la conoscenza umana e in grado di offrire uno spunto di differenziazione nella competizione tra imprese. La partecipazione alla società dell’informazione, anche nei suoi aspetti più basilari, costituisce oramai un principio imprescindibile e una forma di diritto che permette ad ogni persona di fruire dei vantaggi della rete globale. In questo contesto assume quindi ancora più importanza una tecnologia che permette l’accesso a Internet ad alta velocità: l’ADSL (Asymmetric Digital Subscriber Line). Definito genericamente anche con il termine banda larga, il concetto necessita di qualche precisazione: non basta infatti adottare un approccio squisitamente quantitativo (cioè assicurare una certa quantità di banda agli utenti), bensì partire più concretamente da un “pacchetto” di servizi online e successivamente stabilire quale sia la banda necessaria per poter usufruirne ovunque. Si tratta quindi di un termine astratto, che cambia nel tempo in base agli scenari offerti dalle nuove tecnologie e alle mutevoli esigenze dei consumatori. L’ADSL è la migliore risposta al fabbisogno crescente di multimedialità e di servizi telematici, sia da parte degli organismi pubblici che privati. Al giorno d’oggi, con l’evoluzione e il progresso nell’ambito informatico e delle comunicazioni, sono nate e cresciute nuove esigenze. Internet in pochi anni ha permesso lo sviluppo di tutta una serie di applicativi che
fondamentalmente hanno come scopo comune l’accorciare le distanze tra le parti, in modo da semplificare, migliorare e velocizzare i processi tradizionali. La banda larga è un canale di comunicazione ad alta capacità, rapido, efficiente e sempre disponibile, ma la sua diffusione è proporzionalmente legata alla disponibilità di infrastrutture capillari sul territorio in grado di gestire il cambiamento della domanda e della tecnica: la scalabilità della tecnologia è un requisito fondamentale per garantire sempre un accesso al passo coi tempi. Se anni addietro si credeva che la presenza di servizi e contenuti multimediali innovativi potesse essere un volano per incentivare la diffusione della banda larga, oggi pare evidente che è necessario investire in infrastrutture facilmente aggiornabili, vista la rapida obsolescenza della tecnologia e la facilità con cui i servizi esistenti e nascenti “assorbono” banda (servizi di e-government, e-learning, e-health, e-business, di controllo del territorio, di VoIP e videoconferenza, nei privati come nelle piccole e medie imprese). Ciò si traduce in risparmio di tempo (code evitate agli sportelli pubblici), economico (meno carta, meno burocrazia) e di efficienza, poiché i servizi telematici presuppongono alla base della loro applicazione una serie di cambiamenti nel modo di pensare i processi tradizionali, spesso inefficienti e causa di spreco di risorse. Supportare le infrastrutture è una priorità assoluta per chiudere il divario tra zone, raggiunte e non, dalla banda larga. Problema, quest’ultimo, che ancora affligge una larga percentuale di popolazione italiana. La questione del digital divide, (l’esclusione di moltissimi cittadini dal collegamento veloce a Internet) e quella del “servizio universale” mettono in evidenza da un lato la necessità di infrastrutture adeguate che consentano di far arrivare ovunque la banda larga, dall’altro la capacità di restare al passo con lo sviluppo tecnologico e sociale, assicurando un servizio (di buona qualità e a prezzi accessibili, indiscriminatamente dal reddito e dalla zona) che sta divenendo sempre più indispensabile, al pari di acqua, telefono, luce e gas. In Italia la copertura resta al di sotto della media europea, anche a causa della miriade di piccoli centri urbani che rallentano il processo di diffusione della tecnologia. La recente disponibilità del WiMAX potrebbe tuttavia contribuire a risolvere alcuni dei problemi anche se il sistema rimane in buona parte un cantiere aperto.
115
SPONSOR
116
117
A cura dell’Azienda Sponsor
WIRELESS, FREQUENZE PER TUTTI GUSTI Leader all’avanguardia per le soluzioni di rete broadband senza fili, Alvarion offre la giusta risposta a qualsiasi utente, pubblico o privato, e si fa promotore della sfida del futuro, chiamata WiMAX
118
Con oltre tre milioni di unità installate in 150 paesi, Alvarion (www.alvarion.com) è il fornitore leader mondiale di soluzioni di rete wireless broadband che consentono alla tecnologia Personal Broadband di migliorare lo stile di vita e la produttività degli utenti grazie a servizi per la portabilità e la mobilità dei dati, VoIP, video e di altro tipo. Alvarion sta guidando il mercato verso la tecnologia Open WiMAX, grazie alle implementazioni più estese e al collaudato portafoglio di prodotti che copre l’intera gamma di bande di frequenza con soluzioni fisse e mobili. I prodotti Alvarion consentono l’accesso broadband di tipo personale, aziendale e residenziale, VPN aziendali, telefonia toll-quality, feeding di stazioni base mobili, estensione della copertura hot spot, interconnessione di comunità, comunicazioni per la sicurezza pubblica e comunicazioni mobili di dati e voce. All’avanguardia nella tecnologia wireless broadband, Alvarion progetta e fornisce soluzioni innovative da oltre 10 anni: dallo sviluppo della tecnologia centrale alla creazione fino alla promozione degli standard di settore. Alvarion guida l’evoluzione del mercato wireless broadband e promuove l’adozione estesa dei prodotti WiMAX basati sugli standard. I clienti possono sfruttare le soluzioni WiMAX oggi e fornire al tempo stesso servizi Fixed BWA che consentono di aggiornare i sistemi per supportare i servizi portatili e mobili, garantendo un percorso verso un’autentica esperienza Personal Broadband per gli abbonati. Membro di WiMAX Forum™, Alvarion svolge un importante lavoro finalizzato all’ampliamento dell’adozione di prodotti basati sugli standard nel mercato wireless broadband e a guidare
Andrea Marco Borsetti, Country Manager Alvarion Italia
l’intero settore verso le soluzioni Open WiMAX. Negli ultimi undici anni Alvarion ha ricoperto ruoli importanti nell’evoluzione degli standard IEEE e HiperMAN, proponendo al contempo innovazioni nell’ambito dell’accesso wireless broadband che ottimizzano i modelli di business dei clienti. La gamma di prodotti completa soddisfa le esigenze di ogni tipologia di utente: grande e piccolo, privato e aziendale. Alvarion offre soluzioni per tutte le bande di frequenza (dai 900 MHz fino ai 28 GHz) e servizi dati e voce per tutti i tipi di utenti: residenziali e SOHO (small office, home office), PMI, fino a MTU/MDU/MBU (multi-tenant units/multi dwelling units/multi business units). Il portafoglio di servizi include assistenza tecnica e supporto, project management, progettazione di reti, pianificazione, gestione e consulenza. Negli ultimi anni l’azienda ha realizzato prodotti leader che sfruttano le tecnologie OFDM/OFDMA quali BreezeACCESS™ e BreezeMAXTM con prestazioni NLOS (non line-of-sight) eccellenti per creare soluzioni di classe carrier e basate sugli standard. Alvarion stringe partnership in tutto il mondo con OEM, integratori di sistemi locali e fornitori di servizi allo scopo di offrire soluzioni personalizzate in grado di soddisfare i requisiti specifici di ciascuna implementazione. Intel ha firmato un accordo strategico con Alvarion per collaborare allo sviluppo degli innovativi chip 802.16-2004 che vanno ad aggiungersi alla linea di sistemi BWA interoperabili di nuova generazione. Oggi Alvarion celebra trent’anni di attività nel settore delle soluzioni wireless e vanta la maggiore esperienza come operatore “completamente wireless”. Le famiglie di prodotti Alvarion (BreezeMAX, BreezeACCESS, WALKair, MGW/ eMGW, Breeze2000 e GSM) sono altamente modulari e flessibili; per supportare ogni esigenza degli utenti in termini di scalabilità dell’investimento (“pay-as-you-grow”); sono progettate per offrire la massima trasparenza e la massima semplicità di integrazione. La profonda esperienza, un portafoglio differenziato e il vasto know-how sono alla base della leadership di Alvarion nella fornitura di soluzioni WiMAX/802.16e in banda base e moduli RF.
119
A cura dell’Azienda Sponsor
L’ENERGIA, IN MODO INTELLIGENTE Le soluzioni APC by Schneider Electric rendono il futuro dell’alimentazione e del condizionamento in ambienti critici più efficiente e sostenibile
120
APC by Schneider Electric è il leader mondiale dei servizi per l’alimentazione elettrica ed il condizionamento di precisione in ambienti che vanno dal residenziale alla sala CED, fino ai locali tecnici. L’ampio portafoglio di prodotti e soluzioni comprende gruppi di continuità (UPS), prodotti per la sicurezza fisica e ambientale, unità di condizionamento di precisione, software di progettazione e gestione e l’architettura APC InfraStruXure®: la più completa soluzione integrata di alimentazione, condizionamento e gestione presente sul mercato. APC (American Power Conversion) viene fondata nel 1981 da tre ingegneri elettronici dei laboratori Lincoln del Massachusetts Institute of Technology (MIT). In quel periodo la ricerca e gli sforzi di sviluppo dell’azienda erano focalizzati sull’energia solare. Negli anni successivi, APC ha spostato il proprio focus verso la protezione dell’alimentazione introducendo il primo UPS, il 750, nel 1984. Nel corso del tempo, APC ha sviluppato un’offerta di prodotto end to end, rivolta a quattro aree di applicazione strategiche: Home/Small Office, Business Networks; Access Providers e Data Center & Facilities. Lo sviluppo interno dei prodotti è stato ampliato mediante acquisizioni strategiche per delineare un portafolio prodotti all’avanguardia nel mercato. Nel mondo, il brand APC è diventato sinonimo di soluzioni di elevata qualità per il back-up e la gestione dell’alimentazione. Nel 2007, APC è stata acquisita da Schneider Electric e, unendosi ad MGE UPS Systems, ha dato vita alla nuova Business Unit “Critical Power & Cooling Services” di Schneider Electric facendo registrare, già nel 2007, ricavi record di 3,5 miliardi di dollari (2,4 milioni di Euro), impiegando 12.000 persone in tutto il mondo. Schneider Electric, con i suoi 120.000 dipendenti e sedi in 102 paesi del mondo ha invece registrato
Ing. Fabio Bruschi, Country Manager Italia APC by Schneider Electric
nel 2007 un fatturato pari a 17,3 miliardi di Euro. Attualmente sono quattro i mercati di riferimento strategici per le soluzioni APC by Schneider Electric (Home/ Home Office, Business Networks, Access Provider Networks, Data Center e Facilities). Ciascuno richiede azioni su misura per prodotti, vendita e introduzione sul mercato, ma ciascuno ha un tema comune: l’elevata disponibilità è l’efficienza energetica come elemento essenziale. L’unione di due aziende di grande successo quale APC e MGE UPS Systems sotto l’egida di Schneider Electric garantisce una posizione unica e privilegiata, quella di leader del settore in termini di canali, copertura geografica e mercati, con un portafoglio estremamente ricco di soluzioni per il risparmio energetico per qualsiasi ambiente. E’ cambiato il nome, ma l’ impegno verso i prodotti, le persone e la filosofia che hanno reso APC e MGE due dei marchi più affidabili del settore è rimasto immutato. I clienti possono continuare a fare riferimento alle stesse relazioni ormai consolidate e alle stesse persone alle quali hanno accordato la loro fiducia. Il supporto di tutte le nostre soluzioni è garantito da Critical Power & Cooling Services, la nuova divisione di Servizi Professionali e di Manutenzione di Schneider Electric. Oltre 12.000 dipendenti lavorano ora fianco a fianco su tutto il territorio nazionale e sono pronti, disponibili e in grado di aiutare i clienti in un periodo di sfide senza precedenti nel settore dell’alimentazione e del condizionamento. Grazie all’unione di oltre mezzo secolo di eccellenza, APC by Schneider Electric combina l’esperienza, la competenza e la strategia necessarie per risolvere i problemi di alimentazione e condizionamento di oggi e preparare i clienti ad affrontare le sfide di domani. L’impegno di APC nello sviluppo di soluzioni in grado di ridurre i consumi e gli sprechi di energia nelle sale CED ha consentito di introdurre sul mercato, con anni di anticipo rispetto al resto del settore, soluzioni avanzate per una maggiore efficienza di alimentazione e di condizionamento. Scegliere APC by Schneider Electric come partner per il futuro significa poter contare su servizi, soluzioni e competenze necessari per raggiungere rapidamente la massima efficienza energetica in qualsiasi ambiente, dal desktop alla sala CED, sino ai locali tecnici.
121
A cura dell’Azienda Sponsor
LA REGINA DELLA VIDEOSORVEGLIANZA Axis, antesignana delle soluzioni video di rete su IP,ha costruito la sua leadership grazie anche all’innovazione e allo sviluppo continuo di nuove tecnologie
122
Axis è una società IT che sviluppa soluzioni con tecnologia video di rete per installazioni professionali. La società è leader mondiale nel settore della tecnologia video di rete nonché una delle principali promotrici della transizione dai sistemi analogici a quelli video digitali. I prodotti e le soluzioni Axis, destinati principalmente ad applicazioni di videosorveglianza e monitoraggio remoto, sono basati su piattaforme tecnologiche innovative e open source. Axis ha sede in Svezia, uffici in oltre 20 Paesi diversi e partner in più di 70 Paesi. È stata costituita nel 1984 ed è quotata nella Borsa NASDAQ OMX Stockholm. È specializzata nella produzione di soluzioni con tecnologia video di rete per applicazioni di videosorveglianza e monitoraggio remoto. L’offerta di prodotti comprende telecamere di rete, server video, decodificatori video, software per la gestione video nonché una vasta gamma di accessori. Dal 1996, anno in cui Axis ha introdotto sul mercato la prima telecamera di rete per reti IP, a oggi la società è diventata leader nel settore delle soluzioni con tecnologia video di rete, offrendo una vasta scelta di telecamere e video encoder per svariate applicazioni, soprattutto per il settore della sicurezza e della sorveglianza remota. Per diversi anni Axis è stato il marchio leader anche nel mondo dei server di stampa, appositamente sviluppati per fornire funzionalità di stampa economiche e di facile utilizzo a prescindere dall’ambiente di rete o dal tipo di stampante. Grazie alla sua vastissima gamma di server di stampa esterni, Axis è attualmente in grado di soddisfare le esigenze sia delle piccole che delle grandi imprese. La leadership di mercato di Axis si basa su oltre due decenni di successo
nello sviluppo di tecnologie di base e di prodotti per la connettività di rete, la costruzione di solidi canali di vendita e la creazione di partnership proficue. Axis dispone di tutta l’esperienza necessaria per soddisfare ogni possibile esigenza poiché vanta un portafoglio di circa 1.000.000 di prodotti professionali con tecnologia video di rete e ha al suo attivo oltre 3 milioni di sistemi di rete installati. La tipologia di utenti finali di Axis spazia dalle imprese multinazionali alle piccole e medie imprese che utilizzano i prodotti e i sistemi Axis per ottimizzare i processi aziendali. L’azienda considera prioritari sei particolari segmenti di utenti finali: le scuole e le università, le banche e gli istituti finanziari (che comprendono anche uffici postali e società di assicurazione), i punti vendita (come grandi magazzini, stazioni di servizio e supermercati), i trasporti (aeroporti, stazioni ferroviarie, porti, sorveglianza del traffico, dogane), gli enti pubblici (enti pubblici, polizia, enti militari, enti sanitari, prigioni, musei, casinò) e l’industria (di lavorazione, progettazione, costruzioni, case farmaceutiche e società di fornitura di energia). Axis è riconosciuta come uno dei marchi più affidabili dell’industria della sorveglianza IP. Tutti i prodotti utilizzano la tecnologia basata su reti IP, sviluppata internamente. I chip ETRAX e ARTPEC sono considerati standard di settore nell’ambito della gestione delle reti, delle comunicazioni e della compressione delle immagini. Oltre a semplificare l’installazione, questa tecnologia consente ad Axis di fornire soluzioni compatte e ad alte prestazioni che possono essere collegate in modo rapido e sicuro a pressoché qualsiasi rete tradizionale o wireless. La filosofia aziendale di Axis è incentrata sull’offerta di prodotti e soluzioni basati su reti intelligenti. La Società è particolarmente interessata al settore della tecnologia video di rete, caratterizzato da un trend in continua crescita. I suoi prodotti vengono principalmente usati per le applicazioni di rete nel settore della videosorveglianza di sicurezza e del monitoraggio remoto. Questi prodotti di rete forniscono un alto valore aggiunto ai clienti poiché consentono loro di sviluppare soluzioni di sorveglianza efficaci, ridurre i costi, incrementare l’affidabilità e le prestazioni grazie anche alla scalabilità dei sistemi.
123
A cura dell’Azienda Sponsor
3 VOLTE NO... La filiale italiana ha festeggiato recentemente i suoi primi 10 anni di attività. D-Link, in Europa e nel mondo, è una pietra miliare dell’IT
124
Ci sono almeno tre principi inviolabili nel business: il primo è che tutte le aziende, per quanto grandi e affermate siano oggi, sono state delle start-up; il secondo, che più l’azienda è affermata, più sarà intrigante la storia della sua nascita; il terzo, e forse più importante, che tutte le start-up sono il risultato della sfida che una o più persone hanno intrapreso a un certo punto della loro vita. D-Link Mediterraneo non sfugge a questi principi. Cosa sarebbe successo se colui che ha guidato la start-up in Italia alla fine del 1997 avesse detto “no” per la quarta volta? Proprio così, perché l’attuale vicepresidente della regione sud europa, ed allora fondatore di D-Link Mediterraneo, Stefano Nordio, disse “picche” alla casa madre per ben tre volte. La motivazione? La più semplice e spesso la meno scontata: il business plan proposto da Taiwan non era in linea con il progetto che il futuro numero uno aveva in mente. Il terzo principio di cui sopra, si sposa alla perfezione anche con la storia dell’apertura del primo distributore di D-Link in Italia. Ancora una volta, fu l’iniziativa di altri due uomini a dare vita a una partnership solida e duratura, partita da una telefonata all’Headquarter europeo di D-Link a Londra per chiedere la disponibilità di alcuni prodotti. E non parve vero alla allora struttura di D-Link Italia (Stefano Nordio e Franco Banfi, oggi Product Marketing Manager Sud Europa) di ricevere una telefonata dal numero due di D-Link Europe che chiedeva loro di andare a trovare un potenziale cliente. Tutto il contrario di ciò che era avvenuto fino a quel momento e a ciò che era logico accadesse: era D-Link che cercava i clienti. Quei due uomini erano Andrea Rizzo e Michele Scapolo (rigorosamente in ordine alfabetico), fondatori di Elmat.
Stefano Nordio, Vice President Southern Europe
D-Link, “Building Network for People”, nei suoi 21 anni è cresciuta fino a diventare un’azienda mondiale da oltre un miliardo di dollari nel campo della progettazione, sviluppo e produzione di soluzioni di rete, broadband, elettronica digitale e prodotti per la trasmissione di voce e dati. D-Link produce il 21% delle porte LAN switching a livello mondiale, detto con altre parole, ogni 5 porte di rete vendute nel mondo una é di D-Link. Le soluzioni D-Link sono ideali per la casa digitale, gli ambienti di piccole e medie imprese o aziende di grosse dimensioni. D-Link è stata recentemente inclusa nell’”Info Tech 100” della rivista BusinessWeek, la classifica delle 100 aziende IT più importanti del mondo. D-Link, con direzione generale a Londra (Regno Unito), conta 20 sedi in Europa, regione strategicamente importante perché rappresenta un terzo dei profitti globali. D-Link Mediterraneo – con uffici diretti a Milano e Roma – celebra quest’anno i suoi 10 anni di presenza in Italia. In questo decennio l’azienda è cresciuta fino a diventare uno dei principali fornitori di soluzioni di rete per aziende e privati con un’offerta che copre i mercati delle connessioni wireless e broadband e soluzioni pensate per la sicurezza ed il networking di rete. Fin dalla sua nascita D-Link, fedele al suo motto “Building Networks for People”, ha incoraggiato i suoi ingegneri a progettare e produrre soluzioni di networking innovative basate in standard tecnologici. D-Link vende il suo state-of-the-art hardware con la miglior relazione prezzo/qualitá presente nel mercato. Il prezzo può essere il fattore decisivo per molti nuovi client, ma l’innovazione, l’affidabilità e il servizio sono le chiavi che portano tali clienti a essere fedeli nel tempo. D-Link sta guidando lo sviluppo di innovative tecnologie con l’obiettivo di garantire un risparmio energetico senza incidere negativamente su prestazioni e funzionalità. D-Link è stata la prima azienda a offrire con i propri switch la tecnologia Green Ethernet, assumendosi le proprie responsabilità nei confronti dell’ambiente attraverso una visione innovativa ed ecologica, un risparmio energetico che si traduce in un abbattimento dei costi operativi e l’allungamento del ciclo di vita dei prodotti. Questa iniziativa esclusiva soddisfa la richiesta di dispositivi di rete caratterizzati da una maggiore efficienza energetica, che tengano in considerazione i problemi ambientali sempre più diffusi in tutto il mondo.
125
A cura dell’Azienda Sponsor
IL MONDO IN TELEPRESENZA Multinazionale leader nelle soluzioni unificate per la collaborazione e il lavoro a distanza, Polycom rende sempre più naturale qualsiasi esperienza virtuale
126
Polycom è il leader mondiale nel settore delle audio, videoconferenze e della telepresenza, nelle infrastrutture di rete multipunto (MCU) in ambiente HD e nella telefonia IP e VoIP e si propone come precursore nella creazione di soluzioni che permettono alle persone di comunicare e collaborare ovunque si trovino. Fondata a Pleasanton, in California (USA) nel 1990 e quotata al NASDAQ di New York (PLCM) dal 1996, Polycom® Inc. produce e distribuisce soluzioni in grado di abbattere le barriere create dalle enormi distanze che spesso separano, ad esempio, le filiali di una società dislocate nei più disparati angoli del pianeta. Il quartiere generale Polycom EMEA (Europa, Medio Oriente e Africa) è situato a Slough nel Regno Unito. In Italia Polycom è presente dal 1996 attraverso la propria rete di distribuzione. Dal 2005 l’azienda ha aperto un ufficio a Segrate, in provincia di Milano. Polycom è il leader mondiale nella Unified Collaborative Communication (UCC), che massimizza l’efficienza e la produttività di persone e aziende, e offre la più alta gamma di soluzioni in alta definizione per la telepresenza audio- video, per sistemi di telefonia fissa e wireless e per la condivisione dei contenuti, permettendo ai propri clienti di comunicare nel miglior modo possibile, attraverso un’interazione in tempo reale o durante le videoconferenze on-demand. Polycom sviluppa soluzioni per la comunicazione e la collaborazione intuitive e facili da utilizzare, che vanno da quelle di scrivania alle suite per la telepresenza, rispondendo sempre agli standard tecnologici del settore. Basate su architetture aperte, si integrano in modo semplice con l’infrastruttura di telefonia e di reti per
Chris Romei, Country Manager di Polycom Italia
la telepresenza aziendale già esistenti. Con le sue innovative tecnologie leader di mercato, una visione molto ampia su tutti i mezzi di comunicazione video di prossima generazione, i suoi ottimi prodotti, le forti partnership con i grandi attori del settore e una gamma completa di servizi, Polycom è la scelta più intelligente per le aziende che vogliono migliorare il proprio modo di lavorare e di comunicare per ottenere dei vantaggi competitivi. Le soluzioni di telepresenza Polycom permettono di lavorare in maniera più efficace ed efficiente nonostante le distanze, grazie ad un’interazione face-to-face incredibilmente realistica e alla possibilità di condividere in modo perfetto qualsiasi tipo di contenuto. Le nuove offerte per la telepresenza, basate sui migliori standard del mercato, si integrano perfettamente con le soluzioni di telepresenza Polycom esistenti e con i più di 1.5 milioni si sistemi di videoconferenza in uso attualmente. Le soluzioni di telepresenza Polycom fanno parte della più completa architettura aziendale di video communication disponibile sul mercato, capace di unire telepresenza, high-scale desktop video, infrastruttura video multi punto, gestione della rete, del sistema e della conferenza e servizi di supporto. Le soluzioni Polycom possono aiutare le aziende a migliorare la produttività e l’efficacia di team geograficamente dislocati, accelerare i processi decisionali, aiutare le compagnie a diminuire i costi operativi e le emissioni di carbonio, riducendo il bisogno di viaggiare e offrono ai consumatori rapidi riscontri in termini di ROI (ritorno dell’investimento). Ogni giorno i clienti identificano nuove modalità di impiego dei prodotti per snellire i loro processi operativi, ridurre in modo significativo i costi relativi ai viaggi e allo stesso tempo incrementare la produttività. Le applicazioni per queste soluzioni sono ampie e includono: executive meeting, coinvolgimento dei clienti, gestione di progetti articolati, training e istruzione, negoziazioni per fusioni e acquisizioni e allineamenti post-acquisizione, collaborazione con partner e fornitori ecc. Nel 2007 l’azienda ha raggiunto un fatturato di 929,9 milioni di dollari. Anche nel 2008, l’azienda ha confermato il trend di crescita nel campo delle soluzioni di telepresenza e conferenza audio e video, con un incremento del 15% anno su anno.
127
BIBLIOGRAFIA
128
LIBRI I protagonisti della rivoluzione digitale, Chiara Sottocorona, Salvatore Romagnolo, 2003, Muzzio Editore Google Story, Vise David, Malseed Mark, 2007, EGEA The new new thing. Dal Web la nuova ricchezza, Lewis Michael, 1980, Piemme Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi), Torvalds Linus, Diamond David, 2005, Garzanti Libri Essere digitali , Negroponte Nicholas, 2004, Sperling & Kupfer La storia di YouTube, Benigni Glauco, 2008, Magazzini Salan SITI INTERNET www.wikipedia.org www.repubblica.it www.corriere.it www.ilsole24ore.it www.hwupgrade.it www.punto-informatico.it www.appuntidigitali.it www.mediamente.rai.it www.mytech.it www.webnews.it FOTO Le foto presenti nell’opera sono state gentilmente fornite o raccolte da diversi siti web e sono prive di diritti di autore. TUTTI I MARCHI CITATI NELL’OPERA APPARTENGONO AI LEGITTIMI PROPRIETARI.