23 minute read

Wondeur, il valore dell’opera d’arte

Robbie Barrat

Robbie Barrat

Oltre le regole dell’apprendimento verso una nuova sperimentazione

robbiebarrat.github.io Sito ufficiale di Robbie Barrat. Robbie Barrat1 è un enfant prodige della tecnologia e un talentuoso AI artist, nato a Dublino nel 1999. Trasferitosi ancora bambino in West Virginia (Usa), nel maggio del 2017 si diploma al liceo di Shenandoah Junction mentre nel tempo libero elabora neural networks per creare musica rap sullo stile di Kanye West. Questo suo progetto gli vale l’attenzione di NVIDIA Corporation che elabora network per la guida automobilistica autonoma che lo chiama a collaborare nella sua sede di Santa Clara, California. Entra poi come ricercatore nel laboratorio di bioinformatica della Stanford University. Successivamente è a New York, dove lavora come artista indipendente, e infine è in Francia dove frequenta l’École des Beaux Arts di Nantes Saint-Nazaire. Più di recente ha aperto uno studio di arte/design a Parigi. Poco più che ventenne Barrat ha già iniziato a esplorare vari campi: dalla moda con Balenciaga e Acne Studio all’architettura e infine all’arte attraverso le applicazioni del machine learning e delle GAN.

Opere e progetti

Nel 2018 Robbie Barrat2 inizia a creare opere usando una GAN. I primi risultati sono immagini paesaggistiche in stile quasi realistico. La sua ricerca continua con nuove sperimentazioni poiché impiegare nuovi strumenti quali gli algoritmi per ripetere quanto è già stato realizzato negli ultimi secoli è, come lo stesso Barrat afferma, «un po’ cinico». La sua seconda produzione è Landscapes e presenta infatti immagini più surrealistiche.

Con la successiva produzione Nude Portraits Barrat abbandona totalmente le regole di un’estetica formale e realistica. Questo AI artist si spinge oltre i confini delle reti neurali verso nuove interpretazioni visive, in pratica rompe o interrompe la convenzionale produzione di immagini della GAN addestrata su specifiche immagi-

www.youtube.com/ watch?v=rue8Q8Cw6ho Robbie Barrat et Constant Dullaart, explorateurs de l’art par algorithme.

1. Robbie Barrat, AIGenerated landscapes, si noti la differenza tra i primi due Landscapes, più realistici, e l’ultimo Landscape più surrealistico. Courtesy Robbie Barrat.

2, 3▷ pp. 290, 291 ni – nudi e poi teschi – alla ricerca di quella differenza estetica che potesse contraddistinguersi con un risultato e uno stile a sé stanti.

Dopo aver lavorato con i paesaggi, mi sono reso conto che era molto più interessante quando la rete non imparava correttamente le regole. Ho cercato di generare ritratti nudi – e massimizzare la “errata interpretazione” da parte della rete3 .

Robbie Barrat

Per la serie Nude Portraits, Barrat ha fatto in modo che la macchina apprendesse solo quelle regole che le consentivano di riprodurre alcune parti di un corpo, il seno per esempio, mentre altre regole riguardanti la struttura generale della figura umana le venivano sottratte. In questo modo ha generato immagini tra l’onirico e il surreale che evocano il nudo umano reinterpretandolo.

Il 7 febbraio 2019, presso L’Avant Galerie Vossen di Parigi, viene presentata una mostra che nasce da un incontro4 tra Robbie Barrat e l’artista francese Ronan Barrot. Ronan è un pittore che ha l’abitudine, una volta terminato un quadro, di usare la pittura rimasta sulla tavolozza per dipingere un teschio. Un’abitudine sicuramente originale, che negli anni lo ha portato a realizzare migliaia di dipinti di teschi di dimensioni simili tra loro. Senza volerlo, l’artista francese stava preparando un dataset perfetto per addestrare una GAN. Nasce tra i due artisti una collaborazione profonda e fruttuosa che scaturisce nella creazione delle serie Infinite Skulls.

Per Epoch One, la prima serie di Infinite Skulls, la GAN è stata addestrata con i dipinti di teschi di Ronan Barrot e le opere generate sono abbastanza simili agli originali. A questo punto Barrat e Barrot si spingono oltre il punto di vista della macchina: in pratica “giocano” con la GAN aumentando il numero dei dipinti da usare come dataset cambiandone la rotazione, creando così la seconda serie di Infinite Skulls: Epoch Two5. In un bellissimo articolo scritto da Jason Bailey e pubblicato su Artnome6, Robbie Barrat racconta:

2. Robbie Barrat, AI Generated Nude Portraits, 2019. Courtesy Robbie Barrat.

Per Epoch Two, mi sono divertito immettendo nella macchina i teschi senza tener conto della rotazione o prospettiva, quindi la macchina si è trovata a vedere i teschi capovolti e allungati. Sto usando lo stesso modello, ma il numero di teschi del training set è passato da 500 a 17.000. E i risultati sono davvero, davvero ottimi. Vengono prodotte immagini davvero strane che non ti aspetteresti mai. Li puoi definire teschi, ma in realtà non sono così usuali.

rb.gy/uwybav Artnome: AI artist Robbie Barrat and Painter Ronan Barrot collaborate on “Infinite Skulls”.

3. Robbie Barrat/Ronan Barrot, Infinite Skulls, 2019, olio su tela, stampa UV su plexiglass. Courtesy Robbie Barrat

Una voltagenerata l’immagine, il lavoro non finisce: Ronan Barrot interviene dipingendoci sopra, per “correggere” il lavoro o per reinterpretarlo.

Nell’articolo di Bailey7, Robbie Barrat chiarisce che per Ronan Barrot le immagini generate con IA sono «immagini d’opere d’arte» mentre per lui «l’opera d’arte vera e propria è la GAN addestrata; gli output sono in realtà solo frammenti o piccoli scorci di questo (la GAN addestrata è quasi una versione compressa di tutti i possibili teschi AI)».

Con queste parole Barrat fa un’analisi profonda della produzione artistica. Riprendendo le Rules Cards di Sol LeWitt, intende che la singola opera d’arte è parte di qualcosa di più grande, l’ombra della rete è l’opera d’arte vera e propria. Sicuramente la colla-

4. Robbie Barrat e Ronan Barrot lavorano insieme al progetto Infinite Skulls.

borazione tra i due artisti ha portato gli stessi Barrat e Barrot, e noi insieme a loro, ad approfondite riflessioni sull’interazione tra l’opera d’arte classica e l’opera generata con Intelligenza Artificiale.

Riprendendo il lavoro di “correzione dei dipinti” di Ronan Barrot per Infinite Skulls, Robbie Barrat ha addestrato una rete neurale a fare una cosa simile. Nella serie Corrections, l’IA lavora per ricostruire le parti oscurate di ritratti nudi fino a quando emerge una nuova immagine.

Il giovane Robbie Barrat è un artista che sta esplorando con creatività e originalità il mondo dell’IA e il suo potenziale sviluppo artistico, e in questa sua sperimentazione è stata inclusa anche la moda. Barrat ha usato le immagini di sfilate, cataloghi e campagne di Balenciaga8 per addestrare una rete Pix2PixHD per ricostruire gli abiti Balenciaga dalle sagome di DensePose9. Il risultato finale è costituito da outfit nuovi ispirati agli ultimi anni di Balenciaga, gli anni che lo hanno visto affiancato dallo stilista Demna Gvasalia. La rete non ha la capacità di contestualizzare tutti gli oggetti indossati dai modelli e dalle modelle: per esempio non riesce a individuare la borsa come accessorio separato dal pantalone, quindi, genera un insieme che ne ignora la specifica funzione.

Recentemente Barrat ha collaborato con Acne Studios10 per le sue collezioni AI20, realizzando progetti che usano l’Intelligenza Artificiale e l’apprendimento automatico.

5. Robbie Barrat, Neural Network Balenciaga, 2020. Courtesy Robbie Barrat.

www.vogue.com/fashion-shows/fall-2020menswear/acne-studios Acne Studios & Robbie Barrat: l’articolo su Vogue.

Mauro Martino alla presentazione di Forma Fluens all’Ars Electronica Center, Linz, Austria, maggio 2019. Photo Florian Voggeneder.

Mauro Martino

Dalla scultura alla Visual Poetry

www.mamartino.com/index. html Sito ufficiale di Mauro Martino. Tra gli artisti italiani che applicano le tecnologie d’avanguardia alla realizzazione delle loro opere, una figura di spicco è Mauro Martino1 .

È stato Assistant Research Professor presso la Northeastern University di Boston, ricercatore all’Institute for Quantitative Social Science ad Harvard e al Senseable City Lab del Mit con Carlo Ratti, ed è il fondatore e direttore del Visual Artificial Intelligence Lab presso IBM Research con sede a Cambridge, MA.

Utilizzando l’Intelligenza Artificiale, tra Big Data e innovazione, e integrando la ricerca della bellezza con il valore della conoscenza, per realizzare le proprie opere Mauro Martino ha sperimentato nuovi modi per esplorare il mondo dell’arte.

Pioniere nell’uso dell’IA e delle reti neurali artificiali per la creazione di opere scultoree, ha realizzato il suo David. Recentemente ha ultimato Strolling Cities, un’opera visuale che è ora esposta alla XVII Biennale Architettura di Venezia 2021.

I progetti e i video che ha ideato e sviluppato sono visualizzati da milioni di utenti ogni anno e sono stati presentati a festival internazionali tra cui Ars Electronica, TEDx Cambridge THRIVE, RIXC Art Science Festival, TEDx Riga.

Nel 2017 con il progetto Network Earth ha ottenuto il premio Best Scientific Video al Vizzies Visualization Challenge della National Science Foundation, e nel 2019 il progetto AI Portraits gli è valso il Webby People’s Voice Award per la categoria NetArt.

Oltre a essere un pioniere nell’uso della IAnel mondo dell’arte, Mauro Martino è un designer pluripremiato, e recentemente è stato membro di giuria del contest Re:Humanism Art Prize al Maxxi di Roma.

Opere e progetti

Artista e scienziato, con le sue opere Mauro Martino ci accompagna a scoprire un mondo in cui IA, Big Data e sperimentazione scientifica si fondono in una nuova estetica di suggestiva bellezza: è una «poesia visuale», come lui stesso la definisce in Strolling Cities, poesia che ritroviamo come fil rouge in tutta la sua produzione.

Nel 2017 Mauro Martino2 inizia a lavorare per il David3, una scultura realizzata con l’uso dell’Intelligenza Artificiale in dimensione 3D che nella sua essenzialità presenta un affascinante equilibrio tra la sperimentazione tecnologica e i canoni armonici della bellezza classica.

Qui introduciamo una GAN pix2pix modificata, che chiamiamo Vox2Vox, che è in grado di convertire tra loro diverse rappresentazioni 3D di un oggetto 3D. In particolare, insegniamo a Vox2Vox a costruire una rete 3D come un modo astratto per rappresentare una scultura, una costruzione che chiamiamo Vox2Net. L’input di Vox2Net è una nuvola di punti della scultura 3D e il suo output sono nodi sferici e collegamenti tubolari che insieme imitano la forma astratta della scultura originale. Vox2Vox consente all’utente di convertire forme 3D in qualsiasi rappresentazione astratta della forma, nonché stili diversi utilizzando i dati di allenamento appropriati4 .

/www.youtube.com/ watch?v=VbKZTEqlzAc Mauro Martino, David, 2018, The first art sculpture made with a generative adversarial network (GAN).

Quest’opera ci rimanda all’essenza del David di Michelangelo: è una scultura rispettosamente costituita dai suoi “punti” cardine, gli elementi essenziali di una struttura simbolo di perfezione, e alla

1. Mauro Martino, David, 2018, generato da una pix2pix GAN modificata, Vox2Vox, in grado di convertire tra loro diverse rappresentazioni 3D di un oggetto 3D. Courtesy Mauro Martino.

www.youtube.com/ watch?v=GW4s58u8PZo&t=81s A network of science: 150 years of Nature papers.

2 ▷ p. 298 cui origine non troviamo la mano di uno scultore ma l’Intelligenza Artificiale che diventa così lo scalpello di un’innovativa opera d’arte.

Partendo dai Big Data, nel 2019 Mauro Martino ha realizzato il video A network of science: 150 years of Nature papers5: A snapshot of the ever growing web, un progetto di grande rilevanza tecnologico-scientifica per celebrare i centocinquant’anni della rivista Nature, in cui ci mostra quanto la scienza sia una enorme e affascinante rete interconnessa, e scrive:

Questa rete mi ha ricordato l’espressionismo astratto di Pollock, la varietà dei colori e la loro distribuzione ci racconta la vivacità della scienza, sempre più multidisciplinare. È anche un invito a superare le barriere che a volte esistono nella ricerca, solo così la conoscenza avanza.

In questo video, ogni pubblicazione è rappresentata da una singola sfera. Tutti gli articoli, i papers editi dalla rivista Nature, sono raggruppati in campi e cluster contraddistinti da colori diversi, a ogni colore è associato un campo di studio, per esempio il verde alla fisica, il giallo alle scienze della terra e dello spazio e così via. Nella rete due sfere, ovvero due articoli vengono collegati quando un terzo articolo li cita entrambi, e la diversa dimensione di ogni sfera rappresenta il numero di collegamenti di co-citazione.

È un’opera che stupisce per la complessità della sua costruzione e per la semplicità della consultazione6: una user experience nel museo della pubblicazione scientifica.

Nel 2019 Mauro Martino con Luca Stornaiuolo, ricercatore presso il Politecnico di Milano, ha realizzato AI Portraits, ritratti generati dall’Intelligenza Artificiale, ottenendo un enorme successo con ben otto milioni di ritratti eseguiti al giorno. L’applicazione AI Portraits Ars permette di trasformare la fotografia di una persona in un ritratto rinascimentale.

2. Mauro Martino, A network of science: 150 years of Nature papers: A snapshot of the ever growing web, 2019. Courtesy Mauro Martino. 3. Mauro Martino, AI Portraits Pro, 2019. Courtesy Mauro Martino.

Per questa applicazione è stato addestrato un algoritmo (GAN) su un dataset costituito da 45.000 ritratti prevalentemente di stile rinascimentale.

strollingcities.com/index. html#VoicetoCity Mauro Martino, Strolling Cities.

L’ultimo lavoro di Mauro Martino è Strolling Cities – Visual Poetry generated by Artificial Intelligence7 esposto alla XVII Biennale d’Architettura a Venezia.

Strolling Cities ci mostra un modo nuovo di vedere dieci città italiane: Milano, Como, Bergamo, Venezia, Genova, Roma,

Catania, Palermo, Bologna e Firenze. Il video è stato realizzato impiegando milioni di foto scattate durante i recenti lockdown 2020/2021. L’IA addestrata su queste immagini crea un video in continuo movimento, i cui contorni indefiniti suggeriscono una potenziale trasformazione di luoghi urbani, un tempo ascritti a specifiche funzioni sociali, in spazi aperti a disposizione di innumerevoli (ri)scritture.

4. Mauro Martino e Politecnico di Milano, Strolling Cities – Visual Poetry generated by Artificial Intelligence, 2020-2021. Courtesy Mauro Martino.

Ritornate all’immanenza della loro materialità, le città abbandonano i loro contenuti semantici stereotipati, per abbracciare una nuova dimensione di estrema elusività.

Ci ritroviamo a osservare e visitare le nostre città italiane in una dimensione nuova e al contempo estremamente intima. Le città, i suoi muri, le strade e gli edifici non perdono la loro specificità ma vengono reinterpretati in una dimensione onirica. Le parole si inseriscono perfettamente in questo percorso di riscoperta, una Visual Poetry ricca di associazioni visive ed emozionali. Quando arrivi alla fine del video ti sembra di aver vissuto un sogno, di aver camminato fluttuando tra strade e parole. Il video si conclude con una citazione:

Se ti dico che la città cui tende il mio viaggio è discontinua nello spazio e nel tempo, ora più rada ora più densa, tu non devi credere che si possa smettere di cercarla. Italo Calvino, Le città invisibili, 1972

Le valenze artistiche e scientifiche si fondono costantemente nelle opere di Mauro Martino oggi ben note a livello internazionale, ma nel corso di una lunga conversazione che ha preceduto l’intervista, Mauro mi ha generosamente aperto la porta del suo mondo, un mondo non più di valenze bensì di valori che determinano la statura di un uomo. Tra importanti ricerche, complessi progetti, nuove sperimentazioni con l’applicazione dell’IA e creatività, Mauro Martino è un uomo che vive con consapevolezza la realtà della nostra era tecnologica e che con lucidità la giudica, ora avvicinandosi con lo spirito indagatore dell’artista, ora allontanandosene con il profondo senso critico dello studioso, dell’uomo di pensiero. È un uomo dall’animo “romantico” nell’accezione letteraria del termine: ai miei occhi, infatti, la sua narrazione non è lontana da quell’epos cavalleresco in cui l’ideale della libertà individuale e del genio si fonde con il carattere fantastico della creazione artistica e lo stupore per la natura.

L’intervista che ha rilasciato è uno sguardo sulla sua produzione artistica e un’importante riflessione su temi di grande attualità.

R. P.: Tra ricerca, sperimentazione, arte, insegnamento e partecipazione a importanti mostre internazionali sia come artista sia come giudice per la selezione di opere realizzate con le nuove tec-

nologie. Stai esplorando il mondo dell’Intelligenza Artificiale applicata all’arte a 360°. Quale prevedi sia il futuro prossimo dell’Intelligenza Artificiale nella creazione di opere d’arte?

M. M.: Viviamo in un mondo complicato, e abbiamo conoscenze limitate per poterlo comprendere. Abbiamo bisogno di sperare in un futuro migliore. Esigenza che cresce con l’aggravarsi della crisi climatica, l’aumento dell’inquinamento, e la distruzione della biodiversità. In questo contesto è molto facile credere che presto andremo a colonizzare Marte, che siamo vicini a sconfiggere tutte le malattie, che l’Intelligenza Artificiale esiste, o sta per essere creata. Queste grandi promesse della scienza sono dei simulacri, speranze lontane dalla realtà effettiva.

L’Intelligenza Artificiale intesa come simile a quella umana, non esiste e non credo esisterà mai.

Quello che vedremo in futuro saranno modelli matematici sempre più capaci di convincerci che l’Intelligenza Artificiale esiste. Pupazzi sempre più convincenti. A un certo punto la simulazione dell’intelligenza sarà cosi efficace che ci dimenticheremo della differenza tra vero e falso, tra autentico e rappresentato.

Credo che l’artista oggi possa giocare su due fronti: alimentare la fede verso tecnologie sempre più potenti e capaci di risolvere ogni problema; oppure scuotere gli abitanti della terra, farli sentire soli e abbandonati a un destino incerto.

Un’immagine di riferimento se si sceglie il secondo percorso è Earthrise, una fotografia della terra e di parte della superficie lunare. Venne scattata il 24 dicembre 1968 da William Anders, che era in orbita lunare durante la missione Apollo 8. Galen Rowell l’ha definita «la più influente fotografia ambientale mai scattata».

Earthrise è un’immagine super tecnologica, scattata grazie al programma Apollo. Le immagini che gli artisti AI generano sono altrettanto supertecnologiche. Spero abbiano lo stesso fortunato destino di Earthrise, e ci spingano ad avere più cura del nostro pianeta e delle altre specie viventi che lo abitano con noi.

R. P.: L’Intelligenza Artificiale per creare un’opera d’arte: un nuovo strumento o una nuova fonte di creatività?

5. Earthrise, Apollo 8, la prima missione con equipaggio sulla luna che entrò nell’orbita lunare la vigilia di Natale, il 24 dicembre 1968. Quella sera, gli astronauti, il comandante Frank Borman, il pilota del modulo di comando Jim Lovell e il pilota del modulo lunare William Anders, tennero un live trasmesso dall’orbita lunare, in cui mostravano immagini della Terra e della luna viste dalla loro navicella spaziale. Queste le parole di Lovell: «La vasta solitudine è impressionante e ti fa capire cosa hai laggiù sulla Terra». Courtesy NASA.

M. M.: Tutto quello che oggi è AI avanzata, domani sarà un nuovo filtro in Photoshop. Nel senso che sarà disponibile a tutti e nuove frontiere della “vera” AI nasceranno.

Oggi spesso facciamo riferimento alle reti neurali artificiali profonde quando parliamo di AI. L’aspetto indeterministico di queste complesse architetture le rende imprevedibili e quindi fonte di ispirazione. Non penso ci troviamo di fronte a un semplice mezzo espressivo come il pennello, lo scalpello, la macchina fotografica, la cinepresa. I modelli generativi sono indomabili, hanno una loro estetica a cui dobbiamo adeguarci, e con grande difficoltà stiamo imparando come addolcirli e fargli fare più o meno quello che vogliamo.

Se si passano 10 anni ad addestrare modelli si può capire quanto sia inappropriato il raffronto con i mezzi espressivi utilizzati fino a oggi. La cinepresa ha un suo linguaggio espressivo, ma è un oggetto statico che maneggio e guido. L’AI non è un oggetto, è un flusso costante di nuovi modelli matematici. Più in dettaglio l’AI generativa va addestrata a rappresentare qualcosa, e una volta arrivati al latent space di questo modello non si sa più come muo-

versi, dove andare, cosa si nasconde all’orizzonte. Non si sa neppure quanti orizzonti esistono perché nel latent space ci possono essere migliaia di dimensioni. Per concludere, penso che l’AI sia uno strumento espressivo fatto di incertezza e indeterminazione.

R. P.: Come è nata l’idea di creare David, una scultura realizzata con l’Intelligenza Artificiale?

M. M.: David è il mio primo progetto AI a uscire completamente dagli schemi. Nato nel 2017, e presentato al pubblico nel 2018 durante la conferenza NeurIPS a Montréal.

È difficile parlare di questo progetto perché non è finito, sto cercando tempo ed energie per chiudere questa fase lunghissima di gestazione e iniziare una produzione di AI Sculture. Il via a questa nuova fase arriva dalla richiesta di IBM di creare una scultura all’interno del laboratorio MIT-IBM Watson AI Lab. Una scultura di oltre 2 m di diametro, tutta in alluminio, la prima nel suo genere. Sto lavorando a questo progetto da diversi mesi ed è quasi pronto. A partire da ottobre sarà visibile a tutti.

L’idea di creare sculture con le ultime tecnologie di AI non è originale oggi. Pensiamo ai lavori di Meredith Thomas and Christian Mio Loclair, vincitori del Lumen Prize 2020, Egor Kraft, Ben Snell, e gli ultimissimi lavori di Sofia Crespo esposti al Maxxi di Roma. Negli ultimi 3 anni c’è stato tantissimo fermento, e i tentativi di mostrare forme nuove sono stati più o meno soddisfatti. La collezione di sculture presentata a NeurIPS 2018 rimane unica per l’estetica scheletrica, i richiami alle opere di Giacometti, l’aspetto di deprivazione a cui sono arrivati. Il network come strumento di comprensione di fenomeni complessi, ma anche come ultima struttura visibile prima del collasso. Network come scheletro della sfera concettuale, culturale, esistenziale dell’uomo. Penso che il progetto sia bello di per sé, e la sovrastruttura di come è stato fatto non sia necessaria per capire il progetto, ma indubbiamente gli dà un tono di modernità e di avanguardia.

R. P.: Stai partecipando alla XVII Biennale Architettura di Venezia con Strolling Cities – un’opera di grande impatto emotivo – tra parole e immagini. Ce la puoi raccontare?

M. M.: Penso ci sia della nostalgia dietro questo progetto, nel mio animo l’Italia è la grande assente durante tutta la pandemia. Da qui il desiderio di trasferirla nello spazio multidimensionale di un modello neuronale. Il latent space di Strolling Cities è diventato un’enciclopedia dei miei luoghi di origine. La somma di tutte le enciclopedie possibili delle città italiane, con immagini contrastanti che rappresentano ed esprimono diversi sentimenti. Vivendo a Cambridge, il valore dei miei ricordi di Milano, di Roma, di Venezia, di Cosenza è cresciuto mese dopo mese, nell’isolamento sociale che il Covid-19 ha imposto. Nel Maggio del 2020 ho così deciso che la bellezza e il sentimento, i contenuti sociali, etici, storici e psicologici dei miei ricordi dell’Italia potevano diventare un progetto artistico con cui consolarmi. Dalla nostalgia esce sempre qualcosa di buono.

L’idea di generare spazzi urbani capaci di suscitare un’emozione nasce nel 2011, lavorando al progetto del MIT Place Pulse (tool creato per mappare le percezioni delle persone degli ambienti urbani) con il mio amico César Hidalgo. In quel periodo non avevamo immagini di città ad alta risoluzione e potevamo classificare le immagini solo manualmente. Ho dovuto attendere 10 anni per poter utilizzare solamente modelli non supervisionati e automatizzare completamente il processo e creare un zero-shot framework basato sul modello CLIP per generare un’immagine corrispondente a una data didascalia. Didascalie che possono essere anche molto vaghe ed emozionali come i testi di una poesia

Sapete qual è la domanda più importante quando si lavora con modelli generativi? Cosa insegno al modello? Che parte del mondo gli faccio riconoscere? L’AI ha bisogno innanzi tutto di imparare guardando la realtà e poi è capace di rigenerare il reale dopo averlo trasfigurato nell’immaginario.

Navigo nei latent space da ormai 6 anni, sin dai tempi del DCGAN.

Questa estetica del divenire – esempio di un random walk nel latent space di Firenze: https://player.vimeo.com/video/553613282 – non mi ha ancora stancato, la trovo incredibilmente surreale, a volte psichedelica. Ormai abbiamo visto modelli allenati con qualsiasi tipo di immagine: tulipani, coleotteri, funghi, diamanti, ferrai, New York, la luna, tutto. Queste animazioni create da un random

player.vimeo.com/ video/553613282. Strolling Cities.

walk in the latent space hanno sempre una cosa in comune: sono collezioni più o meno curate di immagini provenienti da Internet, o da vari archivi, o da sequenze di frame di film. Per utilizzare una metafora molto abusata, è come se avessi una macchina fotografica e decidessi di fotografare solo quello che è già stato fotografato. Non c’è coscienza della complessità del linguaggio filmico, non c’è autorialità nella composizione. Quello che vedi di una New York ricostruita da un modello generativo è quello che vedono i turisti se utilizzi le immagini di Flickr. La telecamera salta da un’inquadratura all’altra, le prospettive cambiano continuamente, perché il tuo dataset è incredibilmente variegato. Ancora meno originali sono i risultati dei modelli che utilizzano frame di film di grandi registi, dove si finisce per restituire un distillato “AI” della grande poesia visiva della pellicola di Ingmar Bergman, o di Ridley Scott.

La mia decisione di ricostruire le città italiane partendo da una collezione fatta in house nasce dal desiderio di costruire un linguaggio visivo, di avere più controllo sui modelli generativi. Non mi ero mai cimentato prima in questa impresa titanica. Nei miei precedenti progetti ho sempre dedicato tutte le mie forze all’architettura del modello e all’esperienza dell’utente. Facevo finta di non vedere il dataset, probabilmente ne avevo paura.

Ho trovato dei partner straordinari al dipartimento di Architettura del Politecnico di Milano: Ingrid Paoletti, Luca Stornaiuolo, Maria Anishchenko, Seyma Adali, Dalila Colucci e tanti altri; la partnership con la startup MindEarth che ha fornito tutta la tecnologia per la mappatura della città tramite fotografie.

Abbiamo istruito gli studenti su come utilizzare le apparecchiature, che inquadrature fare ed esattamente che percorso fare e in quali condizioni di tempo e di luce. Senza la collaborazione con gli architetti e gli urbanisti del Politecnico non potreste vedere le città italiane per quello che sono, con un mix di periferia e di centro molto calibrato.

C’è autenticità, in Strolling Cities: potete vedere Roma per come la vive un romano. Accade qualcosa di magico, spariscono i Landmark ma le città sono ancora riconoscibili.

R. P.: La paternità dell’algoritmo usato per creare opere d’arte con Intelligenza Artificiale è un tema oggi molto discusso. Molti grandi Maestri in passato hanno copiato o si sono ispirati a opere di altri artisti per creare a loro volta delle opere d’arte. Oggi può un artista prendere in “prestito” un algoritmo creato da qualcun altro rimanendo autentico? Quanto incide l’originalità di un artista nella scelta dell’algoritmo: siamo forse arrivati a un livello tale di produzione di modelli di algoritmi in cui anche individuare quello giusto per rappresentare il proprio linguaggio estetico è una scelta?

M. M.: Nel mondo dell’arte digitale il copia e incolla è l’incubo di ogni curatore. Come distinguere una persona che copia da un artista dotato di un suo linguaggio? Non credo ci sia soluzione, avere l’idea originale, il codice originale, l’estetica originale in un mondo effimero come l’arte digitale è quasi un ossimoro.

La grande conquista dell’arte digitale è l’aver reso artisti tutti. È un processo di democratizzazione iniziato con la fotocamera e che sta andando avanti, demolendo i confini tra artista e uomo di strada. Ora sembrano apparire nuove barriere, quelle della programmazione, la necessità di riuscire a leggere Python e a clonare un GitHub repository. Ma queste nuove barriere per l’arte AI sono effimere e prestissimo crolleranno. Usciranno tool che renderanno disponibile a tutti gli algoritmi più trendy.

R. P.: Quali sono i tuoi progetti futuri?

M. M.: In questo momento sto facendo tanti esperimenti con VQGAN e CLIP, penso che la dimensione semantica nella creazione di opere digitali sarà sempre più importante. Creare immagini attraverso i testi è molto facile oggi, sono immagini acide e surreali, capaci di far sognare lo stesso Salvador Dalí. Ho lavorato con questa tecnologia con Strolling Cities, ma con l’intento di non far vedere l’estetica dell’Artificial Intelligence, di rendere tutte le immagini super realistiche. Ora sto lavorando con l’intenzione opposta: lasciare che l’algoritmo esprima la sua estetica. In realtà, non so se c’è un’estetica dei modelli che stiamo creando, ma so che c’è il mio desiderio di scoprire questo lato nascosto, la parte visuale nel campo della ricerca sull’AI.

10 luglio 2021

This article is from: