20 minute read
Intelligenza artificiale:
Tra Limiti E Potenzialit
di Daniele Bettini
L’intelligenza artificiale nel manifatturiero spesso è pura forza computazionale, che «tarata su un dominio riesce a risolvere bene task specifici» evidenzia Giovanni Maria Farinella dell’Università di Catania, cosa che come ovvio, con l’intelligenza non c’entra niente. La definizione scritta che otteniamo, da Chat GPT di Open AI, nel momento in cui chiediamo un testo su “intelligenza artificiale” e manifattura è un po’ vaga, ma interessante e piuttosto aderente alla narrativa ufficiale:“L'intelligenza artificiale (IA) sta giocando un ruolo sempre più importante nel settore manifatturiero. L'IA può essere utilizzata per aumentare l’efficienza della produzione, migliorare la qualità dei prodotti, ridurre i costi e aumentare la sicurezza sul lavoro. Ad esempio, i sistemi di visione artificiale possono essere utilizzati per ispezionare i prodotti in tempo reale durante la produzione per garantirne la qualità, mentre i sistemi di automazione basati sull'IA possono essere utilizzati per ottimizzare i processi produttivi. Inoltre, l'IA può essere utilizzata per prevedere i guasti dei macchinari e pianificare la manutenzione preventiva, migliorando così la disponibilità delle attrezzature.”
La computer vision
Negli impianti di Orogel alla fine degli anni ’60 delle persone addette selezionavano gli spinaci, a vista, controllando le foglie che passavano sui rulli ed eliminando quelle non idonee. Oggi quel lavoro è svolto da sensori che automaticamente effettuano la selezione e gestiscono 4 linee da 8 tonnellate di spinaci l’ora. Una “semplice” applicazione di computer vision che rappresenta una delle soluzioni più in voga. Può essere utilizzata per il controllo qualità dei pezzi in linea o appunto, per la selezione di oggetti e il loro posizionamento o l’eventuale presenza di difetti. L'addestramento è relativamente complesso: occorre “caricare” migliaia di immagini con spinaci corretti cioè adatti alla produzione e altrettante di foglie non idonee (cosa fattibile se realizzata in un ambiente controllato dove la luce è costante e sempre uguale a sé stessa). Nell’università di Catania è nato lo spinoff Next Vision che sta portando sul mercato Nairobi e Naomi software di AI e computer vision appena presentati al CES di Las Vegas. Il primo è un navigatore per spazi chiusi, in grado di autolocalizzarsi partendo da una semplice immagine scattata dal telefonino e ricostruendo il percorso, in realtà aumentata, per raggiungere la meta richiesta. Può essere utilizzato con tablet o smartphone ed è progettato per guidarci all’interno di ospedali, aeroporti, grandi magazzini, padiglioni di eventi fieristici e quant’altro. Naomi invece è un assistente intelligente che, analizzando sempre immagini o video acquisiti da una camera riesce a capire cosa sta facendo l’utente in quel preciso momento. Un’interazione tra uomo e oggetto, con algoritmi che permettono di guardare la scena dal punto di vista dell’operatore e di poterla analizzare, capendo se stai toccando un oggetto più o meno pericoloso. Sono applicazioni utili nell’ambito della sicurezza sul lavoro dove il software, prevedendo che il soggetto toccherà quell’oggetto, lo disattiva, oppure sapendo cosa sta toccando può fornire informazioni necessarie.
IA su macchine per macchine
«Alleniamo i nostri sistemi con milioni di dati, che poi non servono nei sistemi embedded» prosegue Farinella «perchè creati i modelli servono solo i parametri e non la formula in sé. Per questo anche sistemi con l’intelligenza artificiale a bordo riescono a svolgere agevolmente compiti complessi». Questo è il primo nodo, «si tratta di AI su macchine per macchine», sottolinea Giuseppe Ciccotti, Chief Technical Officer di Mylime ed esperto di IT «qui si ha bisogno di velocità, non c’è tempo per agganciarsi al cloud, gira tutto sull’edge in locale e i modelli non possono essere troppo pesanti, ma possono comunque svolgere molti compiti. Sono soluzioni efficienti, spesso legate alla computer vision che riguarda il riconoscimento degli oggetti sulla linea, con difetti o errori di posizionamento. Sono soluzioni di AI relativamente semplici, che funzionano bene, mentre quelle legate agli impianti o alle supply chain dove devi mettere d’accordo molti più player, e molti più dati, magari da analizzare in tempo reale, sono molto complicate, a volte non funzionano o richiedono la reingegnerizzazione dei processi. Inoltre ci si può trovare di fronte a delle black box, delle soluzioni su cui non controlli totalmente l’algoritmo e a cui nessuno vuole affidarsi anche per questioni burocratiche o di responsabilità. Un conto è scartare un pezzo, altro è capire se accettare o meno una partita o decidere se un fornitore è affidabile o peggio se c’è una frode, in questo caso il falso negativo è più complesso da gestire». Dal momento che l’AI rappresenta un'enorme capacità di calcolo questa può essere gestita all’edge, cioè direttamente sulla macchina, quando questa deve prendere delle decisioni pressoché immediate e non ha il tempo di mandare informazioni a una centrale (e quindi per esempio in cloud) con una enorme capacità di elaborazione, per ricevere delle informazioni su cosa fare. La macchina senza pilota avrà un sistema di previsione che le permette autonomamente di capire
«Alleniamo i nostri sistemi con milioni di dati, che poi non servono nei sistemi embedded perchè creati i modelli servono solo i parametri e non la formula in sé. Per questo anche sistemi con l’intelligenza artificiale a bordo riescono a svolgere agevolmente compiti complessi»
Giovanni Maria Farinella dell’Università di Catania
Negli impianti di Orogel alla fine degli anni ’60 delle persone addette selezionavano gli spinaci, a vista, controllando sui rulli le foglie che passavano e eliminavano quelle non idonee. Oggi quel lavoro è svolto da sensori che automaticamente effettuano la selezione e gestiscono 4 linee da 8 tonnellate di spinaci l’ora.
cosa sta facendo quel pedone e quindi reagire un decimo di secondo prima che attraversi la strada, così funzionano tutte le soluzioni di computer vision che gestiscono la qualità sulle linee di cui abbiamo già parlato. Altro invece è avere un sistema di intelligenza artificiale che gestisce un impianto, che deve ricevere ed elaborare dati da più “bocchettoni” continuamente e deve programmare entrata e uscita degli input, coordinando le diverse parti di un impianto. Se deve gestire la produzione o, per esempio, le colate di acciaio, ha tempo per elaborare e per adottare la soluzione migliore, come quei sistemi di IA che cercano le molecole in medicina: compiono calcoli complessi in tempi molto lunghi. Tra questi estremi ci sono decine di soluzioni sviluppate da piccole medie imprese che lavorano sul campo a fianco dei loro clienti.
Per non stravolgere i processi
«Come Ammagamma» ci spiega Andrea Mordenti (Solution sales manager) «non ci permettiamo di toccare i processi, costruiamo le soluzioni andando nelle imprese e parlando con chi lavora tutti i giorni. È un processo di costruzione dell’AI bottom-up, rappresenta un’ottimizzazione basata sulla matematica. La manutenzione predittiva in ambito manifatturiero è complessa da realizzare, in quanto le condizioni di contorno devono essere molto stabili, per questo abbiamo applicato un concetto simile su asset fisici “protetti”. In pratica, il fatto che le macchine manifatturiere siano spesso settate per quella precisa operazione, in quel singolo contesto, rende molto complesso creare dei data set validi, quindi Ammagamma sposta il focus su oggetti fisici identici tra loro e poco soggetti alle condizioni esterne: i pali della luce e i contatori del gas». Prosegue sempre Mordenti «La nostra matematica è stata utilizzata per fare manutenzione predittiva e calendarizzazione delle squadre di manutenzione per questi asset e le cabine di media tensione della luce. Abbiamo preso lo storico degli interventi passati e l’abbiamo combinato con i dati esogeni che comprendono strade, zone con potenziale dissesto idrogeologico e quant'altro. Mettiamo tutto in un motore che ci dice quando è meglio anticipare o posticipare un intervento manutentivo in modo da intercettare prima un eventuale disservizio. Questo permette di avere vantaggi diretti perché consente di fare manutenzione solo là dove c’è bisogno con un risparmio in termini di tempo e consumi, inoltre migliori il servizio, hai meno lamentele e utenti più soddisfatti (per far un esempio concreto una multi-utility ha ridotto il budget allocato per la gestione dei pali della luce del 25%)». È una declinazione di manutenzione predittiva interessante che dimostra come il trasferimento tecnologico delle soluzioni in questo ambito sia possibile e relativamente fattibile (tenendo conto che devono cambiare i dati e l’analisi in funzione del contesto).
Dall’analisi delle devianze alla manutenzione predittiva
«Di manutenzione predittiva su dispositivi edge embedded nel manifatturiero se ne parla molto, ma si ha un’applicazione pratica relativamente limitata a specifici casi d’uso» Questa è la posizione di Andrea Richetta head of Arduino PRO Customer Success, che prosegue «certo, è sfidante riuscire ad applicare modelli efficaci in contesti complessi. Se si ha bisogno di
«La manutenzione predittiva in ambito manifatturiero è complessa da realizzare, in quanto le condizioni di contorno devono essere molto stabili, per questo abbiamo applicato un concetto simile su asset fisici “protetti”»
Andrea Mordenti Solution sales manager Ammagamma
predire quando un determinato cuscinetto inserito all’interno di una macchina si rovinerà, sarà molto difficile, perché qualunque tipologia di misurazione di telemetria che si riesca a ottenere sarà molto generica e influenzata da fattori diversi, per questo non può essere così puntuale. L’unico modo per poter avere un dato preciso è avere un sensore su ogni elemento rotante, cosa che di fatto aumenta la difficoltà, e soprattutto è una pratica invasiva, che preclude ogni tipo di applicazione su macchinari esistenti. Si può certamente arrivare a uno step intermedio rispetto alla condizione attuale e potremmo considerare come manutenzione predittiva l’analisi delle deviazioni, quindi, stabilito il funzionamento a regime, determinare le problematiche in funzione di una deviazione da quel livello. Come Arduino stiamo studiando l’analisi dei comportamenti dei macchinari attraverso l’analisi dei consumi elettrici, poiché il consumo elettrico ha un pattern da cui, se arriva da un oggetto che ha un comportamento di funzionamento relativamente standard, si riesce a ricavarne un dato, cioè uno schema che può rappresentare l’effettiva funzionalità della macchina». Prosegue sempre Richetta che prova a farci entrare nel suo mondo «Immaginiamo un'isola di saldatura che utilizza sistemi elettrici. Come prima cosa, la macchina ha un profilo di funzionamento, si accende, si accendono gli ausiliari e la parte idraulica e poi inizia a lavorare. Già con questi dati, dalla parte di consumo della macchina, si riesce a stabilire un pattern, può essere deviato da qualche azionamento non standard, che si può comunque sezionare e quindi, per esempio, decidere di analizzare soltanto il dato di consumo della saldatrice. A questo punto con un’acquisizione si riesce a creare un dataset, relativamente limitato, perché il range di funzionamento di quella macchina è prestabilito. Quindi si può iniziare a valutare le singole deviazioni standard cioè, se il condotto di saldatura funziona male, la macchina rallenta e fa consumare di più. Questo è un indicatore, una deviazione che possiamo fare rientrare nelle casistiche di manutenzione predittiva, ov- vero segnalare che in questo momento le condizioni di funzionamento standard della macchina non sono rispettate». Quindi dove c’è la possibilità di avere un dato di telemetria sufficientemente campionabile e quindi ragionevolmente preciso, dove si può pensare che la deviazione è il “campanello di allarme” per arrivare alla manutenzione predittiva, si può iniziare a ragionare, tutto il resto è molto embrionale.
Un altro caso su cui il team di Arduino si è trovato a operare riguarda un’azienda che produce lubrificanti per macchine pesanti. In un range di funzionamento standard le macchine dovevano cambiare l'olio ogni due mesi e mezzo, a seguito di una serie di analisi su fluidità e limpidezza dell'olio sono riusciti a estrarre tutta una serie di parametri che hanno consentito di ottimizzare il cambio dell'olio passando da un modello di fornitura standard a un modello business as a service.
«Sulla computer vision invece» aggiunge Richetta «abbiamo realizzato due progetti interessanti, (che rientrano sempre nella sfera del controllo qualità N.d.R.) il primo è un'analisi e ispezione ottica sul corretto montaggio delle paratie dei bocchettoni del carburante, il secondo invece è uno strumento che inquadra un pacco sul nastro trasportatore e sa dire se questo è danneggiato, rotto o aperto e nel caso decide se scartarlo o portarlo avanti sulla linea».
La forza della generalizzazione
«Noi di Ammagamma» continua la sua riflessione Andrea Mordenti, «non vediamo l'IA come uno strumento pensato per sostituire l'uomo, ma cerchiamo di ridurre la complessità, diamo suggerimenti». È la logica della deviazione, del ridurre le opzioni e guidare l'umano alla scelta, cosa sensata se si pensa anche al concetto di responsabilità che ne deriva.
«Se abbiamo 100 opzioni per noi l'importante è arrivare a risolverne 96 e analizzare solamente le 4 che ri- chiedono la mia intelligenza, oppure ridurre il tempo che impiego per gestire quelle 100 casistiche, ma non abbiamo un sistema che automatizza la raccolta dati e decide in autonomia quali azioni pratiche applicare senza la supervisione del responsabile di processo». La medicina in questo è anni luce più avanti del manufacturing, soprattutto sullo studio delle immagini ci sono migliaia di paper che dimostrano come la collaborazione tra la raffinatezza della computer vision e la sensibilità e l'esperienza del medico siano il mix che produce i risultati migliori. «Grazie alla computer vision il controllo qualità ragiona proprio così, – continua Andrea Mordenti – ha tonnellate di immagini già classificate che dicono “cosa fare”. Una nostra case history in questo senso è il controllo del processo di verniciatura della scocca delle automobili che doveva cogliere piccole sbavature, fori, imprecisioni. Chi fa controllo qualità ha già una classificazione delle casistiche e a questo punto il processo è pura forza computazionale, più un minimo di generalizzazione. Puoi avere 100 casistiche di errori, così alleni un modello che li riconosce. Inoltre, devi avere la forza e la capacità di dare all’IA la possibilità di riconoscere gli errori che sono leggermente diversi da quelli già categorizzati, ma affini a quelli che già conosce». È il bilanciamento tra overfitting (una regola fissa) e la capacità che ha l'IA di riuscire a intercettare anche quelle variazioni non “catalogate” e scartarle oppure segnalarlo all'operatore. È lo stesso processo di approssimazione che porta a ridurre progressivamente il numero delle scelte da 100 a 4, dopo di che sarà l'operatore a prendere la decisione finale. «I processi completamente automatizzati sono troppo rischiosi, non vale la pena, conviene avvicinarsi a un intorno e lasciare all'uomo “l'ultimo miglio” quello più complesso, con l'IA supervisionata si possono gestire molte macchine con pochi addetti liberandosi anche dai problemi burocratici. Io, personalmente vedo il futuro in questa direzione». Un progetto simile al precedente, riguarda il confezionamento dei salumi, qui, l'oggetto del controllo sono le macchioline di sangue che, come ovvio, non sono sempre nella stessa posizione e non hanno sempre la stessa forma e dimensione, per questo è necessaria la flessibilità e la capacità dell'IA di “generalizzare”.
Dalle piattaforme per la pianificazione alle control tower
Altro macro campo di applicazione dell’intelligenza artificiale è quello del Forecasting e pianificazione «Dove vediamo utilizzo di machine learning e di IA – introduce il tema Giacomo Coppi di SAP – è innanzitutto nella piattaforma di planning perché l’esigenza del business è evidente. Il livello di incertezza è aumentato e i consumatori sono iper demanding e si fa fatica a fare previsioni. Con IA e machine learning riusciamo a correlare i dati più vari, quelli storici derivanti dai vari reparti aziendali, dati social, dati dal campo, tutti insieme per cercare di avere delle previsioni più accurate. Sono le “famose” dashboard alla base delle strategie data driven relative alle previsioni di produzione, di budget e della demand planning. Queste poi possono aiutarci anche nell'operatività suggerendo quando lanciare un certo prodotto sul mercato e, nel caso, come modificarlo riducendo da un lato costi e tempi del go to market e gli scarti». Sono un po' le sfere di cristallo dell'oggi, che affiancandosi all'intuito umano ne aumentano la sensibilità, come accade nelle librerie dove, attraverso i dati di vendita, ma anche di sosta delle persone davanti agli scaffali e tanti altri, si capisce come è meglio posizionare i libri. Un’alleanza virtuosa tra il fiuto del libraio tradizionale e i dati. Continua sempre Coppi «Una soluzione che sta andando molto di moda è il concetto di control tower, c’è chi la vuole della pianificazione, chi della distribuzione, dei trasporti o della sostenibilità. Quella che stiamo distribuendo di più è quella legata al mondo della logistica. Rappresenta l'insieme di soluzioni che consentono a un'azienda di avere visibilità della di-
«Dove vediamo utilizzo di machine learning e di IA è innanzitutto nella piattaforma di planning perché l’esigenza del business è evidente. Il livello di incertezza è aumentato e i consumatori sono iper demanding e si fa fatica a fare previsioni. Con IA e machine learning riusciamo a correlare i dati più vari, quelli storici derivanti dai vari reparti aziendali, dati social, dati dal campo, tutti insieme per cercare di avere delle previsioni più accurate. Sono le “famose” dashboard alla base delle strategie data driven relative alle previsioni di produzione, di budget e della demand planning».
Giacomo Coppi di SAP
stribuzione dei propri prodotti, in questo l'IA trae vantaggio dalle società che offrono servizi che ti dicono come avvengono gli eventi di distribuzione e ti danno l'expected time of arrival della tua spedizione. Un tempo target che viene costruito e continuamente aggiornato sia con dati storici sia con dati che sono raccolti con algoritmi sensibili a diversi fattori: il brutto o il bel tempo, il mercato locale, il calendario delle festività, lavori in corso. In questo modo il mio expected time of arrival è legato alla comprensione di fattori che sto correlando per dare accuratezza elevata, in tempo reale, di quando la mia spedizione sarà portata a destinazione. Queste soluzioni sono integrate dentro il nostro transportation management e dentro il nostro global truck and trace, quindi possono essere utilizzate da chi pianifica i trasporti o da chi vuole solo la tracciabilità e l'evidenza di quello che sta succedendo». Sono progetti previsionali che hanno declinazioni tra loro molto diverse: Ammagamma ha sviluppato motori di ottimizzazione per Cirfood, una delle pricipali cooperative per la ristorazione collettiva. Il problema da risolvere era come riapprovvigionare il magazzino, la soluzione: una piattaforma con due macromoduli, uno strutturato per prevedere la domanda dei seguenti 20 giorni, l'altro, di ricerca operativa, progettato per ridurre le scorte di magazzino riducendo anche gli sprechi. Il risultato è stata una soluzione che ha ridotto di 111 tonnellate lo stoccaggio medio, con una diminuzione del 15% dello scarto (circa 300-400kg di cibo al giorno) e un’accuratezza delle performance di previsione dei trend di mercato migliorata del 50-55%.
I falsi miti
I casi esposti smascherano il mito dei big data: abbiamo sempre molti dati, chiariscono tutti i nostri interlocutori, ma spesso manca quel 10% che ci serve davvero. Altra cosa, al centro del progetto c'è sempre l'intelligenza umana che deve capire come pesare i dati e quali sono quelli davvero utili. Non ha senso fare previsioni di vendite utilizzando le serie storiche degli anni ’70, così come non ha senso inserire dati troppo disomogenei, come quelli del 2020 o del 2021 che per molti aspetti rappresentano anni troppo anomali, 30 anni di dati possono aiutarci a capire la stagionalità di un fenomeno, ma poi è importante imparare a pesare i dati in funzione del contesto e della rilevanza storica (andamenti più recenti sono maggiormente predittivi per il prossimo futuro, rispetto a informazioni molto datate, perché l’andamento del mercato, salvo rari casi, cambia). Relativamente ai dati sintetici, quelli che si generano volutamente per riempire dei buchi, hanno senso in alcuni contesti, ma molto meno in altri. Spesso servono a mitigare potenziali bias e “disuguaglianze statistiche” che possono influenzare i modelli predittivi o prescrittivi. Un esempio è quello relativo alla gestione delle politiche di promozione all'interno di una azienda, costruire un modello che parte dagli anni '60 o anche '70 vuol dire aumentare l'importanza di quelle categorie di persone che in quegli anni erano più presenti in azienda. Per questo ha senso costruire “artificialmente” informazioni che bilanciano opportunamente la serie storica.
L’intelligenza artificiale per le PMI
Vedrai è una startup fondata nel 2020 da Michele Grazioli che supporta con l’IA il processo decisionale di diverse funzioni aziendali: Amministratore Delegato, Direttore Finanziario, Direttore Vendite, Marketing Manager, Responsabile Acquisti e Responsa bile di Produzione. Per ogni funzione, mette a disposizione uno specifico Agente Virtuale che monitora milioni di dati interni (dati di produzione, gestionali, contabilità) e variabili esterne (variabili macroeconomiche, meteo, trend di ricerca, etc.) per calcolare l’impatto futuro di ogni decisione aziendale. James, nome di uno degli agenti virtuali, supporta l’Amministratore Delegato fornendo una panoramica complessiva dell’andamento aziendale simulando diversi scenari di allocazione di budget per osservare i risultati futuri a parità di condizioni. L'agente virtuale Frank monitora i trend di mercato e prevede la curva di domanda dei diversi prodotti, anche in funzione di variabili come il prezzo. Becky, invece, attraverso il monitoraggio delle notizie macroeconomiche che influenzano i prezzi e il controllo dei principali indicatori (Stocastico, MACD, RSI), permette al responsabile acquisti dell’azienda di avere un quadro previsionale di disponibilità e prezzi delle materie prime, supportandolo nella gestione dei costi e nella definizione della strategia di
Ma in che modo possono aiutare le PMI italiane e perché avete, tu, Michele Grazioli (NdR) e il tuo team, individuato questo target?
Abbiamo scelto di investire sulle PMI perché mancava un prodotto che fosse alla portata delle piccole e medie imprese, che non hanno la disponibilità economica né l’infrastruttura tecnologica e le competenze che servono per utilizzare queste soluzioni. Gli agenti virtuali sono piattaforme che le imprese possono utilizzare in cloud, senza dover disporre di un’infrastruttura dedicata, hanno una curva di apprendimento molto rapida e possono essere integrate subito e facilmente nel processo decisionale. Nel settore manifatturiero, Vedrai mette a disposizione delle PMI gli strumenti predittivi fornendo una panoramica complessiva dell’andamento aziendale, simulando diversi scenari di allocazione del budget, diversi contesti produttivi e logistici, fornendo in tempo reale accurati modelli predittivi sull’andamento del prezzo delle materie prime per elaborare una corretta strategia di approvvigionamento, quanto e quando acquistare ciascuna commodity, e muoversi con sufficiente sicurezza sul mercato.
Quanto costano, come funzionano e quali risultati potete dimostrare o ci si deve aspettare?
Il punto di partenza di Vedrai sono i dati, ma la forza delle soluzioni proposte dal gruppo sta nella capacità di trasformare la complessità degli stessi in informazioni strategiche facilmente leggibili dalle aziende.
Si tratta di soluzioni standardizzate, che consentono di abbattere i costi di accesso per la configurazione. Al costo di configura- zione si aggiunge un costo ricorrente per l’aggiornamento mensile. Utilizzare modelli standard, oltre a ridurre i costi, consente di avere una curva di apprendimento molto rapida e di poterli integrare nel processo decisionale sin da subito. È anche importante sottolineare che il colloquio iniziale con l’azienda, la capacità del modello di analizzare i dati sulle performance aziendali e di aggiornarsi costantemente, permettono di offrire un prodotto che integra le modalità con cui si comporta l’azienda normalmente per prendere quelle specifiche decisioni. Quindi, nonostante il prodotto sia standardizzato, si riesce a offrire un certo grado di personalizzazione in base al comportamento e alle esigenze aziendali.
Prevedete delle evoluzioni nel modello di business?
La strategia che persegue Vedrai è quella di creare un polo dell’intelligenza artificiale in Italia e in Europa aggregando le migliori competenze sul mercato attraverso acquisizioni e partnership per creare sinergie utili all’ecosistema e alle aziende.
La nascita di Vedrai Data Intelligence, la newco partecipata al 51% e al 49% da Altea Federation, (gruppo specializzato in consulenza direzionale e informatica), è parte di questa strategia di integrazione di filiera che consente a Vedrai di allargare la sua offerta anche alla raccolta e all’organizzazione dei dati. Per cogliere appieno le opportunità dell’intelligenza artificiale è necessario dare valore al dato, raccoglierlo, analizzarlo e processarlo nel modo adeguato. Con questa operazione Vedrai è in grado di supportare anche quelle aziende non ancora pronte per utilizzare suoi agenti virtuali perché ancora non dotate di processi digitalizzati
Lo Sportello Matematico per l’innovazione e le imprese
Lo Sportello Matematico per l’Innovazione e le Imprese (SMI2) è un progetto dell’Istituto per le Applicazioni del Calcolo “Mauro Picone” del CNR che nasce nel 2013 per mettere, come recita il motto del progetto, “la Matematica a supporto dell’Innovazione e della Società”.
Tutto parte dalla convinzione che le scienze e tecnologie matematiche debbano rappresentare un fattore di innovazione e competitività per le imprese e dalla presa di coscienza del mancato accesso delle imprese italiane ai risultati della ricerca matematica anche, o forse soprattutto, per la carenza di contatti tra mondo imprenditoriale e mondo accademico.
Così lo Sportello Matematico si pone come un ponte progettuale tra la comunità matematica italiana e il mondo delle imprese.
Lo scopo del progetto è quello di promuovere i “risultati della ricerca nelle scienze matematiche applicandoli ai problemi del mondo reale per ottenere un impatto tangibile”. Che vuol dire riduzione dei costi di produzione, efficientamento della logistica, supporto allo sviluppo di nuovi prodotti.
Una delle prime operazioni è stata quella di costituire una rete di centri di ricerca italiani con una specifica competenza nelle scienze e tecnologie matematiche. Questi centri sono stati selezionati al fine di avere una rappresentanza dell’eccellenza nel campo della matematica applicata ad ambiti come manutenzione predittiva, analisi di big data, agricoltura e Industria 4.0.
Della rete, che è attualmente costituita da circa 50 Partner, fanno parte soggetti pubblici e privati: Dipartimenti Universitari, Istituti del CNR, Spin-off accademici, Start-up di ricerca, tutti centrati sullo sviluppo e l’applicazione di Tecnologie Matematiche.
Lo Sportello Matematico agisce quindi da intermediario tra le imprese e i centri di ricerca della rete, facilitando lo sviluppo di collaborazioni a partire da problemi industriali specifici.
Una delle più recenti attività del team dello Sportello Matematico è lo sviluppo di SPIN (Supporto alla Pianificazione per l’Innovazione), un applicativo web per supportare le imprese a pianificare gli investimenti in Ricerca e Sviluppo. L’applicativo è nato dalla collaborazione tra Sportello Matematico del CNR, Confindustria, Sistemi Formativi Confindustria, con il supporto di 4Manager. Si tratta di uno strumento di supporto alle decisioni che consente alle imprese di conoscere le agevolazioni attive sui temi della Ricerca e dell’Innovazione e simulare l’effetto reale dei diversi strumenti fiscali sui loro piani di investimento.
Storie Di Successo
Centrale del Latte di Vicenza
Il problema: la previsione della domanda di yogurt. Questa costituisce un aspetto cruciale per l’ottimizzazione dell’approvvigionamento di materie prime (nello specifico , marmellate per lo yogurt) e quindi per la gestione efficiente delle scorte di magazzino.
Il risultato della collaborazione è stato un software statistico, integrato nel gestionale usato dall’azienda, che per ogni prodotto fornisce una previsione attendibile delle vendite su un periodo di sei settimane. Questo permette poi di ottimizzare gli acquisti di materie prime a partire dai prodotti in giacenza e tenendo conto dei lotti minimi di acquisto e dei tempi di consegna dei fornitori.
A seguito dell’implementazione del modello, benefici ricevuti dall’azienda sono stati: la riduzione del 3% sui giorni di scorta delle marmellate e l’azzeramento delle rotture di stock, in particolare delle marmellate.
Manutenzione predittiva
Un’azienda che produce sistemi automatici per lo stoccaggio e l’archiviazione ha fatto ricorso ai servizi dello Sportello Mate- matico per lo sviluppo di sistemi di manutenzione predittiva.
I sistemi di archiviazione prodotti dall’impresa, consentono la movimentazione verticale di numerosi vassoi che garantiscono portate fino a 1000 kg. Volendo passare a un sistema di manutenzione predittiva, l’azienda aveva la necessità di raccogliere dati sul funzionamento delle macchine e aveva richiesto, in una prima fase, un supporto modellistico-matematico per individuare una disposizione ottimale del minor numero possibile di sensori e per ottimizzare il volume di dati da raccogliere.
In una seconda fase, necessitava di uno strumento matematico per prevedere il comportamento futuro dei macchinari (o almeno di alcuni componenti critici) e indicare l’intervento più idoneo da effettuare.
Simulazione di processo
Un’azienda del settore manifatturiero aveva bisogno di un modello matematico per la prototipazione virtuale di un processo molto critico all’interno di una linea produttiva. Il processo in questione è quello del bonding, ovvero, della saldatura sotto pressione di una pellicola in materiale non tessuto. Il problema industriale consiste nell’individuare un modello matematico in grado di correlare la qualità della saldatura a parametri di processo facilmente controllabili dagli operatori (come la temperatura, la velocità della linea o lo spessore della pellicola).
Per stabilire i parametri di processo, l’azienda ricorre a test di laboratorio che sono molto dispendiosi. Il modello matematico serve quindi a simulare il processo e prevedere la qualità della saldatura (ovvero, la forza necessaria a rompere la saldatura). Lo scopo finale era quello di ridurre le prove sui campioni.
Algoritmi per il riconoscimento di oggetti
Per le operazioni di distribuzione e restituzione di utensili, è importante sapere quali sono gli oggetti prelevati e se gli stessi oggetti vengono restituiti e in quali condizioni. Se gli utensili sono distribuiti per mezzo di magazzini automatici, un modo per fare queste verifiche è l’analisi delle immagini. Una videocamera posizionata opportunamente rileva l’oggetto prelevato e poi restituito. Opportuni algoritmi che poi permettono di valutare se l’oggetto in questione è lo stesso, se è sporco o danneggiato.
Un algoritmo di questo tipo è stato richiesto da un’impresa che produce hardware per la gestione aziendale. sistemi prodotti dall’azienda hanno già alcuni sensori che permettono il riconoscimento degli oggetti, l’impresa voleva integrare le macchine con sensori di visione per aumentare il controllo sui dispositivi.
Per questo ha richiesto il supporto dello Sportello Matematico e ha avviato una collaborazione che è al momento in corso.