6 minute read

Intelligenza Artificiale e prezzo dinamico: il rischio della collusione algoritmica

Riprendiamo, per gentile concessione di I-Com, Istituto per la Competitività, un articolo che evidenzia come gli attuali algoritmi di prezzo dinamico, governati dall’AI, del tutto diversi da quelli di alcuni anni fa.

Ora le piattaforme di pricing, che modificano i prezzi dinamicamente, non si ispirano più ad alberi decisionali predeterminati (quali aumento o flessione della domanda, dati storici, previsioni meteo ecc.)

ma si avvalgono dell’apprendimento per rinforzo, affidando all’algoritmo il raggiungimento di un obiettivo, in questo caso di massimizzare i profitti, gestendo nel contempo i picchi di domanda. Il fatto che gli algoritmi prendano spunto dall’esperienza e dal monitoraggio dei prezzi di mercato, dunque praticati dai concorrenti, può tuttavia generare fenomeni collusivi, ovvero creare un “cartello” tra imprese dello stesso settore.

AI, ecco come l’algoritmo decide i prezzi Ad oggi strumenti tecnologici all’avanguardia come gli algoritmi di calcolo dei prezzi stanno diventando sempre più diffusi nella vita quotidiana. Questi strumenti hanno un impatto significativo sul panorama competitivo in cui operano molte aziende, nonché sulle modalità con cui vengono prese decisioni commerciali e strategiche. Sempre più imprese stanno adottando algoritmi informatici per migliorare i propri modelli di determinazione dei prezzi e anticipare l’evoluzione del mercato.

L’AI e le novità sugli algoritmi del prezzo dinamico

Una testimonianza della rapida crescita nella diffusione degli algoritmi di pricing si ha guardando il numero sempre maggiore di venditori online che utilizza metodi automatizzati di fissazione dei prezzi. L’utilizzo di questi algoritmi non è di per sé motivo di stupore: alcuni settori, come quello alberghiero e quello dei voli di linea, ne fanno uso da decenni. A sorprendere sono, piuttosto, da un lato il ruolo sempre meno significativo che la supervisione umana gioca nel processo di determinazione dei prezzi, e dall’altro la sempre più accurata base informativa a disposizione degli algoritmi. Questo indica un cambiamento significativo nelle dinamiche decisionali delle imprese, in cui la tecnologia assume un ruolo sempre più predominante nell’ottimizzazione dei modelli di pricing e nella previsione delle tendenze di mercato.

La prima generazione di algoritmi seguiva regole adattive di prezzo stabilite a priori dai programmatori. Queste consistevano solitamente nello stimare la curva di domanda di mercato utilizzando dati storici e, successivamente, nello scegliere il prezzo che massimizzava il profitto dati la stima della domanda e il comportamento passato delle imprese rivali. Il funzionamento delle odierne IA non richiede nulla di tutto ciò e non si basa su alcun modello microeconomico. Una volta specificate la variabile-obiettivo da massimizzare (come, ad esempio, il profitto) e la frequenza con cui all’IA è concesso sperimentare nuovi prezzi, essa è in grado di apprendere autonomamente la linea di comportamento che meglio permette di raggiungere l’obiettivo. Spesso la condotta delle IA si basa sulla logica del reinforcement learning: in estrema sintesi questo vuol dire che l’IA tenderà a scegliere quei prezzi che, sulla base della propria esperienza, permettono di massimizzare il flusso atteso dei profitti, e sporadicamente sceglierà invece di esplorare nuove strategie di prezzo per valutarne gli effetti. Se il prezzo adottato nella fase di sperimentazione produce un incremento dei profitti, esso continuerà ad essere adottato anche nei periodi successivi. Sfortunatamente per i consumatori, la capacità che questi algoritmi hanno di apprendere sperimentando rende probabile che, col tempo, le IA si rendano conto che il prezzo che massimizza il flusso dei profitti è quello collusivo, proprio come esse sono in grado di scoprire strategie vincenti nel gioco degli scacchi. Questo processo porta alla cosiddetta collusione algoritmica, ovvero una forma di cooperazione fraudolenta tra sistemi di intelligenza artificiale che manipolano il sistema o il mercato per ottenere vantaggi impropri, anziché competere in modo leale. La stabilità di questa forma di collusione richiede che le IA dispongano di informazioni in tempo reale sui prezzi di mercato. Per consentire alle imprese di tracciare un sentiero collusivo comune, il comportamento di ciascuna di esse deve infatti poter essere osservato con sufficiente frequenza. La tenuta del sentiero si basa sulla possibilità di punire chi si discosta da esso: quanto più rapida è la reazione punitiva, tanto minore è l’incentivo a deviare. Anche questo requisito informativo non rappresenta più oggi un ostacolo; ad esempio, Amazon API Gateway permette di monitorare tutti i prezzi presenti e passati dei prodotti venduti sulla piattaforma.

La collusione algoritmica: le piattaforme si “accordano” tra loro Una verifica sperimentale del fatto che le IA possono imparare a colludere in autonomia è offerta da Calvano et al, che hanno programmato due algoritmi identici e li hanno messi a competere l’uno contro l’altro in un mercato virtuale. Il prezzo adottato nel primo periodo da ciascun algoritmo, scelto arbitrariamente dagli autori, è il prezzo competitivo. Le IA, a cui era stata data indicazione di massimizzare i profitti su un orizzonte infinito, hanno cominciato immediatamente a sperimentare nuove strategie e a reagire alle reciproche scelte, facendo sì che i prezzi crescessero gradualmente fino al livello di collusione. Questa fase di apprendimento del prezzo collusivo è rappresentata nella porzione di sinistra della figura. Per comprendere se le due IA avessero effettivamente imparato a colludere, Calvano e coautori hanno imposto che in un dato periodo una delle due riducesse drasticamente il proprio prezzo, per poi riprendere il controllo delle proprie azioni a partire dal periodo successivo. Questa deviazione (che nella figura sottostante è denotata con l’etichetta ‘shock’) ha suscitato un’immediata reazione da parte dell’IA rivale, determinando una drastica riduzione dei prezzi. La capacità degli algoritmi di apprendere sperimentando ha tuttavia fatto sì che le due IA si rendessero subito conto dei costi associati a una guerra di prezzo duratura, tornando così a far crescere i prezzi fino al livello pre-shock.

Un’importante prova della validità esterna dell’analisi di Calvano et al. (2020) viene dallo studio empirico di Assad et al. (2020) sulla collusione tra IA nel mercato tedesco della distribuzione dei carburanti. Nell’estate del 2017, la società danese a2i ha commercializzato in Germania un software per il pricing algoritmico di benzina e diesel. A partire da questo momento si è verificato un considerevole aumento del margine di profitto delle stazioni di servizio: il markup delle stazioni operanti in aree a elevata concorrenza che hanno adottato il software è cresciuto in media del 9%, mentre il markup delle stazioni operanti in condizioni di duopolio (ossia in aree in cui sono presenti due sole stazioni) è cresciuto di oltre il 30%. Infine, il markup delle stazioni che non hanno alcun competitor nelle vicinanze è rimasto invariato (essendo queste già in grado di praticare un prezzo di monopolio), a riprova che l’incremento dei margini di profitto è imputabile a processi di collusione algoritmica e non ad altri fattori confondenti.

Può sorgere un problema di responsabilità legale?

La legislazione italiana in merito poggia sul Trattato di Roma, firmato nel 1957 e confluito poi nel Trattato sul Funzionamento dell’Unione Europea (TFUE) e nell’Accordo sullo Spazio Economico Europeo (ASEE). Vengono proibiti tutti gli accordi tra imprese, tutte le decisioni di associazioni di imprese e tutte le pratiche concordate che possano pregiudicare il commercio tra Stati membri e che abbiano per oggetto o per effetto di impedire, restringere o falsare il gioco della concorrenza all’interno del mercato interno.

In Italia alle decisioni in materia partecipa l’Autorità Garante della Concorrenza e del Mercato, che ha compiti consultivi e di vigilanza. Non sono rari gli episodi che hanno visto autorità di vigilanza e analisti sottolineare come la collusione algoritmi- ca sia potenzialmente in grado di aggirare la tutela offerta dall’art. 101 del TFUE. Le preoccupazioni derivano dal fatto che la collusione fra algoritmi è ritenuta assimilabile alla collusione tacita. Ad esempio, in una proposta di riforma avanzata dalla Commissione Europea (2020) viene riconosciuto che tra i problemi strutturali che le norme dell’articolo 101 del TFUE non riescono a contrastare vi è il crescente rischio di collusioni tacite causato dalle soluzioni tecnologiche basate su algoritmi. Come fare, quindi, a portare la collusione algoritmica sotto l’ambito di applicazione della normativa antitrust? Legislatori e letteratura scientifica hanno proposto soluzioni diverse e non mutualmente esclusive, che sono però ancora lungi dall’essere concretamente definite. Una risposta drastica potrebbe essere quella di vietare espressamente l’utilizzo di alcune famiglie di algoritmi. Questo approccio presta però potenzialmente il fianco al continuo sviluppo di nuovi algoritmi, che potrebbero differire considerevolmente da quelli vietati e sfuggirebbero così alla legge, rendendo necessario aggiornarne periodicamente il testo. La Commissione Europea (2020) ipotizza la possibilità di attribuire alle autorità antitrust il potere di effettuare “test che permettano di intervenire in presenza di una minaccia strutturale che limita la competizione” (opzione legislativa n. 3). Un’altra possibile soluzione, proposta da Harrington Jr. (2019), consiste nel rendere le aziende legalmente responsabili delle regole di prezzo adottate dalle loro IA. L’idea alla base di questa proposta è quella che la collusione algoritmica non vada accostata alla collusione tacita. Infatti, se nei mercati “tradizionali” le imprese agiscono razionalmente sulla base delle condizioni del mercato in cui operano, nei nuovi mercati digitali esse creano invece consapevolmente le condizioni che permettono ai loro algoritmi di colludere.

Conclusioni

Nel momento in cui un’impresa sceglie di utilizzare un’IA per massimizzare i profitti, facendole monitorare le condizioni di mercato e facendola reagire alle strategie dei concorrenti, e sapendo inoltre che le altre imprese stanno facendo lo stesso, essa sta contribuendo consapevolmente al manifestarsi della collusione algoritmica. La responsabilità legale delle imprese per la condotta delle IA fornirebbe alle prime un incentivo a monitorare il comportamento delle seconde, con effetti positivi in termini di prevenzione della collusione.

This article is from: