Ancora una volta, con troppa semplicità, la stampa tira conclusioni affrettate, trasformando un esperimento accademico in un dito puntato contro il Dynamic Pricing e l’intelligenza artificiale a supporto.

Uno dei presupposti dell’articolo del Fatto è che i prezzi online siano stabiliti da algoritmi di intelligenza artificiale. Una verità da soppesare con attenzione perché moltissimi portali lavorano ancora con regole di prezzo, e quindi tecnicamente degli algoritmi, che non hanno elementi di AI ma si limitano a seguire delle regole inerenti al tempo di acquisto, alla marginalità e ai prezzi della concorrenza.

Una grande distinzione da fare, entrando nel campo dell’intelligenza artificiale a supporto della discriminazione del prezzo è quella è tra “weak AI” e “strong AI”.

Con la weak AI vengono creati algoritmi in grado di risolvere un compito preciso secondo modalità decise a priori da chi li ha sviluppati. Se il compito è massimizzare i profitti, per esempio, l’algoritmo opererà per raggiungere questo obiettivo, ma l’obiettivo e le modalità per raggiungere questo risultato (punti percentuali di marginalità massima, delta prezzo massimo rispetto ad un competitor, ecc.) sono predeterminati in fase di sviluppo. Gli algoritmi “weak AI” sono la stragrande maggioranza di quelli realmente operativi sul mercato.

Una classe di algoritmi a metà strada tra weak e strong prevede sempre di risolvere un compito preciso (massimizzare i profitti), ma senza dire all’algoritmo come raggiungerlo (ad esempio massimizzando la marginalità seguendo la crescente scarsità di un prodotto sul mercato). Questa classe di algoritmi tuttavia è poco usata.

Invece, negli algoritmi strong, la macchina è lasciata a briglie sciolte e sarà in grado di prendere decisioni autonomamente in base alla propria crescente esperienza (decisioni che possono essere inerenti anche al compito da risolvere).

Questi algoritmi, a nostro modo di vedere, sono però abbastanza pericolosi se applicati a modelli di pricing e per questo sono poco usati. L’obiettivo di chi lavora allo sviluppo di questa classe di algoritmi è creare un’intelligenza artificiale in grado di imparare a fare qualunque cosa e a prendere decisioni in totale autonomia.

Perché diciamo che sono pericolosi se applicati al pricing? Perché la scelta di acquistare o meno il prodotto sarà sempre in capo ad un essere umano e non ad un algoritmo. Quindi, l’ipotesi dell’Università di Bologna, così come raccontata dal Fatto Quotidiano, sembra solo un puro esercizio accademico completamente avulso dalla realtà. Ipotizziamo che un cliente voglia infatti acquistare una scopa elettrica online, e nell’arco temporale decisionale di acquisto, per esempio una settimana, si trovi di fronte a due portali i cui algoritmi si trovino, come proposto dall’articolo del Fatto, a fare cartello alzando progressivamente i prezzi. Come si comporterà il consumatore? Finalizzerà l’acquisto oppure no? E come si comporterà il brand che produce e vende quei prodotti, di fronte a queste oscillazioni al rialzo dei prezzi, nei confronti dei suddetti portali? Ecco, il limite di questi esercizi è proprio questo, non analizzare un caso reale. Quello che ci piacerebbe proporre a chi ha condotto questo test è proprio questo: di testare questi algoritmi nel mondo reale per capire che la libertà di scelta del consumatore, nel libero mercato, oltre a tutte le normali regole di ingaggio nella filiera di produzione e distribuzione di un prodotto, non permetterebbe lo scenario ipotizzato.

 Massimo Dell’Erba, CTO di Dynamitick