È assai probabile che chi sta leggendo questo articolo, stia utilizzando un dispositivo digitale. E che abbia aperto la pagina facendo clic con il mouse o toccando lo schermo alcune volte per aprire un’e-mail, selezionare un collegamento e dichiarare il proprio profilo di investitore sul nostro sito Web.
Forse il lettore sta viaggiando in treno. In tal caso, ha raggiunto il binario con una travel card, osservato da due o tre telecamere a circuito chiuso e, se in possesso di un telefono GPS, anche da alcuni satelliti. Chi lo sa? Forse questo articolo gli piacerà così tanto che lo condividerà su Twitter. O su LinkedIn.
Tutti i giorni, ogni minuto che passa generiamo dati. Montagne di dati. Al punto da spingere IBM a dichiarare che l’umanità, con tutti i nuovi dispositivi, sensori e apparecchi tecnologici, genera 2.500 miliardi di miliardi di miliardi (sì, avete letto bene) di dati ogni giorno. O, guardando la cosa da un’altra prospettiva, il 90% di tutti i dati creati dall’inizio della storia dell’umanità, è stato generato negli ultimi due anni.
Residuo digitale
La proliferazione di questi insiemi di “big data” (così si chiamano) è alla base della decisione di Neuberger Berman di nominare il suo primo Chief Data Scientist: Michael Recce. Michael, che ha un background nell’apprendimento automatico e nell’intelligenza artificiale, ha un nome per le cose che ho descritto nel primo paragrafo: “residuo digitale”.
Esaminando il bilancio di una società quotata, possiamo scoprire molte cose su di essa. È questo il motivo per cui i corsi azionari subiscono le maggiori variazioni durante la “stagione degli utili”, cioè quando tali informazioni vengono rese pubbliche.
Tali informazioni possono tuttavia essere drasticamente potenziate utilizzando il residuo digitale lasciato – spesso in tempo reale – da quella società, dai suoi partner della catena logistica, dai suoi clienti e dai media (social e di altro tipo). Raccolte correttamente, monitorate e analizzate, queste informazioni possono mettere a nudo andamenti invisibili a livello macroeconomico, settoriale e societario.
Ci aspettiamo che i big data ci possano aiutare a individuare le tendenze dei fondamentali nel medio e nel più lungo termine, consentendoci in ultima analisi di prendere decisioni di investimento migliori. Non pensiamo di giocare a chi colleziona più dati: non puntiamo, per intenderci, a scambiare i titoli frequentemente per sfruttare le rilevazioni di minore entità che determineranno piccole variazioni dei prezzi azionari. Non siamo trader: siamo investitori.
“Quantamentale”
A nostro avviso, il Sacro Graal dei big data nella gestione degli investimenti consiste nel coniugare la sempre valida analisi dei fondamentali con tecniche di investimento quantitativo, cioè quello che chiamiamo approccio “quantamentale”.
Le “tecniche di investimento quantitativo” sono solitamente molto più avanzate nella costruzione del portafoglio e nell’approccio alla gestione del rischio, ma talvolta possono presentare un’eccessiva tendenza ad osservare gli andamenti di mercato passati. I gestori che si basano sui fondamentali si concentrano molto di più sull’analisi previsionale, ad esempio sul tentativo di prevedere l’andamento futuro della crescita degli utili. I Big Data possono alimentare in modo naturale entrambi questi mondi.
Coniugare l’intuizione e la valutazione umana con l’apprendimento automatico e coniugare le previsioni informate con gli andamenti storici: è questo l’approccio “quantamentale” che dà agli investitori una prospettiva a 360° gradi delle società e del mondo in cui operano. Profondità di prospettiva, granularità e tempestività sono quello che possono offrire i big data. Siamo convinti che sia questa la nuova frontiera della ricerca per gli investimenti.