Il concetto di casualità è direttamente correlato all’evoluzione della teoria della probabilità, e qui ancora una volta,

la scienza popolare ha spianato la strada per la sua controparte accademica.

Il popolare scrittore finanziario del XIX secolo, Henri Lefevre, fu anche inventore di strumenti per la conduzione di calcoli

probabilistici per i giocatori d’azzardo, come ad esempio l’ autocompteur, la sua creazione del 1871, inteso come ausilio nelle

scommesse sulle corse dei cavalli.

La modellazione probabilistica non si è limitata ai risultati del gioco di azzardo, ma è stata applicata anche alla speculazione

finanziaria con l’obiettivo di ridurre i rischi e renderlo più accettabile per gli investitori.

Come Preda sottolinea: “Mentre il comportamento degli investitori è stato ridotto a decisioni secondo certe determinate

situazioni, le decisioni sono state ridotte a calcoli. Per decidere, l’investitore deve calcolare i risultati possibili“.

Lefevre, ad esempio, oltre al suo dispositivo di scommessa sulle corse di cavalli, ha anche inventato il

“pallottoliere della speculatore “, una tavola di legno divisa in quadrati e dotato di lettere mobili, dove spostando le lettere

si potevano vedere gli esiti delle decisioni per differenti contratti di opzioni.

E nel suo manuale di attività del 1891, The Mathematical Theory of Long-Term  Investing,  Adolphe Pierre Brasilier ha

presentato un quadro in cui le obbligazioni societarie francesi dovevano essere trattate come un problema della lotteria

a causa della loro struttura – periodicamente un certo numero di obbligazioni sarebbe stato estratto dalla lotteria e

rimborsato ad un premio al di sopra del prezzo di emissione, e il resto delle obbligazioni avrebbe continuato a ricevere

gli interessi fino alla prossima data di estrazione – e analizzato le obbligazioni parigine dal 1855 al 1860 in quella struttura.

Utilizzando prezzi passati, manuali di business hanno anche suggerito il calcolo delle probabilità ai titoli che

raggiungerebbero determinati livelli di prezzo in futuro.

Un metodo è stato quello di prendere la differenza tra il rendimento di un determinato titolo e il rendimento dei titoli di stato

– quest’ultimo è stato utilizzato come punto di riferimento perché era garantito e lentamente variabile; poi, sulla base di

variazioni passate di queste differenze, le future variazioni sono state predette.

Come la teoria delle probabilità stava facendo le incursioni nell’ analisi delle fluttuazioni dei prezzi, ha provocato dibattiti

caldi nei manuali degli investitori, come nel 1854  La Bourse de Paris:

“Non so circa la potenza di calcolo probabilistico applicato alle operazioni di Borsa, ma so che Condorcet e il marchese di

Laplace hanno fallito su tutti i loro calcoli sulla probabilità di eventi morali, sui giudizi su una pluralità di voti, e sui risultati

delle votazioni parlamentari.

Un evento morale dipende da mille cause sconosciute che non possono essere sottoposte a qualsiasi calcolo.

Se vorremmo provare la nostra fortuna da qualche calcolo, il metodo del visconte Saint-André sarebbe meglio.

Il Marchese di Laplace ha fatto una scienza di calcolo delle probabilità. Questa scienza può essere applicata ad assicurazione

sulla vita, per  spedire l’assicurazione; ha una base nelle tavole di mortalità e il numero di navi che sono fatte arenare ogni

anno, ma non è possibile trovarla negli alti e nei bassi di obbligazioni.

Ciò che produce i movimenti di queste obbligazioni è variabile come la freccia d’oro sul palazzo del bourse”  (La Bourse di

Paris quotato da Preda nel 2004).

Il credito per il primo studio formale della matematica della probabilità appartiene alla stesso matematico italiano

che ci ha dato la martingala, Girolamo Cardano.

Il suo trattato Liber de Ludo Aleae è andato ben oltre i semplici giochi d’azzardo, e conteneva anche molti dei concetti di base

della teoria della probabilità formale.

Come nel caso di molti dei suoi contemporanei, l’interesse di Cardano in questo argomento è stata provocato dalla sua

passione per il gioco d’azzardo; credeva che ci fosse un senso in cui, quando getti un paio di dadi, alcuni numeri c’è più

probabilità di trovarli rispetto ad altri, e che avrebbe potuto usare questa intuizione per fare soldi.

Tuttavia, la dipendenza per il gioco d’azzardo si è dimostrata più forte della sua razionalità, a quanto pare lui era alla guida

di sperperare i soldi della famiglia, che lo aveva lasciato, e, in un’occasione, tagliò con un coltello l’avversario che credeva lo

avesse truffato a carte.

Un secolo più tardi lo studio della probabilità è stata rilevata dai francesi. Chevalier de Merè, un altro giocatore d’azzardo,

ha ideato nel 1654 un sistema per il gioco d’azzardo che pensava gli avrebbe fatto vincere soldi; quando non lo ha fatto,

ha chiesto al matematico Blaise Pascal (1623-1662) il perché.

Dopo alcune analisi, Pascal notò che, infatti, il sistema di Chevalier perdeva più spesso.

Questo evento ha promosso l’interesse di Pascal sulla teoria della probabilità, che lo portò a una corrispondenza intensa

con Pierre de Fermat (1601-1665), che ha gettato le basi della Teoria della Probabilità.

Dopo aver appreso di questa corrispondenza, uno scienziato olandese, Christiaan Huygens, ha pubblicato

De Ratiociniis a Ludo Aleae, il primo libro sulla probabilità.

La Teoria è stata ulteriormente sviluppata nei secoli XVII e XVIII da Daniel Bernoulli e Abraham de Moivre.

Poi, nel 1812 Pierre de Laplace ha pubblicato la sua Théorie des Analytique Probabilités, che, a differenza di precedenti

lavori, non si è concentrato sui giochi d’azzardo, ma ha sviluppato una teoria generale della probabilità applicabile a molti

problemi pratici, anche catturando l’occhio di Napoleone.

Secondo la concezione di Laplace di probabilità – che chiamiamo “l’approccio classico alla casualità” – una certa probabilità

viene assegnata a ogni possibile risultato di un esperimento.

Per esempio, quando lanciamo una moneta, teste ha probabilità 1/2 probabilità (50%), e croce ha la stessa.

La Teoria della probabilità classica sviluppa molti modi sofisticati per calcolare queste probabilità, ma il nucleo è il

presupposto di fondo che i risultati di esperimenti hanno certe probabilità intrinseche o fondamentali:

Il fatto che le teste ha probabilità 1/2 è assiomatico, e la teoria ci permette di calcolare probabilità più complicate,

come quella di ottenere testa 10 volte di seguito .

Questa nozione classica di probabilità è oggi utilizzata in quasi ogni ramo della scienza. Tuttavia, è in un certo senso

insoddisfacente perché non cattura la nozione intuitiva della gente di “random”.

Questo si comprende meglio prendendo in considerazione il seguente paradosso.

Supponiamo che un amico ti dice: “Ho gettato un dado 10 volte e ho ottenuto 6, 6, 6, 6, 6, 6, 6, 6, 6, 6”

probabilmente pensaresti che sta mentendo, o che lui stava usando un dado non standard.

Ma cosa succede se lo stesso amico ti dice: “Ho gettato un dado 10 volte e ho ottenuto 1, 3, 4, 3, 6, 2, 5, 4, 2, 5”?

Probabilmente non nutriresti nessun sospetto su quella sequenza, sembra casuale.

Intuitivamente, la seconda sequenza di esiti sembra più casuale rispetto alla prima.

Il paradosso è che, secondo la teoria classica della probabilità, entrambe le sequenze hanno la stessa probabilità:

(1/6) 10 = 0,00000001653. . . .

Così, la nozione classica di casualità non corrisponde con l’intuizione umana.

Una soluzione a questo paradosso ha dovuto attendere fino all’inizio del XX secolo, quando ciò che noi chiamiamo

“l’approccio ontologico alla casualità” è emerso.

L’idea è notare che 6, 6, 6, 6, 6, 6, 6, 6, 6, 6 è molto regolare, è la ripetizione del numero 6 mentre la seconda sequenza

1, 3, 4, 3 , 6, 2, 5, 4, 2, 5, appare irregolare.

L’approccio ontologico alla casualità dichiara una sequenza di risultati casuali, se i risultati non sono regolari.

Questa nozione è davvero ontologica perché si riferisce ad una qualità che è intrinseca a un oggetto: una stringa fissa può

essere casuale o meno.

A prima vista, sembra problematico per dare un senso a questo approccio, dal momento che non è chiaro

cosa “normale” può significare.

Una persona potrebbe vedere la regolarità di 2, 3, 5, 7, 11, 13, riconoscendo la sequenza dei numeri primi,

ma altri non possono.

Arbitrariamente regolarità complicata può essere creata. Così, come possiamo essere sicuri che la seconda sequenza del

nostro amico ci mostra – 1, 3, 4, 3, 6, 2, 5, 4, 2, 5 – è davvero casuale?

Per rispondere a questa domanda, si ha la necessità di una definizione precisa di “regolare”.

Questa definizione è stata resa possibile nella prima metà del XX secolo, con lo sviluppo della scienza informatica.

Il lavoro di Gödel (1931), Chiesa (1936), Kleene (1936), Post (1936), e Turing (1937) ha dato una forte evidenza che i

computer formano un linguaggio universale in cui ogni possibile regolarità può essere programmata

(questo è noto come la tesi di Church-Turing).

Questo quadro di calcolo è fondamentale per la definizione ontologica della casualità, che apparve nel 1960,

in particolare nelle opere di Ray Solomonoff (1960, 1964) e Andrey Kolmogorov (1965) .

Secondo questa teoria, consideriamo una stringa regolare, e quindi non casuale, se vi è un modo per generare la stringa

con un programma per computer che è più corta della stringa stessa; in altre parole, il programma và “comprimendo” la

stringa.

Ad esempio, la stringa 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6 è non-random perché il programma informatico

“stampa ‘6’ 20 volte”, la genera ed è molto più breve della stringa stessa.

Viceversa, la stringa 1, 3, 4, 3, 6, 2, 5, 4, 2, 5, 2, 6, 4, 4, 3, 2, 1, 4, 2, 3 è casuale (random) perché il programma informatico

è meno breve a generarla   “stampa 1, 3, 4, 3, 6, 2, 5, 4, 2, 5, 2, 6, 4, 4, 3, 2, 1, 4, 2, 3”, che contiene la stringa al suo interno e,

in particolare, è più lungo della stringa che genera.

Più breve è il programma per computer che genera la stringa, più regolare e meno casuale è la stringa.

La necessità di una terza definizione di casualità è chiara.

I moderni sistemi informatici di routine hanno bisogno di grandi quantità di numeri casuali per portare a compimento

le simulazioni di modelli probabilistici in una varietà di settori tra cui la finanza, la fisica, la biologia  – un paradigma noto

come simulazione Monte-Carlo.

Inoltre, l’esplosione del commercio elettronico richiede anche una grande quantità di numeri casuali, che vengono utilizzati

per cifrare i nostri numeri di carta di credito ogni volta che facciamo un acquisto online.

Come si è visto, né la definizione classica di casuale né quella ontologica sono di grande utilità per generare questi numeri.

La definizione classica di casuale non dà modo di generare casualità, ma piuttosto presuppone che certi esperimenti,

come lanciare una moneta, hanno risultati casuali; di certo non ci aspettiamo che i computer lancino le monete per

ottenere numeri casuali.

Anche altri esperimenti i cui risultati sono da ritenersi casuali, ad esempio, quelle che coinvolgono il decadimento

radioattivo, di solito non possono essere eseguiti in modo sufficientemente veloce da computer per essere di uso in

applicazioni ; oggi usiamo le procedure, o algoritmi, che rapidamente generano un flusso di numeri pseudo-casuali.

L’approccio ontologico alla casualità non aiuta in questa impresa: questo dichiara che una stringa è casuale proprio quando

non vi è alcun modo di generarla utilizzando un programma per computer!

Il modo per aggirare questo è dato da ciò che chiamiamo il moderno o approccio “comportamentale” per casualità.

Questo approccio viene fornito con un tocco sulla nostra domanda iniziale: Invece di chiedere ciò che è “random”,

dovremmo chiederci che cosa “sembra” casuale.

Abbiamo già incontrato un esempio di come una tale riformulazione potrebbe fare la differenza.

Un matematico potrebbe individuare i numeri primi nella sequenza 2, 3, 5, 7, 11, 13, e per questo la regolarità riterrebbe

la sequenza di essere non casuale.

Ma qualcuno che non ha familiarità con i numeri primi potrebbe benissimo pensare a questa sequenza come casuale;

la sequenza non può essere casuale, ma sembra casuale a lui.

Questa prospettiva comportamentale sulla casualità suggerisce che un “test” più diretto dell’efficacia di analisi tecnica

potrebbe essere quella di chiedere se gli esseri umani possono distinguere i dati reali di mercato provenienti da numeri

casuali generati.

Ora questa è una corsa di cavalli di cui  i tecnici dovrebbero preoccuparsi!

La convinzione che gli esseri umani non possono distinguere i rendimenti di mercato da quelli generati in modo casuale è

molto diffusa.

E’ chiaramente in contrasto con i tecnici, che studiano rendimenti passati con l’obiettivo di prevedere rendimenti

nel futuro – un compito che è impossibile per i rendimenti generati casualmente e, di conseguenza, dovrebbe non essere

possibile anche per i rendimenti di mercato.

Proviamo questa semplice ipotesi reclutando soggetti umani a giocare in un videogioco basato sul Web, in cui agli individui

sono mostrati due serie di prezzi dinamici, fianco a fianco, entrambi  in evoluzione in tempo reale (un nuovo prezzo è

realizzato ogni secondo) – ma uno solo dei quali è un “replay” di effettive serie storiche dei prezzi, le altre serie in fase di

costruzione da un rimescolamento casuale di serie attuali (si veda la Figura).

 

Prezzi finanziari reali e simulati –  Riusciresti a riconoscere quale è reale e quale no? (prezzi reali nel grafico sopra).

 

In ogni prova, i soggetti sono invitati a premere un pulsante che indica quale delle due serie di prezzi pensano sia la reale,

e gli viene dato un feedback immediato se questo è corretto o non corretto.

In un campione di 78 soggetti partecipanti, in più di 8 diversi contesti (utilizzando diversi tipi di dati finanziari),

con ogni contesto della durata di due settimane e concludendo con premi assegnati ai top performer, abbiamo ottenuto

8.015 congetture generate da umani  per questo problema di scelta in tempo reale.

I risultati hanno fornito la prova statistica schiacciante (meno dell’1% di probabilità dei risultati viene generato per

puro caso) che gli esseri umani possono imparare rapidamente a distinguere serie effettive di prezzo, da quelle generate

in modo casuale.

Questo esperimento può essere visto come la versione finanziaria del test di Turing, un’idea proposta da Alan Turing (1950)

per decidere se un programma di computer può essere considerato veramente intelligente.

Nello scenario di Turing, un soggetto umano interagisce con altri due agenti – una macchina, un uomo – tramite

corrispondenza scritta; il computer avrà superato la prova se il soggetto non è in grado di identificare correttamente quale

corrispondente è artificiale. Fino ad oggi, nessun computer ha superato il test di Turing. Allo stesso modo, i nostri

esperimenti per videogiochi mostrano che i mercati finanziari non hanno superato il test di Turing finanziario,

il che è una incoraggiante notizia per l’analisi tecnica.

Il test finanziario di Turing è solo un esempio di come l’informatica può cambiare il nostro modo di pensare riguardo

l’economia e la finanza. Più in generale, la nozione di algoritmi computazionalmente delimitati può essere un importante

pezzo mancante nella teoria della razionalità limitata di Simon.

Anche se ci sono molti primi esempi di scienziati che distinguono tra algoritmi “efficienti” e “inefficienti” – dove l’efficienza è

ora usata in un senso completamente diverso da quello della EMH – non è stato fino al 1960 con Cobham (1964), Edmonds

(1965), e Hartmanis e Stearns (1965), come parte dello sviluppo iniziale della teoria della complessità computazionale,

hanno identificato la classe di algoritmi computazionalmente limitate oggi conosciuta semplicemente come “P” (per

l’algoritmo di tempo polinomiale).

Per modellare la razionalità limitata di Simon, abbiamo bisogno di capire cosa può essere calcolato in modo efficiente;

in altre parole, quanto buona una decisione può essere presa in una quantità limitata di tempo e/o con una quantità limitata

di memoria. Questa quantità per comprendere quali algoritmi si trovano in P.

Sebbene la classe P è stata avanzata già nel 1960, la sua comprensione sconcerta ancora i ricercatori in questi giorni.

Lo studio del potere di algoritmi che utilizzano risorse limitate si è rivelato un compito arduo che ha probabilmente visto

pochi progressi. E’, infatti, uno dei sette “problemi del millennio”, per i quali il Clay Mathematics  Institute offre un premio

di un milione di dollari alla prima persona che ne trova una soluzione.

Senza dubbio, i progressi nella teoria della razionalità limitata in economia andrà di pari passo con i progressi nella teoria

degli algoritmi computazionalmente delimitati.

Ed etichettando, strada facendo sarà il futuro analitico di analisi tecnica.