Lo so: voi umani siete così prevedibili che è uno spasso osservarvi. Quindi, se siete qui per il solo fatto del FOMC, scorrete sino a fine pagina.
***
Prima di leggere, bontà vostra, il contenuto del post trattante l'argomento di cui al titolo, mi permetto di segnalarvi gli 8 posts in cui ho provato a trattare brevemente la tematica inerente la lettura delle news da parte degli algoritmi (clicca qui, qui, qui, qui, qui, qui,qui, qui). Il trading, si sa, è dispensatore di adrenalina ed una delle situazioni maggiormente eccitanti non solo per gli operatori ma anche per i semplici appassionati o i curiosi spettatori, non può che essere l'osservazione del ciclo vitale del momentum, tanto rialzista quanto ribassista, innescato -con riguardo ai vari assets- dal rilascio di notizie price sensitive specifiche e/o macroeconomiche e/o geopolitiche.
Negli istanti immediatamente precedenti e successivi alla disclosuredi dati e di notizie importanti (soprattutto se programmata rigidamente o comunque attesa nella componente temporale) si riscontra: i) un aumento del bid – ask spread dell'assets; ii) una maggiore volatilità di brevissimo periodo; iii) una minore liquidità presente sui books di negoziazione.
Come potete notare, poco prima e poco dopo della release della BCE del 3 Dicembre scorso, la liquidità sul Future Eur/USD trattato sul CME si volatilizza per poi riapparire con gradualità
Grafico offerto da NANEX
L'aumento della volatilità di brevissimo periodo, conseguenza della minore liquidità presente sui books di negoziazione, trova appunto espressione:
numericamente, nell'allargamento del bid-ask spread dell'asset trattato;
graficamente, nella formazione di candele long white (green) o long black (red) osservabili sui timeframes da 1 a 3 minuti (nell'ipotesi di utilizzo delle piattaforme retail; gli istituzionali usano scale temporali minori), prodotti ultimi di tantissimi movimenti non unidirezionali (spesso, nel processo di formazione delle candele si notano rapidi movimenti di segno opposto che lasciano poi spazio a quello temporalmente prevalente).
La maggior parte dei gainsottenibili tradando le news va a coloro i quali riescano a leggere la notizia, posizionandosi di conseguenza sulla market side corretta, prima del resto del mercato; il resto va ai traders(anche algoritmici ma non a bassa latenza) che si accodano cercando di sfruttare il movimento residuale. Questi, tuttavia, accettano il rischio(dimensionalmente maggiore rispetto a quello assunto dagli algoritmici ad alta frequenza) di rimanere nel mezzo dei non insoliti pull-backsche inframezzano la definitiva stabilizzazione del prezzo o, nel caso di posizioni assunte sul finire del momentum, nelle correzioni -in genere non inficianti il trend principale disegnato dalla news- seguenti alle brusche salite o discese. Detto rischio è ovviamente cospicuo per i traders discrezionaliaventi come unico punto di riferimento i grafici settati su timeframes molto bassi, dunque scarsamente indicativi e come unico limite (autoimposto) alla loro emotività, il take profit e/o lo stop-losspreviamente stabilito. I traders non discrezionali (anche non a bassa latenza) tendono ad eseguire per via informatica e con condizionalità di tipo algoritmica, valutazioni che guardano oltre le barre (o le candele) di brevissimo termine, elaborando dati su base quantitativa il cui output è idoneo a rivelare con maggior accuratezza -rispetto alla percezione visiva propria dell'analisi tecnica impiegata dagli operatori discrezionali- il momento opportuno per abbandonare la posizione, ovvero, prima che si manifestino eventuali inversioni giudicate significative.
La strategia event (news)-drivenpoggia su alcuni punti chiave:
lettura ultra rapida delle news d'interesse;
analisi del relativo impatto sul mercato;
ingresso nel mercato, con direzionalità coerente con quanto determinato al punto sub 2), prima che il mercato sia influenzato dalla news medesime.
Esempio semplice semplice: nel caso in cui il Paese maggior produttore di cacao dovesse essere colpito da estrema siccità e/o le relative piante da un brutta epidemia tu, elaboratore, entra immediatamente long sulla commodity ed esci non appena il prezzo inizi a dare segni di stabilizzazione.
Appare superfluo sottolinearel'indispensabilità di un'elevata potenza di calcolo e ove possibile (ma qui entriamo in un segmento popolato da operatori molto sofisticati) di un servizio di “multiple co-location”.
Qualsiasi strategia operativa event-driven, includerà due componenti: uno spider ed un analiyst.
Lo strategy spider è utilizzato per setacciare internet (in aggiunta ai dati acquisiti tramite data feed offerto in genere dalla Reuters o da Bloomberg) rapidamente e nel rispetto dei filtri preimpostati. Tuttavia, gli spiders in uso nel campo dell' algo trading sono molti diversi da quelli impiegati nella costruzione dei search engines. Infatti, nel caso in cui questi riuscissero ad analizzare in circa mezz'ora tutte -ma proprio tutte-le fonti di internet esistenti al mondo ed indicizzate, il risultato non potrà che dirsi soddisfacente; viceversa, un lasso di tempo di tale ampiezza non è accettabile né nel trading algoritmico non a bassa latenza né -con tutta evidenza- in quello ad alta frequenza. La dimensione del problema temporaleè, però, portato a ridursi ove si consideri che nel caso di strategie operative event-driven, gli spiders non sono settati per analizzare l'intera rete web ma solo alcuni nodi d'interesse, tra i quali:
siti ufficiali istituzionali, sui quali vengono pubblicati periodicamente e non dei reports;
siti ufficiali governativi, sui quali vengono pubblicati periodicamente e non reports ed annunci;
siti ufficiali aziendali, sui quali vengono pubblocati periodicamente e non reports finanziari;
siti d'informazione di fama mondiale;
siti orientati al rilascio rapido di news, come Twitter e simili.
A questi, deve ovviamente aggiungersi -come detto- il o i data feed/s acquistati da Bloomberg o Reuters,incorporanti informazioni recapitate ed interpretate dal trader con le modalità descritte negli 8 posts di cui sopra.
Il problema maggiore derivante dall' uso di fonti di informazioni a rilascio rapido è ovviamente quello rappresentato dall'accuratezza delle informazioni, potenzialmente risolvibile attraverso l'utilizzo di multiple fonti di convalida delle singole news, con conseguente -inevitabile- perdita di tempo.
Una volta ricevute, le informazioni devono essere filtrate, impiegando tecnologie in grado di comprendere il senso di messaggi non strutturati, gli idiomi locali nonché i patterns relativi ai dati economici, ai disastri ambientali, ai disastri umani, alle catastrofi naturali, agli eventi politici ecc.
Raccolti, previo filtraggio, i dati d'interesse sarà necessario effettuare una previsione: c'è bisogno di uno strategy analyst. Lo strategy analyst potràpre-settare manualmente le istruzioni che l'elaboratore dovrà eseguire in presenza di alcuni dati anziché di altri oppure, nel definire la scelta da attuare sul mercato, potrà affidarsi ad un' intelligenza artificialeistruita utilizzando le tecniche proprie dellamachine learning technology. Anche in tal caso, però, non tutto è rose e fiori: un'intelligenza artificialefunziona nella misura in cui esista un dominio di dati sufficientemente ampio sulla base del quale determinare un set di scelte, il che rappresenta un problema nel caso in cui si volesse ad essa affidare la scelta speculativa avente ad oggetto un disastro. Intendo dire: i dati di potenziale interesse per speculare su catastrofi e disastri sono, allo stato, troppo esigui per per poter istruire accuratamenteun'intelligenza artificiale. Chi mai avrebbe pensato ad un crollo del prezzo della gomma in corrispondenza del terremoto Giapponese nel 2011? Nessuno. La gomma crollò perché il terremoto danneggiò la capacità produttiva delle industrie automobilistiche.
Come dicevo negli 8 posts di cui sopra, resta poi da affrontare il problema degli idiomi locali e della loro influenza nel processo di produzione dell' output da parte dell 'algoritmo impiegato; anche la definizione di templates standard con annesse porzioni di vocabolari contenenti alcune parole chiavi i riferimento, non dà alcuna certezza circa la stabilità dei modelli operativi scelti, perché astrattamente mutevoli nel corso del tempo anche in ragione di una semplice alterazione dei criteri editoriali o linguistici di una delle fonti di informazioni di riferimento. Il risultato netto di quanto detto è chei profitti generati da questa strategia sono connotati da una forte volatilità nel tempo, ma con picchi singoli piuttosto elevati: in alcuni casi davvero molto elevati.
Poi, nel caso in cui voleste ridurre del tutti i rischi, non vi resterebbe che stringere amicizia con uno dei pochi fortunati che -ad esempio- dal 1994 riescono a conoscere in anticipo il contenuto secretato dei verbali del FOMC. Come faccio ad affermare questo? Esiste uno studio recentissimo di un'importantissima e notissima università americana che ha dimostrato come, dal 1994, negli USA come nel resto del mondo, l'equity premium inteso quale rendimento azionario in eccesso rispetto all'attività priva di rischio rappresentata dai Treasury Bills, sia stato interamente guadagnato in corrispondenza di alcuni eventi ben precisi, riguardanti la Banca Centrale a stelle e strisce.
Ne parleremo nei prossimi posts, grazie.