La prima parte la trovate qui.
La risposta al quesito di cui al titolo, può essere data solo valutando un set di tre variabili:
- Efficienza
- Idoneità d'uso
- Rapporto costi/performance
Efficienza. Quando si parla di efficienza,bisogna sempre contestualizzare la side a cui si fa riferimento: per la sell-side (brokers e/o dealers)disporre di un apparato tecnologico/informatico d'avanguardianon è sufficiente, restando i traders -con le loro competenze e con la loro esperienza di mercato- fondamentali al fine di poter offrire, alla buy-side, esecuzioni ottimali.Questa, in alcune sue espressioni -come gli Hedge Fund- ha manifestato, nel tempo, un bisogno aggiuntivo rispetto a quello tradizionale (consistente nella necessità di disporre di bravi traders), rappresentato dalla possibilità di poter contare su velocità sempre più elevate poiché, minore è la latenza sperimentata nei vari steps conducenti all' esecuzione di un trade,minore è il tempo che intercorre tra la rilevazione sul mercato di un'opportunità operativa e la sua capitalizzazione. Il trading algoritmico, in termini di pura efficienza, risulta essere il vero vincitore,grazie alla capacità delle unità logiche e fisiche sulle quali poggia, di gestire migliaia di ordini al millisecondo. I traders manuali hanno capacità multi tasking limitate, oltre le quali l'esecuzione perde di qualità anche nel caso in cui operino tramite DMA: in tale ipotesi, infatti, i traders della buy-side non si affidano al e non si interfacciano più con il brokerma direttamente col mercato, sul quale inseriscono gli ordini esprimenti le loro strategie operative. Viceversa, nel caso in cui facciano uso di crossing systems, il peso ponderale dell'efficienza operativa del trader è minore,poiché inserire uno o più ordini su uno o più ATS presenta profili di gestione passiva, che muta in attiva (dovendo operare su canali esecutivi alternativi) solo in assenza di matching entro il limite di tempo considerato accettabile. Dal punto di vista della mera velocità,il trading algoritmico, non ha ovviamente rivali, potendo i computers gestire migliaia di informazioni in pochi millisecondi, molti meno di quanti ne servano per un battito di ciglia (100-150 millisecondi) e quindi potendo reagire -in termini di scelte di mercato- in frazioni di secondo (molti steps esecutivi vengono oramai completati a livello microstrutturale in qualche microsecondo), ovvero,ancor prima che il trader visualizzi e comprenda il senso di un dato, apparso sul proprio monitor. Tra l'altro, anche gli ATSoffrono servizi di co-location (cliccaqui), al fine di poter competere con i mercati regolamenti nell'ottica del contenimento delle latenze.
Idoneità d'uso. Maggiore è la complessità gestionale, minore sarà il successo del modello scelto per operare. L'avvento del DMA ha rappresentato un' innovazione importante, in quanto grazie ad esso si garantisce alla buy-side la possibilità di gestire -sul mercato- i propri ordini, un po' come se fosse il broker di se stessa. Il trading manuale e quello algoritmo -se paragonati al DMA- presentano una controllabilità -ad opera del trader persona fisica- minore, essendo il tutto rapportato, nella prima ipotesi, alla comunicazione -fornita al broker- di istruzioni generali inerenti l'ordine e nella seconda alla scelta dell'algoritmo più appropriato.Tuttavia, proprio nel settore degli algoritmi offerti dai brokerssi sta vivendo un processo connotato da una costante innovazione,nell'ottica della semplificazione di utilizzo, personalizzazione delle funzionalità, scalabilità.Maggiore è il controllo esercitabile sugli ordini, maggiore è la trasparenza resa in output dal mercato, ragion per cui è fondamentale non solo conoscere bene le tipologie di ordini che ogni mercato sia disposto ad accettare, ma anche l'atteggiarsi degli algos offerti dai brokers rispetto a ciascuno di essi. Una forma di controllo ricercata può anche essere quella dell'anonimato, nella duplice accezione tecnica della scelta delle dark pools (clicca qui) e/o della segregazione praticata -in ambito DMA e Trading algoritmico- nei confronti degli accounts dei clienti di maggiori dimensioni, ai quali i brokers dedicanounità gestionali specializzate e separate da tutte le altre all' interno della loro struttura organizzativa.
La centralità del trading algoritmico può anche considerarsi conseguenza -oltre che causa- della frammentazione dei mercati. Nel momento in cui il processo di frammentazione ha preso il largo, la size media degli ordini è diminuita, con la conseguenza che il matchingdi quelli considerevoli -un tempo inoltrati a mercato“integri” da parte degli stituzionali e vantanti una possibilità di esecuzione immediata maggiore- è stato -per necessità- subordinato al processo del previo frazionamento, al fine di prevenire o contenere l'impatto sul mercato -ovvero il movimento avverso dei prezzi- che ricordiamo essere una voce costo per la buy side. La frammentazione delle trading venues, non ha portato con sé solo la contrazione della size media ma anche la parcellizzazione delle sacche di liquidità,la cui ricerca non può che essere affidata -vista la mole di dati da processare- agli algoritmi, risultando i traders manuali -anche in DMA- assolutamente non competitivi. Inoltre, merita di essere sottolineata la circostanza che vede la specializzazione per asset class -e dunque mercato- essere il modello di organizzazione interna preponderante, tanto nelle trading firms quanto tra i brokers, nel senso che sia nel caso del trading manuale poggiante su di un intermediario, sia in caso di DMA, i trades vengono gestiti da operatori che hanno una piena conoscenza dei mercati di riferimento e della tipologia di ordini invi ammessi, con l'ausilio tecnico degli Order Management System e degli Execution Management System (EMS),i quali prevengono -ad esempio- l'errata selezione di ordini informaticamente non supportati in un dato mercato piuttosto che in un altro.
Rapporto Costi/Performance. Il rapporto costi/performanceè uno dei punti cruciali di qualsiasi strategia operativa. Chi è più performante? Il trader o l'algoritmo? Innanzitutto, bisogna stabilire quando un prezzo medio di esecuzione possa considerarsi ottimale, ragion per cui si rivela prioritaria la fissazione di un benchmark di riferimentoche ponderi anche la variabilità nonché lavolatilità di queste medie (ed ogni trading firms farà le sue valutazioni sul punto). Sicuramente, il trader persona fisica può, in alcuni casi, avere una gestione dei trades maggiormente pro attiva rispetto agli algoritmi, in ragione della flessibilità che connota il loro agire e consentente un adattamento coerente al mutamento delle condizioni di mercato. Gli algoritmi, dal canto loro, pur operando nell'ambito di regole informatiche particolarmente rigide, non patiscono stanchezza né distrazioni. La condizione ottimale e quella derivante dalla ricerca di “equilibrio” tra centralità del trading manuale e centralità assegnata all'algoritmico: in condizioni operative connotate da un difficile intelligibilità tecnica, quindi maggiormente influenzate da un sentiment (o da un colore del mercato) la cui lettura è possibile nella misura in cui venga eseguita con i filtri professionali di chi conosca alla perfezione quel titolo, quell'azienda, quel settore, delegare la gestione degli ordini ad un trader proprietario o appartenente alla struttura di brokerage anziché ad un algoritmo, può considerarsi scelta ottimale. Il tutto, va sempre rapportato agli obiettivi prefissati all'interno di ogni trading firms e nel trade off che ciascuno considera ottimale. Gestire un trade passivamente, ad esempio inserendolo su di una sola dark pool o su di un mercato lit tramite un semplice Limit Order, potrà far risparmiare qualcosina a fronte dell'assunzione del rischio di un ineseguito che, a sua volta, a fronte di una variazione avversa del prezzo dell'asset, si tramuterà in uncosto sofferto nel successivo completamento dell'ordine -rimasto in precedenza parzialmente ineseguito- oppure in un differimento dell'operazione. L'Analisi dei Costi di Transazione (Transaction Cost Analysis -TCA)dimostra come i costi nascosti (o impliciti), vale a dire quelli rappresentanti dall'impatto sul prezzo e dal rischio di timing, siano superiori a quelli rappresentati dalle commissioni pagate a mercati e/o brokers. Molti algoritmi sono strutturati per ridurre i primi, tramite lo splitting -anche in combinazione al crossing- degli ordini di size elevata; altri più innovativi come l'Implementation Shortfall-basati sui modelli costo centrici- cercano di contenere (o neutralizzare per quanto possibile) il rischio di timing ed i costi opportunità, che analizzeremo in futuro tempo permettendo.
Scritto ascoltando
pezzo che dedico alla CPU del mio PC
pezzo che dedico alla CPU del mio PC
Nessun commento:
Posta un commento