Java Trading System Arkitektur


Velkommen til Home of the Open Java Trading System Open Java Trading System (OJTS) er ment å være en felles infrastruktur for å utvikle aksjehandelssystemer. Den består av fire deler: innsamling av rå data over internett anerkjennelsen av handel signalerer en visualiseringsmodul og moduler for å koble til de programmatiske grensesnittene av handelsplattformer som banker. Prosjektets mål er å gi en selvstendig, ren Java (plattform uavhengig) felles infrastruktur for utviklere av handelssystemer. Noen av aspektene som bør tas opp er å gi et felles SQL92-kompatibelt databaseskema for lagring av økonomiske data, vanlige Java-grensesnitt for hvordan du kan bytte data mellom ulike moduler, visualisering av rå økonomiske data og handelssignaler og flere andre vanlige aspekter som trengs for å skape Et siste handelssystem. På grunn av jobben min og familien finner jeg ikke tid til å forbedre OJTS lenger. Jeg fortsetter å oppdatere lenken delen nedenfor som vil lede deg til mer aktive java open source prosjekter i dette området, skjønt. Faktisk som en konsekvens av min interesse for dynamikken i aksjemarkedene begynte jeg en reise inn i de dypere detaljene i nasjonaløkonomien for å forstå valutakursene. Dette emnet fører meg endelig til en dypere studie av penger i seg selv som den metriske enheten vi bruker i økonomi for å måle verdi, suksess eller nytte. Dette emnet viste seg å være svært interessant, men samtidig var det veldig vanskelig å finne informasjon om hvordan vårt monetære system fungerer. Gå rundt og spør folk hvor penger kommer fra, hvem lager det og hva bestemmer verdien. Du vil legge merke til at selv de som har en mastergrad eller phd. i økonomi vil ikke vite disse detaljene. Å ja, de vil svare på noen kryptiske tekniske termer, men de vil ikke kunne tegne et enkelt diagram som skisserer prosessen. H. G. Wells er rapportert å ha sagt: Å skrive av valuta er generelt anerkjent som en anstrengende, faktisk nesten en uanstendig, praksis. Redaktører vil forplikte forfatteren til nesten ikke å skrive om penger, ikke fordi det er et uinteressant emne, men fordi det alltid har vært en stor forstyrrende. Jeg foreslår at enhver person som bor i et demokratisk samfunn for å lese om dette emnet. Det påvirker våre liv hver dag i en grad som ikke kan overdrives. Etter min mening burde alle borgere i et demokratisk land på den verden vite hvor pengene våre kommer fra. Mest sannsynlig kom du til denne nettsiden for å søke etter verktøy som hjelper deg med å øke din monetære formue. For å forstå metriske enhetens penger (uansett om Dollar eller Euro) vil være en viktig ingrediens i verktøykassen din for å tjene penger. Hvis du har liten tid og bare har råd til å lese en enkelt bok om dette emnet, foreslår jeg at du leser Wealth, Virtual Wealth and Debt av Frederick Soddy. Jeg var i stand til å kjøpe en brukt kopi via Amazon for 23.48, men det finnes også en online versjon. Du trenger DjVu-pluginet for å lese det. Denne boken ble utgitt opprinnelig i 1929, men beskriver fortsatt de faktiske fakta veldig bra. Selv om jeg ikke er enig med alle konklusjoner av Frederick Soddy, er hans arbeid hyggelig tankevekkende og vil føre deg til å stille de riktige spørsmålene. N e s s Utgivelser, feilrettinger og oppdatert dokumentasjon Kunngjort suspensjonen av aktiv utvikling og lagt til referanser til informasjon om våre monetære systemer (DollarEuro). Lagt til en koblingsseksjon til andre interessante java trading system prosjekter. Jeg undersøker hvordan å gjøre OJTS mer kompatible med andre java trading system innsats. Investment and Trading System Documentation Project finner du på ITSdoc. org. Det er en ny wiki tilgjengelig på ITSdoc. org med fokus på distribusjon av kunnskap innen domenet til investerings - og handelssystemer. Ideen bak ITSdoc. org er å ha en samarbeidsplattform lik wikipedia som hjelper samfunnet til å dele kunnskap. OpenJavaTradingSystem v0.13 utgitt. I går lanserte jeg versjonen 0.13 av OpenJavaTradingSystem biblioteket. Blant de nye funksjonene er: Datainnhenting for aksjer, midler og valutaer fra OnVista. Implementering av valutahåndtering og konverteringer. Porteføljer er implementert, og du kan jobbe med porteføljer på samme måte som med enkeltpapirpapir. Lagt til et generelt rammeverk for bruk av algoritmer til aksjemarkedets tidsserier. Byttet fra SISCScheme interaktivt skall til ABCLCommonLisp pluss dets redaktør kalt J. Lagt til en generell data caching mekanisme for å cache data som allerede ble hentet over nettet i filsystemet. Pluss mange flere mindre forbedringer Hvis du er interessert i denne nye versjonen, bør du starte på hurtigstartskjermbildet. Håndboken er ikke oppdatert, men det kan likevel gi deg verdifull bakgrunnsinformasjon hvis du vil bruke biblioteket i prosjektet. Dokumentasjonen skal oppdateres snart. I øyeblikket er det ikke mye utvikling gjort, fordi jeg oppgraderer min kunnskap om bayesiske nettverk. Se for eksempel listen over bøker på min nettside. To svært interessante prosjekter i den forbindelse er WEKA og BNJ. Snart vil jeg fortsette utviklingen, og jeg vil begynne å integrere den første intelligensen i systemet. I dag legger jeg den første utgaven i filseksjonen av kildeforføringsområdet. I tillegg har jeg oppdatert håndboken for å dokumentere interaktiv bruk av prosjektet via SISC-ordningslaget. For utålmodige her er en quickstartscreenshot-seksjon for å komme i gang. D o k m e n t i n o Dokumenter som beskriver internene i prosjektet. Java dataobjekter og grensesnittdokumentasjon gtgtHTML gtgtPDF Bruksdokumentasjon gtgtHTML gtgtPDF Investerings - og handelssystemdokumentasjon Prosjekt gtgtITSdoc. org T echnology Tredjeparts byggeblokker brukt i dette prosjektet HSQL Database Engine (lisens: hsqldblic. txt) HSQLDB er databasemotoren som sendes med prosjektet slik at du umiddelbart kan begynne å bruke OJTS uten å installere en tredjeparts database. Men hvis du planlegger å bruke en annen SQL92-kompatibel database, er dette et konfigurasjonsalternativ. Castor (lisens: The Exolab License) Castor er et Open Source data bindende rammeverk for Javatm. Det er den korteste banen mellom Java-objekter, XML-dokumenter og relasjonelle tabeller. Castor gir Java-til-XML-binding, Java-til-SQL-persistens og mer. Castor Doclet (lisens: GNU LGPL v2.1) Java doclet for å generere både kartlegging og DDL-filer for Castor JDO og Castor XML. TestMaker (lisens: TestMaker Open Source License) Fra TestMaker-prosjektet brukes bare implementering av protokollene som HTTP eller HTTPS for å samle data fra nettet. jCookie (lisens: GNU LGPL v2.1) Biblioteket jCookie er nødvendig for at TestMaker-bibliotekene skal fungere. htmlparser (lisens: GNU LGPL v2.1) Htmlparser-biblioteket brukes til å trekke ut data fra webressurser. ABCLCommonLisp (lisens: GNU GPL v2) ABCL (Armed Bear Common Lisp) brukes til å implementere det algoritmiske hjertet av prosjektet i ANSI Common Lisp programmeringsspråk. JFreeChart (lisens: GNU LGPL v2.1) JFreeChart brukes til visualisering av økonomiske data som diagrammer. JSci (lisens: GNU LGPL v2.1) JSci - En vitenskap API for Java. Joda Time (lisens: Home grown OpenSource-lisens) Joda Time erstatter den opprinnelige JDK Date and Time-klassene. Lenker til andre prosjekter JavaTraders Google-gruppen kan være den beste oppføringen for deg å finne ut om andre Java-baserte handelssystemer og - verktøy. L icense Vilkår for bruk Koden til prosjektet er lisensiert i henhold til LGPL og all dokumentasjon som du finner i dette prosjektet er lisensiert i henhold til vilkårene i FDL. A Java Intra-day Trading System Disse websidene kommer fra noe arbeid Jeg gjorde på et intra-day trading system, implementert i Java. Denne programvaren kjører under Tomcat Java-applikasjonsserveren og støtter handelsmodeller som leser en sanntidsmarkedsdatastrøm. På grunnlag av denne datastrømmen genererer programvaren kjøps - og salgsordrer og sporer sin markedsposisjon. Vennligst ikke send meg e-post og spør hvilke handelsmetoder som vil gjøre deg rik. Jeg vet mye om å implementere komplekse programvaresystemer, og jeg vet noe om å bygge markedshandelssystemer. Jeg jobber imidlertid fortsatt for å leve så det ser ut til at jeg ikke har oppdaget den hemmelige sausen selv. Jeg har ikke noe bemerkelsesverdig marked juju å gi deg. Under visse forhold vil jeg vurdere eksterne konsulentprosjekter. Et konsulentprosjekt må godkjennes av min arbeidsgiver, så det er litt overhead i å komme i gang (sist jeg gjorde ett av disse prosjektene, det tok en måned å bli godkjent). Jeg kan bare jobbe med amerikanske statsborgere, borgere i British Commonwealth eller NATO-allierte. Den første regelen for de som jobber for timepriser er å få betalt, så vær så snill å ikke skrive meg og foreslå at jeg jobber gratis for en andel i venture. Jeg er en veldig erfaren programvareingeniør og datavitenskapsmann, og timeprisene mine reflekterer dette. tradeengine. tar. gz Dette er handelssystemet som jeg utviklet. Jeg eier opphavsretten til denne programvaren, og du kan ikke bruke den til kommersielt formål uten tillatelse. Du kan heller ikke bruke denne programvaren uten tillatelse til noen form for markedshandel. Siden du ikke har tillatelse til å bruke denne programvaren til noe annet enn referanse, kan du ikke holde meg ansvarlig for noen feil i denne programvaren eller problemer som oppstår i bruken av denne. Denne programvaren blir litt datert. Det er mange flere Java-ressurser tilgjengelig nå. Selv om dette viser kjernearkitekturen, kan et mye bedre system implementeres ved hjelp av dagens Java-ressurser. Handelssystemet er utformet for å fungere med Interactive Brokers trading system via Java-grensesnittet. Disse nettsidene består av notater om utformingen av handelssystemet som jeg utviklet. Det er også notater om forsøkene med noen tekniske analysestiler intradag trading modeller. Et Java-handelssystem støttes av en kompleks programvareinfrastruktur. Dette inkluderer Apache Tomcat-webserveren (søknadsskilt), sanntidsdatainnmatninger og programvare for å støtte nettleserbasert samhandling med brukeren. Ved å undersøke programvaren som jeg trenger for å støtte handelssystemet, opprettet jeg disse notatene. Ian Kaplan januar 2009 Sist oppdatert: November 2011Best programmeringsspråk for algoritmiske handelssystemer Et av de vanligste spørsmålene jeg mottar i QS-postbag er Hva er det beste programmeringsspråket for algoritmisk handel. Det korte svaret er at det ikke er noe beste språk. Strategiparametere, ytelse, modularitet, utvikling, fleksibilitet og kostnad må alle vurderes. Denne artikkelen vil skissere de nødvendige komponentene i en algoritmisk handelssystemarkitektur og hvordan beslutninger om implementering påvirker valg av språk. For det første vil hovedkomponentene i et algoritmisk handelssystem bli vurdert, for eksempel forskningsverktøy, porteføljeoptimerer, risikostyring og utførelsesmotor. Deretter undersøkes ulike handelsstrategier og hvordan de påvirker systemets utforming. Spesielt vil hyppigheten av handel og det sannsynlige handelsvolumet bli diskutert. Når handelsstrategien er valgt, er det nødvendig å arkivere hele systemet. Dette inkluderer valg av maskinvare, operativsystem og systemresistens mot sjeldne, potensielt katastrofale hendelser. Mens arkitekturen vurderes, må det tas hensyn til ytelse - både til forskningsverktøyene og i live-utførelsesmiljøet. Hva er Trading Systemet som prøver å gjøre Før du bestemmer deg for det beste språket som du skal skrive et automatisert handelssystem, er det nødvendig å definere kravene. Skal systemet være rent utførelsesbasert Vil systemet kreve en risikostyring eller porteføljekonstruksjonsmodul Vil systemet kreve en høy ytelse backtester For de fleste strategier kan handelssystemet deles inn i to kategorier: Forskning og signalgenerering. Forskning er opptatt av evaluering av en strategisk ytelse over historiske data. Prosessen med å evaluere en handelsstrategi over tidligere markedsdata kalles backtesting. Datastørrelsen og algoritmisk kompleksitet vil ha stor innvirkning på beregningsintensiteten til backtesteren. CPU-hastighet og samtidighet er ofte begrensende faktorer for optimalisering av eksekveringshastigheten for forskning. Signalgenerering er opptatt av å generere et sett av handelssignaler fra en algoritme og sende slike ordrer til markedet, vanligvis via en megling. For visse strategier er et høyt ytelsesnivå nødvendig. IO-problemer som nettverksbåndbredde og latens er ofte begrensende for optimalisering av kjøringssystemer. Dermed kan valg av språk for hver komponent i hele systemet være ganske annerledes. Type, frekvens og volum av strategi Typen av anvendt algoritmisk strategi vil ha en betydelig innvirkning på systemets utforming. Det vil være nødvendig å vurdere markedene som handles, tilkoblingen til eksterne dataleverandører, frekvensen og volumet av strategien, avstanden mellom enkel utvikling og ytelsesoptimalisering, samt hvilken som helst tilpasset maskinvare, inkludert samlokalisert tilpasset servere, GPUer eller FPGAer som kan være nødvendige. Teknologifunksjonene for en lavfrekvent amerikansk aksjestrategi vil være vesentlig forskjellig fra en høyfrekvent statistisk arbitragestrategi handel på futures markedet. Før valg av språk må mange dataleverandører evalueres som angår en strategi for hånden. Det vil være nødvendig å vurdere tilkobling til leverandøren, strukturen til eventuelle APIer, aktualitet av dataene, lagringskrav og resiliency i møte med en leverandør som går offline. Det er også lurt å ha rask tilgang til flere leverandører. Ulike instrumenter har alle sine egne lagringsbehov, hvor eksempler inkluderer flere tickersymboler for aksjer og utløpsdatoer for futures (for ikke å nevne noen spesifikke OTC-data). Dette må legges inn i plattformen. Frekvensen av strategien er sannsynligvis en av de største driverne for hvordan teknologibakken skal defineres. Strategier som bruker data hyppigere enn små eller andre barer krever betydelig vurdering med hensyn til ytelse. En strategi som overskrider andre streker (dvs. kryssdata) fører til en ytelsesdrevet design som det primære kravet. For høyfrekvente strategier må en betydelig mengde markedsdata lagres og evalueres. Programvare som HDF5 eller kdb brukes ofte til disse rollene. For å behandle de omfattende datamengder som er nødvendig for HFT-applikasjoner, må en omfattende optimalisert backtester og kjøresystem brukes. CC (muligens med noen assembler) er sannsynligvis den sterkeste språkkandidaten. Ultra-høyfrekvente strategier vil nesten absolutt kreve tilpasset maskinvare som FPGAer, bytte samlokalisering og kjerne nettverksgrensesnittinnstilling. Forskningssystemer Forskningssystemer involverer vanligvis en blanding av interaktiv utvikling og automatisert skripting. Den førstnevnte foregår ofte innenfor en IDE som Visual Studio, MatLab eller R Studio. Sistnevnte innebærer omfattende numeriske beregninger over mange parametere og datapunkter. Dette fører til et språkvalg som gir et rettferdig miljø for å teste koden, men gir også tilstrekkelig ytelse til å evaluere strategier over flere parameterdimensjoner. Typiske IDEer i dette rommet inkluderer Microsoft Visual CC, som inneholder omfattende feilsøkingsverktøy, kodefyllingsfunksjoner (via Intellisense) og enkle oversikter over hele prosjektstakken (via databasen ORM, LINQ) MatLab. som er designet for omfattende numerisk lineær algebra og vektoriserte operasjoner, men på en interaktiv konsoll måte R Studio. som bryter R statistisk språkkonsoll i en fullverdig IDE Eclipse IDE for Linux Java og C og semi-proprietære IDEer som Enthought Canopy for Python, som inkluderer databehandlingsbiblioteker som NumPy. SciPy. scikit-lær og pandas i et enkelt interaktivt (konsoll) miljø. For numerisk backtesting er alle ovennevnte språk egnet, selv om det ikke er nødvendig å bruke en GUIDE som koden vil bli utført i bakgrunnen. Den primære hensynet på dette stadiet er det av kjøringshastigheten. Et kompilert språk (for eksempel C) er ofte nyttig hvis dimensjonene for backtesting parameter er store. Husk at det er nødvendig å være forsiktig med slike systemer hvis det er tilfelle Tolkede språk som Python bruker ofte høypresterende biblioteker som NumPypandas for backtesting-trinnet, for å opprettholde en rimelig grad av konkurranseevne med kompilerte ekvivalenter. Til slutt vil språket som er valgt for backtesting, bestemmes av spesifikke algoritmiske behov, så vel som omfanget av biblioteker tilgjengelig på språket (mer på det nedenfor). Språket som brukes til backtester og forskningsmiljøer kan imidlertid være helt uavhengig av de som brukes i porteføljekonstruksjon, risikostyring og utførelseskomponenter, slik det vil bli sett. Portefølje - og risikostyring Porteføljebygging og risikostyringskomponenter blir ofte oversett av detaljhandelsalgoritmiske forhandlere. Dette er nesten alltid en feil. Disse verktøyene gir mekanismen som kapital vil bli bevart. De forsøker ikke bare å lette antallet risikobete, men reduserer også transaksjonen av handelen selv, og reduserer transaksjonskostnadene. Sofistikerte versjoner av disse komponentene kan ha en betydelig innvirkning på kvaliteten og konsistensen av lønnsomheten. Det er rett og slett å skape en stabil strategi, da porteføljekonstruksjonsmekanismen og risikostyringen lett kan endres for å håndtere flere systemer. Dermed bør de betraktes som essensielle komponenter ved inngangen til utformingen av et algoritmisk handelssystem. Arbeidet med porteføljesammensetningssystemet er å ta et sett av ønskede bransjer og produsere settet av faktiske handler som minimerer kvelning, opprettholder eksponeringer mot ulike faktorer (som sektorer, aktivaklasser, volatilitet etc.) og optimaliserer kapitalallokering til ulike strategier i en portefølje. Porteføljekonstruksjon reduseres ofte til et lineært algebraproblem (for eksempel en matrisefaktorisering) og dermed er ytelsen svært avhengig av effektiviteten av den numeriske lineære algebraimplementasjonen som er tilgjengelig. Vanlige biblioteker inkluderer uBLAS. LAPACK og NAG for C. MatLab har også omfattende optimaliserte matriksoperasjoner. Python benytter NumPySciPy for slike beregninger. En ofte gjenbalansert portefølje vil kreve et kompilert (og godt optimalisert) matrisebibliotek for å bære dette trinnet, for ikke å flaskehals handelssystemet. Risikostyring er en annen ekstremt viktig del av et algoritmisk handelssystem. Risiko kan komme i mange former: Økt volatilitet (selv om dette kan sees som ønskelig for visse strategier), økte korrelasjoner mellom aktivaklasser, motpartsstandard, serveravbrudd, svarte svanehendelser og uoppdagede feil i handelskoden, for å nevne en få. Risikostyringskomponenter forsøker å forutse virkningene av overdreven volatilitet og korrelasjon mellom aktivaklasser og deres påfølgende effekt (er) på handelskapital. Dette reduserer ofte til et sett med statistiske beregninger som Monte Carlo stresstester. Dette ligner veldig på beregningsbehovene til en derivatprisemotor og vil som sådan være CPU-bundet. Disse simulasjonene er svært parallelliserbare (se nedenfor), og i en viss grad er det mulig å kaste maskinvare på problemet. Utførelsessystemer Arbeidet med utførelsessystemet er å motta filtrerte handelssignaler fra porteføljekonstruksjon og risikostyringskomponenter og sende dem videre til megling eller annen markedsadgang. For de fleste detaljhandelsalgoritmiske handelsstrategier innebærer dette en API eller FIX-tilkobling til en megling som Interactive Brokers. De primære hensynene når du bestemmer deg for et språk, inkluderer kvalitet på API, tilgjengelighet for språkpakker for en API, eksekveringsfrekvens og forventet slipping. Kvaliteten på API-en refererer til hvor godt dokumentert det er, hvilken type ytelse det gir, om det er behov for frittstående programvare som skal nås, eller om en gateway kan etableres på en hodeløs måte (dvs. ingen GUI). Når det gjelder Interactive Brokers, må Trader WorkStation-verktøyet kjøres i et GUI-miljø for å få tilgang til API-en. Jeg måtte en gang installere en Desktop Ubuntu-utgave på en Amazon Cloud-server for å få tilgang til Interactive Brokers eksternt, bare av den grunn. De fleste APIer vil gi et C andor Java-grensesnitt. Det er vanligvis opp til samfunnet å utvikle språkspesifikke wrappers for C, Python, R, Excel og MatLab. Merk at med hver ekstra plugin brukt (spesielt API wrappers) er det mulig for bugs å krype inn i systemet. Test alltid plugins av denne typen, og sørg for at de holdes aktivt. Et verdifullt mål er å se hvor mange nye oppdateringer til en kodebase har blitt gjort i de siste månedene. Utførelsesfrekvens er av største betydning i utførelsesalgoritmen. Legg merke til at hundrevis av ordrer kan sendes hvert minutt og som sådan er ytelsen kritisk. Slippage vil bli påført gjennom et dårlig utførelseseksemplar, og dette vil ha en dramatisk innvirkning på lønnsomheten. Statisk-typede språk (se nedenfor) som CJava er generelt optimale for utførelse, men det er et kompromiss i utviklingstid, testing og enkel vedlikehold. Dynamisk typede språk, som Python og Perl, er nå generelt raske nok. Sørg alltid for at komponentene er utformet på en modulær måte (se nedenfor) slik at de kan byttes ut når systemet skalerer. Arkitektonisk planlegging og utviklingsprosess Komponentene til et handelssystem, frekvens - og volumkrav er omtalt ovenfor, men systeminfrastruktur har ennå ikke blitt dekket. De som handler som en detaljhandler eller arbeider i et lite fond vil trolig ha på seg mange hatter. Det vil være nødvendig å dekke alfa-modellen, risikostyring og utførelsesparametere, og også den endelige implementeringen av systemet. Før du drar inn i bestemte språk, vil utformingen av en optimal systemarkitektur bli diskutert. Separasjon av bekymringer En av de viktigste beslutningene som må gjøres i begynnelsen er hvordan å skille bekymringene i et handelssystem. I programvareutvikling betyr dette i hovedsak hvordan man bryter opp de ulike aspektene av handelssystemet i separate modulære komponenter. Ved å utstede grensesnitt på hver av komponentene er det enkelt å bytte ut deler av systemet for andre versjoner som hjelper ytelse, pålitelighet eller vedlikehold uten å endre ekstern avhengighetskode. Dette er den beste praksis for slike systemer. For strategier ved lavere frekvenser anbefales slike praksiser. For ultrahøyfrekvenshandel kan regelboken ignoreres på bekostning av å tilpasse systemet for enda bedre ytelse. Et mer tett koblet system kan være ønskelig. Å lage et komponentkart av et algoritmisk handelssystem er verdt en artikkel i seg selv. En optimal tilnærming er imidlertid å sørge for at det finnes separate komponenter for de historiske og sanntidsmarkedsdatainngangene, datalagring, datatilgang API, backtester, strategiparametere, porteføljekonstruksjon, risikostyring og automatiserte eksekveringssystemer. For eksempel, hvis datalageren som brukes, for tiden er underpresterende, selv ved betydelige optimaliseringsnivåer, kan den byttes ut med minimal omskrivning til datainntaket eller datatilgangsp API. Så langt som backtesteren og de etterfølgende komponentene er det ingen forskjell. En annen fordel med separerte komponenter er at det tillater at en rekke programmeringsspråk brukes i det totale systemet. Det er ikke nødvendig å være begrenset til et enkelt språk hvis kommunikasjonsmetoden til komponentene er språkavhengig. Dette vil være tilfelle hvis de kommuniserer via TCPIP, ZeroMQ eller annen språkavhengig protokoll. Som et konkret eksempel kan du vurdere om et backtesting system skrives i C for nummerkrympende ytelse, mens porteføljeadministrator og kjøringssystemer er skrevet i Python ved hjelp av SciPy og IBPy. Prestasjonshensyn Prestasjoner er et vesentlig hensyn til de fleste handelsstrategier. For høyere frekvensstrategier er det den viktigste faktoren. Ytelse dekker et bredt spekter av problemer, for eksempel algoritmisk eksekveringshastighet, nettverksforsinkelse, båndbredde, data IO, konkurranseparallelisme og skalering. Hver av disse områdene er individuelt dekket av store lærebøker, så denne artikkelen vil bare skrape overflaten til hvert emne. Arkitektur og språkvalg vil nå bli diskutert med tanke på deres effekt på ytelse. Den rådende visdom som uttalt av Donald Knuth. en av fedrene til datavitenskap, er at for tidlig optimalisering er roten til alt ondt. Dette er nesten alltid tilfelle - unntatt når man bygger en høyfrekvent handelsalgoritme For de som er interessert i lavere frekvensstrategier, er en felles tilnærming å bygge et system på den enkleste måten og bare optimalisere etter hvert som flaskehalsene begynner å vises. Profileringsverktøy brukes til å avgjøre hvor flaskehalser oppstår. Profiler kan gjøres for alle faktorene som er oppført ovenfor, enten i et MS Windows eller Linux-miljø. Det er mange operativsystem og språkverktøy tilgjengelig for det, samt tredjepartsverktøy. Språkvalg vil nå bli diskutert i sammenheng med ytelse. C, Java, Python, R og MatLab inneholder alle høyytelsesbiblioteker (enten som en del av deres standard eller eksternt) for grunnleggende datastruktur og algoritmisk arbeid. C-skip med Standard Template Library, mens Python inneholder NumPySciPy. Vanlige matematiske oppgaver finnes i disse bibliotekene, og det er sjelden gunstig å skrive en ny implementering. Ett unntak er at høyt tilpasset maskinvarearkitektur kreves, og en algoritme gjør omfattende bruk av proprietære utvidelser (for eksempel tilpassede caches). Men ofte gjenoppfinnelse av hjulet avfall tid som kan være bedre brukt å utvikle og optimalisere andre deler av handelsinfrastrukturen. Utviklingstiden er ekstremt verdifull, spesielt i sammenheng med eneste utviklere. Latency er ofte et problem med utførelsessystemet, da forskningsverktøyene vanligvis ligger på samme maskin. For det første kan latens forekomme på flere punkter langs utførelsesbanen. Databaser må konsulteres (disknetwork latency), signaler må genereres (operativsystem, kernel messaging latency), handel signaler sendt (NIC latency) og ordre behandlet (bytte systemer interne latency). For høyere frekvensoperasjoner er det nødvendig å bli godt kjent med kernaloptimalisering, samt optimalisering av nettverksoverføring. Dette er et dypt område og er betydelig utenfor artikkelen, men hvis en UHFT-algoritme er ønsket, så vær oppmerksom på dybden av kunnskap som kreves. Caching er veldig nyttig i verktøykassen til en kvantitativ handelsutvikler. Caching refererer til konseptet om lagring av ofte tilgangsdata på en måte som tillater høyere ytelse, på bekostning av potensiell stallhet av dataene. En vanlig brukstilfelle skjer i webutvikling når du tar data fra en diskbasert relasjonsdatabase og legger den inn i minnet. Eventuelle påfølgende forespørsler om dataene behøver ikke å treffe databasen, og prestasjonsgevinstene kan derfor være vesentlige. For handelssituasjoner kan caching være svært gunstig. For eksempel kan dagens status for en strategiportefølje lagres i en cache til den er rebalansert, slik at listen ikke trenger å bli regenerert på hver krets av handelsalgoritmen. Slike regenerering er sannsynligvis en høy CPU eller disk IO-operasjon. Imidlertid er caching ikke uten sine egne problemer. Regenerering av hurtigbufferdata på en gang, på grunn av volatiliseringen av hurtiglagringsplassen, kan stille betydelig etterspørsel etter infrastruktur. Et annet problem er hundespann. hvor flere generasjoner av en ny bufferkopi utføres under ekstremt høy belastning, noe som fører til kaskadesvikt. Dynamisk minneallokering er en dyr operasjon i programvareutførelse. Derfor er det avgjørende at høyere prestasjonshandel applikasjoner skal være godt klar over hvordan minne blir tildelt og fordelt under programflyten. Nyere språkstandarder som Java, C og Python utfører automatisk automatisk søppelsamling. som refererer til deallokering av dynamisk allokert minne når objekter går utenfor omfanget. Søppelsamling er ekstremt nyttig under utvikling, da det reduserer feil og hjelpevennlighet. Det er imidlertid ofte suboptimal for visse høyfrekvente handelsstrategier. Tilpasset søppelinnsamling er ofte ønsket for disse tilfellene. I Java, for eksempel ved å stille inn søppelkollektor og haugkonfigurasjon, er det mulig å oppnå høy ytelse for HFT-strategier. C gir ikke en innfødt søppelkollektor, og det er derfor nødvendig å håndtere all minneallokering som en del av en objektgjennomføring. Mens potensielt feil utsatt (potensielt fører til dangling pointers) er det ekstremt nyttig å ha finkornet kontroll over hvordan objekter vises i bunken for visse applikasjoner. Når du velger språk, sørg for å studere hvordan søppelsamleren fungerer, og om den kan modifiseres for å optimalisere for et bestemt brukstilfelle. Mange operasjoner i algoritmiske handelssystemer er egnet til parallellisering. Dette refererer til konseptet med å utføre flere programmatiske operasjoner samtidig, dvs. parallelt. Såkalte embarassingly parallelle algoritmer inkluderer trinn som kan beregnes helt uavhengig av andre trinn. Visse statistiske operasjoner, som Monte Carlo-simuleringer, er et godt eksempel på embarassingly parallelle algoritmer, da hver tilfeldig tegning og etterfølgende baneoperasjon kan beregnes uten kjennskap til andre baner. Andre algoritmer er bare delvis parallelliserbare. Fluiddynamiske simuleringer er et eksempel der domenet til beregning kan deles opp, men i siste omgang må disse domenene kommunisere med hverandre og dermed operasjonene er delvis sekvensielle. Paralleliserbare algoritmer er underlagt Amdahls Law. som gir en teoretisk øvre grense til ytelsesøkningen av en parallellisert algoritme når den er underlagt N separate prosesser (for eksempel på en CPU-kjerne eller tråd). Parallellisering har blitt stadig viktigere som et middel til optimalisering siden prosessorens klokkehastighet har stagnert, da nyere prosessorer inneholder mange kjerner som skal utføre parallelle beregninger. Stigningen av forbrukergrafikkhardware (hovedsakelig for videospill) har ført til utviklingen av grafiske prosesseringsenheter (GPUer), som inneholder hundrevis av kjerner for svært samtidige operasjoner. Slike GPUer er nå veldig rimelige. Rammer på høyt nivå, som Nvidias CUDA, har ført til utbredt adopsjon i akademia og finans. Slike GPU-maskinvare er generelt bare egnet for forskningssiden ved kvantitativ finansiering, mens andre mer spesialiserte maskinvare (inkludert Feltprogrammerbare Gate Arrays - FPGAs) brukes til (U) HFT. I dag støtter de fleste moderne langaugene en grad av samtidighet. Således er det greit å optimalisere en backtester, siden alle beregninger er generelt uavhengige av de andre. Skalering i programvare engineering og operasjoner refererer til evnen til systemet til å håndtere stadig økende belastninger i form av større forespørsler, høyere prosessorbruk og mer minneallokering. I algoritmisk handel er en strategi i stand til å skalere hvis den kan akseptere større mengder kapital og fortsatt produsere konsistent avkastning. Handelssteknologi stabelen skalerer hvis den kan tåle større handelsvolumer og økt ventetid uten flaskehalsing. Mens systemene skal være skreddersydde, er det ofte vanskelig å forutse på forhånd hvor en flaskehals vil oppstå. Rigourous logging, testing, profilering og overvåking vil bidra sterkt til å tillate et system å skalere. Språkene er ofte beskrevet som uskalelig. Dette er vanligvis et resultat av feilinformasjon, snarere enn hardt. Det er den totale teknologistakken som bør fastslås for skalerbarhet, ikke språket. Klart visse språk har større ytelse enn andre, spesielt brukstilfeller, men ett språk er aldri bedre enn en annen i alle forstand. En måte å håndtere skala på er å skille bekymringer, som nevnt ovenfor. For å ytterligere introdusere evnen til å håndtere pigger i systemet (dvs. plutselig volatilitet som utløser en flåte av handler), er det nyttig å lage en meldingskøararkitektur. Dette innebærer ganske enkelt å plassere et meldingskøesystem mellom komponenter slik at ordrer blir stablet opp hvis en bestemt komponent ikke klarer å behandle mange forespørsler. I stedet for at forespørsler går tapt, holdes de bare i en stabel til meldingen håndteres. Dette er spesielt nyttig for å sende handler til en utførelsesmotor. Hvis motoren lider under tung ventetid, vil den sikkerhetskopiere handler. En kø mellom handelssignalgeneratoren og utførelses-API-en vil lindre dette problemet på bekostning av potensiell handel slippage. En respektert åpen kildekode meldingskronemegler er RabbitMQ. Maskinvare og operativsystemer Maskinvaren som kjører strategien din, kan få betydelig innvirkning på lønnsomheten til algoritmen din. Dette er ikke et problem begrenset til høyfrekvente handelsmenn heller. Et dårlig valg i maskinvare og operativsystem kan føre til maskinkrasj eller omstart i det mest uopprettelige øyeblikket. Derfor er det nødvendig å vurdere hvor søknaden din vil bli bosatt. Valget er vanligvis mellom en personlig stasjonær maskin, en ekstern server, en skyleverandør eller en utvekslingssamlokalisert server. Stasjonære maskiner er enkle å installere og administrere, spesielt med nyere brukervennlige operativsystemer som Windows 78, Mac OSX og Ubuntu. Desktop systemer har imidlertid noen betydelige ulemper, men. Det fremste er at versjonene av operativsystemer som er designet for stasjonære maskiner, sannsynligvis vil kreve rebootspatching (og ofte i verste fall). De bruker også opp flere beregningsmessige ressurser i kraft av å kreve et grafisk brukergrensesnitt (GUI). Bruk av maskinvare i et hjem (eller lokalt kontor) miljø kan føre til internettforbindelse og strømbruddsproblemer. Den største fordelen med et stasjonært system er at betydelig beregningsgrad kan kjøpes for brøkdel av kostnaden for en ekstern dedikert server (eller et skybasert system) med sammenlignbar hastighet. En dedikert server eller en skybasert maskin, mens den ofte er dyrere enn et skrivebordsmulighet, muliggjør mer betydelig redundansinfrastruktur, for eksempel automatiserte data-sikkerhetskopier, muligheten til mer enklere å sikre oppetid og fjernovervåkning. De er vanskeligere å administrere siden de krever muligheten til å bruke ekstern påloggingsfunksjoner i operativsystemet. I Windows er dette vanligvis via GUI Remote Desktop Protocol (RDP). I Unix-baserte systemer brukes kommandolinjen Secure Shell (SSH). Unix-basert serverinfrastruktur er nesten alltid kommandolinjebasert, noe som gjør at GUI-baserte programmeringsverktøy (for eksempel MatLab eller Excel) umiddelbart kan være ubrukelig. En samlokalisert server, som uttrykket brukes i kapitalmarkedene, er rett og slett en dedikert server som ligger innenfor en bytte for å redusere ventetiden til handelsalgoritmen. Dette er absolutt nødvendig for visse høyfrekvente handelsstrategier, som er avhengige av lav ventetid for å generere alfa. Det endelige aspektet til maskinvarevalg og valget av programmeringsspråk er plattformuavhengighet. Er det behov for at koden skal gå over flere forskjellige operativsystemer Er koden designet for å bli kjørt på en bestemt type prosessorarkitektur, for eksempel Intel x86x64 eller vil det være mulig å kjøre på RISC-prosessorer som de som er produsert av ARM Disse problemene vil være svært avhengig av frekvens og type strategi som implementeres. Resilience and Testing En av de beste måtene å miste mye penger på algoritmisk handel er å skape et system uten spenning. Dette refererer til holdbarheten til sytemet når det er underlagt sjeldne hendelser, som for eksempel meglingfellesskap, plutselig overflødig volatilitet, regionalt nedetid for en skysservereoperatør eller en tilfeldig sletting av en hel handelsdatabase. År med fortjeneste kan elimineres innen sekunder med en dårlig utformet arkitektur. Det er helt nødvendig å vurdere problemer som debuggng, testing, logging, sikkerhetskopiering, høy tilgjengelighet og overvåkning som kjernekomponenter i systemet. Det er sannsynlig at i noen rimelig komplisert tilpasset kvantitativ handelsapplikasjon vil minst 50 utviklings tid bli brukt på feilsøking, testing og vedlikehold. Nesten alle programmeringsspråk sender enten med en tilhørende debugger eller har respekterte tredjepartsalternativer. I hovedsak tillater en debugger utførelse av et program med innføring av vilkårlig bruddpunkter i kodebanen, som midlertidig stopper gjennomføringen for å undersøke systemets tilstand. Hovedfordelen ved feilsøking er at det er mulig å undersøke kodeksens oppførsel før et kjent krasjpunkt. Feilsøking er en viktig komponent i verktøykassen for å analysere programmeringsfeil. However, they are more widely used in compiled languages such as C or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb. which is a sophisticated debugging tool. The Microsoft Visual C IDE possesses extensive GUI debugging utilities, while for the command line Linux C programmer, the gdb debugger exists. Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to fill in the blanks, the tests will eventually all pass, at which point development should cease. TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options. In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a first line of attack when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed. Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns. While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information. Trading metrics such as abnormal pricesvolume, sudden rapid drawdowns and account exposure for different sectorsmarkets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric. System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case. Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected The answers to both of these questions are often sobering It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment Similarly, high availability needs to be baked in from the start. Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I wont delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system. Choosing a Language Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised. Type Systems When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript. For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesnt catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. Dynamic languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone. Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPySciPy alleviate this issue due to enforcing a type within arrays. Open Source or Proprietary One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensingmaintenance costs. The Microsoft stack (including Visual C, Visual C) and MathWorks MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant battle testing in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds. Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The software allows cohesive integration with multiple languages such as C, C and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many pluginslibraries (some free, some commercial) for nearly any quantitative research domain. There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools play well with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned. MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive. Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQLPostgreSQL, Python, R, C and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats. The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process. Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce. Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C in order to improve execution speeds, but it requires some experience in multi-language programming. While proprietary software is not immune from dependencyversioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer. I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C and R. The maturity, community size, ability to dig deep if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend. Batteries Included The header of this section refers to the out of the box capabilities of the language - what libraries does it contain and how good are they This is where mature languages have an advantage over newer variants. C, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms. C is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms for free. Python is known for being able to communicate with nearly any other type of systemprotocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance). Outside of the standard libraries, C makes use of the Boost library, which fills in the missing parts of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C11 spec, including native support for lambda expressions and concurrency. Python has the high performance NumPySciPyPandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL (MySQLC), JDBC (JavaMatLab), MySQLdb (MySQLPython) and psychopg2 (PostgreSQLPython). Python can even communicate with R via the RPy plugin An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C and Java, but some also support C and Python, either directly or with community-provided wrapper code to the C APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol . Conclusion As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries. The benefit of a separated architecture is that it allows languages to be plugged in for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it. Just Getting Started with Quantitative TradingThe LMAX Architecture Over the last few years we keep hearing that the free lunch is over1 - we cant expect increases in individual CPU speed. So to write fast code we need to explicitly use multiple processors with concurrent software. This is not good news - writing concurrent code is very hard. Locks and semaphores are hard to reason about and hard to test - meaning we are spending more time worrying about satisfying the computer than we are solving the domain problem. Various concurrency models, such as Actors and Software Transactional Memory, aim to make this easier - but there is still a burden that introduces bugs and complexity. So I was fascinated to hear about a talk at QCon London in March last year from LMAX. LMAX is a new retail financial trading platform. Its business innovation is that it is a retail platform - allowing anyone to trade in a range of financial derivative products2. A trading platform like this needs very low latency - trades have to be processed quickly because the market is moving rapidly. A retail platform adds complexity because it has to do this for lots of people. So the result is more users, with lots of trades, all of which need to be processed quickly.3 Given the shift to multi-core thinking, this kind of demanding performance would naturally suggest an explicitly concurrent programming model - and indeed this was their starting point. But the thing that got peoples attention at QCon was that this wasnt where they ended up. In fact they ended up by doing all the business logic for their platform: all trades, from all customers, in all markets - on a single thread. A thread that will process 6 million orders per second using commodity hardware.4 Processing lots of transactions with low-latency and none of the complexities of concurrent code - how can I resist digging into that Fortunately another difference LMAX has to other financial companies is that they are quite happy to talk about their technological decisions. Så nå har LMAX vært i produksjon for en stund sin tid til å utforske deres fascinerende design. Overall Structure Figure 1: LMAXs architecture in three blobs At a top level, the architecture has three parts business logic processor5 input disruptor output disruptors As its name implies, the business logic processor handles all the business logic in the application. As I indicated above, it does this as a single-threaded java program which reacts to method calls and produces output events. Consequently its a simple java program that doesnt require any platform frameworks to run other than the JVM itself, which allows it to be easily run in test environments. Although the Business Logic Processor can run in a simple environment for testing, there is rather more involved choreography to get it to run in a production setting. Input messages need to be taken off a network gateway and unmarshaled, replicated and journaled. Output messages need to be marshaled for the network. These tasks are handled by the input and output disruptors. Unlike the Business Logic Processor, these are concurrent components, since they involve IO operations which are both slow and independent. They were designed and built especially for LMAX, but they (like the overall architecture) are applicable elsewhere. Business Logic Processor Keeping it all in memory The Business Logic Processor takes input messages sequentially (in the form of a method invocation), runs business logic on it, and emits output events. It operates entirely in-memory, there is no database or other persistent store. Keeping all data in-memory has two important benefits. Firstly its fast - theres no database to provide slow IO to access, nor is there any transactional behavior to execute since all the processing is done sequentially. The second advantage is that it simplifies programming - theres no objectrelational mapping to do. All the code can be written using Javas object model without having to make any compromises for the mapping to a database. Using an in-memory structure has an important consequence - what happens if everything crashes Even the most resilient systems are vulnerable to someone pulling the power. The heart of dealing with this is Event Sourcing - which means that the current state of the Business Logic Processor is entirely derivable by processing the input events. As long as the input event stream is kept in a durable store (which is one of the jobs of the input disruptor) you can always recreate the current state of the business logic engine by replaying the events. A good way to understand this is to think of a version control system. Version control systems are a sequence of commits, at any time you can build a working copy by applying those commits. VCSs are more complicated than the Business Logic Processor because they must support branching, while the Business Logic Processor is a simple sequence. So, in theory, you can always rebuild the state of the Business Logic Processor by reprocessing all the events. In practice, however, that would take too long should you need to spin one up. So, just as with version control systems, LMAX can make snapshots of the Business Logic Processor state and restore from the snapshots. They take a snapshot every night during periods of low activity. Restarting the Business Logic Processor is fast, a full restart - including restarting the JVM, loading a recent snapshot, and replaying a days worth of journals - takes less than a minute. Snapshots make starting up a new Business Logic Processor faster, but not quickly enough should a Business Logic Processor crash at 2pm. As a result LMAX keeps multiple Business Logic Processors running all the time6. Each input event is processed by multiple processors, but all but one processor has its output ignored. Should the live processor fail, the system switches to another one. This ability to handle fail-over is another benefit of using Event Sourcing. By event sourcing into replicas they can switch between processors in a matter of micro-seconds. As well as taking snapshots every night, they also restart the Business Logic Processors every night. The replication allows them to do this with no downtime, so they continue to process trades 247. For more background on Event Sourcing, see the draft pattern on my site from a few years ago. The article is more focused on handling temporal relationships rather than the benefits that LMAX use, but it does explain the core idea. Event Sourcing is valuable because it allows the processor to run entirely in-memory, but it has another considerable advantage for diagnostics. If some unexpected behavior occurs, the team copies the sequence of events to their development environment and replays them there. This allows them to examine what happened much more easily than is possible in most environments. This diagnostic capability extends to business diagnostics. There are some business tasks, such as in risk management, that require significant computation that isnt needed for processing orders. An example is getting a list of the top 20 customers by risk profile based on their current trading positions. The team handles this by spinning up a replicate domain model and carrying out the computation there, where it wont interfere with the core order processing. These analysis domain models can have variant data models, keep different data sets in memory, and run on different machines. Tuning performance So far Ive explained that the key to the speed of the Business Logic Processor is doing everything sequentially, in-memory. Just doing this (and nothing really stupid) allows developers to write code that can process 10K TPS7. They then found that concentrating on the simple elements of good code could bring this up into the 100K TPS range. This just needs well-factored code and small methods - essentially this allows Hotspot to do a better job of optimizing and for CPUs to be more efficient in caching the code as its running. It took a bit more cleverness to go up another order of magnitude. There are several things that the LMAX team found helpful to get there. One was to write custom implementations of the java collections that were designed to be cache-friendly and careful with garbage8. An example of this is using primitive java longs as hashmap keys with a specially written array backed Map implementation ( LongToObjectHashMap ). In general theyve found that choice of data structures often makes a big difference, Most programmers just grab whatever List they used last time rather than thinking which implementation is the right one for this context.9 Another technique to reach that top level of performance is putting attention into performance testing. Ive long noticed that people talk a lot about techniques to improve performance, but the one thing that really makes a difference is to test it. Even good programmers are very good at constructing performance arguments that end up being wrong, so the best programmers prefer profilers and test cases to speculation.10 The LMAX team has also found that writing tests first is a very effective discipline for performance tests. Programming Model This style of processing does introduce some constraints into the way you write and organize the business logic. The first of these is that you have to tease out any interaction with external services. An external service call is going to be slow, and with a single thread will halt the entire order processing machine. As a result you cant make calls to external services within the business logic. Instead you need to finish that interaction with an output event, and wait for another input event to pick it back up again. Ill use a simple non-LMAX example to illustrate. Imagine you are making an order for jelly beans by credit card. A simple retailing system would take your order information, use a credit card validation service to check your credit card number, and then confirm your order - all within a single operation. The thread processing your order would block while waiting for the credit card to be checked, but that block wouldnt be very long for the user, and the server can always run another thread on the processor while its waiting. In the LMAX architecture, you would split this operation into two. The first operation would capture the order information and finish by outputting an event (credit card validation requested) to the credit card company. The Business Logic Processor would then carry on processing events for other customers until it received a credit-card-validated event in its input event stream. On processing that event it would carry out the confirmation tasks for that order. Working in this kind of event-driven, asynchronous style, is somewhat unusual - although using asynchrony to improve the responsiveness of an application is a familiar technique. It also helps the business process be more resilient, as you have to be more explicit in thinking about the different things that can happen with the remote application. A second feature of the programming model lies in error handling. The traditional model of sessions and database transactions provides a helpful error handling capability. Should anything go wrong, its easy to throw away everything that happened so far in the interaction. Session data is transient, and can be discarded, at the cost of some irritation to the user if in the middle of something complicated. If an error occurs on the database side you can rollback the transaction. LMAXs in-memory structures are persistent across input events, so if there is an error its important to not leave that memory in an inconsistent state. However theres no automated rollback facility. As a consequence the LMAX team puts a lot of attention into ensuring the input events are fully valid before doing any mutation of the in-memory persistent state. They have found that testing is a key tool in flushing out these kinds of problems before going into production. Input and Output Disruptors Although the business logic occurs in a single thread, there are a number tasks to be done before we can invoke a business object method. The original input for processing comes off the wire in the form of a message, this message needs to be unmarshaled into a form convenient for Business Logic Processor to use. Event Sourcing relies on keeping a durable journal of all the input events, so each input message needs to be journaled onto a durable store. Finally the architecture relies on a cluster of Business Logic Processors, so we have to replicate the input messages across this cluster. Similarly on the output side, the output events need to be marshaled for transmission over the network. Figure 2: The activities done by the input disruptor (using UML activity diagram notation) The replicator and journaler involve IO and therefore are relatively slow. After all the central idea of Business Logic Processor is that it avoids doing any IO. Also these three tasks are relatively independent, all of them need to be done before the Business Logic Processor works on a message, but they can done in any order. So unlike with the Business Logic Processor, where each trade changes the market for subsequent trades, there is a natural fit for concurrency. To handle this concurrency the LMAX team developed a special concurrency component, which they call a Disruptor 11 . The LMAX team have released the source code for the Disruptor with an open source licence. At a crude level you can think of a Disruptor as a multicast graph of queues where producers put objects on it that are sent to all the consumers for parallel consumption through separate downstream queues. When you look inside you see that this network of queues is really a single data structure - a ring buffer. Each producer and consumer has a sequence counter to indicate which slot in the buffer its currently working on. Each producerconsumer writes its own sequence counter but can read the others sequence counters. This way the producer can read the consumers counters to ensure the slot it wants to write in is available without any locks on the counters. Similarly a consumer can ensure it only processes messages once another consumer is done with it by watching the counters. Figure 3: The input disruptor coordinates one producer and four consumers Output disruptors are similar but they only have two sequential consumers for marshaling and output.12 Output events are organized into several topics, so that messages can be sent to only the receivers who are interested in them. Each topic has its own disruptor. The disruptors Ive described are used in a style with one producer and multiple consumers, but this isnt a limitation of the design of the disruptor. The disruptor can work with multiple producers too, in this case it still doesnt need locks.13 A benefit of the disruptor design is that it makes it easier for consumers to catch up quickly if they run into a problem and fall behind. If the unmarshaler has a problem when processing on slot 15 and returns when the receiver is on slot 31, it can read data from slots 16-30 in one batch to catch up. This batch read of the data from the disruptor makes it easier for lagging consumers to catch up quickly, thus reducing overall latency. Ive described things here, with one each of the journaler, replicator, and unmarshaler - this indeed is what LMAX does. But the design would allow multiple of these components to run. If you ran two journalers then one would take the even slots and the other journaler would take the odd slots. This allows further concurrency of these IO operations should this become necessary. The ring buffers are large: 20 million slots for input buffer and 4 million slots for each of the output buffers. The sequence counters are 64bit long integers that increase monotonically even as the ring slots wrap.14 The buffer is set to a size thats a power of two so the compiler can do an efficient modulus operation to map from the sequence counter number to the slot number. Like the rest of the system, the disruptors are bounced overnight. This bounce is mainly done to wipe memory so that there is less chance of an expensive garbage collection event during trading. (I also think its a good habit to regularly restart, so that you rehearse how to do it for emergencies.) The journalers job is to store all the events in a durable form, so that they can be replayed should anything go wrong. LMAX does not use a database for this, just the file system. They stream the events onto the disk. In modern terms, mechanical disks are horribly slow for random access, but very fast for streaming - hence the tag-line disk is the new tape.15 Earlier on I mentioned that LMAX runs multiple copies of its system in a cluster to support rapid failover. The replicator keeps these nodes in sync. All communication in LMAX uses IP multicasting, so clients dont need to know which IP address is the master node. Only the master node listens directly to input events and runs a replicator. The replicator broadcasts the input events to the slave nodes. Should the master node go down, its lack of heartbeat will be noticed, another node becomes master, starts processing input events, and starts its replicator. Each node has its own input disruptor and thus has its own journal and does its own unmarshaling. Even with IP multicasting, replication is still needed because IP messages can arrive in a different order on different nodes. The master node provides a deterministic sequence for the rest of the processing. The unmarshaler turns the event data from the wire into a java object that can be used to invoke behavior on the Business Logic Processor. Therefore, unlike the other consumers, it needs to modify the data in the ring buffer so it can store this unmarshaled object. The rule here is that consumers are permitted to write to the ring buffer, but each writable field can only have one parallel consumer thats allowed to write to it. This preserves the principle of only having a single writer. 16 Figure 4: The LMAX architecture with the disruptors expanded The disruptor is a general purpose component that can be used outside of the LMAX system. Usually financial companies are very secretive about their systems, keeping quiet even about items that arent germane to their business. Not just has LMAX been open about its overall architecture, they have open-sourced the disruptor code - an act that makes me very happy. Not just will this allow other organizations to make use of the disruptor, it will also allow for more testing of its concurrency properties. Queues and their lack of mechanical sympathy The LMAX architecture caught peoples attention because its a very different way of approaching a high performance system to what most people are thinking about. So far Ive talked about how it works, but havent delved too much into why it was developed this way. This tale is interesting in itself, because this architecture didnt just appear. It took a long time of trying more conventional alternatives, and realizing where they were flawed, before the team settled on this one. Most business systems these days have a core architecture that relies on multiple active sessions coordinated through a transactional database. The LMAX team were familiar with this approach, and confident that it wouldnt work for LMAX. This assessment was founded in the experiences of Betfair - the parent company who set up LMAX. Betfair is a betting site that allows people to bet on sporting events. It handles very high volumes of traffic with a lot of contention - sports bets tend to burst around particular events. To make this work they have one of the hottest database installations around and have had to do many unnatural acts in order to make it work. Based on this experience they knew how difficult it was to maintain Betfairs performance and were sure that this kind of architecture would not work for the very low latency that a trading site would require. As a result they had to find a different approach. Their initial approach was to follow what so many are saying these days - that to get high performance you need to use explicit concurrency. For this scenario, this means allowing orders to be processed by multiple threads in parallel. However, as is often the case with concurrency, the difficulty comes because these threads have to communicate with each other. Processing an order changes market conditions and these conditions need to be communicated. The approach they explored early on was the Actor model and its cousin SEDA. The Actor model relies on independent, active objects with their own thread that communicate with each other via queues. Many people find this kind of concurrency model much easier to deal with than trying to do something based on locking primitives. The team built a prototype exchange using the actor model and did performance tests on it. What they found was that the processors spent more time managing queues than doing the real logic of the application. Queue access was a bottleneck. When pushing performance like this, it starts to become important to take account of the way modern hardware is constructed. The phrase Martin Thompson likes to use is mechanical sympathy. The term comes from race car driving and it reflects the driver having an innate feel for the car, so they are able to feel how to get the best out of it. Many programmers, and I confess I fall into this camp, dont have much mechanical sympathy for how programming interacts with hardware. Whats worse is that many programmers think they have mechanical sympathy, but its built on notions of how hardware used to work that are now many years out of date. One of the dominant factors with modern CPUs that affects latency, is how the CPU interacts with memory. These days going to main memory is a very slow operation in CPU-terms. CPUs have multiple levels of cache, each of which of is significantly faster. So to increase speed you want to get your code and data in those caches. At one level, the actor model helps here. You can think of an actor as its own object that clusters code and data, which is a natural unit for caching. But actors need to communicate, which they do through queues - and the LMAX team observed that its the queues that interfere with caching. The explanation runs like this: in order to put some data on a queue, you need to write to that queue. Similarly, to take data off the queue, you need to write to the queue to perform the removal. This is write contention - more than one client may need to write to the same data structure. To deal with the write contention a queue often uses locks. But if a lock is used, that can cause a context switch to the kernel. When this happens the processor involved is likely to lose the data in its caches. The conclusion they came to was that to get the best caching behavior, you need a design that has only one core writing to any memory location17. Multiple readers are fine, processors often use special high-speed links between their caches. But queues fail the one-writer principle. This analysis led the LMAX team to a couple of conclusions. Firstly it led to the design of the disruptor, which determinedly follows the single-writer constraint. Secondly it led to idea of exploring the single-threaded business logic approach, asking the question of how fast a single thread can go if its freed of concurrency management. The essence of working on a single thread, is to ensure that you have one thread running on one core, the caches warm up, and as much memory access as possible goes to the caches rather than to main memory. This means that both the code and the working set of data needs to be as consistently accessed as possible. Also keeping small objects with code and data together allows them to be swapped between the caches as a unit, simplifying the cache management and again improving performance. An essential part of the path to the LMAX architecture was the use of performance testing. The consideration and abandonment of an actor-based approach came from building and performance testing a prototype. Similarly much of the steps in improving the performance of the various components were enabled by performance tests. Mechanical sympathy is very valuable - it helps to form hypotheses about what improvements you can make, and guides you to forward steps rather than backward ones - but in the end its the testing gives you the convincing evidence. Performance testing in this style, however, is not a well-understood topic. Regularly the LMAX team stresses that coming up with meaningful performance tests is often harder than developing the production code. Again mechanical sympathy is important to developing the right tests. Testing a low level concurrency component is meaningless unless you take into account the caching behavior of the CPU. One particular lesson is the importance of writing tests against null components to ensure the performance test is fast enough to really measure what real components are doing. Writing fast test code is no easier than writing fast production code and its too easy to get false results because the test isnt as fast as the component its trying to measure. Should you use this architecture At first glance, this architecture appears to be for a very small niche. After all the driver that led to it was to be able to run lots of complex transactions with very low latency - most applications dont need to run at 6 million TPS. But the thing that fascinates me about this application, is that they have ended up with a design which removes much of the programming complexity that plagues many software projects. The traditional model of concurrent sessions surrounding a transactional database isnt free of hassles. Theres usually a non-trivial effort that goes into the relationship with the database. Objectrelational mapping tools can help much of the pain of dealing with a database, but it doesnt deal with it all. Most performance tuning of enterprise applications involves futzing around with SQL. These days, you can get more main memory into your servers than us old guys could get as disk space. More and more applications are quite capable of putting all their working set in main memory - thus eliminating a source of both complexity and sluggishness. Event Sourcing provides a way to solve the durability problem for an in-memory system, running everything in a single thread solves the concurrency issue. The LMAX experience suggests that as long as you need less than a few million TPS, youll have enough performance headroom. There is a considerable overlap here with the growing interest in CQRS. An event sourced, in-memory processor is a natural choice for the command-side of a CQRS system. (Although the LMAX team does not currently use CQRS.) So what indicates you shouldnt go down this path This is always a tricky questions for little-known techniques like this, since the profession needs more time to explore its boundaries. A starting point, however, is to think of the characteristics that encourage the architecture. One characteristic is that this is a connected domain where processing one transaction always has the potential to change how following ones are processed. With transactions that are more independent of each other, theres less need to coordinate, so using separate processors running in parallel becomes more attractive. LMAX concentrates on figuring the consequences of how events change the world. Many sites are more about taking an existing store of information and rendering various combinations of that information to as many eyeballs as they can find - eg think of any media site. Here the architectural challenge often centers on getting your caches right. Another characteristic of LMAX is that this is a backend system, so its reasonable to consider how applicable it would be for something acting in an interactive mode. Increasingly web application are helping us get used to server systems that react to requests, an aspect that does fit in well with this architecture. Where this architecture goes further than most such systems is its absolute use of asynchronous communications, resulting in the changes to the programming model that I outlined earlier. These changes will take some getting used to for most teams. Most people tend to think of programming in synchronous terms and are not used to dealing with asynchrony. Yet its long been true that asynchronous communication is an essential tool for responsiveness. It will be interesting to see if the wider use of asynchronous communication in the javascript world, with AJAX and node. js, will encourage more people to investigate this style. The LMAX team found that while it took a bit of time to adjust to asynchronous style, it soon became natural and often easier. In particular error handling was much easier to deal with under this approach. The LMAX team certainly feels that the days of the coordinating transactional database are numbered. The fact that you can write software more easily using this kind of architecture and that it runs more quickly removes much of the justification for the traditional central database. For my part, I find this a very exciting story. Much of my goal is to concentrate on software that models complex domains. An architecture like this provides good separation of concerns, allowing people to focus on Domain-Driven Design and keeping much of the platform complexity well separated. The close coupling between domain objects and databases has always been an irritation - approaches like this suggest a way out. if you found this article useful, please share it. I appreciate the feedback and encouragement

Comments

Popular Posts