Sunday 15 October 2017

Sistema De Comercio De Cuda


Qué es CUDA Enroll hoy Introducción a la programación paralela Un curso abierto en línea de Udacity Instructores: Dr. John Owens, UC Davis y Dr. David Luebke, NVIDIA CUDA reg es una plataforma de computación paralela y un modelo de programación inventado por NVIDIA. Permite incrementos dramáticos en el rendimiento de la computación aprovechando la potencia de la unidad de procesamiento gráfico (GPU). Con millones de GPU habilitadas por CUDA vendidas hasta la fecha, los desarrolladores de software, científicos e investigadores están encontrando amplios usos para la computación GPU con CUDA. Aquí hay algunos ejemplos: Identificar la placa oculta en las arterias. Los ataques al corazón son la principal causa de muerte en todo el mundo. Harvard Engineering, Harvard Medical School y Brigham Womens Hospital se han unido para utilizar GPU para simular el flujo sanguíneo e identificar la placa arterial oculta sin técnicas invasivas de imagen o cirugía exploratoria. Analizar el flujo de tráfico aéreo. El Sistema Nacional del Espacio Aéreo gestiona la coordinación a nivel nacional del flujo del tráfico aéreo. Los modelos informáticos ayudan a identificar nuevas formas de aliviar la congestión y mantener el tráfico de aviones en movimiento de manera eficiente. Utilizando la potencia computacional de las GPU, un equipo de la NASA obtuvo una gran ganancia de rendimiento, reduciendo el tiempo de análisis de diez minutos a tres segundos. Visualizar las moléculas. Una simulación molecular llamada NAMD (nanoescala molecular dinámica) obtiene un gran impulso de rendimiento con GPUs. La aceleración es el resultado de la arquitectura paralela de las GPUs, lo que permite a los desarrolladores de NAMD cargar las partes de la aplicación en la GPU utilizando el CUDA Toolkit. Antecedentes GPU Computing: The Revolution Se enfrenta a imperativos: Mejorar el rendimiento. Resolver un problema más rápidamente. Procesamiento paralelo sería más rápido, pero la curva de aprendizaje es empinado no es más. Con CUDA, puede enviar códigos C, C y Fortran directamente a GPU, sin necesidad de lenguaje de ensamblaje. Los desarrolladores de compañías como Adobe, ANSYS, Autodesk, MathWorks y Wolfram Research están despertando al gigante dormido, la GPU, para hacer computación científica y de ingeniería de propósito general en una amplia gama de plataformas. Usando lenguajes de alto nivel, las aplicaciones aceleradas por GPU ejecutan la parte secuencial de su carga de trabajo en la CPU, la cual está optimizada para el rendimiento de un solo subproceso al mismo tiempo que se acelera el procesamiento paralelo en la GPU. Esto se denomina computación GPU. La computación GPU es posible porque la GPU de hoy hace mucho más que renderizar gráficos: chisporrotea con un teraflop de rendimiento de punto flotante y crunches tareas de aplicación diseñadas para cualquier cosa, desde las finanzas a la medicina. CUDA se despliega ampliamente a través de miles de aplicaciones y trabajos de investigación publicados y soportado por una base instalada de más de 375 millones de GPUs habilitadas por CUDA en notebooks, estaciones de trabajo, clusters de computación y supercomputadoras. Visite la Zona CUDA para ver ejemplos de aplicaciones en diversos mercados verticales y despierte su GPU gigante. Historia de la GPU Computing Las primeras GPUs fueron diseñadas como aceleradores gráficos, soportando solamente tuberías específicas de función fija. A partir de finales de los 90, el hardware se volvió cada vez más programable, culminando en la primera GPU de NVIDIA en 1999. Menos de un año después de que NVIDIA acuñara el término GPU, los artistas y desarrolladores de juegos no eran los únicos que hacían el trabajo innovador con la tecnología: Aprovechando su excelente rendimiento en coma flotante. El GPU de Propósito General (GPGPU) había amanecido. Pero GPGPU estaba lejos de ser fácil en ese entonces, incluso para aquellos que conocían los lenguajes de programación gráfica como OpenGL. Los desarrolladores tenían que asignar cálculos científicos a problemas que podrían representarse mediante triángulos y polígonos. GPGPU estaba prácticamente fuera de los límites de aquellos que no habían memorizado las últimas API gráficas hasta que un grupo de investigadores de la Universidad de Stanford decidió reimaginar la GPU como un procesador de transmisión. En 2003, un equipo de investigadores liderado por Ian Buck dio a conocer Brook, el primer modelo de programación ampliamente adoptado para extender C con construcciones de datos paralelos. Utilizando conceptos como corrientes, núcleos y operadores de reducción, el compilador Brook y el sistema runtime expusieron la GPU como un procesador de uso general en un lenguaje de alto nivel. Lo más importante, los programas de Brook no sólo eran más fáciles de escribir que el código GPU manualmente ajustado, eran siete veces más rápido que el código existente similar. NVIDIA sabía que el hardware de alta velocidad debía ser acoplado con herramientas intuitivas de software y hardware, e invitó a Ian Buck a unirse a la compañía y empezar a desarrollar una solución para ejecutar C en la GPU. Al unir el software y el hardware, NVIDIA dio a conocer CUDA en 2006, la primera solución mundial para la computación general en GPUs. Herramientas y capacitación del ECOSISTEMA Hoy en día, el ecosistema de CUDA está creciendo rápidamente a medida que más y más empresas ofrecen herramientas, servicios y soluciones de clase mundial. Si desea escribir su propio código, la forma más fácil de aprovechar el rendimiento de las GPUs es con el CUDA Toolkit. Que proporciona un entorno de desarrollo integral para desarrolladores C y C. El CUDA Toolkit incluye un compilador, bibliotecas matemáticas y herramientas para depurar y optimizar el rendimiento de sus aplicaciones. También encontrará ejemplos de código, guías de programación, manuales de usuario, referencias API y otra documentación para ayudarle a empezar. NVIDIA proporciona todo esto de forma gratuita, incluyendo NVIDIA Parallel Nsight para Visual Studio, el primer entorno de desarrollo de la industria para aplicaciones masivas paralelas que utilizan tanto GPUs como CPUs. Aprender a usar CUDA es conveniente, con capacitación integral en línea disponible, así como otros recursos, tales como webinarios y libros. Más de 400 universidades y universidades enseñan la programación de CUDA, incluyendo docenas de Centros de Excelencia CUDA y Centros de Investigación y Capacitación de CUDA. Para los desarrolladoresBarracuda Networks, Inc. (CUDA) Mercado de pre-mercado Tiempo real después de las horas Pre-Market News Resumen de cotizaciones Resumen Cotizaciones interactivas Configuración predeterminada Tenga en cuenta que una vez que haga su selección, se aplicará a todas las futuras visitas a NASDAQ. Si, en cualquier momento, está interesado en volver a nuestra configuración predeterminada, seleccione Ajuste predeterminado anterior. Si tiene alguna pregunta o algún problema al cambiar la configuración predeterminada, envíe un correo electrónico a isfeedbacknasdaq. Confirme su selección: Ha seleccionado cambiar su configuración predeterminada para la Búsqueda de cotizaciones. Ahora será su página de destino predeterminada a menos que cambie de nuevo la configuración o elimine las cookies. ¿Está seguro de que desea cambiar su configuración? Tenemos un favor que pedir. Por favor, deshabilite su bloqueador de anuncios (o actualice sus configuraciones para asegurarse de que se habilitan javascript y cookies), para que podamos seguir proporcionándole las noticias de primera clase del mercado. Y los datos que has llegado a esperar de nosotros. El mejor lenguaje de programación para Algorithmic Trading Systems Una de las preguntas más frecuentes que recibo en el mailbag QS es ¿Cuál es el mejor lenguaje de programación para el comercio algorítmico. La respuesta corta es que no hay mejor lenguaje. Los parámetros de la estrategia, el rendimiento, la modularidad, el desarrollo, la resiliencia y el costo deben ser considerados. Este artículo describirá los componentes necesarios de una arquitectura algorítmica de sistemas de comercio y cómo las decisiones relativas a la implementación afectan la elección del lenguaje. En primer lugar, se considerarán los componentes principales de un sistema de negociación algorítmica, como las herramientas de investigación, el optimizador de cartera, el gestor de riesgos y el motor de ejecución. Posteriormente, se examinarán diferentes estrategias comerciales y cómo afectarán el diseño del sistema. En particular, se discutirá la frecuencia de las operaciones y el probable volumen de negociación. Una vez que se ha seleccionado la estrategia de negociación, es necesario diseñar todo el sistema. Esto incluye la elección del hardware, el sistema operativo y la resiliencia del sistema frente a eventos raros y potencialmente catastróficos. Mientras se está considerando la arquitectura, se debe tener en cuenta el desempeño - tanto en las herramientas de investigación como en el entorno de ejecución en vivo. ¿Qué es el sistema de comercio que trata de hacer Antes de decidir sobre el mejor idioma con el que escribir un sistema de comercio automatizado es necesario definir los requisitos. ¿El sistema va a ser puramente basado en la ejecución? El sistema requerirá una gestión de riesgos o un módulo de construcción de cartera. El sistema requerirá un backtestter de alto rendimiento. Para la mayoría de las estrategias el sistema de negociación puede dividirse en dos categorías: Investigación y generación de señales. La investigación se ocupa de la evaluación del desempeño de una estrategia con respecto a los datos históricos. El proceso de evaluación de una estrategia de negociación sobre los datos de mercado anteriores se conoce como backtesting. El tamaño de los datos y la complejidad algorítmica tendrán un gran impacto en la intensidad computacional del backtester. La velocidad de la CPU y la concurrencia son a menudo los factores limitantes en la optimización de la velocidad de ejecución de la investigación. Generación de señal se refiere a la generación de un conjunto de señales comerciales de un algoritmo y el envío de estos pedidos al mercado, por lo general a través de una correduría. Para ciertas estrategias se requiere un alto nivel de rendimiento. Los problemas de E / S, como el ancho de banda de la red y la latencia, son a menudo el factor limitante en la optimización de los sistemas de ejecución. Por lo tanto, la elección de lenguajes para cada componente de todo el sistema puede ser muy diferente. Tipo, frecuencia y volumen de la estrategia El tipo de estrategia algorítmica empleada tendrá un impacto sustancial en el diseño del sistema. Será necesario considerar los mercados que se negocian, la conectividad con los proveedores de datos externos, la frecuencia y el volumen de la estrategia, el equilibrio entre la facilidad de desarrollo y la optimización del rendimiento, así como cualquier hardware personalizado, Servidores, GPUs o FPGAs que puedan ser necesarios. Las opciones tecnológicas para una estrategia de renta variable de baja frecuencia en los Estados Unidos serán muy diferentes de las de una estrategia de arbitraje estadístico de alta frecuencia que se negocia en el mercado de futuros. Antes de la elección del idioma muchos proveedores de datos deben ser evaluados que pertenecen a la estrategia de la mano. Será necesario considerar la conectividad con el proveedor, la estructura de cualquier API, la puntualidad de los datos, los requisitos de almacenamiento y la resiliencia frente a un vendedor que se desconecta. También es aconsejable poseer acceso rápido a múltiples vendedores. Varios instrumentos tienen sus propias peculiaridades de almacenamiento, ejemplos de los cuales incluyen múltiples símbolos ticker para las acciones y fechas de vencimiento para futuros (sin mencionar ningún dato OTC específico). Esto debe ser factorizado en el diseño de la plataforma. Frecuencia de la estrategia es probable que sea uno de los mayores impulsores de cómo la pila de tecnología se definirá. Las estrategias que emplean datos con más frecuencia que las barras minuciosas o secundarias requieren una consideración significativa con respecto al desempeño. Una estrategia que excede las barras secundarias (es decir, los datos de la señal) conduce a un diseño impulsado por el rendimiento como requisito primario. En el caso de las estrategias de alta frecuencia, será necesario almacenar y evaluar una cantidad sustancial de datos de mercado. El software tal como HDF5 o kdb se utiliza comúnmente para estas funciones. Con el fin de procesar los volúmenes extensos de datos necesarios para las aplicaciones de HFT, un sistema de backtester y de ejecución ampliamente optimizado debe ser utilizado. C / C (posiblemente con algún ensamblador) es probable que el candidato de idioma más fuerte. Las estrategias de frecuencia ultra-alta casi seguramente requerirán hardware personalizado como FPGAs, intercambio de co-location y kernal / network tuning. Sistemas de investigación Los sistemas de investigación suelen implicar una mezcla de desarrollo interactivo y secuencias de comandos automatizadas. El primero a menudo tiene lugar dentro de un IDE como Visual Studio, MatLab o R Studio. Este último implica cálculos numéricos extensos sobre numerosos parámetros y puntos de datos. Esto conduce a una elección de idioma que proporciona un entorno sencillo para probar el código, pero también proporciona un rendimiento suficiente para evaluar estrategias sobre múltiples dimensiones de parámetros. Los IDE típicos en este espacio incluyen Microsoft Visual C / C, que contiene extensas utilidades de depuración, capacidades de finalización de código (a través de Intellisense) y visiones generales directas de toda la pila de proyectos (a través de la base de datos ORM, LINQ) MatLab. Que está diseñado para el álgebra lineal numérica extensa y operaciones vectorizadas, pero en una forma de consola interactiva R Studio. Que envuelve la consola de lenguaje estadístico R en un IDE IDE Eclipse completamente desarrollado para Linux Java y C y IDEs semi-propietarios como Enthought Canopy para Python, que incluyen bibliotecas de análisis de datos como NumPy. SciPy. Scikit-learn y pandas en un solo ambiente interactivo (consola). Para el backtesting numérico, todos los idiomas anteriores son adecuados, aunque no es necesario utilizar una GUI / IDE, ya que el código se ejecutará en segundo plano. La consideración principal en esta etapa es la de la velocidad de ejecución. Un lenguaje compilado (como C) suele ser útil si las dimensiones del parámetro de backtesting son grandes. Recuerde que es necesario ser cauteloso de tales sistemas si ese es el caso Lenguajes interpretados como Python a menudo hacen uso de las bibliotecas de alto rendimiento como NumPy / pandas para el paso de backtesting, con el fin de mantener un grado razonable de competitividad con compilado Equivalentes. En última instancia, el idioma elegido para el backtesting se determinará por necesidades específicas algorítmicas, así como el rango de bibliotecas disponibles en el idioma (más sobre esto a continuación). Sin embargo, el lenguaje utilizado para el backtest y los entornos de investigación puede ser completamente independiente de los utilizados en la construcción de la cartera, la gestión de riesgos y los componentes de ejecución, como se verá. Construcción de la cartera y gestión del riesgo Los componentes de la construcción de la cartera y de la gestión del riesgo son a menudo pasados ​​por alto por los comerciantes algorítmicos minoristas. Esto es casi siempre un error. Estas herramientas proporcionan el mecanismo por el cual el capital será preservado. No sólo tratan de aliviar el número de apuestas riesgosas, sino que también minimizan el churn de los propios oficios, reduciendo los costos de transacción. Versiones sofisticadas de estos componentes pueden tener un efecto significativo en la calidad y consistencia de la rentabilidad. Es fácil crear una serie de estrategias, ya que el mecanismo de construcción de la cartera y el gestor de riesgos pueden modificarse fácilmente para manejar múltiples sistemas. Por lo tanto, deben ser considerados componentes esenciales al inicio del diseño de un sistema de comercio algorítmico. El trabajo del sistema de construcción de cartera es tomar un conjunto de operaciones deseadas y producir el conjunto de operaciones reales que minimizan el churn, mantienen exposiciones a diversos factores (tales como sectores, clases de activos, volatilidad, etc.) y optimizan la asignación de capital a varios Estrategias en una cartera. La construcción de la cartera se reduce a menudo a un problema de álgebra lineal (tal como una factorización de matriz) y por lo tanto el rendimiento depende en gran medida de la efectividad de la implementación de álgebra lineal numérica disponible. Las bibliotecas comunes incluyen uBLAS. LAPACK y NAG para C. MatLab también posee operaciones de matriz ampliamente optimizadas. Python utiliza NumPy / SciPy para tales cálculos. Una cartera frecuentemente reequilibrada requerirá una biblioteca de matrices compilada (y bien optimizada) para llevar a cabo este paso, para no obstaculizar el sistema de comercio. La gestión de riesgos es otra parte muy importante de un sistema de comercio algorítmico. El riesgo puede venir en muchas formas: Aumento de la volatilidad (aunque esto puede ser visto como deseable para ciertas estrategias), aumento de las correlaciones entre las clases de activos, el incumplimiento de las contrapartes, las interrupciones del servidor, los eventos del cisne negro y los errores no detectados en el código comercial pocos. Los componentes de gestión de riesgos tratan de anticipar los efectos de la volatilidad excesiva y la correlación entre las clases de activos y sus efectos subsiguientes sobre el capital comercial. A menudo esto se reduce a un conjunto de cálculos estadísticos tales como las pruebas de esfuerzo de Monte Carlo. Esto es muy similar a las necesidades computacionales de un motor de fijación de precios de derivados y, como tal, estará vinculado a la CPU. Estas simulaciones son altamente paralelas (ver abajo) y, hasta cierto punto, es posible lanzar hardware al problema. Sistemas de Ejecución El trabajo del sistema de ejecución es recibir señales de comercio filtradas de los componentes de construcción de cartera y gestión de riesgos y enviarlos a una correduría u otros medios de acceso al mercado. Para la mayoría de las estrategias comerciales de negociación algorítmica, esto implica una conexión API o FIX a una correduría como Interactive Brokers. Las consideraciones principales al decidir sobre un idioma incluyen la calidad de la API, la disponibilidad de un contenedor de lenguaje para una API, la frecuencia de ejecución y el anticipo anticipado. La calidad de la API se refiere a lo bien documentado que es, qué tipo de rendimiento que proporciona, si necesita un software independiente que se accede o si una puerta de enlace se puede establecer sin cabeza (es decir, sin GUI). En el caso de Interactive Brokers, la herramienta Trader WorkStation debe estar ejecutándose en un entorno GUI para acceder a su API. Una vez tuve que instalar una edición de Ubuntu de escritorio en un servidor de nube de Amazon para acceder a Corredores Interactivos de forma remota, puramente por esta razón La mayoría de las API proporcionará una interfaz C y / o Java. Normalmente corresponde a la comunidad desarrollar envolturas específicas de lenguaje para C, Python, R, Excel y MatLab. Tenga en cuenta que con cada complemento adicional utilizado (especialmente API envolturas) hay margen para que los errores se deslizan en el sistema. Siempre pruebe plugins de este tipo y asegúrese de que se mantengan activamente. Un indicador valioso es ver cuántas actualizaciones nuevas a un codebase se han hecho en los últimos meses. La frecuencia de ejecución es de suma importancia en el algoritmo de ejecución. Tenga en cuenta que cientos de pedidos pueden ser enviados cada minuto y como tal rendimiento es fundamental. El incumplimiento se producirá a través de un sistema de ejecución mal ejecutado y esto tendrá un impacto dramático en la rentabilidad. Los lenguajes de tipo estático (véase más adelante), como C / Java, son generalmente óptimos para la ejecución, pero hay un trade-off en tiempo de desarrollo, pruebas y facilidad de mantenimiento. Los idiomas de tipo dinámico, como Python y Perl, ahora son lo suficientemente rápidos. Siempre asegúrese de que los componentes están diseñados de manera modular (vea más abajo) para que puedan ser intercambiados a medida que el sistema se escala. Proceso de planificación y desarrollo arquitectónico Los componentes de un sistema comercial, sus requisitos de frecuencia y volumen se han discutido anteriormente, pero la infraestructura del sistema aún no se ha cubierto. Aquellos que actúan como un comerciante al por menor o que trabajan en un pequeño fondo probablemente estará usando muchos sombreros. Será necesario cubrir el modelo alfa, la gestión de riesgos y los parámetros de ejecución, así como la implementación final del sistema. Antes de profundizar en lenguajes específicos se discutirá el diseño de una arquitectura de sistema óptima. Separación de las preocupaciones Una de las decisiones más importantes que deben tomarse desde el principio es cómo separar las preocupaciones de un sistema comercial. En el desarrollo de software, esto significa esencialmente cómo romper los diferentes aspectos del sistema comercial en componentes modulares separados. Al exponer interfaces en cada uno de los componentes, es fácil intercambiar partes del sistema por otras versiones que ayudan al rendimiento, la fiabilidad o el mantenimiento, sin modificar ningún código de dependencia externo. Esta es la mejor práctica para estos sistemas. Para las estrategias en las frecuencias más bajas tales prácticas se aconsejan. Para el comercio de frecuencia ultra alta el libro de reglas podría tener que ser ignorado a expensas de ajustar el sistema para obtener aún más rendimiento. Un sistema más estrechamente acoplado puede ser deseable. Crear un mapa de componentes de un sistema de comercio algorítmico vale la pena un artículo en sí mismo. Sin embargo, un enfoque óptimo es asegurarse de que haya componentes separados para las entradas de datos históricos y en tiempo real, almacenamiento de datos, API de acceso a datos, backtest, parámetros de estrategia, construcción de cartera, gestión de riesgos y sistemas automatizados de ejecución. Por ejemplo, si el almacén de datos que se está utilizando tiene un rendimiento inferior, incluso a niveles significativos de optimización, puede cambiarse con reescrituras mínimas a la ingesta de datos oa la API de acceso a datos. En lo que respecta al tester y componentes posteriores, no hay diferencia. Otro beneficio de los componentes separados es que permite una variedad de lenguajes de programación para ser utilizado en el sistema en general. No es necesario limitarse a un solo idioma si el método de comunicación de los componentes es independiente del idioma. Este será el caso si se están comunicando a través de TCP / IP, ZeroMQ o algún otro protocolo independiente del lenguaje. Como ejemplo concreto, considere el caso de un sistema de backtesting escrito en C para el rendimiento de crujido numérico, mientras que el gestor de cartera y los sistemas de ejecución están escritos en Python usando SciPy e IBPy. Consideraciones sobre el rendimiento El rendimiento es una consideración importante para la mayoría de las estrategias comerciales. Para las estrategias de frecuencia más alta es el factor más importante. El rendimiento cubre una amplia gama de cuestiones, tales como velocidad de ejecución algorítmica, latencia de red, ancho de banda, E / S de datos, concurrencia / paralelismo y escalado. Cada una de estas áreas están cubiertas individualmente por grandes libros de texto, por lo que este artículo sólo rascará la superficie de cada tema. La arquitectura y la elección del idioma se discutirán ahora en términos de sus efectos sobre el rendimiento. La sabiduría predominante según lo declarado por Donald Knuth. Uno de los padres de la informática, es que la optimización prematura es la raíz de todo mal. Esto es casi siempre el caso - excepto cuando se construye un algoritmo de negociación de alta frecuencia Para aquellos que están interesados ​​en las estrategias de baja frecuencia, un enfoque común es construir un sistema de la manera más simple posible y sólo optimizar como cuellos de botella comienzan a aparecer. Las herramientas de creación de perfiles se utilizan para determinar dónde surgen los cuellos de botella. Los perfiles se pueden hacer para todos los factores enumerados anteriormente, ya sea en un entorno MS Windows o Linux. Hay muchas herramientas del sistema operativo y del idioma disponibles para hacerlo, así como utilidades de terceros. La elección del idioma se discutirá ahora en el contexto del desempeño. C, Java, Python, R y MatLab contienen bibliotecas de alto rendimiento (ya sea como parte de su estándar o externamente) para la estructura de datos básicos y el trabajo algorítmico. C se entrega con la biblioteca de plantillas estándar, mientras que Python contiene NumPy / SciPy. Las tareas matemáticas comunes se encuentran en estas bibliotecas y rara vez es beneficioso escribir una nueva implementación. Una excepción es si se requiere una arquitectura de hardware altamente personalizada y un algoritmo está haciendo extensivo uso de extensiones propietarias (como cachés personalizados). Sin embargo, a menudo la reinvención de la rueda pierde tiempo que se podría gastar mejor desarrollando y optimizando otras partes de la infraestructura comercial. El tiempo de desarrollo es muy valioso, especialmente en el contexto de desarrolladores exclusivos. La latencia es a menudo una cuestión del sistema de ejecución, ya que las herramientas de investigación suelen estar situadas en la misma máquina. Para el primero, la latencia puede ocurrir en múltiples puntos a lo largo del camino de ejecución. Se deben consultar las bases de datos (latencia del disco / red), generar señales (sistema operativo, latencia de la mensajería kernal), señales comerciales enviadas (latencia NIC) y órdenes procesadas (latencia interna del sistema de intercambio). Para las operaciones de frecuencia más alta es necesario familiarizarse íntimamente con la optimización kernal así como la optimización de la transmisión de la red. Se trata de un área profunda y está muy por encima del alcance del artículo, pero si se desea un algoritmo UHFT entonces ser conscientes de la profundidad de los conocimientos necesarios Caching es muy útil en el kit de herramientas de un desarrollador de comercio cuantitativo. El almacenamiento en caché se refiere al concepto de almacenar datos de acceso frecuente de una manera que permite un acceso de mayor rendimiento, a expensas de la potencial inestabilidad de los datos. Un caso de uso común ocurre en el desarrollo web al tomar datos de una base de datos relacional respaldada por disco y ponerla en memoria. Cualquier solicitud posterior de los datos no tiene que golpear la base de datos y así las ganancias de rendimiento pueden ser significativas. Para las situaciones de comercio de almacenamiento en caché puede ser muy beneficioso. Por ejemplo, el estado actual de una cartera de estrategias puede almacenarse en una memoria caché hasta que se reequilibra, de modo que la lista no necesita ser regenerada en cada bucle del algoritmo de negociación. Tal regeneración es probable que sea una CPU alta o operación de E / S de disco. Sin embargo, el almacenamiento en caché no está exento de problemas propios. La regeneración de los datos de la caché de una sola vez, debido a la volatilidad del almacenamiento en caché, puede suponer una demanda significativa en la infraestructura. Otra cuestión es la acumulación de perros. Donde varias generaciones de una nueva copia en caché se llevan a cabo bajo carga extremadamente alta, lo que conduce a un fallo en cascada. La asignación dinámica de memoria es una operación cara en la ejecución del software. Por lo tanto, es imprescindible que las aplicaciones comerciales de mayor rendimiento estén bien informadas sobre cómo se asigna y desasigna la memoria durante el flujo del programa. Los nuevos estándares de lenguaje como Java, C y Python realizan la recolección automática de basura. Que se refiere a la desasignación de la memoria asignada dinámicamente cuando los objetos salen del alcance. La recolección de basura es extremadamente útil durante el desarrollo, ya que reduce los errores y facilita la legibilidad. Sin embargo, a menudo es subóptimo para ciertas estrategias de negociación de alta frecuencia. La recogida de basura personalizada a menudo se desea para estos casos. En Java, por ejemplo, al ajustar el recolector de basura y la configuración del montón, es posible obtener un alto rendimiento para las estrategias HFT. C no proporciona un recolector de basura nativo y por lo tanto es necesario manejar toda la asignación / desasignación de memoria como parte de una implementación de objetos. Aunque es potencialmente propenso a errores (potencialmente conduce a punteros colgantes) es extremadamente útil tener control de grano fino de cómo los objetos aparecen en el montón para ciertas aplicaciones. Al elegir un idioma asegúrese de estudiar cómo funciona el recolector de basura y si se puede modificar para optimizar para un caso de uso particular. Muchas operaciones en sistemas de negociación algorítmicos son susceptibles de paralelización. Esto se refiere al concepto de llevar a cabo operaciones programáticas múltiples al mismo tiempo, es decir en paralelo. Los denominados algoritmos embarassingly paralelos incluyen pasos que se pueden calcular completamente independientemente de otros pasos. Ciertas operaciones estadísticas, como las simulaciones de Monte Carlo, son un buen ejemplo de algoritmos embarassingly paralelos, ya que cada dibujo aleatorio y la operación de la ruta subsiguiente se pueden calcular sin conocimiento de otras trayectorias. Otros algoritmos son sólo parcialmente paralelos. Las simulaciones de dinámica de fluidos son un ejemplo, donde el dominio de computación puede ser subdividido, pero en última instancia estos dominios deben comunicarse entre sí y por lo tanto las operaciones son parcialmente secuenciales. Los algoritmos paralelos están sujetos a la Ley Amdahls. Que proporciona un límite superior teórico al aumento de rendimiento de un algoritmo paralelo cuando está sujeto a N procesos separados (por ejemplo, en un núcleo o hilo de CPU). La paralelización se ha vuelto cada vez más importante como medio de optimización, ya que las velocidades del reloj del procesador se han estancado, ya que los procesadores más nuevos contienen muchos núcleos con los que realizar cálculos paralelos. El aumento del hardware de gráficos de consumo (predominantemente para videojuegos) ha llevado al desarrollo de unidades gráficas de procesamiento (GPU), que contienen cientos de núcleos para operaciones altamente concurrentes. Tales GPUs son ahora muy asequibles. Marcos de alto nivel, como Nvidias CUDA han conducido a la adopción generalizada en la academia y las finanzas. Este tipo de hardware GPU generalmente sólo es adecuado para el aspecto de la investigación de finanzas cuantitativas, mientras que otros hardware más especializados (incluyendo Field-Programmable Gate Arrays - FPGAs) se utilizan para (U) HFT. Hoy en día, la mayoría de los langauges modernos soportan un grado de concurrencia / multithreading. Por lo tanto, es fácil optimizar un backtest, ya que todos los cálculos son generalmente independientes de los otros. Escala en la ingeniería de software y las operaciones se refiere a la capacidad del sistema para manejar constantemente aumento de las cargas en forma de mayores solicitudes, mayor uso del procesador y más asignación de memoria. En el comercio algorítmico una estrategia es capaz de escalar si puede aceptar mayores cantidades de capital y aún así producir retornos consistentes. La pila de tecnología comercial se escala si puede soportar volúmenes de comercio más grandes y aumentar la latencia, sin cuello de botella. Mientras que los sistemas deben ser diseñados para escalar, a menudo es difícil predecir de antemano dónde ocurrirá un cuello de botella. La explotación forestal, las pruebas, la elaboración de perfiles y el seguimiento rigurosos ayudarán en gran medida a permitir que un sistema se haga a escala. Los lenguajes mismos se describen a menudo como unscalable. Esto suele ser el resultado de la desinformación, en lugar de hecho duro. Es la pila de tecnología total que se debe determinar para la escalabilidad, no el idioma. Es evidente que ciertos lenguajes tienen un mayor rendimiento que otros en casos de uso particulares, pero un idioma nunca es mejor que otro en todos los sentidos. Una forma de gestionar la escala es separar las preocupaciones, como se ha dicho anteriormente. Con el fin de introducir adicionalmente la capacidad de manejar espigas en el sistema (es decir, la volatilidad repentina que desencadena una serie de operaciones), es útil crear una arquitectura de cola de mensajes. Esto simplemente significa colocar un sistema de cola de mensajes entre los componentes para que los pedidos se apilan si un determinado componente no puede procesar muchas solicitudes. En lugar de las solicitudes que se pierden, simplemente se mantienen en una pila hasta que se maneja el mensaje. Esto es particularmente útil para enviar transacciones a un motor de ejecución. Si el motor está sufriendo bajo latencia pesada entonces apoyará comercios. Una cola entre el generador de señales comerciales y el API de ejecución aliviará este problema a expensas de un posible desvío del comercio. Un agente de cola de mensajes de código abierto muy respetado es RabbitMQ. Hardware y sistemas operativos El hardware que ejecuta su estrategia puede tener un impacto significativo en la rentabilidad de su algoritmo. Esto no es un problema restringido a los comerciantes de alta frecuencia tampoco. Una mala elección en hardware y sistema operativo puede conducir a un fallo de la máquina o reiniciar en el momento más inoportuno. Por lo tanto, es necesario considerar dónde residirá su solicitud. La elección suele ser entre una máquina de escritorio personal, un servidor remoto, un proveedor de la nube o un servidor de intercambio compartido. Las máquinas de escritorio son fáciles de instalar y administrar, especialmente con los sistemas operativos más modernos, como Windows 7/8, Mac OSX y Ubuntu. Los sistemas de escritorio poseen algunos inconvenientes significativos, sin embargo. El principal es que las versiones de los sistemas operativos diseñados para máquinas de escritorio es probable que requieran reboots / parches (y, a menudo en el peor de los casos). También usan más recursos computacionales por la virtud de requerir una interfaz gráfica de usuario (GUI). La utilización de hardware en un entorno doméstico (o local) puede provocar problemas de conectividad a Internet y de tiempo de actividad. El principal beneficio de un sistema de escritorio es que la potencia computacional significativa se puede comprar por la fracción del costo de un servidor dedicado remoto (o sistema basado en la nube) de velocidad comparable. Un servidor dedicado o una máquina basada en la nube, a menudo más costosa que una opción de escritorio, permite una infraestructura de redundancia más significativa, como copias de seguridad automatizadas de datos, la capacidad de garantizar más fácilmente el tiempo de actividad y la supervisión remota. They are harder to administer since they require the ability to use remote login capabilities of the operating system. In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable. A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha. The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM These issues will be highly dependent upon the frequency and type of strategy being implemented. Resilience and Testing One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system. It is likely that in any reasonably complicated custom quantitative trading application at least 50 of development time will be spent on debugging, testing and maintenance. Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point . Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb. which is a sophisticated debugging tool. The Microsoft Visual C IDE possesses extensive GUI debugging utilities, while for the command line Linux C programmer, the gdb debugger exists. Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to fill in the blanks, the tests will eventually all pass, at which point development should cease. TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options. In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a first line of attack when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed. Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns. While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information. Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric. System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case. Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected The answers to both of these questions are often sobering It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment Similarly, high availability needs to be baked in from the start. Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I wont delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system. Choosing a Language Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised. Type Systems When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript. For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesnt catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. Dynamic languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone. Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays. Open Source or Proprietary One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs. The Microsoft. NET stack (including Visual C, Visual C) and MathWorks MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant battle testing in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds. Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C, C and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain. There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools play well with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned. MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive. Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats. The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process. Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce. Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C in order to improve execution speeds, but it requires some experience in multi-language programming. While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer. I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C and R. The maturity, community size, ability to dig deep if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend. Batteries Included The header of this section refers to the out of the box capabilities of the language - what libraries does it contain and how good are they This is where mature languages have an advantage over newer variants. C, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms. C is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms for free. Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance). Outside of the standard libraries, C makes use of the Boost library, which fills in the missing parts of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C11 spec, including native support for lambda expressions and concurrency. Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL (MySQL/C), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C and Java, but some also support C and Python, either directly or with community-provided wrapper code to the C APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol . Conclusion As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries. The benefit of a separated architecture is that it allows languages to be plugged in for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.

No comments:

Post a Comment