Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Estratégias de negociação de alta frequência
Estratégias de negociação de alta frequência
Obrigado por me convidar hoje para apresentar meu artigo sobre estratégias de negociação de alta frequência. Meu nome é Amy Kwan e sou da Universidade de Sydney. Este artigo foi escrito em coautoria com Michael Goldstein, do Babson College, e Richard Phillip, também da Universidade de Sydney.
O objetivo deste artigo é contribuir para o debate em andamento entre reguladores, participantes do mercado e acadêmicos sobre o impacto do comércio de alta frequência (HFT) nos mercados financeiros. Ouvimos diferentes perspectivas sobre esse assunto, incluindo a apresentação de Sean e a discussão da noite passada.
Embora existam opiniões divergentes sobre HFT, algumas pessoas, como Michael Lewis, autor do livro "Flash Boys", argumentam que o mercado de ações dos EUA se tornou um sistema de classes baseado na velocidade, onde poucos privilegiados pagam por nanossegundos de vantagem enquanto outros permanecem inconscientes do valor desses pequenos intervalos de tempo. Por outro lado, os defensores do HFT, como Ray Katsuyama, afirmam que os HFTs podem captar sinais de negociação e tirar vantagem dos investidores regulares.
As primeiras evidências acadêmicas geralmente apoiavam o comércio de HFT e algorítmico, pois acreditava-se que aumentavam a liquidez e melhoravam as medidas tradicionais de qualidade do mercado, como spreads decrescentes, profundidade crescente e redução da volatilidade de curto prazo. No entanto, estudos mais recentes encontraram alguns aspectos negativos da HFT. Por exemplo, os HFTs podem antecipar o fluxo de pedidos de outros investidores e extrair rendas das forças de mercado.
Além disso, estudos recentes, como os de Banker, Blending, Courageous e Canorkey, indicam que os HFTs inicialmente negociam contra o vento, mas depois negociam com o vento à medida que um grande comércio progride. Para ilustrar isso, vamos considerar um cenário em que um grande fundo de pensão deseja comprar ações da Apple. Os HFTs, ao detectarem esse negócio, podem concorrer com a instituição para negociar na mesma direção, pois antecipam o futuro aumento de preço devido à pressão compradora.
Embora haja alguma compreensão dos efeitos do HFT, a literatura ainda não está clara sobre como os HFTs realmente negociam e influenciam os mercados financeiros. A maioria das evidências existentes é baseada em execuções comerciais e pouco se sabe sobre o comportamento de envio de pedidos na Austrália.
Para resolver essa lacuna, nosso estudo examina diretamente as estratégias de negociação de HFT, analisando os dados completos do livro de pedidos com limite. Temos acesso a informações detalhadas sobre envios de pedidos, alterações, cancelamentos e negociações para as 100 principais ações do ASX. Ao classificar os comerciantes em empresas de HFT, comerciantes institucionais e corretores de varejo, pretendemos entender seu comportamento e o impacto na dinâmica do mercado.
Nossas principais descobertas revelam que os HFTs se destacam no monitoramento da carteira de pedidos e na negociação de desequilíbrios. Quando há uma demanda maior para comprar ou vender uma ação, os HFTs são mais bem-sucedidos em capitalizar essas informações em comparação com outras categorias de traders. Além disso, observamos que os HFTs fornecem liquidez no lado fixo do livro de ofertas, mesmo quando não é necessário, enquanto os não-HFTs sofrem de acesso limitado ao livro de pedidos devido ao comportamento estratégico de negociação dos HFTs.
Também examinamos a introdução de um feed de dados mais rápido chamado "it" e descobrimos que os HFTs se tornam ainda mais eficazes em suas negociações estratégicas após sua implementação. No entanto, as ordens não HFT são excluídas do livro de ordens limitadas, resultando em menores chances de execução bem-sucedida para esses traders.
Em conclusão, nosso estudo contribui para a compreensão das estratégias de negociação HFT, analisando os dados completos do livro de ordens de limite. Descobrimos que os HFTs superam outras categorias de traders no monitoramento da carteira de pedidos e na negociação de desequilíbrios. A introdução de um feed de dados mais rápido aumenta ainda mais sua vantagem comercial. Essas descobertas lançam luz sobre como os HFTs influenciam a dinâmica do mercado e fornecem informações valiosas para reguladores, participantes do mercado e acadêmicos.
Obrigado novamente pela oportunidade de apresentar nossa pesquisa.
Ciamac Moallemi: negociação de alta frequência e microestrutura de mercado
Ciamac Moallemi: negociação de alta frequência e microestrutura de mercado
Parte do propósito da minha apresentação é familiarizar as pessoas com a pesquisa conduzida pelos membros do corpo docente. Antes de me aprofundar no tópico principal, gostaria de fornecer algumas informações sobre meu próprio trabalho como matemático aplicado. Aproximadamente metade do meu tempo é dedicado a explorar problemas de controle estocástico, que envolvem a tomada de decisões ao longo do tempo na presença de incerteza. Esses problemas matemáticos abstratos representam desafios significativos, mas são fundamentais, pois muitos problemas de engenharia e negócios compartilham características semelhantes. A outra metade da minha pesquisa se concentra no aspecto mais aplicado dos problemas de controle estocástico no campo da engenharia financeira.
Com base em minha experiência anterior como gerente de fundos de hedge, tenho um interesse particular em negociação ideal, microestrutura de mercado e negociação de alta frequência em mercados financeiros. Hoje, discutirei esses tópicos para fornecer informações sobre as complexidades dos mercados eletrônicos modernos. Para apreciar as questões em questão, é crucial entender as principais características dos mercados de ações dos Estados Unidos, que evoluíram significativamente nos últimos cinco a dez anos.
Em primeiro lugar, o comércio eletrônico domina o mercado, tornando irrelevante a imagem tradicional dos operadores no pregão da Bolsa de Valores de Nova York. A negociação agora ocorre principalmente em computadores, sendo a negociação eletrônica o principal mecanismo de troca. Outra mudança notável é a descentralização ou fragmentação do comércio. No passado, uma determinada ação era negociada predominantemente na Nasdaq ou na Bolsa de Valores de Nova York. No entanto, agora existem várias bolsas, cada uma respondendo por uma porcentagem substancial da negociação de ações.
Essas bolsas são organizadas como livros eletrônicos de ordens limitadas, onde os participantes do mercado podem enviar ordens de compra e venda com preços especificados. Quando os preços se cruzam, as negociações são executadas. Isso contrasta com o mercado histórico de revendedores ou a estrutura de mercado especializado da Bolsa de Valores de Nova York. Além disso, cerca de 30% das negociações ocorrem em locais alternativos, como redes de cruzamento eletrônico, dark pools e internalização, contribuindo ainda mais para a natureza descentralizada da negociação.
Uma das características mais marcantes dos mercados modernos é a crescente automação dos participantes. Anteriormente, um operador humano lidava com grandes pedidos, mas agora os algoritmos e as negociações de alta frequência assumiram o controle. A negociação algorítmica permite que os investidores dividam grandes pedidos ao longo do tempo e nas bolsas, enquanto os operadores de alta frequência, geralmente classificados como formadores de mercado, fornecem liquidez. Essas tendências recentes tornaram o mercado mais complexo e levaram a interações imprevisíveis entre traders algorítmicos e traders de alta frequência.
Esses desenvolvimentos levantaram questões importantes tanto no nível das políticas quanto para os participantes individuais. Os formuladores de políticas e reguladores precisam avaliar os benefícios e as desvantagens da atual complexa estrutura de mercado. Eles também devem abordar questões como a ocorrência de eventos como o famoso flash crash de 6 de maio de 2010, onde os preços de mercado caíram significativamente em questão de minutos devido a uma interação patológica entre um trader algorítmico e traders de alta frequência.
No nível do participante individual, os problemas de tomada de decisão precisam ser abordados. Dada a complexidade e imprevisibilidade do mercado, os participantes devem determinar a abordagem mais eficaz para suas estratégias de negociação. É nesse contexto que tenho conduzido pesquisas sobre dois problemas específicos relacionados à negociação de alta frequência e à microestrutura do mercado: entender a importância da latência e examinar o papel dos dark pools nos mercados.
A latência refere-se ao atraso entre a tomada de uma decisão de negociação e sua execução. A capacidade de negociar rapidamente com baixa latência tornou-se cada vez mais importante. Para avaliar o valor e o custo associado à latência, é necessário avaliar sua importância nas decisões de negociação. Ao longo dos anos, a latência nos mercados de ações dos EUA diminuiu drasticamente, com as negociações ocorrendo agora em microssegundos. Esse avanço tecnológico foi impulsionado pela demanda de operadores de alta frequência e outros que buscam uma execução mais rápida.
Compreender a importância da latência levanta outras questões. A baixa latência é benéfica na tomada de decisões com as informações mais recentes? Ser mais rápido que os concorrentes oferece uma vantagem na obtenção de lucros? Além disso, as regras e a organização das exchanges costumam priorizar a entrada antecipada, criando vantagens para traders com conexões de menor latência. Isso levanta preocupações sobre justiça e igualdade de acesso às oportunidades de mercado.
Para responder a essas questões, minha pesquisa envolve o desenvolvimento de modelos matemáticos que capturam a dinâmica da negociação de alta frequência e o impacto da latência nas estratégias de negociação. Ao simular diferentes cenários e analisar os resultados, pretendo fornecer insights sobre o equilíbrio ideal entre velocidade e precisão nas decisões de negociação. Esta pesquisa pode ajudar os participantes do mercado, como fundos de hedge ou investidores institucionais, a projetar seus algoritmos de negociação e infraestrutura para maximizar seu desempenho em um ambiente altamente competitivo.
Outra área de minha pesquisa se concentra no papel dos dark pools nos mercados modernos. Dark pools são locais de negociação privados que permitem que os participantes executem grandes negócios anonimamente, longe do mercado público. Esses locais alternativos ganharam popularidade devido ao seu potencial de minimizar o impacto no mercado e melhorar a qualidade de execução para investidores institucionais com volumes significativos de negociação.
No entanto, o surgimento de dark pools levantou preocupações sobre a transparência e a justiça do mercado. Os críticos argumentam que a falta de transparência nesses locais pode criar assimetria de informações e afetar negativamente a descoberta de preços. Além disso, houve casos em que os traders de alta frequência exploraram a falta de transparência pré-negociação em dark pools para sua própria vantagem.
Em minha pesquisa, investigo o impacto dos dark pools na liquidez do mercado, na formação de preços e no comportamento dos participantes do mercado. Ao desenvolver modelos matemáticos e conduzir análises empíricas, pretendo entender os benefícios e as desvantagens associadas à negociação em dark pool. Esta pesquisa pode contribuir para o debate em andamento sobre a regulamentação e supervisão de dark pools e ajudar os participantes do mercado a tomar decisões informadas sobre suas estratégias de negociação.
Concluindo, minha apresentação de hoje fornece uma visão geral de minha pesquisa no campo da engenharia financeira, focando especificamente em negociação de alta frequência, microestrutura de mercado, latência e dark pools. Ao aprofundar esses tópicos, pretendo lançar luz sobre as complexidades dos mercados eletrônicos modernos e os desafios que eles apresentam para os participantes e reguladores do mercado. Por meio de modelagem matemática, simulações e análises empíricas, minha pesquisa visa fornecer informações valiosas e contribuir para as discussões e desenvolvimentos em andamento no campo dos mercados financeiros.
Além disso, outro aspecto de minha pesquisa gira em torno do impacto das políticas regulatórias nos mercados financeiros. Os órgãos reguladores desempenham um papel crucial na garantia da integridade do mercado, estabilidade e proteção do investidor. No entanto, a concepção e implementação de regulamentos podem ter consequências não intencionais e afetar a dinâmica do mercado.
Uma área de foco em minha pesquisa é o exame das reações do mercado aos anúncios regulatórios. Ao analisar dados históricos e conduzir estudos de eventos, investigo como os participantes do mercado, como traders e investidores, ajustam suas estratégias e posições em resposta às mudanças regulatórias. Esta pesquisa ajuda a compreender os efeitos imediatos e de longo prazo dos regulamentos sobre a liquidez do mercado, volatilidade e eficiência geral.
Além disso, exploro a eficácia de diferentes medidas regulatórias para atingir os objetivos pretendidos. Por exemplo, estudo o impacto dos disjuntores, que são mecanismos projetados para interromper temporariamente as negociações durante movimentos extremos do mercado, na estabilidade do mercado. Ao analisar os dados históricos do mercado e realizar simulações, avalio se os disjuntores efetivamente previnem ou agravam as quedas do mercado.
Outra área de interesse é o exame de regulamentações destinadas a reduzir o risco sistêmico nos mercados financeiros. Isso envolve a análise do impacto de medidas como requisitos de capital, testes de estresse e restrições à negociação por conta própria dos bancos. Ao estudar os efeitos dessas regulamentações sobre a estabilidade do sistema financeiro, pretendo fornecer informações sobre sua eficácia e possíveis consequências não intencionais.
Além disso, também exploro a interseção entre tecnologia e regulamentação, particularmente no contexto de tecnologias emergentes, como blockchain e criptomoedas. Essas tecnologias apresentam desafios e oportunidades únicas para os reguladores, pois podem interromper os sistemas financeiros tradicionais e introduzir novos riscos. Minha pesquisa nesta área se concentra na compreensão das implicações regulatórias dessas tecnologias e na exploração de estruturas potenciais que podem promover a inovação, garantindo a integridade do mercado e a proteção do investidor.
Minha pesquisa em engenharia financeira abrange uma ampla gama de tópicos, incluindo o impacto das políticas regulatórias, as reações do mercado às mudanças regulatórias e a interseção entre tecnologia e regulamentação. Por meio de análises rigorosas, modelagem matemática e estudos empíricos, procuro fornecer informações valiosas sobre o funcionamento dos mercados financeiros e contribuir para o desenvolvimento de estruturas regulatórias eficazes e bem informadas.
Kent Daniel: impulso de preço
Kent Daniel: impulso de preço
Estou feliz por estar aqui e gostaria de agradecer a presença de todos. É ótimo ver todos tão entusiasmados com este tópico. Hoje, discutirei uma estratégia quantitativa específica comumente usada por fundos de hedge. Essa estratégia geralmente é implementada com alavancagem significativa e complementa os assuntos que o professor Sunnah Reyes e o professor Wong têm abordado. Meu objetivo é apresentar o conceito de investimento quantitativo e fornecer informações sobre essa estratégia específica.
Além disso, estou realizando pesquisas para entender os fatores por trás do momento dos preços e a ocorrência desse fenômeno nos mercados. Argumento que o mercado não é totalmente eficiente, principalmente devido ao processamento imperfeito das informações pelos investidores. Assim, vou me aprofundar na caracterização do momento e oferecer algumas reflexões sobre suas causas subjacentes.
Recentemente, me deparei com um artigo na revista Bloomberg apresentando Cliff Asness, uma figura notável na indústria. Sua empresa enfrentou desafios no passado, principalmente devido ao momento. Acho isso particularmente relevante para nossa discussão de hoje. Na verdade, Asness e sua empresa não desistiram do ímpeto. Eles até lançaram um fundo mútuo chamado AQR Momentum Fund, além de seus empreendimentos de fundos de hedge.
A AQR, tanto com seus fundos mútuos quanto com fundos de hedge, emprega regras matemáticas para construir carteiras diversificadas com um viés específico. No caso do momentum, eles se concentram em investir em vencedores e vender perdedores. Hoje, explorarei essa estratégia com mais detalhes. No entanto, antes de entrar nos detalhes, quero compartilhar alguns insights de um trabalho de pesquisa de Asness, Moskowitz e Patterson. O artigo investiga a presença de momentum em diferentes classes de ativos.
De acordo com suas descobertas, o momentum historicamente teve um bom desempenho em várias regiões, incluindo os Estados Unidos, o Reino Unido e a Europa continental. No entanto, não produziu os mesmos resultados positivos no Japão. Além disso, a pesquisa explora o impulso na seleção de países de ações, seleção de países de títulos, moeda estrangeira e commodities, com graus variados de sucesso em cada área.
Então, o que impulsiona o impulso? Com base em meu trabalho e teorias preliminares, a explicação mais convincente gira em torno do processamento de informações pelos investidores. Quando os investidores recebem novas informações, eles tendem a exibir um viés de status quo, assumindo que as coisas permanecerão relativamente inalteradas. Embora antecipem algum movimento de preços em resposta às informações, eles não compreendem totalmente seu impacto. Consequentemente, o preço se move um pouco, mas leva tempo, geralmente em torno de um ano, para que as informações sejam totalmente refletidas nos preços.
No contexto dos mercados financeiros, se você observar um movimento de preço vinculado à informação, é provável que o impulso continue. Essa persistência no movimento dos preços se alinha com o conceito de momento na física, onde um objeto que se move a uma certa velocidade em uma determinada direção tende a continuar se movendo, a menos que uma força externa atue sobre ele.
Agora, vamos explorar como construir uma estratégia de impulso. Suponha que você queira implementar uma estratégia de momentum simples semelhante à abordagem do AQR. Aqui está um guia passo a passo: Começando no início de um mês específico, calcule os retornos mensais de todas as ações listadas na NYSE, Amex e NASDAQ nos últimos 12 meses até um mês atrás. Classifique as ações com base em seus retornos e identifique os 10% superiores como vencedores e os 10% inferiores como perdedores. Construa uma carteira composta pelos vencedores, ponderados por sua capitalização de mercado. Da mesma forma, estabeleça uma carteira long-short vendendo a descoberto $ 1 das ações perdedoras. Reequilibre o portfólio no início de cada mês, atualizando os retornos e classificações do período de formação.
Essa estratégia resulta em uma carteira de rotatividade relativamente baixa, uma vez que os retornos recentes provavelmente serão semelhantes. No entanto, conforme você estende o prazo para 12 meses, os retornos começam a divergir significativamente.
Agora, vamos avaliar o desempenho dessa estratégia de 1949 a 2007. Investir em T-bills tem retorno médio excedente de 16,5% ao ano, o que é bastante substancial. Isso indica que a estratégia de impulso de comprar vencedores e vender perdedores tem sido altamente lucrativa no longo prazo.
Agora, você pode se perguntar se esse excesso de retorno é consistente em diferentes períodos de tempo. Para examinar isso, vamos dividir os dados em diferentes décadas e ver o desempenho do momentum. Aqui estão os retornos em excesso para cada década:
Como você pode ver, o momentum gerou retornos excessivos positivos em todas as décadas, embora a magnitude varie. Vale a pena notar que a década de 1990 teve um excesso de retorno relativamente menor em comparação com as outras décadas, mas ainda assim foi positivo.
Então, por que o momentum persiste como uma estratégia lucrativa? Uma explicação é que os investidores tendem a não reagir a novas informações, fazendo com que os preços se ajustem lentamente. Como resultado, as ações que obtiveram retornos positivos continuam a apresentar desempenho superior porque seus preços não refletiram totalmente todas as informações disponíveis. Esse ajuste atrasado oferece uma oportunidade para os investidores obterem lucros aproveitando o momento.
É importante mencionar que, embora o momentum tenha mostrado lucratividade consistente, isso não significa que esteja livre de riscos. Como qualquer estratégia de investimento, ela vem com seu próprio conjunto de riscos e desafios. As condições de mercado podem mudar e o desempenho passado não é garantia de resultados futuros. Portanto, uma análise completa, gerenciamento de risco e monitoramento contínuo são cruciais ao implementar uma abordagem de investimento baseada em impulso.
Em conclusão, a estratégia de momentum, que envolve comprar vencedores e vender perdedores, tem gerado retornos excessivos significativos nos mercados financeiros. Apesar das variações nos retornos ao longo das diferentes décadas, o impulso continuou sendo uma estratégia lucrativa em geral. No entanto, os investidores devem ter cautela e considerar vários fatores antes de incorporar essa estratégia em sua abordagem de investimento.
Negociação algorítmica e aprendizado de máquina
Negociação algorítmica e aprendizado de máquina
Ok, obrigado, Costas, por me receber. Também gostaria de expressar minha gratidão a Eric por sua palestra perspicaz, que fornece um contexto valioso para a discussão que apresentarei. Hoje, vou me concentrar nas experiências de operar do outro lado dessas bolsas e lidar com negociadores de alta frequência (HFTs) e outras contrapartes. Quero esclarecer que minha palestra não abordará explicitamente a teoria dos jogos, pois Costas me garantiu que é aceitável. No entanto, vou me aprofundar em aspectos práticos, aproveitando minha experiência de trabalho com um grupo comercial quantitativo em Wall Street nos últimos 12 anos.
Em primeiro lugar, gostaria de estender um agradecimento especial ao meu parceiro comercial, By Vaca, que é co-autor de todos os trabalhos que estarei discutindo. Nossas pesquisas e insights surgiram de contextos comerciais proprietários dentro de nosso grupo comercial. Os aspectos que destacarei são os elementos não proprietários que consideramos cientificamente interessantes ao longo do tempo.
Wall Street é, sem dúvida, um lugar intrigante, tanto tecnologicamente quanto socialmente. Ele testemunhou mudanças significativas devido à automação e à abundância de dados. Essas transformações deram origem a inúmeros desafios comerciais, que exigem uma abordagem baseada em aprendizado, principalmente aprendizado de máquina. Com grandes quantidades de dados disponíveis em uma escala temporal e espacial além da compreensão humana, os algoritmos tornaram-se indispensáveis na negociação. Esses algoritmos precisam ser adaptáveis e treinados em dados históricos, incluindo dados recentes, para tomar decisões de negociação sensatas.
Em minha apresentação, descreverei três áreas problemáticas específicas que surgem na negociação algorítmica nos mercados eletrônicos modernos. Essas vinhetas ou estudos de caso lançam luz sobre os desafios algorítmicos e oferecem dicas sobre como enfrentá-los usando novas técnicas.
Os dois primeiros problemas giram em torno da execução otimizada. Ao realizar uma negociação, seja comprando ou vendendo um determinado volume de ações, há um trade-off entre imediatismo e preço. Pode-se optar por executar o comércio rapidamente, impactando os preços, mas possivelmente capitalizando vantagens informacionais fugazes. Por outro lado, pode-se adotar uma abordagem mais vagarosa, permitindo que o mercado converja para o preço desejado por um período mais longo. Vou me aprofundar nesses trade-offs e apresentar exemplos específicos que demonstram os desafios enfrentados nos mercados eletrônicos.
O terceiro problema diz respeito às versões algorítmicas da otimização clássica de portfólio, como a otimização de média-variância. Isso envolve manter um portfólio diversificado que maximiza os retornos enquanto considera o risco ou a volatilidade. Embora de natureza algorítmica, esse problema se conecta com as abordagens tradicionais de otimização de portfólio.
Vale a pena notar que o leilão contínuo de ordens de limite duplo, conforme descrito por Eric anteriormente, serve como pano de fundo para esses desafios. A imagem do flash crash e o livro de Michael Lewis sobre negociação de alta frequência destacam os tempos interessantes e dinâmicos que vivemos atualmente em Wall Street. Embora eu não pretenda fazer julgamento moral sobre qualquer atividade comercial, incluindo negociação de alta frequência, pretendo elucidar os desafios algorítmicos enfrentados nos mercados eletrônicos modernos da perspectiva de um grupo comercial quantitativo operando dentro de uma estrutura tradicional de negociação estatística de ações.
Nosso grupo de negociação é especializado em negociação de ações, tanto longas quanto curtas, abrangendo uma ampla gama de instrumentos líquidos nos mercados doméstico e internacional. Para proteger nossas posições, utilizamos exclusivamente futuros, evitando derivativos complexos. Apesar da negociação em mercados e instrumentos relativamente simples, a crescente automação e disponibilidade de dados em Wall Street introduziram uma infinidade de problemas de negociação que exigem uma abordagem de aprendizado, muitas vezes empregando aprendizado de máquina.
A propósito, quero dizer que um exemplo disso é que muitas vezes é observado que quando um analista atualiza sua visão sobre uma ação, outros analistas tendem a atualizar sua visão sobre a mesma ação em rápida sucessão. Assim, é preciso determinar se esta é realmente uma notícia nova ou simplesmente o resultado de alguma outra notícia básica entrando no mercado. Nesses casos, pode não ser aconselhável negociar com base nessas informações.
Agora, em relação à sua pergunta sobre por que não abrimos mão de tempo para perguntas no final e queremos comprar o volume restante, há duas respostas para isso. Em primeiro lugar, se formos uma corretora como o Bank of America com uma mesa de negociação algorítmica, executamos negócios com base na diretiva do cliente. Eles nos fornecem instruções sobre quantas ações comprar dentro de um prazo específico. Não pedimos confirmação durante o processo. Em segundo lugar, otimizamos nossas estratégias para determinar o volume certo de compra com base nas informações disponíveis. Esse volume geralmente é o máximo que podemos negociar sem afetar significativamente o preço da ação. Embora seja possível implementar a abordagem que você sugeriu, preferimos minimizar o número de parâmetros envolvidos para simplificar a tomada de decisões no complexo mundo das negociações.
Em relação ao processo de teste, realizamos testes ao vivo nos seis meses seguintes ao estudo. Isso nos permite avaliar o desempenho do modelo em condições reais de mercado. No entanto, o próprio modelo usa dados históricos durante a fase de teste.
Quando se trata de explicar nossas políticas para as pessoas, contamos principalmente com uma abordagem empírica, em vez de visual. Neste problema particular, está claro o que constitui um comportamento sensato. O desafio surge ao lidar com estratégias que funcionam bem sem uma compreensão clara de por que funcionam. Nesses casos, às vezes abordamos o problema de uma perspectiva antropológica, tentando entender as razões por trás da rentabilidade consistente de determinados negócios.
Reconhecemos que a complexidade do que aprendemos apresenta desafios em termos de interpretação. Embora possamos identificar um poder preditivo consistente em certas variáveis de estado, é extremamente difícil entender os motivos subjacentes em um nível granular. A natureza microestrutural dos mercados financeiros, especialmente nas negociações de alta frequência, envolve volumes e velocidades de dados que ultrapassam a compreensão humana normal. Portanto, nos concentramos em metodologias cuidadosas de treinamento e teste para garantir um desempenho consistente.
Em nossos experimentos, exploramos vários recursos do livro de pedidos e seu impacto no desempenho. Por exemplo, incorporar o spread de compra e venda no espaço do estado provou ser valioso para otimizar a execução do comércio. No entanto, nem todos os recursos fornecem o mesmo benefício e algumas variáveis podem até ter efeitos negativos no desempenho devido ao overfitting. Ao selecionar os recursos mais informativos, alcançamos uma melhoria adicional de 13% sobre a melhoria de 35% alcançada por meio de abordagens teóricas de controle.
Estamos avaliando uma solução experimentalmente, embora eu não tenha tempo para me aprofundar nos detalhes agora. No entanto, posso fornecer uma explicação simplificada de liquidez usando um modelo de desenho animado. Dark pools diferentes, que são locais de negociação alternativos, exibem propriedades de liquidez variadas em momentos diferentes e para ações diferentes.
Quando surge uma nova bolsa, seja um livro de ordens limitadas ou um dark pool, ela geralmente tenta se estabelecer no mercado oferecendo tratamento preferencial, abatimentos ou taxas para uma determinada classe de ações. Eles se promovem como o dark pool preferido para negociar tipos específicos de ações. Como resultado, os traders interessados nessas ações são atraídos para aquele dark pool específico, criando liquidez. Em contraste, outros dark pools podem ter diferentes perfis de liquidez e podem não atrair tanta atividade comercial.
Para visualizar esse conceito, imagine cada dark pool tendo um perfil de liquidez único para uma dada ação, representado por uma distribuição de probabilidade estacionária. O eixo x representa o número de compartilhamentos, enquanto o eixo y representa a probabilidade de encontrar compartilhamentos disponíveis para execução em cada intervalo de tempo discreto. Quando submetemos nossa ordem de negociação a um dark pool, um número (s) é sorteado dessa distribuição, indicando o volume de contrapartes dispostas a negociar naquele intervalo de tempo específico. O volume executado é determinado pelo mínimo entre o(s) volume(s) sacado(s) e o volume solicitado (vns), garantindo a execução parcial caso necessário.
Agora, você pode se perguntar como a curva de liquidez pode ser não decrescente quando ocorre uma execução parcial. A curva de liquidez representa apenas a probabilidade de encontrar o volume disponível dentro de um determinado intervalo. Isso mostra que volumes menores são mais prováveis de estarem disponíveis para execução, enquanto volumes maiores são menos prováveis. A execução parcial significa simplesmente que o volume executado é menor que o volume solicitado, mas não afeta a forma geral da curva de liquidez.
A proliferação de dark pools é um fenômeno interessante. Isso levanta questões sobre o equilíbrio do mercado e a competição entre esses locais. Permanece incerto se o mercado acabará por se consolidar, levando ao domínio de alguns dark pools. Dinâmica semelhante foi observada em leilões duplos contínuos desde que a desregulamentação dos mercados financeiros permitiu que várias bolsas operassem simultaneamente. O cenário regulatório e a capacidade das startups de propor novos mecanismos contribuem para a complexidade da estrutura do mercado.
Considerando a conexão entre esta pesquisa e o artigo de Eric, podemos explorar a interação entre diferentes estruturas de mercado, algoritmos e seu impacto na estabilidade e fragmentação do mercado. Ao simular cenários envolvendo vários jogadores usando algoritmos semelhantes, podemos investigar os resultados computacionais e estudar como a estrutura do mercado e a diversidade de algoritmos influenciam os preços e outras questões regulatórias. Essa combinação de esforços de pesquisa pode gerar informações valiosas sobre a complexa relação entre estrutura de mercado, negociação algorítmica e estabilidade do mercado.
Além disso, podemos nos aprofundar em questões mais sofisticadas, como a interação entre diferentes algoritmos e estruturas de mercado e como eles moldam a dinâmica do mercado. Ao examinar vários cenários de mercado, podemos analisar a adequação de diferentes estruturas e algoritmos de mercado para alcançar estabilidade e abordar questões de fragmentação.
A evolução dos mercados financeiros levou à automação de certos aspectos, muitas vezes substituindo elementos humanos úteis. No entanto, novos mecanismos eletrônicos foram introduzidos para replicar e aprimorar a funcionalidade. Compreender essas dinâmicas e adaptar nossas estratégias adequadamente nos permite navegar pelas complexidades dos mercados financeiros modernos.
Minha palestra lançará luz sobre os desafios algorítmicos inerentes à negociação nos mercados financeiros eletrônicos modernos. Os três estudos de caso que apresentarei destacam as complexidades e compensações enfrentadas na execução otimizada e na otimização de portfólio algorítmico. Embora as restrições de tempo possam me impedir de abordar todos os tópicos, espero fornecer informações valiosas sobre essas áreas.
Embora simulações e análises computacionais ofereçam caminhos para a compreensão dos possíveis resultados da negociação algorítmica, é essencial encontrar um equilíbrio entre a modelagem abstrata e a relevância do mundo real. O desafio está em identificar quais detalhes são cruciais e quais podem ser ignorados com segurança sem sacrificar a relevância prática, especialmente no cenário complexo e em constante evolução dos mercados financeiros.
O Projeto de Trocas Financeiras: Algumas Questões Abertas na Interseção de Econ e CS
O Projeto de Trocas Financeiras: Algumas Questões Abertas na Interseção de Econ e CS
Muito obrigado Kostas. Esta palestra será um pouco não convencional para mim, mas espero que esteja alinhada com o espírito desta conferência e com o tema das direções abertas. Ele está conectado ao design das trocas financeiras, particularmente ao design predominante conhecido como livro de ordens de limite contínuo. Começarei discutindo um artigo no qual trabalhei recentemente com Peter Crampton e John Shimm, que destaca uma falha econômica no atual projeto de câmbio financeiro. Essa falha, argumentamos, contribui para os aspectos negativos da negociação de alta frequência.
A primeira parte da palestra abordará este documento, que pode ser familiar para alguns de vocês, mas provavelmente não para a maioria. Ele apresenta um caso econômico para uma abordagem alternativa chamada negociação em tempo discreto ou leilões de lotes frequentes. Nosso artigo sugere que o livro de ordens de limite contínuo, embora amplamente utilizado em todo o mundo, sofre de uma falha estrutural que leva a vários problemas associados ao comércio de alta frequência. Apresentarei uma versão condensada e acessível desta parte, como já foi apresentada várias vezes antes.
A segunda e a terceira partes da palestra se aprofundarão em questões abertas e direções de pesquisa relacionadas ao design de trocas financeiras. Essas áreas de investigação estão na interseção da economia e da ciência da computação. Nas seções posteriores, discutirei uma parte de duas páginas no final do artigo do Quarterly Journal of Economics que apresenta um argumento qualitativo, desprovido de teoremas ou dados, para os benefícios computacionais da negociação em tempo discreto em comparação com o design de mercado atual . Esta discussão levantará inúmeras questões e visa estimular uma exploração mais aprofundada.
Embora as últimas partes da palestra sejam menos formais do que estou acostumado, acredito que sejam cruciais para levantar questões em aberto e definir uma agenda para pesquisas futuras. Isso se alinha com o objetivo desta conferência, que incentiva a exploração das interseções entre economia e ciência da computação e sugere direções frutíferas para investigações futuras.
Agora, vamos nos aprofundar no argumento econômico para a negociação em tempo discreto e suas vantagens sobre o livro de ordens de limite contínuo, que explicarei com mais detalhes. O livro de ordens de limite contínuo é um projeto de mercado que processa trilhões de dólares em atividade econômica todos os dias. Atua com base em ordens limitadas, que especificam o preço, a quantidade e a direção (compra ou venda) de um título. Os participantes do mercado podem enviar, cancelar ou modificar ordens limitadas ao longo do dia, e essas mensagens são enviadas para a bolsa.
A negociação ocorre quando uma nova solicitação corresponde a ordens existentes no livro de ordens limitadas. Por exemplo, uma solicitação de compra com um preço igual ou superior a uma oferta de venda pendente resultaria em uma negociação. Este é o funcionamento básico do livro de ordens de limite contínuo.
No entanto, nossa pesquisa sugere que esse projeto de mercado tem falhas inerentes. Uma questão importante é o que chamamos de "sniping". Quando há uma mudança nas informações ou sinais públicos, as empresas de negociação envolvidas no fornecimento de liquidez ajustam suas cotações de acordo. Eles cancelam seus lances ou pedidos anteriores e os substituem por novos que refletem as informações atualizadas. Agora, suponha que eu seja uma dessas firmas comerciais ajustando minhas cotações. Ao mesmo tempo, outros, como Thomas, também enviam mensagens para a bolsa para negociar nas cotações antigas antes de serem substituídas.
Como o mercado processa essas mensagens em tempo contínuo e em ordem serial, torna-se aleatório qual mensagem chega primeiro à central. Se várias firmas comerciais reagirem às novas informações simultaneamente, há uma chance de que uma solicitação de Thomas ou de qualquer outro participante seja processada antes da minha, permitindo que eles negociem pelo preço antigo. Esse fenômeno de sniping é problemático e cria várias implicações.
Em primeiro lugar, permite oportunidades mecânicas de arbitragem com base em informações públicas simétricas, o que não deveria acontecer em um mercado eficiente. Em segundo lugar, os lucros de tais oportunidades de arbitragem ocorrem às custas da provisão de liquidez. À medida que os franco-atiradores executam negociações com sucesso a preços antigos, as empresas de negociação de provisionamento de liquidez hesitam em ajustar suas cotações rapidamente. Essa hesitação decorre do medo de ser atacado e perder lucros potenciais. Consequentemente, o mercado torna-se menos eficiente à medida que os provedores de liquidez ficam menos dispostos a atualizar suas cotações em resposta a novas informações.
Outro problema com o livro de pedidos de limite contínuo é o potencial de antecipação de pedidos. Nesse cenário, os traders observam a chegada de novas ordens limitadas e ajustam preventivamente suas cotações antecipando negociações futuras. Esse comportamento pode levar a um efeito cascata, em que os traders ajustam constantemente suas cotações em resposta umas às outras, criando volatilidade e instabilidade desnecessárias no mercado.
Para resolver essas falhas, nosso artigo propõe um projeto de mercado alternativo conhecido como negociação em tempo discreto ou leilões de lotes frequentes. Nesse projeto, em vez de processar pedidos em tempo contínuo, o mercado opera em intervalos de tempo discretos ou lotes. Durante cada lote, os participantes do mercado podem enviar suas ordens de limite e, ao final do lote, o mercado é compensado e as negociações são executadas a um preço único e uniforme.
Ao introduzir a negociação em tempo discreto, eliminamos os problemas de sniping e antecipação de pedidos. Como todos os pedidos enviados em um lote são processados simultaneamente, não há aleatoriedade na execução do pedido. Os comerciantes podem ter certeza de que seus pedidos serão executados ao mesmo preço que os outros participantes do mesmo lote, garantindo justiça e reduzindo o incentivo para sniping.
Além disso, os frequentes leilões de lote promovem a estabilidade e reduzem a volatilidade desnecessária no mercado. Os comerciantes não precisam mais ajustar constantemente suas cotações em resposta a cada pedido recebido. Em vez disso, eles podem se concentrar em analisar informações e tomar decisões de negociação informadas, sabendo que seus pedidos serão executados no final do lote a um preço justo.
Investir em mercados financeiros geralmente requer um certo tempo de espera para que as transações ocorram. Pessoas diferentes podem ter opiniões diferentes sobre se esse tempo de espera é um custo significativo ou insignificante. Por exemplo, se você for um pouco mais rápido do que eu na execução de negociações, como ser um milionésimo de segundo mais rápido, isso pode lhe dar uma vantagem ao agir sobre eventos de notícias dentro desse período de tempo. Por outro lado, posso perder a oportunidade de agir devido à minha velocidade um pouco mais lenta. Essa vantagem de velocidade geralmente é medida pela razão entre o diferencial de velocidade (Delta) e o intervalo de lote (tau) em um mercado contínuo.
Em um mercado discreto, se você for um pouco mais rápido do que eu, sempre poderá me "atirar" em um intervalo de tempo específico (Delta sobre tau) por causa da competição baseada em leilão. No entanto, se você e vários outros traders forem um pouco mais rápidos do que eu, teríamos que competir em um leilão para negociar comigo, em vez de competir apenas com base na velocidade. Isso levanta a questão de saber se diferentes mercados adotam essa abordagem de relógio sincronizado uniformemente ou se há desafios práticos envolvidos.
É importante observar que no atual mercado contínuo, a lei de um preço é constantemente violada porque as mudanças de preços não ocorrem simultaneamente em diferentes bolsas. Essa violação não é facilmente detectável com a observação humana ou com os dados de pesquisa disponíveis. No entanto, se várias bolsas adotassem leilões de lotes freqüentes simultaneamente, seria possível detectar violações da lei do preço único com mais facilidade. Isso não significa necessariamente que uma abordagem seja melhor ou pior, mas sim que os dados forneceriam insights mais claros.
Se uma única troca fosse fazer a transição para um mercado discreto enquanto outras permanecessem contínuas, essa troca eliminaria a arbitragem de latência e removeria um imposto sobre o fornecimento de liquidez. Em um sentido econômico, isso poderia dar uma vantagem para a troca de mercado discreta ao longo do tempo. No entanto, existem desafios para o lançamento de um novo mercado, ambiguidades regulatórias e interesses escusos das bolsas existentes que se beneficiam do design atual do mercado.
Com relação à proposta da IEX de introduzir latência em todos os pedidos, mantendo uma troca de tempo contínuo, ela funciona atrasando tanto os pedidos de entrada quanto os de saída em um intervalo de tempo específico. A IEX monitora as mudanças no mercado em uma fração de segundo e ajusta os preços de acordo. No entanto, uma fraqueza potencial em seu design é que ele depende do acesso a informações de preço de fontes externas. Isso levanta questões sobre se a abordagem da IEX contribui para a descoberta de preços ou simplesmente se baseia em informações de outros lugares.
Por outro lado, a introdução de atrasos aleatórios em todos os pedidos pode não resolver efetivamente o sniping e pode levar a um tráfego infinito de mensagens. Embora várias ideias tenham sido propostas para resolver o problema, muitas delas se mostraram ineficazes quando analisadas. Em contraste, nosso artigo propõe tornar o tempo discreto e o processamento em lote como uma solução para a falha no design do mercado, que cria rendas de informações públicas e incentiva uma corrida de velocidade.
Um aspecto que discutimos no artigo são as vantagens computacionais da negociação em tempo discreto. Os mercados financeiros modernos enfrentaram vários problemas computacionais, como flash crashes e falhas de câmbio. O tempo discreto oferece simplicidade computacional em comparação com o tempo contínuo e fornece benefícios específicos para bolsas, comerciantes algorítmicos e reguladores.
Para as exchanges, o processamento em tempo contínuo pode levar a problemas de atraso, em que os algoritmos ficam incertos sobre o estado dos pedidos e o mercado durante períodos de alta atividade. Por outro lado, os leilões em lote de tempo discreto podem ser processados com mais eficiência e fornecem uma margem de tempo em relação ao tempo de processamento do pior caso. Isso reduz a incerteza e os problemas de acúmulo enfrentados pelas exchanges.
O tempo discreto também simplifica o processamento de mensagens para trocas, eliminando a necessidade de priorizar a disseminação de diferentes tipos de mensagens. Isso reduz a possibilidade de explorar a assimetria de informação. Além disso, o tempo discreto simplifica o ambiente de programação para trocas, reduzindo potencialmente a ocorrência de falhas e melhorando a estabilidade geral do sistema.
Outro benefício computacional da negociação em tempo discreto é que ela simplifica a análise e modelagem de estratégias algorítmicas. Em mercados de tempo contínuo, os traders algorítmicos enfrentam o desafio de otimizar sua resposta aos dados recebidos em tempo real. Eles precisam tomar decisões rapidamente, levando em conta as mudanças nas condições do mercado. Essa troca entre velocidade e inteligência é um problema complexo de resolver.
No entanto, na negociação em tempo discreto, o processamento em lote de dados permite que os comerciantes algorítmicos tenham um intervalo fixo para analisar e tomar decisões. Por exemplo, se o intervalo do lote for definido como 100 milissegundos, os traders podem se dar ao luxo de dedicar os primeiros 100 milissegundos a uma análise completa sem a pressão da execução imediata. Isso pode levar a processos de tomada de decisão mais sofisticados e precisos.
As questões de pesquisa surgem dessa vantagem computacional. Como os traders algorítmicos podem encontrar o equilíbrio certo entre velocidade e inteligência em sua tomada de decisão? Existem externalidades negativas associadas ao favorecimento da velocidade sobre a inteligência no mercado? A estrutura de tempo discreto melhora a precisão da formação de preços em comparação com a negociação de tempo contínuo?
Para os reguladores, a negociação em tempo discreto oferece o benefício de uma trilha de papel mais limpa. Em mercados de tempo contínuo, a sincronização de relógios e o ajuste de timestamps podem introduzir complexidades ao reconstruir a sequência de eventos. Torna-se um desafio determinar a ordem cronológica das ações em diferentes mercados. Por outro lado, a negociação em tempo discreto simplifica esse processo, facilitando o estabelecimento de um registro claro e preciso da atividade do mercado.
Os benefícios potenciais de uma trilha de papel limpo na negociação em tempo discreto são uma questão em aberto. Intuitivamente, uma atividade de mercado bem documentada e facilmente rastreável pode melhorar a transparência e a responsabilidade. Pode melhorar a vigilância do mercado e ajudar os reguladores a identificar e abordar práticas comerciais manipuladoras ou ilegais de forma mais eficaz.
Nossa pesquisa destaca as falhas econômicas no projeto de livro de ordens de limite contínuo predominante e apresenta uma abordagem alternativa chamada negociação em tempo discreto ou leilões de lote frequente. Esse design alternativo aborda questões como sniping e antecipação de pedidos, promovendo justiça, estabilidade e eficiência nas trocas financeiras. Ao explorar essas questões em aberto e direções de pesquisa, pretendemos estimular uma investigação mais aprofundada sobre o design de trocas financeiras, unindo os campos da economia e da ciência da computação para aprimorar a funcionalidade e o desempenho do mercado.
A negociação em tempo discreto oferece várias vantagens computacionais sobre a negociação em tempo contínuo. Ele simplifica o processamento de mensagens para trocas, reduz gargalos computacionais e permite estratégias algorítmicas mais sofisticadas. Ele também fornece uma trilha de papel mais limpa para os reguladores, aprimorando a vigilância e a transparência do mercado. No entanto, mais pesquisas são necessárias para explorar as implicações e possíveis desvantagens da negociação em tempo discreto na prática.
ChatGPT e aprendizado de máquina na negociação
ChatGPT e aprendizado de máquina na negociação
O apresentador se aprofunda no tópico de utilização de modelos de processamento de linguagem natural (NLP) como ChatGPT no setor comercial, enfatizando sua capacidade de analisar e entender fontes de texto, como artigos de notícias, publicações em mídias sociais e demonstrações financeiras. Especificamente, o ChatGPT, um poderoso modelo de linguagem, é adequado para analisar grandes quantidades de dados financeiros e gerar respostas naturais, permitindo que os traders participem de conversas sobre oportunidades de negociação.
A comunidade financeira tem grandes expectativas para o ChatGPT, antecipando sua contribuição para o desenvolvimento e otimização de estratégias de negociação. O apresentador elucida ainda mais as distinções entre inteligência artificial (IA), aprendizado de máquina (ML) e aprendizado profundo, destacando que o aprendizado de máquina é um subconjunto de IA que emprega técnicas para ensinar máquinas a simular o comportamento humano e tomar decisões inteligentes.
Seguindo em frente, o apresentador discute o fluxo de trabalho típico do ML na negociação. Eles explicam que o ML permite que as máquinas aprendam com os dados e façam previsões, seguindo uma série de etapas. Inicialmente, os dados são coletados e pré-processados para garantir sua qualidade e relevância. Em seguida, os recursos são projetados para converter dados brutos em atributos significativos que as máquinas podem compreender. Os dados são então divididos em conjuntos de treinamento e teste, e um modelo é construído usando algoritmos de ML. Por fim, o modelo é testado em novos dados e, caso apresente desempenho satisfatório, pode ser utilizado para fazer previsões, facilitando o processo de negociação.
Para ilustrar a aplicação do ML, o apresentador fornece um exemplo de previsão dos preços altos e baixos de um ativo, como o ouro, para o próximo dia de negociação. Essa previsão pode ajudar muito os traders a tomar decisões informadas e melhorar suas estratégias de negociação.
Além disso, o apresentador explora como o ChatGPT pode servir como uma ferramenta valiosa na solução de problemas comerciais, como a criação de um modelo de regressão linear para prever os preços do ouro. Eles comparam a abordagem do ChatGPT a uma abordagem quantitativa mais abrangente, que envolve coleta de dados, limpeza, criação de modelo, desenvolvimento de pipeline, negociação ao vivo e melhoria contínua. Um exemplo de bloco de anotações de código de regressão de aprendizado de máquina é compartilhado, descrevendo as quatro etapas principais envolvidas na solução do problema: preparação de dados, pré-processamento, previsão de preço e estratégia e análise de desempenho. Embora o ChatGPT possa ajudar na geração de ideias, o apresentador enfatiza a necessidade de uma compreensão diferenciada de cada conceito e consideração cuidadosa para evitar erros.
As limitações e os riscos associados ao uso do ChatGPT na negociação algorítmica baseada em ML também são abordados. O apresentador destaca os desafios potenciais, incluindo a falta de experiência no domínio, dados de treinamento limitados e problemas de interpretabilidade. Eles advertem contra confiar apenas no ChatGPT para decisões de negociação e enfatizam a importância de realizar verificações de precisão em diferentes períodos financeiros.
Além disso, o apresentador discute os resultados de uma pesquisa realizada sobre a capacidade do ChatGPT de gerar código com precisão. A maioria do público (74%) identifica corretamente que o ChatGPT pode fornecer uma precisão razoável, mas não é adequado para tarefas complexas de programação que exigem conhecimento de domínio. Para ilustrar o processo, o apresentador demonstra como dividir os dados em conjuntos de treinamento e teste usando o código Python gerado pelo ChatGPT. Eles enfatizam o sequenciamento correto de dados, particularmente no contexto de dados de séries temporais na negociação.
A avaliação de algoritmos de negociação baseados em ML por meio de backtesting e análise de estratégia é destacada como uma etapa crucial na avaliação de seu desempenho. O apresentador enfatiza a necessidade de uma análise aprofundada usando várias métricas, como o índice de Sharpe, retornos anualizados e volatilidade dos retornos para obter insights sobre negociações e desempenho geral. Uma comparação entre os retornos de um algoritmo de negociação e uma estratégia buy-and-hold é mostrada como uma etapa inicial na avaliação da eficácia do algoritmo.
Além disso, o apresentador compartilha um exemplo de estratégia de negociação lucrativa e enfatiza a importância de visualizar e analisar dados no processo de negociação. A análise da estratégia, incluindo retornos anuais e retornos cumulativos, é fundamental para avaliar o sucesso de uma estratégia.
Mudando de assunto, o apresentador aborda as limitações do uso do GPT para análise financeira na negociação. O público participou anteriormente de uma pesquisa, com a maioria expressando a opinião de que precisão razoável requer verificação de fatos e que o GPT pode não ser adequado para análise financeira. Para ilustrar essa limitação, o apresentador solicita que o GPT compare as demonstrações financeiras anuais da Apple e da Microsoft para 2020. No entanto, o GPT fornece uma resposta imprecisa, destacando suas limitações como um modelo de gerador que carece de conhecimento de domínio. O apresentador ressalta a importância de adquirir conhecimento relacionado a finanças, ler livros e verificar fatos antes de aplicar algoritmos de ML, como GPT, à negociação.
Reconhecendo a importância do conhecimento relacionado ao domínio em finanças, o apresentador sugere fazer cursos para ganhar experiência. Essa experiência permite que os traders façam melhor uso de ferramentas de aprendizado de máquina como o ChatGPT. Em apoio a isso, o apresentador oferece acesso gratuito a quatro notebooks de um curso de negociação com aprendizado de máquina, permitindo que os espectadores obtenham uma compreensão mais profunda do código e de sua aplicação.
Durante a sessão de perguntas e respostas, uma pergunta comum surge sobre a capacidade do ChatGPT de acompanhar as mudanças diárias nos mercados financeiros. O apresentador esclarece que, como modelo de linguagem, a eficácia do ChatGPT é limitada pelos dados com os quais foi treinado e não é atualizado diariamente. Manter-se atualizado com os dados de mercado mais recentes é essencial para utilizar efetivamente o ChatGPT ou qualquer modelo de aprendizado de máquina em finanças.
Os palestrantes abordam várias outras questões do público, fornecendo informações úteis. Eles informam ao público que a sessão gravada será compartilhada por e-mail e em seu canal no YouTube para referência futura. Eles também discutem a disponibilidade de um notebook nas próximas 24 horas e explicam o conceito de pipeline no aprendizado de máquina.
Uma questão específica é levantada em relação à conversão de código Python vetorizado em um formato implantável em uma biblioteca de negociação ao vivo. Os palestrantes explicam que, embora o ChatGPT possa auxiliar na conversão de código, ainda é necessário definir os acionadores de eventos. Além disso, mencionam que a Exigibilidade 3.5 não fornece informações para o ano de 2022.
Para concluir, os palestrantes discutem uma estratégia de negociação que utiliza previsões de alta e baixa do dia seguinte, que foi otimizada usando técnicas de aprendizado de máquina. Eles enfatizam as aplicações de aprendizagem profunda na negociação, como previsão de séries temporais, otimização de portfólio e gerenciamento de risco. O aprendizado profundo, juntamente com o aprendizado por reforço, pode melhorar o desempenho das estratégias de negociação, permitindo que os agentes aprendam com os erros por meio de recompensas e punições.
O apresentador enfatiza que a experiência e a intuição do domínio permanecem essenciais para o uso confiável do aprendizado de máquina na negociação. Embora ferramentas como o ChatGPT possam ajudar na análise de dados históricos e na avaliação da probabilidade de sucesso em negociações futuras, elas não devem ser usadas apenas. A importância de adquirir conhecimento relacionado ao domínio, verificação de fatos e manter-se continuamente atualizado sobre os dados de mercado mais recentes é enfatizada para garantir uma tomada de decisão precisa e informada no setor comercial.
Compreendendo o comportamento do mercado financeiro: o papel de várias categorias de dados
Compreendendo o comportamento do mercado financeiro: o papel de várias categorias de dados
O anfitrião inicia o webinar apresentando o tópico de compreensão do comportamento do mercado financeiro e o papel de várias categorias de dados. Os palestrantes, incluindo o professor Gotham Mitra, Dr. Ernest Chan e Dr. Mateo Campoloni, são apresentados como especialistas com ampla experiência em comércio e carreiras acadêmicas. O webinar visa explorar como os dados de várias categorias desempenham um papel crucial na compreensão e previsão do comportamento do mercado financeiro, um tema que tem ganhado cada vez mais importância nos últimos tempos. Menciona-se que a sessão faz parte do certificado em Sentimentalysis and Alternative Data for Finance oferecido pela Opticks Systems e QuantInsti.
O primeiro palestrante enfatiza a importância dos dados na compreensão do comportamento do mercado financeiro. Embora no início apenas dados limitados, como preços de mercado, ordens de compra e venda e a profundidade do livro estivessem disponíveis, agora há uma ampla variedade de categorias de dados a serem consideradas. Isso inclui dados de notícias, dados de sentimento da mídia e dados alternativos. Apesar da hipótese do mercado eficiente, que sugere que os mercados eventualmente incorporam todas as informações, ainda existem ineficiências de curto prazo no mercado. Portanto, os dados desempenham um papel crucial na descoberta de novos alfas e na resolução de dois grandes problemas de mercado: planejamento de portfólio e controle de risco. O palestrante também destaca a crescente importância da inteligência artificial (IA) e do aprendizado de máquina no tratamento de dados.
O próximo palestrante apresenta o conceito de investimento causal, que envolve examinar as relações causais entre diferentes preditores e variáveis de destino, em vez de apenas analisar correlações estatísticas. Ao utilizar dados alternativos, como atividade de opções, os investidores podem obter informações sobre as causas subjacentes dos movimentos de preços e aumentar a precisão de suas estratégias de negociação. Um exemplo da estratégia de reversão à média é citado, enfatizando a importância de entender por que ela ocasionalmente falha. Através do uso de dados alternativos para descobrir as causas dos movimentos de preços, os investidores podem tomar decisões mais informadas sobre quando aplicar suas estratégias.
A importância dos dados para os operadores de mercado, particularmente dados alternativos, é discutida pelo palestrante a seguir. Dados alternativos referem-se a quaisquer dados que ainda não sejam um padrão do setor e formam um ecossistema em constante expansão com novos players e fornecedores de dados surgindo continuamente. Esses dados podem ser obtidos de vários canais, como transações com cartão de crédito, imagens de satélite, dados de dispositivos móveis, dados meteorológicos e muito mais. O palestrante também menciona o uso de ferramentas de processamento de linguagem natural para analisar documentos textuais e gerar indicadores de sentimento, que podem ser valiosos para os investidores complementarem suas estratégias de investimento.
O processo de utilização de dados alternativos em estratégias de investimento é descrito pelo próximo palestrante. Envolve a identificação de novas fontes de informação, incorporando e transformando os dados não estruturados em conjuntos de dados estruturados. Depois de desenvolver uma estratégia de investimento, a validação torna-se uma etapa crucial que requer a compreensão da confiabilidade dos dados e da significância estatística dos resultados. O palestrante enfatiza a importância de não se basear apenas em dados alternativos e também considerar dados de mercado na hora de criar modelos.
Os palestrantes abordam a importância de dados alternativos na captura de tendências de mercado e os desafios envolvidos no backtesting desses dados. Enquanto os traders técnicos dependiam anteriormente de métricas simples, como a média móvel de 120 dias, agora há um esforço para incorporar uma gama mais ampla de categorias de dados para entender as causas do retorno. No entanto, como os dados alternativos são relativamente novos, há preocupações sobre como testá-los e como eles permanecem consistentes ao longo do tempo. Compreender o impacto das estratégias de investimento requer avaliar a estabilidade do sistema em relação às flutuações aleatórias.
O uso de plataformas alternativas de dados como Bloomberg Icon e Reuters Quantum por traders para desenvolver estratégias de investimento robustas é discutido pelos palestrantes. Embora essas plataformas tenham seus próprios modelos para quantificar várias formas de dados, como sentimentos e notícias, os palestrantes recomendam que os traders criem seus próprios modelos. A importância de utilizar APIs para receber entradas de dados alternativas é destacada, e o valor de sites organizados como o Credit Suisse na análise de anúncios de empresas é mencionado. Por fim, os palestrantes observam que abordagens restritas e especializadas podem ser altamente eficazes na análise do comportamento do mercado.
Os palestrantes passam a discutir as várias ferramentas e sites que podem ser utilizados para entender o comportamento de diferentes classes de ativos no mercado financeiro e como acompanhar o mercado com base no estilo de investimento e no horizonte de tempo. Embora reconheçam que não existe uma solução única para todos, eles sugerem que informações qualitativas de sites como o Bloomberg podem ser úteis a esse respeito. Eles também enfatizam a importância de entender o sentimento e as fontes alternativas de dados, como microblogs e salas de bate-papo. No entanto, eles observam que não é necessariamente garantido que se tornar um especialista nessas áreas os levará a uma carreira melhor no mercado financeiro.
O palestrante explica a diferença entre desenvolver estratégias de negociação avançadas para grandes fundos e estratégias simples para traders independentes. É mencionado que técnicas complexas podem ser mais adequadas para candidatos a emprego em grandes fundos, enquanto traders independentes são aconselhados a começar com uma estratégia de nicho que pode não ser do interesse das instituições. Essa abordagem os ajuda a evitar os altos custos associados a feeds de dados complexos. O palestrante destaca ainda o crescente interesse em novas fontes de dados para negociação, tornando-se um campo relevante para aprender e buscar. Eles também mencionam que utilizam dados alternativos pessoalmente até certo ponto em seu gerenciamento de fundos e auxiliam os clientes na implementação de aprendizado de máquina e módulos baseados em processamento de linguagem natural ou na validação de suas próprias estratégias usando conjuntos de dados.
Durante a sessão de perguntas e respostas, é levantada uma questão sobre a venda de ticks azuis no Twitter e se as contas verificadas teriam mais peso no processamento de linguagem natural (NLP). Inicialmente, os painelistas têm dificuldade em entender a questão, mas depois admitem que não estão qualificados para respondê-la. A discussão então muda para fontes de dados financeiros tradicionais adequadas para iniciantes e estudantes, com Bloomberg e Definitive mencionados como possíveis opções. Sugere-se que os provedores de dados possam oferecer conjuntos de dados gratuitos com um certo nível de interação.
Em seguida, o palestrante discute o uso de fontes alternativas de dados para análise do mercado financeiro, citando especificamente a empresa DGLT, que coleta dados de fontes de notícias globais e locais. Embora reconhecendo o esforço necessário para filtrar informações relevantes, observa-se que os dados coletados podem fornecer uma perspectiva histórica sobre o comportamento do mercado desde o século XIX. Quando questionado se dados alternativos devem ser usados como fonte única ou para validação junto aos dados tradicionais, o palestrante afirma que não há uma regra geral e depende da estratégia específica que está sendo empregada. No entanto, eles enfatizam que os dados de mercado continuam sendo o principal impulsionador e os dados alternativos não devem ser usados exclusivamente.
O palestrante conclui o webinar discutindo o uso de dados alternativos nos mercados financeiros e como o aprendizado de máquina pode ser empregado para analisar esses dados. Eles destacam a necessidade de inserir vários tipos de dados, incluindo preço e dados fundamentais, em algoritmos preditivos de aprendizado de máquina. No entanto, eles também enfatizam que os dados alternativos por si só não podem servir como o único condutor e devem ser combinados com dados de preço de mercado. O público é encorajado a entrar em contato com qualquer dúvida que possa ter.
Aprendizado de máquina para negociação de opções
Aprendizado de máquina para negociação de opções
No webinar sobre aprendizado de máquina para negociação de opções, o palestrante, Varun Kumar Patula, começa fornecendo uma introdução ao aprendizado de máquina e seu objetivo fundamental. Ele explica que os algoritmos de aprendizado de máquina são usados para analisar dados e descobrir padrões que podem passar despercebidos pelos humanos. Varun distingue entre inteligência artificial, aprendizado de máquina e aprendizado profundo, enfatizando que o aprendizado de máquina é um subconjunto de IA focado em modelos de treinamento para fazer previsões ou decisões com base em dados. Ele ainda categoriza o aprendizado de máquina em três tipos: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço, cada um com suas próprias características e aplicações.
O palestrante então se aprofunda na aplicação do aprendizado de máquina na negociação de opções, um dos principais focos do webinar. A negociação de opções envolve a compra ou venda de contratos de opções, que concedem ao titular o direito de comprar ou vender um ativo a um preço especificado dentro de um prazo específico. Varun destaca o alto risco envolvido na negociação de opções e explica como o aprendizado de máquina pode aumentar a precisão da análise, reduzindo assim o risco. Ele discorre sobre as várias aplicações do aprendizado de máquina na negociação de opções, incluindo opções de precificação, criação de estratégias de negociação, cálculo de volatilidade e previsão de volatilidade implícita. Esses aplicativos visam melhorar a tomada de decisão e aumentar a lucratividade na negociação de opções.
Para entender a necessidade de aprendizado de máquina na negociação de opções, são discutidas as limitações de modelos tradicionais como o modelo Black-Scholes. O modelo Black-Scholes assume taxa livre de risco constante e volatilidade, o que pode não ser verdade em cenários do mundo real. Varun menciona modelos alternativos como o modelo German Candy e o modelo Heston, que têm suas próprias limitações e requisitos de parâmetros de entrada. A solução proposta é utilizar o aprendizado de máquina como substituto ou combinação desses modelos, pois permite um conjunto expandido de recursos e parâmetros de entrada. Os modelos de aprendizado de máquina podem considerar fatores como volatilidade implícita ou realizada, taxas de juros e outros recursos relevantes para determinar o preço justo das opções. Isso permite preços mais precisos, seleção de preços de exercício e estratégias de cobertura. Varun destaca que a pesquisa empírica indica que os modelos de aprendizado profundo com várias camadas ocultas, como o modelo perceptron multicamadas, superam o modelo Black-Scholes, principalmente para opções que estão fora do dinheiro ou no dinheiro.
O webinar passa a explorar a otimização de decisões de negociação usando modelos de aprendizado de máquina para estratégias de opções. O processo geral envolve a análise do sentimento de alta ou baixa do ativo subjacente e a seleção de uma estratégia adequada de acordo. No entanto, muitas estratégias de opções têm distribuições de risco-recompensa distorcidas, necessitando de uma análise mais refinada. O aprendizado de máquina pode aprimorar essa análise considerando recursos como retornos anteriores, impulso e volatilidade para fornecer informações sobre o ativo subjacente. Esses recursos são inseridos em um modelo de aprendizado de máquina para classificar o próximo período de negociação como de alta ou baixa. O vídeo também aborda os recursos usados nos dados do índice SP500 e enfatiza a importância da análise de recursos nas decisões de estratégia de opções.
Em seguida, o palestrante se concentra na construção de modelos de aprendizado de máquina para decisões de negociação em spreads de opções verticais. Eles explicam que os parâmetros de entrada permanecem os mesmos do exemplo anterior, onde um classificador de árvore de decisão é usado para classificar o próximo dia de negociação como de alta ou de baixa. Para aproveitar as opções, são introduzidos spreads como spreads de chamadas de alta ou spreads de venda de baixa, pois limitam o risco. Os modelos de aprendizado de máquina são combinados para prever a faixa de negociação e a volatilidade do contrato. Ao alavancar esses modelos combinados, os traders podem determinar as configurações ideais para spreads verticais em suas estratégias de negociação enquanto prevêem a volatilidade implícita, que é crucial na negociação de opções.
Outra aplicação do aprendizado de máquina na negociação de opções é prever a volatilidade implícita e tomar decisões calculadas sobre estratégias de opções. Ao inserir a volatilidade implícita histórica e outros recursos relevantes em modelos de aprendizado de máquina, os traders podem prever a volatilidade e selecionar estratégias apropriadas, como short straddles ou short strangles. O palestrante compartilha um estudo de caso em que um modelo de aprendizado de máquina foi criado para prever a estratégia de opção mais adequada com base em uma lista de estratégias e recursos de entrada, incluindo dados subjacentes e dados de opções. Ao projetar um universo de estratégia e expandir o estudo para incluir diferentes contratos, os traders podem utilizar o aprendizado de máquina para criar e selecionar a melhor estratégia que se alinhe com seus objetivos de negociação.
No webinar, o palestrante descreve como criou 27 estratégias diferentes para negociação de opções, explorando várias combinações de posições e contratos. Para refinar as estratégias, eles as filtraram para 20, eliminando combinações que não tinham uma posição em um caller ou dependiam de combinações impraticáveis, como short straddles. Para determinar qual dessas 20 estratégias forneceria retornos máximos, o palestrante empregou um modelo de aprendizado de máquina, especificamente um modelo de memória de longo prazo (LSTM). Esse modelo incorporou recursos de entrada de ativos subjacentes, opções e volatilidade e utilizou um sistema de classificação multiclasse para identificar a estratégia ideal para implantação.
O vídeo também esclarece os recursos relacionados aos graus de opção e a estrutura da rede neural usada para o modelo LSTM. Treinando o modelo em aproximadamente 10 anos de dados, ele gerou rótulos de estratégia com base nos recursos de entrada. Os resultados demonstraram que o modelo de aprendizado de máquina superou o ativo subjacente ao longo do tempo. Para aprimorar a precisão da previsão dos modelos de aprendizado de máquina para opções, o palestrante recomenda várias práticas recomendadas. Isso inclui a utilização de níveis de probabilidade para ajuste fino, o emprego de vários modelos de visão, a implementação da técnica do classificador de votação e o aproveitamento da saída de vários classificadores para treinar outro modelo de aprendizado de máquina para maior precisão e lucratividade.
Além disso, o palestrante explora métodos para melhorar o desempenho dos modelos de classificação na negociação de opções. Esses métodos envolvem a utilização de níveis de probabilidade, empregando técnicas de conjunto combinando vários classificadores e usando modelos de aprendizado de máquina para agregar as saídas de diferentes modelos. A importância do ajuste de hiperparâmetros e técnicas de validação cruzada é enfatizada para alcançar maior precisão nos modelos. O palestrante também destaca a importância da negociação em papel antes de implantar uma estratégia com dinheiro real. Essa prática permite que os traders identifiquem e resolvam quaisquer problemas ou desafios práticos antes de arriscar o capital real.
Durante a sessão de perguntas e respostas que se segue, o palestrante responde às perguntas dos participantes. As perguntas abrangem vários tópicos, incluindo o desempenho da estratégia de aprendizado de máquina para negociação de opções, a metodologia usada para selecionar recursos para o modelo, os benefícios do aprendizado de máquina sobre os indicadores técnicos existentes, o cálculo da importância do recurso e o período de retenção apropriado para o SPY (Standard & Poor's 500 Index). O palestrante esclarece que o desempenho da estratégia não se deve apenas ao direcionamento do mercado em 2020, pois os dados utilizados para o modelo remontam a 2010 e abrangem períodos além de 2020. Eles explicam que a negociação de opções requer uma análise mais intrincada, considerando fatores como opções gregas e volatilidade implícita, tornando o aprendizado de máquina uma ferramenta valiosa. A seleção de recursos para o modelo é baseada em uma combinação de experiência comercial e tomada de decisão informada.
No final do webinar, o palestrante discute os pré-requisitos para o curso complementar, recomendando conhecimento prévio de aprendizado de máquina e cursos relacionados para maximizar seus benefícios. Embora o curso se concentre principalmente na construção de modelos de aprendizado de máquina para negociação de opções S&P 500, os conceitos podem ser adaptados e aplicados a outros contratos com mais treinamento e personalização. O curso não fornece um modelo de aprendizado de máquina pré-construído, mas equipa os participantes com o conhecimento e as habilidades necessárias para construir seus próprios modelos.
O webinar fornece uma visão geral abrangente da aplicação do aprendizado de máquina na negociação de opções. Abrange os fundamentos do aprendizado de máquina, suas distinções de outros campos relacionados e os três tipos de algoritmos de aprendizado de máquina. O webinar enfatiza a necessidade de aprendizado de máquina na negociação de opções devido à sua capacidade de aprimorar a precisão da análise e mitigar riscos. Várias aplicações de aprendizado de máquina na negociação de opções, incluindo opções de precificação, criação de estratégias de negociação e previsão de volatilidade implícita, são discutidas. O webinar também explora a construção de modelos de aprendizado de máquina para spreads de opções verticais e a otimização de decisões de negociação.
Introdução ao investimento em fatores quantitativos
Introdução ao investimento em fatores quantitativos
Este vídeo apresenta o conceito de investimento em fatores quantitativos e sua classificação em diferentes fatores, incluindo valor, impulso, qualidade e tamanho. O palestrante explica que o investimento em fatores envolve a seleção de títulos com base em fatores específicos que supostamente geram retornos e o fazem por longos períodos de tempo. O vídeo abrange diferentes métodos quantitativos que podem ser usados para aplicar o investimento em fatores quantitativos, incluindo análise estatística, modelagem de fatores, aprendizado de máquina, modelos de otimização, análise de séries temporais, modelos de risco e simulação montagorial. O palestrante também discute as vantagens de usar o investimento em fatores quantitativos e o processo de seleção e combinação de fatores, além de esclarecer dúvidas relacionadas ao tema, inclusive sobre as fontes de dados e a adequação para negociação de média/alta frequência.
No webinar, Varun Kumar, analista quantitativo da QuantInsti, fornece uma introdução abrangente ao investimento em fatores quantitativos. Ele começa explicando o conceito de fatores, que são fontes amplas e persistentes de risco e retorno que orientam os investidores para retornos quantificáveis. Alguns fatores comuns incluem valor, impulso, qualidade, tamanho e volatilidade. A Kumar tem como exemplo o fator qualidade, que envolve o investimento em empresas com características de alta qualidade. Índices financeiros, como retorno sobre o patrimônio líquido e lucratividade da taxa de crescimento, são usados para quantificar a qualidade de uma empresa. Ações com índices e margens altas são consideradas de alta qualidade, enquanto aquelas com índices e margens mais baixos são consideradas de baixa qualidade. Dados históricos mostram que carteiras compostas por ações de alta qualidade geraram retornos excessivos por longos períodos de tempo.
Kumar então investiga a classificação de fatores no investimento em fatores quantitativos. Os fatores são categorizados em sete tipos, incluindo fatores macro, fatores baseados em estilo, fatores setoriais, fatores baseados em ESG, fatores baseados em sentimento, fatores baseados em liquidez e fatores técnicos. Ele fornece informações sobre como cada um desses fatores funciona e como eles podem ser usados para construir portfólios de fatores. Para ilustrar isso, ele apresenta exemplos de estratégias construídas usando fatores macroeconômicos e baseados em estilo. Essas estratégias envolvem a utilização de variáveis como crescimento do PIB, taxa de inflação, taxa de juros e retorno sobre o patrimônio para selecionar ações e construir um portfólio. Kumar também destaca a importância de considerar fatores como maior retorno sobre o patrimônio e uma baixa relação dívida/capital ao selecionar ações para um portfólio.
O webinar explora ainda vários fatores que podem ser incorporados às estratégias de investimento em fatores quantitativos, incluindo fatores de estilo, matriz setorial, critérios ESG, sentimento, liquidez e indicadores técnicos. Kumar explica como esses fatores podem ser utilizados para desenvolver uma estrutura lógica para a construção de portfólios e fornece exemplos do mundo real de estratégias que podem ser implementadas usando esses fatores. Ele aborda brevemente os critérios ESG, que significa critérios ambientais, sociais e de governança, e seu papel na classificação de empresas com base em seu impacto na sociedade e no meio ambiente.
A utilização de modelos matemáticos e análise estatística no investimento em fatores quantitativos também é discutida. Kumar enfatiza que esses métodos ajudam a eliminar vieses emocionais das decisões de investimento e permitem a exploração de fatores menos intuitivos. Ele descreve os sete métodos quantitativos mais usados neste campo, incluindo análise estatística, modelagem fatorial, aprendizado de máquina, modelos de otimização, análise de séries temporais, modelos de risco e simulações de Monte Carlo. O vídeo destaca como a análise estatística pode ser empregada para identificar padrões e correlações entre títulos e fatores.
As vantagens do investimento em fatores quantitativos na construção e gestão de carteiras de investimentos são exploradas no webinar. Uma das principais vantagens é a capacidade de simular condições extremas de mercado, o que ajuda os investidores a entender melhor as limitações de seus portfólios. O palestrante enfatiza as diferenças de abordagem entre investimento em fator tradicional e quantitativo, usando um estudo de caso de uma carteira de ações de grande capitalização com baixos índices preço/lucro. Enquanto o investimento tradicional envolve identificar fatores, determinar o universo de ações de grande capitalização e calcular os fatores para cada ação antes de classificá-los com base nos índices P/L, o investimento em fatores quantitativos emprega coleta de dados, pré-processamento e seleção de recursos. Um modelo é construído para prever os preços das ações com base nos recursos selecionados.
O processo de investimento em fatores quantitativos é explicado, enfatizando a importância de construir modelos precisos para prever os preços das ações com base em características específicas. O palestrante destaca que essa abordagem é baseada em dados e mais objetiva em comparação com o investimento em fatores tradicional, permitindo análises mais precisas e confiáveis. Para selecionar os melhores fatores para investir, os fatores devem ser persistentes, funcionar em diferentes mercados e setores, ser robustos a várias condições de mercado, não excessivamente sensíveis a mudanças na ética do mercado e possuir liquidez e capacidade suficientes.
O webinar também cobre a combinação de fatores no investimento em fatores quantitativos. Cinco métodos comumente usados são discutidos, incluindo peso igual e pontuação de fator, onde cada fator é pontuado com base em seu desempenho histórico e uma média ponderada é tomada para obter uma pontuação geral. Ressalta-se a importância da combinação de fatores, pois reduz o risco da carteira, aumenta a diversificação e minimiza a volatilidade do desempenho. O palestrante descreve cinco características principais de um melhor fator, incluindo ser apoiado por evidências empíricas, ter uma base econômica ou financeira, oferecer oportunidades de investimento de longo prazo, ser passível de investimento e ser intuitivo e amplamente aceito.
O palestrante continua discutindo vários métodos para combinar fatores no investimento em fatores quantitativos. Um desses métodos é a análise de componentes principais (PCA), que combina vários fatores em um conjunto menor de componentes não correlacionados. Essa abordagem reduz o número de fatores e aborda a questão dos fatores correlacionados, também conhecida como multicolinearidade. Outro método é a inclinação do fator, que envolve ajustar os pesos ou alocações em um portfólio para enfatizar um fator específico. Essa técnica oferece flexibilidade e permite que os investidores tenham como alvo fatores específicos. Além disso, o aprendizado de máquina pode ser aproveitado para selecionar ou combinar fatores com base em seu desempenho histórico, capturando relacionamentos não lineares de forma eficaz. O palestrante enfatiza a importância de ter cautela ao empregar algoritmos de aprendizado profundo, pois eles exigem quantidades substanciais de dados e podem ser propensos a superajuste. Recomenda-se combiná-los com métodos estatísticos tradicionais para obter os melhores resultados.
Além disso, o palestrante aborda as questões do público relacionadas ao investimento em fatores quantitativos. As perguntas abordam vários temas, como o uso de ação de preço e gráficos de longo prazo como fatores para investir, onde o palestrante sugere que pode ser usado como fator técnico, definindo-o adequadamente e estudando seu desempenho histórico. A distinção entre fatores negociados e não negociados é explicada, com um exemplo de imóveis como fator não negociado devido à dificuldade em determinar a liquidez. O foco do investimento em fatores quantitativos é principalmente em fatores negociados, pois seus dados são facilmente acessíveis e permitem backtesting. O palestrante também fornece informações sobre como determinar se uma empresa é mais focada em valor ou em crescimento, sugerindo técnicas como o uso da relação preço/lucro para definir ações de valor.
A discussão continua com a exploração de diferentes algoritmos usados no investimento em fatores quantitativos. Algoritmos como redes neurais recorrentes (RNNs) e memória de longo prazo (LSTM) são mencionados, com sua relevância dependente do tipo de dados que estão sendo analisados. Técnicas de aprendizado profundo podem ser empregadas para combinar fatores e determinar pesos ideais para cada fator, resultando em melhor desempenho do portfólio. O palestrante oferece conselhos sobre estratégias de fator de backtesting e enfatiza a importância de testar sua significância estatística em vários conjuntos de dados e mercados. O uso de bandas de Bollinger como um indicador técnico para identificar mercados laterais também é mencionado.
Por fim, o webinar termina com uma sessão final de perguntas e respostas, na qual o palestrante aborda perguntas adicionais do público. As perguntas incluem o papel dos algoritmos de aprendizado profundo na seleção de setores da indústria, destacando várias opções, como árvores de decisão, redes neurais e florestas aleatórias. É enfatizado que a seleção do algoritmo depende da tarefa específica e do conjunto de dados em questão. O palestrante reitera a importância de usar algoritmos de aprendizado profundo com cautela devido a seus requisitos de dados e potencial de superajuste. O público é agradecido por sua participação e eles são encorajados a fornecer feedback sobre a sessão.
Alocação de Ativos da Carteira com ML e Otimização para Ações Dividendos | Projeto Algo Trading
Alocação de Ativos da Carteira com ML e Otimização para Ações Dividendos | Projeto Algo Trading
A primeira apresentação do evento é feita por Raimondo Mourinho, um engenheiro independente de IA e big data conhecido por seu trabalho com pequenas e médias empresas na Itália, fornecendo soluções de IA para várias funções corporativas. Mourinho acredita na combinação de técnicas de aprendizado de máquina, estatísticas e probabilidade para criar sistemas de negociação avançados. Em sua apresentação, ele compartilha sua estrutura prática e escalável para desenvolver modelos de aprendizado de máquina na alocação de ativos de portfólio.
Mourinho começa apresentando os principais componentes necessários para projetar esse sistema. Ele enfatiza a importância de adotar uma mentalidade de portfólio, utilizando modelos de aprendizado de máquina para converter ideias em estratégias acionáveis e alavancar o poder dos recursos multi-cpu, multi-core e GPU. Esses ingredientes formam a base de sua estrutura. Embora ele mencione brevemente a necessidade de uma infraestrutura ao entrar no ar, ele se concentra nos blocos elementares da estrutura para negociação de baixa-média frequência, reconhecendo que a parte final da estrutura está além do escopo da apresentação.
O palestrante então se aprofunda nas competências necessárias para construir uma estrutura robusta para alocação de ativos de portfólio usando aprendizado de máquina e otimização para ações de dividendos em Python. Ele enfatiza a necessidade de uma forte compreensão das técnicas de portfólio, programação orientada a objetos, técnicas de multiprocessamento e programação assíncrona. Além disso, a experiência em ferramentas de otimização de hiperparâmetros, linguagem SQL e tecnologia Docker é considerada valiosa. Mourinho passa a explicar a primeira etapa da estrutura, que envolve a otimização de um banco de dados para séries temporais, pré-processamento de dados, manipulação de dados ausentes e discrepantes, normalização de dados e seleção de ativos dentro do universo de ativos designado.
A apresentação segue para discutir a fase de geração alfa, que corresponde à terminologia de aprendizado de máquina para gerar sinais de negociação. Mourinho destaca que, durante essa fase, os traders incorporam suas ideias usando vários indicadores, análises de sentimento e modelos econométricos. A etapa subsequente envolve a seleção de recursos, onde recursos redundantes, como recursos constantes e quase constantes, recursos não estacionários e recursos linearmente correlacionados, são removidos usando um método baseado em classificação. Além disso, ele menciona a utilização de diferenciação fracionária, uma técnica que mantém a estacionaridade desejada enquanto preserva informações cruciais dentro dos recursos. Essas melhorias são parte integrante da estrutura de Mourinho para alocação de ativos de portfólio usando aprendizado de máquina e otimização para ações de dividendos.
O reequilíbrio, que inclui seleção de ativos e alocação de peso, é explicado minuciosamente no pipeline de aprendizado. Mourinho emprega momento transversal, com base na força relativa entre ativos, para seleção de ativos. Para a alocação de peso, ele combina técnicas tradicionais como o algoritmo de linha crítica, portfólio de volatilidade inversa e portfólio de peso igual com modelos de aprendizado de máquina, como paridade de risco hierárquico e contribuição de risco igual hierárquico. O palestrante apresenta os resultados da simulação e avalia o desempenho usando dados históricos. Ele também menciona sua intenção de aprimorar ainda mais o portfólio, incorporando técnicas como a estratégia Drunken Monkey e a validação cruzada purgada combinatória. Além disso, Mourinho enfatiza a importância de uma gestão de dinheiro eficaz ao aplicar essas técnicas a cenários de negociação ao vivo.
Para abordar a estimativa de variabilidade de parâmetros, Mourinho recomenda o emprego de técnicas como simulação de Monte Carlo e bootstrapping. Ele apresenta os resultados de sua análise, concentrando-se na riqueza terminal e nos percentis máximos de rebaixamento. O palestrante enfatiza a importância de permanecer orientado por dados e não se apegar demais a ideias comerciais específicas. Ele também aconselha a mitigar o risco idiossincrático empregando diferentes técnicas e evitando o overfitting selecionando sistemas mais simples com desempenho comparável. Por fim, ele ressalta a necessidade de monitorar e ajustar continuamente os sistemas de negociação ao vivo devido à natureza não estacionária dos dados de séries temporais.
Durante a sessão de perguntas e respostas, Mourinho responde a várias perguntas do público. Um participante pergunta sobre a etapa mais crítica do pipeline, para a qual Mourinho destaca o pré-processamento de dados como essencial e demorado. Outra consulta gira em torno da normalização dos dados, e Mourinho sugere a prática comum de subtrair a média e dividir pelo desvio padrão na maioria dos casos. Com relação à remoção da correlação linear usando a Análise de Componentes Principais (PCA), ele reconhece sua possibilidade, mas adverte sobre a perda potencial de significado nos recursos e sugere a consideração de modelos como o Sharpe Ratio para interpretar os resultados de maneira eficaz.
O palestrante passa a discutir o uso do PCA para seleção de recursos e seu potencial impacto na interpretabilidade dos recursos. Os comerciantes quantitativos e algorítmicos aspirantes são aconselhados a considerar o EPAT (Programa Executivo em Negociação Algorítmica) como um ponto de partida valioso. Eles destacam que o programa oferece objetivos de aprendizagem abrangentes alinhados com os requisitos do setor. Os participantes do webinar recebem uma admissão antecipada estendida ao programa e podem agendar uma chamada de aconselhamento do curso para entender como isso pode ajudá-los a alcançar seus objetivos de carreira, seja estabelecendo uma mesa de negociação algorítmica ou incorporando tecnologias e ferramentas avançadas em suas negociações. estratégias.
Kurt Celestog, gerente de projetos da Hong Kong Exchange and Clearing Limited, sobe ao palco para compartilhar seu projeto sobre gerenciamento de portfólio, que estende a palestra de Jay Palmer sobre gerenciamento quantitativo de portfólio. O projeto da Celestog tem como foco a otimização do dividend yield por meio da gestão do portfólio. Seu objetivo é gerar um fluxo regular de receita de dividendos, garantindo estabilidade e crescimento nos pagamentos de dividendos, mantendo o valor do portfólio. Ele pretende superar o índice de referência ou ETF tanto em rendimento de dividendos quanto em retorno de preço por meio de técnicas de gerenciamento de portfólio ideais. A Celestog enfrentou o desafio de adquirir dados de dividendos e desenvolveu funções de web scraping para baixá-los. Ele dividiu o conjunto de dados em duas partes, cada uma cobrindo dez anos e abrangendo recessões e expansões econômicas.
O palestrante discute os desafios encontrados durante o processo de limpeza de dados para otimização da carteira de ações de dividendos. Os dados obtidos no site não eram limpos e exigiam modificações e normalizações para expressar os dividendos em valores em dólares, principalmente com os dividendos antecipados inicialmente apresentados como porcentagens. Os dados de preços foram obtidos do Yahoo Finance e foram calculadas métricas como rendimento anual de dividendos, crescimento de dividendos e crescimento médio. Um índice composto foi derivado para todas as ações selecionadas para criar dois portfólios: um portfólio igualmente ponderado e um portfólio otimizado por peso. O palestrante teve como objetivo analisar se uma única otimização, seguida por um período de manutenção de dez anos, superaria o benchmark e o ETF.
O palestrante compartilha os resultados do projeto de otimização de portfólio utilizando técnicas de aprendizado de máquina. Os gráficos apresentados mostram bolhas verdes no quadrante superior esquerdo, representando as cinco ações com a métrica combinada mais alta. Tanto as carteiras com ponderação igual quanto com ponderação ótima exibiram retornos médios e rendimentos de dividendos mais altos do que o benchmark. No entanto, nos dez anos seguintes, as ações de bancos e tecnologia ganharam mais popularidade, fazendo com que o desempenho da carteira otimizada diminuísse em relação ao benchmark. Para melhorar o desempenho, o palestrante experimentou reequilibrar as carteiras regularmente e selecionar as cinco melhores ações com base na métrica escolhida. As carteiras rebalanceadas superaram o benchmark e demonstraram um rendimento de dividendos maior.
O palestrante enfatiza como a otimização do portfólio e o rebalanceamento regular podem levar a rendimentos de dividendos mais altos e superar os índices de referência, especialmente com ações de dividendos como Fundos de investimento imobiliário (REITs). Ao reequilibrar os portfólios a cada seis meses e explorar diferentes períodos de retrospectiva, o palestrante superou com sucesso o índice em termos de rendimento médio de dividendos, crescimento de dividendos, retorno e reduções menores. No entanto, eles reconhecem os desafios na obtenção e limpeza de dados e observam que a função de rebalanceamento pode ser complexa, sugerindo o uso de programação orientada a objetos para lidar com essa complexidade. No geral, o palestrante destaca que a otimização do portfólio e o rebalanceamento regular são ferramentas valiosas para os investidores.
O palestrante destaca que o rebalanceamento frequente do portfólio é crucial para alcançar um desempenho superior. No entanto, devido à pouca frequência de disponibilidade de dados de dividendos para ações de dividendos, é difícil rebalancear com mais frequência do que uma ou duas vezes por ano. O palestrante também enfatiza a necessidade de mais trabalho no projeto, incluindo a exploração de diferentes critérios de otimização, incorporação de mais ações ao portfólio para maior diversificação e realização de backtesting extensivo. Eles sugerem expandir o universo de leituras e discutir o impacto dos custos de transação no desempenho do portfólio.
Durante a sessão de perguntas e respostas, Celestog responde a perguntas do público. Um participante pergunta sobre o desempenho do portfólio ponderado igual em comparação com o portfólio otimizado. Celestog explica que o portfólio de peso igual geralmente teve um bom desempenho, mas o portfólio otimizado gerou retornos mais altos, demonstrando a eficácia das técnicas de otimização de portfólio. Outro participante indaga sobre o impacto dos custos de transação no desempenho do portfólio. A Celestog reconhece que os custos de transação podem ter um impacto significativo e sugere incorporá-los ao processo de otimização para obter uma representação mais precisa do desempenho do mundo real. Ele também menciona a importância de considerar a derrapagem em cenários de negociação ao vivo e aconselha os participantes a testar exaustivamente suas estratégias usando dados históricos antes de implementá-las na negociação ao vivo.
No geral, as apresentações no webinar lançam luz sobre os aspectos práticos da alocação de ativos de portfólio usando aprendizado de máquina e técnicas de otimização para ações de dividendos. Os palestrantes destacaram a importância do pré-processamento de dados, seleção de recursos, rebalanceamento e monitoramento regular para alcançar resultados bem-sucedidos. Eles também enfatizaram a necessidade de aprendizado contínuo, adaptabilidade e exploração de diferentes estratégias para navegar na natureza dinâmica dos mercados financeiros. O público obteve informações valiosas sobre os desafios, técnicas e benefícios potenciais da utilização do aprendizado de máquina no gerenciamento de portfólio.