Negociação quantitativa - página 21

 

Estratégias de negociação de alta frequência



Estratégias de negociação de alta frequência

Obrigado por me convidar hoje para apresentar meu artigo sobre estratégias de negociação de alta frequência. Meu nome é Amy Kwan e sou da Universidade de Sydney. Este artigo foi escrito em coautoria com Michael Goldstein, do Babson College, e Richard Phillip, também da Universidade de Sydney.

O objetivo deste artigo é contribuir para o debate em andamento entre reguladores, participantes do mercado e acadêmicos sobre o impacto do comércio de alta frequência (HFT) nos mercados financeiros. Ouvimos diferentes perspectivas sobre esse assunto, incluindo a apresentação de Sean e a discussão da noite passada.

Embora existam opiniões divergentes sobre HFT, algumas pessoas, como Michael Lewis, autor do livro "Flash Boys", argumentam que o mercado de ações dos EUA se tornou um sistema de classes baseado na velocidade, onde poucos privilegiados pagam por nanossegundos de vantagem enquanto outros permanecem inconscientes do valor desses pequenos intervalos de tempo. Por outro lado, os defensores do HFT, como Ray Katsuyama, afirmam que os HFTs podem captar sinais de negociação e tirar vantagem dos investidores regulares.

As primeiras evidências acadêmicas geralmente apoiavam o comércio de HFT e algorítmico, pois acreditava-se que aumentavam a liquidez e melhoravam as medidas tradicionais de qualidade do mercado, como spreads decrescentes, profundidade crescente e redução da volatilidade de curto prazo. No entanto, estudos mais recentes encontraram alguns aspectos negativos da HFT. Por exemplo, os HFTs podem antecipar o fluxo de pedidos de outros investidores e extrair rendas das forças de mercado.

Além disso, estudos recentes, como os de Banker, Blending, Courageous e Canorkey, indicam que os HFTs inicialmente negociam contra o vento, mas depois negociam com o vento à medida que um grande comércio progride. Para ilustrar isso, vamos considerar um cenário em que um grande fundo de pensão deseja comprar ações da Apple. Os HFTs, ao detectarem esse negócio, podem concorrer com a instituição para negociar na mesma direção, pois antecipam o futuro aumento de preço devido à pressão compradora.

Embora haja alguma compreensão dos efeitos do HFT, a literatura ainda não está clara sobre como os HFTs realmente negociam e influenciam os mercados financeiros. A maioria das evidências existentes é baseada em execuções comerciais e pouco se sabe sobre o comportamento de envio de pedidos na Austrália.

Para resolver essa lacuna, nosso estudo examina diretamente as estratégias de negociação de HFT, analisando os dados completos do livro de pedidos com limite. Temos acesso a informações detalhadas sobre envios de pedidos, alterações, cancelamentos e negociações para as 100 principais ações do ASX. Ao classificar os comerciantes em empresas de HFT, comerciantes institucionais e corretores de varejo, pretendemos entender seu comportamento e o impacto na dinâmica do mercado.

Nossas principais descobertas revelam que os HFTs se destacam no monitoramento da carteira de pedidos e na negociação de desequilíbrios. Quando há uma demanda maior para comprar ou vender uma ação, os HFTs são mais bem-sucedidos em capitalizar essas informações em comparação com outras categorias de traders. Além disso, observamos que os HFTs fornecem liquidez no lado fixo do livro de ofertas, mesmo quando não é necessário, enquanto os não-HFTs sofrem de acesso limitado ao livro de pedidos devido ao comportamento estratégico de negociação dos HFTs.

Também examinamos a introdução de um feed de dados mais rápido chamado "it" e descobrimos que os HFTs se tornam ainda mais eficazes em suas negociações estratégicas após sua implementação. No entanto, as ordens não HFT são excluídas do livro de ordens limitadas, resultando em menores chances de execução bem-sucedida para esses traders.

Em conclusão, nosso estudo contribui para a compreensão das estratégias de negociação HFT, analisando os dados completos do livro de ordens de limite. Descobrimos que os HFTs superam outras categorias de traders no monitoramento da carteira de pedidos e na negociação de desequilíbrios. A introdução de um feed de dados mais rápido aumenta ainda mais sua vantagem comercial. Essas descobertas lançam luz sobre como os HFTs influenciam a dinâmica do mercado e fornecem informações valiosas para reguladores, participantes do mercado e acadêmicos.

Obrigado novamente pela oportunidade de apresentar nossa pesquisa.

 

Ciamac Moallemi: negociação de alta frequência e microestrutura de mercado



Ciamac Moallemi: negociação de alta frequência e microestrutura de mercado

Parte do propósito da minha apresentação é familiarizar as pessoas com a pesquisa conduzida pelos membros do corpo docente. Antes de me aprofundar no tópico principal, gostaria de fornecer algumas informações sobre meu próprio trabalho como matemático aplicado. Aproximadamente metade do meu tempo é dedicado a explorar problemas de controle estocástico, que envolvem a tomada de decisões ao longo do tempo na presença de incerteza. Esses problemas matemáticos abstratos representam desafios significativos, mas são fundamentais, pois muitos problemas de engenharia e negócios compartilham características semelhantes. A outra metade da minha pesquisa se concentra no aspecto mais aplicado dos problemas de controle estocástico no campo da engenharia financeira.

Com base em minha experiência anterior como gerente de fundos de hedge, tenho um interesse particular em negociação ideal, microestrutura de mercado e negociação de alta frequência em mercados financeiros. Hoje, discutirei esses tópicos para fornecer informações sobre as complexidades dos mercados eletrônicos modernos. Para apreciar as questões em questão, é crucial entender as principais características dos mercados de ações dos Estados Unidos, que evoluíram significativamente nos últimos cinco a dez anos.

Em primeiro lugar, o comércio eletrônico domina o mercado, tornando irrelevante a imagem tradicional dos operadores no pregão da Bolsa de Valores de Nova York. A negociação agora ocorre principalmente em computadores, sendo a negociação eletrônica o principal mecanismo de troca. Outra mudança notável é a descentralização ou fragmentação do comércio. No passado, uma determinada ação era negociada predominantemente na Nasdaq ou na Bolsa de Valores de Nova York. No entanto, agora existem várias bolsas, cada uma respondendo por uma porcentagem substancial da negociação de ações.

Essas bolsas são organizadas como livros eletrônicos de ordens limitadas, onde os participantes do mercado podem enviar ordens de compra e venda com preços especificados. Quando os preços se cruzam, as negociações são executadas. Isso contrasta com o mercado histórico de revendedores ou a estrutura de mercado especializado da Bolsa de Valores de Nova York. Além disso, cerca de 30% das negociações ocorrem em locais alternativos, como redes de cruzamento eletrônico, dark pools e internalização, contribuindo ainda mais para a natureza descentralizada da negociação.

Uma das características mais marcantes dos mercados modernos é a crescente automação dos participantes. Anteriormente, um operador humano lidava com grandes pedidos, mas agora os algoritmos e as negociações de alta frequência assumiram o controle. A negociação algorítmica permite que os investidores dividam grandes pedidos ao longo do tempo e nas bolsas, enquanto os operadores de alta frequência, geralmente classificados como formadores de mercado, fornecem liquidez. Essas tendências recentes tornaram o mercado mais complexo e levaram a interações imprevisíveis entre traders algorítmicos e traders de alta frequência.

Esses desenvolvimentos levantaram questões importantes tanto no nível das políticas quanto para os participantes individuais. Os formuladores de políticas e reguladores precisam avaliar os benefícios e as desvantagens da atual complexa estrutura de mercado. Eles também devem abordar questões como a ocorrência de eventos como o famoso flash crash de 6 de maio de 2010, onde os preços de mercado caíram significativamente em questão de minutos devido a uma interação patológica entre um trader algorítmico e traders de alta frequência.

No nível do participante individual, os problemas de tomada de decisão precisam ser abordados. Dada a complexidade e imprevisibilidade do mercado, os participantes devem determinar a abordagem mais eficaz para suas estratégias de negociação. É nesse contexto que tenho conduzido pesquisas sobre dois problemas específicos relacionados à negociação de alta frequência e à microestrutura do mercado: entender a importância da latência e examinar o papel dos dark pools nos mercados.

A latência refere-se ao atraso entre a tomada de uma decisão de negociação e sua execução. A capacidade de negociar rapidamente com baixa latência tornou-se cada vez mais importante. Para avaliar o valor e o custo associado à latência, é necessário avaliar sua importância nas decisões de negociação. Ao longo dos anos, a latência nos mercados de ações dos EUA diminuiu drasticamente, com as negociações ocorrendo agora em microssegundos. Esse avanço tecnológico foi impulsionado pela demanda de operadores de alta frequência e outros que buscam uma execução mais rápida.

Compreender a importância da latência levanta outras questões. A baixa latência é benéfica na tomada de decisões com as informações mais recentes? Ser mais rápido que os concorrentes oferece uma vantagem na obtenção de lucros? Além disso, as regras e a organização das exchanges costumam priorizar a entrada antecipada, criando vantagens para traders com conexões de menor latência. Isso levanta preocupações sobre justiça e igualdade de acesso às oportunidades de mercado.

Para responder a essas questões, minha pesquisa envolve o desenvolvimento de modelos matemáticos que capturam a dinâmica da negociação de alta frequência e o impacto da latência nas estratégias de negociação. Ao simular diferentes cenários e analisar os resultados, pretendo fornecer insights sobre o equilíbrio ideal entre velocidade e precisão nas decisões de negociação. Esta pesquisa pode ajudar os participantes do mercado, como fundos de hedge ou investidores institucionais, a projetar seus algoritmos de negociação e infraestrutura para maximizar seu desempenho em um ambiente altamente competitivo.

Outra área de minha pesquisa se concentra no papel dos dark pools nos mercados modernos. Dark pools são locais de negociação privados que permitem que os participantes executem grandes negócios anonimamente, longe do mercado público. Esses locais alternativos ganharam popularidade devido ao seu potencial de minimizar o impacto no mercado e melhorar a qualidade de execução para investidores institucionais com volumes significativos de negociação.

No entanto, o surgimento de dark pools levantou preocupações sobre a transparência e a justiça do mercado. Os críticos argumentam que a falta de transparência nesses locais pode criar assimetria de informações e afetar negativamente a descoberta de preços. Além disso, houve casos em que os traders de alta frequência exploraram a falta de transparência pré-negociação em dark pools para sua própria vantagem.

Em minha pesquisa, investigo o impacto dos dark pools na liquidez do mercado, na formação de preços e no comportamento dos participantes do mercado. Ao desenvolver modelos matemáticos e conduzir análises empíricas, pretendo entender os benefícios e as desvantagens associadas à negociação em dark pool. Esta pesquisa pode contribuir para o debate em andamento sobre a regulamentação e supervisão de dark pools e ajudar os participantes do mercado a tomar decisões informadas sobre suas estratégias de negociação.

Concluindo, minha apresentação de hoje fornece uma visão geral de minha pesquisa no campo da engenharia financeira, focando especificamente em negociação de alta frequência, microestrutura de mercado, latência e dark pools. Ao aprofundar esses tópicos, pretendo lançar luz sobre as complexidades dos mercados eletrônicos modernos e os desafios que eles apresentam para os participantes e reguladores do mercado. Por meio de modelagem matemática, simulações e análises empíricas, minha pesquisa visa fornecer informações valiosas e contribuir para as discussões e desenvolvimentos em andamento no campo dos mercados financeiros.

Além disso, outro aspecto de minha pesquisa gira em torno do impacto das políticas regulatórias nos mercados financeiros. Os órgãos reguladores desempenham um papel crucial na garantia da integridade do mercado, estabilidade e proteção do investidor. No entanto, a concepção e implementação de regulamentos podem ter consequências não intencionais e afetar a dinâmica do mercado.

Uma área de foco em minha pesquisa é o exame das reações do mercado aos anúncios regulatórios. Ao analisar dados históricos e conduzir estudos de eventos, investigo como os participantes do mercado, como traders e investidores, ajustam suas estratégias e posições em resposta às mudanças regulatórias. Esta pesquisa ajuda a compreender os efeitos imediatos e de longo prazo dos regulamentos sobre a liquidez do mercado, volatilidade e eficiência geral.

Além disso, exploro a eficácia de diferentes medidas regulatórias para atingir os objetivos pretendidos. Por exemplo, estudo o impacto dos disjuntores, que são mecanismos projetados para interromper temporariamente as negociações durante movimentos extremos do mercado, na estabilidade do mercado. Ao analisar os dados históricos do mercado e realizar simulações, avalio se os disjuntores efetivamente previnem ou agravam as quedas do mercado.

Outra área de interesse é o exame de regulamentações destinadas a reduzir o risco sistêmico nos mercados financeiros. Isso envolve a análise do impacto de medidas como requisitos de capital, testes de estresse e restrições à negociação por conta própria dos bancos. Ao estudar os efeitos dessas regulamentações sobre a estabilidade do sistema financeiro, pretendo fornecer informações sobre sua eficácia e possíveis consequências não intencionais.

Além disso, também exploro a interseção entre tecnologia e regulamentação, particularmente no contexto de tecnologias emergentes, como blockchain e criptomoedas. Essas tecnologias apresentam desafios e oportunidades únicas para os reguladores, pois podem interromper os sistemas financeiros tradicionais e introduzir novos riscos. Minha pesquisa nesta área se concentra na compreensão das implicações regulatórias dessas tecnologias e na exploração de estruturas potenciais que podem promover a inovação, garantindo a integridade do mercado e a proteção do investidor.

Minha pesquisa em engenharia financeira abrange uma ampla gama de tópicos, incluindo o impacto das políticas regulatórias, as reações do mercado às mudanças regulatórias e a interseção entre tecnologia e regulamentação. Por meio de análises rigorosas, modelagem matemática e estudos empíricos, procuro fornecer informações valiosas sobre o funcionamento dos mercados financeiros e contribuir para o desenvolvimento de estruturas regulatórias eficazes e bem informadas.

 

Kent Daniel: impulso de preço



Kent Daniel: impulso de preço

Estou feliz por estar aqui e gostaria de agradecer a presença de todos. É ótimo ver todos tão entusiasmados com este tópico. Hoje, discutirei uma estratégia quantitativa específica comumente usada por fundos de hedge. Essa estratégia geralmente é implementada com alavancagem significativa e complementa os assuntos que o professor Sunnah Reyes e o professor Wong têm abordado. Meu objetivo é apresentar o conceito de investimento quantitativo e fornecer informações sobre essa estratégia específica.

Além disso, estou realizando pesquisas para entender os fatores por trás do momento dos preços e a ocorrência desse fenômeno nos mercados. Argumento que o mercado não é totalmente eficiente, principalmente devido ao processamento imperfeito das informações pelos investidores. Assim, vou me aprofundar na caracterização do momento e oferecer algumas reflexões sobre suas causas subjacentes.

Recentemente, me deparei com um artigo na revista Bloomberg apresentando Cliff Asness, uma figura notável na indústria. Sua empresa enfrentou desafios no passado, principalmente devido ao momento. Acho isso particularmente relevante para nossa discussão de hoje. Na verdade, Asness e sua empresa não desistiram do ímpeto. Eles até lançaram um fundo mútuo chamado AQR Momentum Fund, além de seus empreendimentos de fundos de hedge.

A AQR, tanto com seus fundos mútuos quanto com fundos de hedge, emprega regras matemáticas para construir carteiras diversificadas com um viés específico. No caso do momentum, eles se concentram em investir em vencedores e vender perdedores. Hoje, explorarei essa estratégia com mais detalhes. No entanto, antes de entrar nos detalhes, quero compartilhar alguns insights de um trabalho de pesquisa de Asness, Moskowitz e Patterson. O artigo investiga a presença de momentum em diferentes classes de ativos.

De acordo com suas descobertas, o momentum historicamente teve um bom desempenho em várias regiões, incluindo os Estados Unidos, o Reino Unido e a Europa continental. No entanto, não produziu os mesmos resultados positivos no Japão. Além disso, a pesquisa explora o impulso na seleção de países de ações, seleção de países de títulos, moeda estrangeira e commodities, com graus variados de sucesso em cada área.

Então, o que impulsiona o impulso? Com base em meu trabalho e teorias preliminares, a explicação mais convincente gira em torno do processamento de informações pelos investidores. Quando os investidores recebem novas informações, eles tendem a exibir um viés de status quo, assumindo que as coisas permanecerão relativamente inalteradas. Embora antecipem algum movimento de preços em resposta às informações, eles não compreendem totalmente seu impacto. Consequentemente, o preço se move um pouco, mas leva tempo, geralmente em torno de um ano, para que as informações sejam totalmente refletidas nos preços.

No contexto dos mercados financeiros, se você observar um movimento de preço vinculado à informação, é provável que o impulso continue. Essa persistência no movimento dos preços se alinha com o conceito de momento na física, onde um objeto que se move a uma certa velocidade em uma determinada direção tende a continuar se movendo, a menos que uma força externa atue sobre ele.

Agora, vamos explorar como construir uma estratégia de impulso. Suponha que você queira implementar uma estratégia de momentum simples semelhante à abordagem do AQR. Aqui está um guia passo a passo: Começando no início de um mês específico, calcule os retornos mensais de todas as ações listadas na NYSE, Amex e NASDAQ nos últimos 12 meses até um mês atrás. Classifique as ações com base em seus retornos e identifique os 10% superiores como vencedores e os 10% inferiores como perdedores. Construa uma carteira composta pelos vencedores, ponderados por sua capitalização de mercado. Da mesma forma, estabeleça uma carteira long-short vendendo a descoberto $ 1 das ações perdedoras. Reequilibre o portfólio no início de cada mês, atualizando os retornos e classificações do período de formação.

Essa estratégia resulta em uma carteira de rotatividade relativamente baixa, uma vez que os retornos recentes provavelmente serão semelhantes. No entanto, conforme você estende o prazo para 12 meses, os retornos começam a divergir significativamente.

Agora, vamos avaliar o desempenho dessa estratégia de 1949 a 2007. Investir em T-bills tem retorno médio excedente de 16,5% ao ano, o que é bastante substancial. Isso indica que a estratégia de impulso de comprar vencedores e vender perdedores tem sido altamente lucrativa no longo prazo.

Agora, você pode se perguntar se esse excesso de retorno é consistente em diferentes períodos de tempo. Para examinar isso, vamos dividir os dados em diferentes décadas e ver o desempenho do momentum. Aqui estão os retornos em excesso para cada década:

  • 1950: 13,5%
  • 1960: 14,7%
  • 1970: 14,3%
  • 1980: 13,7%
  • 1990: 9,4%
  • Anos 2000: 13,1%

Como você pode ver, o momentum gerou retornos excessivos positivos em todas as décadas, embora a magnitude varie. Vale a pena notar que a década de 1990 teve um excesso de retorno relativamente menor em comparação com as outras décadas, mas ainda assim foi positivo.

Então, por que o momentum persiste como uma estratégia lucrativa? Uma explicação é que os investidores tendem a não reagir a novas informações, fazendo com que os preços se ajustem lentamente. Como resultado, as ações que obtiveram retornos positivos continuam a apresentar desempenho superior porque seus preços não refletiram totalmente todas as informações disponíveis. Esse ajuste atrasado oferece uma oportunidade para os investidores obterem lucros aproveitando o momento.

É importante mencionar que, embora o momentum tenha mostrado lucratividade consistente, isso não significa que esteja livre de riscos. Como qualquer estratégia de investimento, ela vem com seu próprio conjunto de riscos e desafios. As condições de mercado podem mudar e o desempenho passado não é garantia de resultados futuros. Portanto, uma análise completa, gerenciamento de risco e monitoramento contínuo são cruciais ao implementar uma abordagem de investimento baseada em impulso.

Em conclusão, a estratégia de momentum, que envolve comprar vencedores e vender perdedores, tem gerado retornos excessivos significativos nos mercados financeiros. Apesar das variações nos retornos ao longo das diferentes décadas, o impulso continuou sendo uma estratégia lucrativa em geral. No entanto, os investidores devem ter cautela e considerar vários fatores antes de incorporar essa estratégia em sua abordagem de investimento.

 

Negociação algorítmica e aprendizado de máquina



Negociação algorítmica e aprendizado de máquina

Ok, obrigado, Costas, por me receber. Também gostaria de expressar minha gratidão a Eric por sua palestra perspicaz, que fornece um contexto valioso para a discussão que apresentarei. Hoje, vou me concentrar nas experiências de operar do outro lado dessas bolsas e lidar com negociadores de alta frequência (HFTs) e outras contrapartes. Quero esclarecer que minha palestra não abordará explicitamente a teoria dos jogos, pois Costas me garantiu que é aceitável. No entanto, vou me aprofundar em aspectos práticos, aproveitando minha experiência de trabalho com um grupo comercial quantitativo em Wall Street nos últimos 12 anos.

Em primeiro lugar, gostaria de estender um agradecimento especial ao meu parceiro comercial, By Vaca, que é co-autor de todos os trabalhos que estarei discutindo. Nossas pesquisas e insights surgiram de contextos comerciais proprietários dentro de nosso grupo comercial. Os aspectos que destacarei são os elementos não proprietários que consideramos cientificamente interessantes ao longo do tempo.

Wall Street é, sem dúvida, um lugar intrigante, tanto tecnologicamente quanto socialmente. Ele testemunhou mudanças significativas devido à automação e à abundância de dados. Essas transformações deram origem a inúmeros desafios comerciais, que exigem uma abordagem baseada em aprendizado, principalmente aprendizado de máquina. Com grandes quantidades de dados disponíveis em uma escala temporal e espacial além da compreensão humana, os algoritmos tornaram-se indispensáveis na negociação. Esses algoritmos precisam ser adaptáveis e treinados em dados históricos, incluindo dados recentes, para tomar decisões de negociação sensatas.

Em minha apresentação, descreverei três áreas problemáticas específicas que surgem na negociação algorítmica nos mercados eletrônicos modernos. Essas vinhetas ou estudos de caso lançam luz sobre os desafios algorítmicos e oferecem dicas sobre como enfrentá-los usando novas técnicas.

Os dois primeiros problemas giram em torno da execução otimizada. Ao realizar uma negociação, seja comprando ou vendendo um determinado volume de ações, há um trade-off entre imediatismo e preço. Pode-se optar por executar o comércio rapidamente, impactando os preços, mas possivelmente capitalizando vantagens informacionais fugazes. Por outro lado, pode-se adotar uma abordagem mais vagarosa, permitindo que o mercado converja para o preço desejado por um período mais longo. Vou me aprofundar nesses trade-offs e apresentar exemplos específicos que demonstram os desafios enfrentados nos mercados eletrônicos.

O terceiro problema diz respeito às versões algorítmicas da otimização clássica de portfólio, como a otimização de média-variância. Isso envolve manter um portfólio diversificado que maximiza os retornos enquanto considera o risco ou a volatilidade. Embora de natureza algorítmica, esse problema se conecta com as abordagens tradicionais de otimização de portfólio.

Vale a pena notar que o leilão contínuo de ordens de limite duplo, conforme descrito por Eric anteriormente, serve como pano de fundo para esses desafios. A imagem do flash crash e o livro de Michael Lewis sobre negociação de alta frequência destacam os tempos interessantes e dinâmicos que vivemos atualmente em Wall Street. Embora eu não pretenda fazer julgamento moral sobre qualquer atividade comercial, incluindo negociação de alta frequência, pretendo elucidar os desafios algorítmicos enfrentados nos mercados eletrônicos modernos da perspectiva de um grupo comercial quantitativo operando dentro de uma estrutura tradicional de negociação estatística de ações.

Nosso grupo de negociação é especializado em negociação de ações, tanto longas quanto curtas, abrangendo uma ampla gama de instrumentos líquidos nos mercados doméstico e internacional. Para proteger nossas posições, utilizamos exclusivamente futuros, evitando derivativos complexos. Apesar da negociação em mercados e instrumentos relativamente simples, a crescente automação e disponibilidade de dados em Wall Street introduziram uma infinidade de problemas de negociação que exigem uma abordagem de aprendizado, muitas vezes empregando aprendizado de máquina.

A propósito, quero dizer que um exemplo disso é que muitas vezes é observado que quando um analista atualiza sua visão sobre uma ação, outros analistas tendem a atualizar sua visão sobre a mesma ação em rápida sucessão. Assim, é preciso determinar se esta é realmente uma notícia nova ou simplesmente o resultado de alguma outra notícia básica entrando no mercado. Nesses casos, pode não ser aconselhável negociar com base nessas informações.

Agora, em relação à sua pergunta sobre por que não abrimos mão de tempo para perguntas no final e queremos comprar o volume restante, há duas respostas para isso. Em primeiro lugar, se formos uma corretora como o Bank of America com uma mesa de negociação algorítmica, executamos negócios com base na diretiva do cliente. Eles nos fornecem instruções sobre quantas ações comprar dentro de um prazo específico. Não pedimos confirmação durante o processo. Em segundo lugar, otimizamos nossas estratégias para determinar o volume certo de compra com base nas informações disponíveis. Esse volume geralmente é o máximo que podemos negociar sem afetar significativamente o preço da ação. Embora seja possível implementar a abordagem que você sugeriu, preferimos minimizar o número de parâmetros envolvidos para simplificar a tomada de decisões no complexo mundo das negociações.

Em relação ao processo de teste, realizamos testes ao vivo nos seis meses seguintes ao estudo. Isso nos permite avaliar o desempenho do modelo em condições reais de mercado. No entanto, o próprio modelo usa dados históricos durante a fase de teste.

Quando se trata de explicar nossas políticas para as pessoas, contamos principalmente com uma abordagem empírica, em vez de visual. Neste problema particular, está claro o que constitui um comportamento sensato. O desafio surge ao lidar com estratégias que funcionam bem sem uma compreensão clara de por que funcionam. Nesses casos, às vezes abordamos o problema de uma perspectiva antropológica, tentando entender as razões por trás da rentabilidade consistente de determinados negócios.

Reconhecemos que a complexidade do que aprendemos apresenta desafios em termos de interpretação. Embora possamos identificar um poder preditivo consistente em certas variáveis de estado, é extremamente difícil entender os motivos subjacentes em um nível granular. A natureza microestrutural dos mercados financeiros, especialmente nas negociações de alta frequência, envolve volumes e velocidades de dados que ultrapassam a compreensão humana normal. Portanto, nos concentramos em metodologias cuidadosas de treinamento e teste para garantir um desempenho consistente.

Em nossos experimentos, exploramos vários recursos do livro de pedidos e seu impacto no desempenho. Por exemplo, incorporar o spread de compra e venda no espaço do estado provou ser valioso para otimizar a execução do comércio. No entanto, nem todos os recursos fornecem o mesmo benefício e algumas variáveis podem até ter efeitos negativos no desempenho devido ao overfitting. Ao selecionar os recursos mais informativos, alcançamos uma melhoria adicional de 13% sobre a melhoria de 35% alcançada por meio de abordagens teóricas de controle.

Estamos avaliando uma solução experimentalmente, embora eu não tenha tempo para me aprofundar nos detalhes agora. No entanto, posso fornecer uma explicação simplificada de liquidez usando um modelo de desenho animado. Dark pools diferentes, que são locais de negociação alternativos, exibem propriedades de liquidez variadas em momentos diferentes e para ações diferentes.

Quando surge uma nova bolsa, seja um livro de ordens limitadas ou um dark pool, ela geralmente tenta se estabelecer no mercado oferecendo tratamento preferencial, abatimentos ou taxas para uma determinada classe de ações. Eles se promovem como o dark pool preferido para negociar tipos específicos de ações. Como resultado, os traders interessados nessas ações são atraídos para aquele dark pool específico, criando liquidez. Em contraste, outros dark pools podem ter diferentes perfis de liquidez e podem não atrair tanta atividade comercial.

Para visualizar esse conceito, imagine cada dark pool tendo um perfil de liquidez único para uma dada ação, representado por uma distribuição de probabilidade estacionária. O eixo x representa o número de compartilhamentos, enquanto o eixo y representa a probabilidade de encontrar compartilhamentos disponíveis para execução em cada intervalo de tempo discreto. Quando submetemos nossa ordem de negociação a um dark pool, um número (s) é sorteado dessa distribuição, indicando o volume de contrapartes dispostas a negociar naquele intervalo de tempo específico. O volume executado é determinado pelo mínimo entre o(s) volume(s) sacado(s) e o volume solicitado (vns), garantindo a execução parcial caso necessário.

Agora, você pode se perguntar como a curva de liquidez pode ser não decrescente quando ocorre uma execução parcial. A curva de liquidez representa apenas a probabilidade de encontrar o volume disponível dentro de um determinado intervalo. Isso mostra que volumes menores são mais prováveis de estarem disponíveis para execução, enquanto volumes maiores são menos prováveis. A execução parcial significa simplesmente que o volume executado é menor que o volume solicitado, mas não afeta a forma geral da curva de liquidez.

A proliferação de dark pools é um fenômeno interessante. Isso levanta questões sobre o equilíbrio do mercado e a competição entre esses locais. Permanece incerto se o mercado acabará por se consolidar, levando ao domínio de alguns dark pools. Dinâmica semelhante foi observada em leilões duplos contínuos desde que a desregulamentação dos mercados financeiros permitiu que várias bolsas operassem simultaneamente. O cenário regulatório e a capacidade das startups de propor novos mecanismos contribuem para a complexidade da estrutura do mercado.

Considerando a conexão entre esta pesquisa e o artigo de Eric, podemos explorar a interação entre diferentes estruturas de mercado, algoritmos e seu impacto na estabilidade e fragmentação do mercado. Ao simular cenários envolvendo vários jogadores usando algoritmos semelhantes, podemos investigar os resultados computacionais e estudar como a estrutura do mercado e a diversidade de algoritmos influenciam os preços e outras questões regulatórias. Essa combinação de esforços de pesquisa pode gerar informações valiosas sobre a complexa relação entre estrutura de mercado, negociação algorítmica e estabilidade do mercado.

Além disso, podemos nos aprofundar em questões mais sofisticadas, como a interação entre diferentes algoritmos e estruturas de mercado e como eles moldam a dinâmica do mercado. Ao examinar vários cenários de mercado, podemos analisar a adequação de diferentes estruturas e algoritmos de mercado para alcançar estabilidade e abordar questões de fragmentação.

A evolução dos mercados financeiros levou à automação de certos aspectos, muitas vezes substituindo elementos humanos úteis. No entanto, novos mecanismos eletrônicos foram introduzidos para replicar e aprimorar a funcionalidade. Compreender essas dinâmicas e adaptar nossas estratégias adequadamente nos permite navegar pelas complexidades dos mercados financeiros modernos.

Minha palestra lançará luz sobre os desafios algorítmicos inerentes à negociação nos mercados financeiros eletrônicos modernos. Os três estudos de caso que apresentarei destacam as complexidades e compensações enfrentadas na execução otimizada e na otimização de portfólio algorítmico. Embora as restrições de tempo possam me impedir de abordar todos os tópicos, espero fornecer informações valiosas sobre essas áreas.

Embora simulações e análises computacionais ofereçam caminhos para a compreensão dos possíveis resultados da negociação algorítmica, é essencial encontrar um equilíbrio entre a modelagem abstrata e a relevância do mundo real. O desafio está em identificar quais detalhes são cruciais e quais podem ser ignorados com segurança sem sacrificar a relevância prática, especialmente no cenário complexo e em constante evolução dos mercados financeiros.

 

O Projeto de Trocas Financeiras: Algumas Questões Abertas na Interseção de Econ e CS



O Projeto de Trocas Financeiras: Algumas Questões Abertas na Interseção de Econ e CS

Muito obrigado Kostas. Esta palestra será um pouco não convencional para mim, mas espero que esteja alinhada com o espírito desta conferência e com o tema das direções abertas. Ele está conectado ao design das trocas financeiras, particularmente ao design predominante conhecido como livro de ordens de limite contínuo. Começarei discutindo um artigo no qual trabalhei recentemente com Peter Crampton e John Shimm, que destaca uma falha econômica no atual projeto de câmbio financeiro. Essa falha, argumentamos, contribui para os aspectos negativos da negociação de alta frequência.

A primeira parte da palestra abordará este documento, que pode ser familiar para alguns de vocês, mas provavelmente não para a maioria. Ele apresenta um caso econômico para uma abordagem alternativa chamada negociação em tempo discreto ou leilões de lotes frequentes. Nosso artigo sugere que o livro de ordens de limite contínuo, embora amplamente utilizado em todo o mundo, sofre de uma falha estrutural que leva a vários problemas associados ao comércio de alta frequência. Apresentarei uma versão condensada e acessível desta parte, como já foi apresentada várias vezes antes.

A segunda e a terceira partes da palestra se aprofundarão em questões abertas e direções de pesquisa relacionadas ao design de trocas financeiras. Essas áreas de investigação estão na interseção da economia e da ciência da computação. Nas seções posteriores, discutirei uma parte de duas páginas no final do artigo do Quarterly Journal of Economics que apresenta um argumento qualitativo, desprovido de teoremas ou dados, para os benefícios computacionais da negociação em tempo discreto em comparação com o design de mercado atual . Esta discussão levantará inúmeras questões e visa estimular uma exploração mais aprofundada.

Embora as últimas partes da palestra sejam menos formais do que estou acostumado, acredito que sejam cruciais para levantar questões em aberto e definir uma agenda para pesquisas futuras. Isso se alinha com o objetivo desta conferência, que incentiva a exploração das interseções entre economia e ciência da computação e sugere direções frutíferas para investigações futuras.

Agora, vamos nos aprofundar no argumento econômico para a negociação em tempo discreto e suas vantagens sobre o livro de ordens de limite contínuo, que explicarei com mais detalhes. O livro de ordens de limite contínuo é um projeto de mercado que processa trilhões de dólares em atividade econômica todos os dias. Atua com base em ordens limitadas, que especificam o preço, a quantidade e a direção (compra ou venda) de um título. Os participantes do mercado podem enviar, cancelar ou modificar ordens limitadas ao longo do dia, e essas mensagens são enviadas para a bolsa.

A negociação ocorre quando uma nova solicitação corresponde a ordens existentes no livro de ordens limitadas. Por exemplo, uma solicitação de compra com um preço igual ou superior a uma oferta de venda pendente resultaria em uma negociação. Este é o funcionamento básico do livro de ordens de limite contínuo.

No entanto, nossa pesquisa sugere que esse projeto de mercado tem falhas inerentes. Uma questão importante é o que chamamos de "sniping". Quando há uma mudança nas informações ou sinais públicos, as empresas de negociação envolvidas no fornecimento de liquidez ajustam suas cotações de acordo. Eles cancelam seus lances ou pedidos anteriores e os substituem por novos que refletem as informações atualizadas. Agora, suponha que eu seja uma dessas firmas comerciais ajustando minhas cotações. Ao mesmo tempo, outros, como Thomas, também enviam mensagens para a bolsa para negociar nas cotações antigas antes de serem substituídas.

Como o mercado processa essas mensagens em tempo contínuo e em ordem serial, torna-se aleatório qual mensagem chega primeiro à central. Se várias firmas comerciais reagirem às novas informações simultaneamente, há uma chance de que uma solicitação de Thomas ou de qualquer outro participante seja processada antes da minha, permitindo que eles negociem pelo preço antigo. Esse fenômeno de sniping é problemático e cria várias implicações.

Em primeiro lugar, permite oportunidades mecânicas de arbitragem com base em informações públicas simétricas, o que não deveria acontecer em um mercado eficiente. Em segundo lugar, os lucros de tais oportunidades de arbitragem ocorrem às custas da provisão de liquidez. À medida que os franco-atiradores executam negociações com sucesso a preços antigos, as empresas de negociação de provisionamento de liquidez hesitam em ajustar suas cotações rapidamente. Essa hesitação decorre do medo de ser atacado e perder lucros potenciais. Consequentemente, o mercado torna-se menos eficiente à medida que os provedores de liquidez ficam menos dispostos a atualizar suas cotações em resposta a novas informações.

Outro problema com o livro de pedidos de limite contínuo é o potencial de antecipação de pedidos. Nesse cenário, os traders observam a chegada de novas ordens limitadas e ajustam preventivamente suas cotações antecipando negociações futuras. Esse comportamento pode levar a um efeito cascata, em que os traders ajustam constantemente suas cotações em resposta umas às outras, criando volatilidade e instabilidade desnecessárias no mercado.

Para resolver essas falhas, nosso artigo propõe um projeto de mercado alternativo conhecido como negociação em tempo discreto ou leilões de lotes frequentes. Nesse projeto, em vez de processar pedidos em tempo contínuo, o mercado opera em intervalos de tempo discretos ou lotes. Durante cada lote, os participantes do mercado podem enviar suas ordens de limite e, ao final do lote, o mercado é compensado e as negociações são executadas a um preço único e uniforme.

Ao introduzir a negociação em tempo discreto, eliminamos os problemas de sniping e antecipação de pedidos. Como todos os pedidos enviados em um lote são processados simultaneamente, não há aleatoriedade na execução do pedido. Os comerciantes podem ter certeza de que seus pedidos serão executados ao mesmo preço que os outros participantes do mesmo lote, garantindo justiça e reduzindo o incentivo para sniping.

Além disso, os frequentes leilões de lote promovem a estabilidade e reduzem a volatilidade desnecessária no mercado. Os comerciantes não precisam mais ajustar constantemente suas cotações em resposta a cada pedido recebido. Em vez disso, eles podem se concentrar em analisar informações e tomar decisões de negociação informadas, sabendo que seus pedidos serão executados no final do lote a um preço justo.

Investir em mercados financeiros geralmente requer um certo tempo de espera para que as transações ocorram. Pessoas diferentes podem ter opiniões diferentes sobre se esse tempo de espera é um custo significativo ou insignificante. Por exemplo, se você for um pouco mais rápido do que eu na execução de negociações, como ser um milionésimo de segundo mais rápido, isso pode lhe dar uma vantagem ao agir sobre eventos de notícias dentro desse período de tempo. Por outro lado, posso perder a oportunidade de agir devido à minha velocidade um pouco mais lenta. Essa vantagem de velocidade geralmente é medida pela razão entre o diferencial de velocidade (Delta) e o intervalo de lote (tau) em um mercado contínuo.

Em um mercado discreto, se você for um pouco mais rápido do que eu, sempre poderá me "atirar" em um intervalo de tempo específico (Delta sobre tau) por causa da competição baseada em leilão. No entanto, se você e vários outros traders forem um pouco mais rápidos do que eu, teríamos que competir em um leilão para negociar comigo, em vez de competir apenas com base na velocidade. Isso levanta a questão de saber se diferentes mercados adotam essa abordagem de relógio sincronizado uniformemente ou se há desafios práticos envolvidos.

É importante observar que no atual mercado contínuo, a lei de um preço é constantemente violada porque as mudanças de preços não ocorrem simultaneamente em diferentes bolsas. Essa violação não é facilmente detectável com a observação humana ou com os dados de pesquisa disponíveis. No entanto, se várias bolsas adotassem leilões de lotes freqüentes simultaneamente, seria possível detectar violações da lei do preço único com mais facilidade. Isso não significa necessariamente que uma abordagem seja melhor ou pior, mas sim que os dados forneceriam insights mais claros.

Se uma única troca fosse fazer a transição para um mercado discreto enquanto outras permanecessem contínuas, essa troca eliminaria a arbitragem de latência e removeria um imposto sobre o fornecimento de liquidez. Em um sentido econômico, isso poderia dar uma vantagem para a troca de mercado discreta ao longo do tempo. No entanto, existem desafios para o lançamento de um novo mercado, ambiguidades regulatórias e interesses escusos das bolsas existentes que se beneficiam do design atual do mercado.

Com relação à proposta da IEX de introduzir latência em todos os pedidos, mantendo uma troca de tempo contínuo, ela funciona atrasando tanto os pedidos de entrada quanto os de saída em um intervalo de tempo específico. A IEX monitora as mudanças no mercado em uma fração de segundo e ajusta os preços de acordo. No entanto, uma fraqueza potencial em seu design é que ele depende do acesso a informações de preço de fontes externas. Isso levanta questões sobre se a abordagem da IEX contribui para a descoberta de preços ou simplesmente se baseia em informações de outros lugares.

Por outro lado, a introdução de atrasos aleatórios em todos os pedidos pode não resolver efetivamente o sniping e pode levar a um tráfego infinito de mensagens. Embora várias ideias tenham sido propostas para resolver o problema, muitas delas se mostraram ineficazes quando analisadas. Em contraste, nosso artigo propõe tornar o tempo discreto e o processamento em lote como uma solução para a falha no design do mercado, que cria rendas de informações públicas e incentiva uma corrida de velocidade.

Um aspecto que discutimos no artigo são as vantagens computacionais da negociação em tempo discreto. Os mercados financeiros modernos enfrentaram vários problemas computacionais, como flash crashes e falhas de câmbio. O tempo discreto oferece simplicidade computacional em comparação com o tempo contínuo e fornece benefícios específicos para bolsas, comerciantes algorítmicos e reguladores.

Para as exchanges, o processamento em tempo contínuo pode levar a problemas de atraso, em que os algoritmos ficam incertos sobre o estado dos pedidos e o mercado durante períodos de alta atividade. Por outro lado, os leilões em lote de tempo discreto podem ser processados com mais eficiência e fornecem uma margem de tempo em relação ao tempo de processamento do pior caso. Isso reduz a incerteza e os problemas de acúmulo enfrentados pelas exchanges.

O tempo discreto também simplifica o processamento de mensagens para trocas, eliminando a necessidade de priorizar a disseminação de diferentes tipos de mensagens. Isso reduz a possibilidade de explorar a assimetria de informação. Além disso, o tempo discreto simplifica o ambiente de programação para trocas, reduzindo potencialmente a ocorrência de falhas e melhorando a estabilidade geral do sistema.

Outro benefício computacional da negociação em tempo discreto é que ela simplifica a análise e modelagem de estratégias algorítmicas. Em mercados de tempo contínuo, os traders algorítmicos enfrentam o desafio de otimizar sua resposta aos dados recebidos em tempo real. Eles precisam tomar decisões rapidamente, levando em conta as mudanças nas condições do mercado. Essa troca entre velocidade e inteligência é um problema complexo de resolver.

No entanto, na negociação em tempo discreto, o processamento em lote de dados permite que os comerciantes algorítmicos tenham um intervalo fixo para analisar e tomar decisões. Por exemplo, se o intervalo do lote for definido como 100 milissegundos, os traders podem se dar ao luxo de dedicar os primeiros 100 milissegundos a uma análise completa sem a pressão da execução imediata. Isso pode levar a processos de tomada de decisão mais sofisticados e precisos.

As questões de pesquisa surgem dessa vantagem computacional. Como os traders algorítmicos podem encontrar o equilíbrio certo entre velocidade e inteligência em sua tomada de decisão? Existem externalidades negativas associadas ao favorecimento da velocidade sobre a inteligência no mercado? A estrutura de tempo discreto melhora a precisão da formação de preços em comparação com a negociação de tempo contínuo?

Para os reguladores, a negociação em tempo discreto oferece o benefício de uma trilha de papel mais limpa. Em mercados de tempo contínuo, a sincronização de relógios e o ajuste de timestamps podem introduzir complexidades ao reconstruir a sequência de eventos. Torna-se um desafio determinar a ordem cronológica das ações em diferentes mercados. Por outro lado, a negociação em tempo discreto simplifica esse processo, facilitando o estabelecimento de um registro claro e preciso da atividade do mercado.

Os benefícios potenciais de uma trilha de papel limpo na negociação em tempo discreto são uma questão em aberto. Intuitivamente, uma atividade de mercado bem documentada e facilmente rastreável pode melhorar a transparência e a responsabilidade. Pode melhorar a vigilância do mercado e ajudar os reguladores a identificar e abordar práticas comerciais manipuladoras ou ilegais de forma mais eficaz.

Nossa pesquisa destaca as falhas econômicas no projeto de livro de ordens de limite contínuo predominante e apresenta uma abordagem alternativa chamada negociação em tempo discreto ou leilões de lote frequente. Esse design alternativo aborda questões como sniping e antecipação de pedidos, promovendo justiça, estabilidade e eficiência nas trocas financeiras. Ao explorar essas questões em aberto e direções de pesquisa, pretendemos estimular uma investigação mais aprofundada sobre o design de trocas financeiras, unindo os campos da economia e da ciência da computação para aprimorar a funcionalidade e o desempenho do mercado.

A negociação em tempo discreto oferece várias vantagens computacionais sobre a negociação em tempo contínuo. Ele simplifica o processamento de mensagens para trocas, reduz gargalos computacionais e permite estratégias algorítmicas mais sofisticadas. Ele também fornece uma trilha de papel mais limpa para os reguladores, aprimorando a vigilância e a transparência do mercado. No entanto, mais pesquisas são necessárias para explorar as implicações e possíveis desvantagens da negociação em tempo discreto na prática.

 

ChatGPT e aprendizado de máquina na negociação



ChatGPT e aprendizado de máquina na negociação

O apresentador se aprofunda no tópico de utilização de modelos de processamento de linguagem natural (NLP) como ChatGPT no setor comercial, enfatizando sua capacidade de analisar e entender fontes de texto, como artigos de notícias, publicações em mídias sociais e demonstrações financeiras. Especificamente, o ChatGPT, um poderoso modelo de linguagem, é adequado para analisar grandes quantidades de dados financeiros e gerar respostas naturais, permitindo que os traders participem de conversas sobre oportunidades de negociação.

A comunidade financeira tem grandes expectativas para o ChatGPT, antecipando sua contribuição para o desenvolvimento e otimização de estratégias de negociação. O apresentador elucida ainda mais as distinções entre inteligência artificial (IA), aprendizado de máquina (ML) e aprendizado profundo, destacando que o aprendizado de máquina é um subconjunto de IA que emprega técnicas para ensinar máquinas a simular o comportamento humano e tomar decisões inteligentes.

Seguindo em frente, o apresentador discute o fluxo de trabalho típico do ML na negociação. Eles explicam que o ML permite que as máquinas aprendam com os dados e façam previsões, seguindo uma série de etapas. Inicialmente, os dados são coletados e pré-processados para garantir sua qualidade e relevância. Em seguida, os recursos são projetados para converter dados brutos em atributos significativos que as máquinas podem compreender. Os dados são então divididos em conjuntos de treinamento e teste, e um modelo é construído usando algoritmos de ML. Por fim, o modelo é testado em novos dados e, caso apresente desempenho satisfatório, pode ser utilizado para fazer previsões, facilitando o processo de negociação.

Para ilustrar a aplicação do ML, o apresentador fornece um exemplo de previsão dos preços altos e baixos de um ativo, como o ouro, para o próximo dia de negociação. Essa previsão pode ajudar muito os traders a tomar decisões informadas e melhorar suas estratégias de negociação.

Além disso, o apresentador explora como o ChatGPT pode servir como uma ferramenta valiosa na solução de problemas comerciais, como a criação de um modelo de regressão linear para prever os preços do ouro. Eles comparam a abordagem do ChatGPT a uma abordagem quantitativa mais abrangente, que envolve coleta de dados, limpeza, criação de modelo, desenvolvimento de pipeline, negociação ao vivo e melhoria contínua. Um exemplo de bloco de anotações de código de regressão de aprendizado de máquina é compartilhado, descrevendo as quatro etapas principais envolvidas na solução do problema: preparação de dados, pré-processamento, previsão de preço e estratégia e análise de desempenho. Embora o ChatGPT possa ajudar na geração de ideias, o apresentador enfatiza a necessidade de uma compreensão diferenciada de cada conceito e consideração cuidadosa para evitar erros.

As limitações e os riscos associados ao uso do ChatGPT na negociação algorítmica baseada em ML também são abordados. O apresentador destaca os desafios potenciais, incluindo a falta de experiência no domínio, dados de treinamento limitados e problemas de interpretabilidade. Eles advertem contra confiar apenas no ChatGPT para decisões de negociação e enfatizam a importância de realizar verificações de precisão em diferentes períodos financeiros.

Além disso, o apresentador discute os resultados de uma pesquisa realizada sobre a capacidade do ChatGPT de gerar código com precisão. A maioria do público (74%) identifica corretamente que o ChatGPT pode fornecer uma precisão razoável, mas não é adequado para tarefas complexas de programação que exigem conhecimento de domínio. Para ilustrar o processo, o apresentador demonstra como dividir os dados em conjuntos de treinamento e teste usando o código Python gerado pelo ChatGPT. Eles enfatizam o sequenciamento correto de dados, particularmente no contexto de dados de séries temporais na negociação.

A avaliação de algoritmos de negociação baseados em ML por meio de backtesting e análise de estratégia é destacada como uma etapa crucial na avaliação de seu desempenho. O apresentador enfatiza a necessidade de uma análise aprofundada usando várias métricas, como o índice de Sharpe, retornos anualizados e volatilidade dos retornos para obter insights sobre negociações e desempenho geral. Uma comparação entre os retornos de um algoritmo de negociação e uma estratégia buy-and-hold é mostrada como uma etapa inicial na avaliação da eficácia do algoritmo.

Além disso, o apresentador compartilha um exemplo de estratégia de negociação lucrativa e enfatiza a importância de visualizar e analisar dados no processo de negociação. A análise da estratégia, incluindo retornos anuais e retornos cumulativos, é fundamental para avaliar o sucesso de uma estratégia.

Mudando de assunto, o apresentador aborda as limitações do uso do GPT para análise financeira na negociação. O público participou anteriormente de uma pesquisa, com a maioria expressando a opinião de que precisão razoável requer verificação de fatos e que o GPT pode não ser adequado para análise financeira. Para ilustrar essa limitação, o apresentador solicita que o GPT compare as demonstrações financeiras anuais da Apple e da Microsoft para 2020. No entanto, o GPT fornece uma resposta imprecisa, destacando suas limitações como um modelo de gerador que carece de conhecimento de domínio. O apresentador ressalta a importância de adquirir conhecimento relacionado a finanças, ler livros e verificar fatos antes de aplicar algoritmos de ML, como GPT, à negociação.

Reconhecendo a importância do conhecimento relacionado ao domínio em finanças, o apresentador sugere fazer cursos para ganhar experiência. Essa experiência permite que os traders façam melhor uso de ferramentas de aprendizado de máquina como o ChatGPT. Em apoio a isso, o apresentador oferece acesso gratuito a quatro notebooks de um curso de negociação com aprendizado de máquina, permitindo que os espectadores obtenham uma compreensão mais profunda do código e de sua aplicação.

Durante a sessão de perguntas e respostas, uma pergunta comum surge sobre a capacidade do ChatGPT de acompanhar as mudanças diárias nos mercados financeiros. O apresentador esclarece que, como modelo de linguagem, a eficácia do ChatGPT é limitada pelos dados com os quais foi treinado e não é atualizado diariamente. Manter-se atualizado com os dados de mercado mais recentes é essencial para utilizar efetivamente o ChatGPT ou qualquer modelo de aprendizado de máquina em finanças.

Os palestrantes abordam várias outras questões do público, fornecendo informações úteis. Eles informam ao público que a sessão gravada será compartilhada por e-mail e em seu canal no YouTube para referência futura. Eles também discutem a disponibilidade de um notebook nas próximas 24 horas e explicam o conceito de pipeline no aprendizado de máquina.

Uma questão específica é levantada em relação à conversão de código Python vetorizado em um formato implantável em uma biblioteca de negociação ao vivo. Os palestrantes explicam que, embora o ChatGPT possa auxiliar na conversão de código, ainda é necessário definir os acionadores de eventos. Além disso, mencionam que a Exigibilidade 3.5 não fornece informações para o ano de 2022.

Para concluir, os palestrantes discutem uma estratégia de negociação que utiliza previsões de alta e baixa do dia seguinte, que foi otimizada usando técnicas de aprendizado de máquina. Eles enfatizam as aplicações de aprendizagem profunda na negociação, como previsão de séries temporais, otimização de portfólio e gerenciamento de risco. O aprendizado profundo, juntamente com o aprendizado por reforço, pode melhorar o desempenho das estratégias de negociação, permitindo que os agentes aprendam com os erros por meio de recompensas e punições.

O apresentador enfatiza que a experiência e a intuição do domínio permanecem essenciais para o uso confiável do aprendizado de máquina na negociação. Embora ferramentas como o ChatGPT possam ajudar na análise de dados históricos e na avaliação da probabilidade de sucesso em negociações futuras, elas não devem ser usadas apenas. A importância de adquirir conhecimento relacionado ao domínio, verificação de fatos e manter-se continuamente atualizado sobre os dados de mercado mais recentes é enfatizada para garantir uma tomada de decisão precisa e informada no setor comercial.

  • 00:00:00 Os algoritmos de ML podem entender as tendências e padrões do mercado e usar essas informações para prever movimentos futuros do mercado. Para auxiliar nesse processo, algoritmos de aprendizado de máquina são frequentemente usados, e é aqui que o ChatGPT entra em ação. O ChatGPT é uma ferramenta de processamento de linguagem natural que pode ajudar os traders a analisar grandes quantidades de dados financeiros e fornecer informações sobre as tendências do mercado. No entanto, usar o ChatGPT vem com seu próprio conjunto de desafios e riscos, que serão discutidos posteriormente na apresentação. No geral, ML e ChatGPT revolucionaram o setor de negociação, permitindo previsões mais precisas e tomadas de decisão mais bem informadas.

  • 00:05:00 O palestrante discute o uso de modelos de processamento de linguagem natural (NLP) como o ChatGPT no setor comercial. Esses modelos são capazes de analisar e entender fontes de texto, como artigos de notícias, publicações em mídias sociais e demonstrações financeiras. O ChatGPT, um modelo de linguagem grande, é particularmente adequado para analisar esses dados e pode gerar respostas naturais a prompts de texto, possibilitando conversas sobre oportunidades de negociação. A comunidade financeira tem grandes expectativas para o ChatGPT, pois espera-se que ajude a desenvolver e otimizar estratégias de negociação. O palestrante também explica as diferenças entre inteligência artificial, aprendizado de máquina e aprendizado profundo, sendo o aprendizado de máquina uma coleção de técnicas usadas em IA para ensinar máquinas a simular o comportamento humano e tomar decisões inteligentes.

  • 00:10:00 O palestrante discute como o aprendizado de máquina (ML) pode ser usado para negociação e descreve o fluxo de trabalho típico de ML na negociação. Eles explicam que o ML é um subconjunto da inteligência artificial (IA) que permite que as máquinas aprendam com os dados e façam previsões. Para aplicar o ML, primeiro os dados são coletados e pré-processados e, em seguida, os recursos são projetados para converter dados brutos em atributos que uma máquina pode entender. Os dados são então modificados, divididos em conjuntos de treinamento e teste e incorporados a um modelo. Por fim, o modelo é testado em novos dados e, se satisfatório, podem ser feitas previsões. Posteriormente, o palestrante fornece um exemplo de uso de ML para prever a alta e a baixa de um ativo, como ouro, para o próximo dia de negociação, o que pode ajudar a facilitar o processo de negociação.

  • 00:15:00 O palestrante discute como o ChatGPT pode ser usado para auxiliar na resolução de problemas como a criação de um modelo de regressão linear para prever os preços do ouro no dia seguinte. Eles comparam a abordagem do ChatGPT a uma abordagem quantitativa mais profissional, que inclui coleta e limpeza de dados, criação de modelos e pipelines, verificação de AP de dados, negociação ao vivo e implantação na produção, melhorando continuamente. Eles também mostram um exemplo de notebook de código de regressão de aprendizado de máquina e explicam as quatro partes da solução do problema: preparação de dados, pré-processamento, previsão de preços e estratégia e análise de desempenho. O palestrante observa que, embora o ChatGPT possa ser usado para geração de ideias, é importante entender cada conceito em detalhes e ter nuances na abordagem para evitar erros. Eles também discutem o uso do ChatGPT para gerar código e lançar uma enquete.

  • 00:20:00 O palestrante discute as respostas do público a uma pesquisa sobre a capacidade do ChargeGPT de gerar código com precisão. A maioria do público (74%) escolheu corretamente que o ChargeGPT pode fornecer precisão razoável, mas não é adequado para tarefas de programação complexas que exigem conhecimento de domínio. O palestrante então demonstra como dividir os dados em um conjunto de treinamento e teste usando o código Python gerado pelo ChargeGPT e mostra como os dados precisam ser sequenciados corretamente para dados de séries temporais na negociação.

  • 00:25:00 O palestrante discute a importância de avaliar o desempenho de um algoritmo de negociação baseado em aprendizado de máquina, fazendo backtesting e análise de estratégia. Eles explicam que isso requer uma análise detalhada do desempenho da estratégia e o uso de várias métricas, como índice acentuado, retornos anualizados e volatilidade dos retornos para obter informações sobre negociações e desempenho. O palestrante também mostra um exemplo de como comparar o retorno de um algoritmo de negociação com uma estratégia buy-and-hold como o primeiro passo para entender se o algoritmo de negociação está funcionando bem.

  • 00:30:00 O palestrante discute os resultados da aplicação de algoritmos de aprendizado de máquina às estratégias de negociação e enfatiza a importância de visualizar e analisar os dados. Eles apresentam uma estratégia lucrativa e destacam a necessidade de análise de estratégia, como retorno anual e retornos cumulativos. O palestrante passa para os desafios e riscos associados ao uso do ChatGPT para negociação de algoritmos baseados em ML, observando limitações como falta de experiência no domínio, dados de treinamento limitados e problemas de interpretabilidade. Eles advertem contra confiar apenas no ChatGPT para decisões de negociação e destacam a importância das verificações de precisão para diferentes períodos financeiros.

  • 00:35:00 O palestrante discute as limitações do uso do modelo de linguagem GPT para análise financeira na negociação. O público participou anteriormente de uma pesquisa e a maioria acreditava que uma precisão razoável requer verificação de fatos e que o GPT pode não ser adequado para análise financeira. O palestrante demonstra essa limitação pedindo à GPT que compare as demonstrações financeiras anuais da Apple e da Microsoft para 2020, o que resultou em uma resposta imprecisa. O palestrante enfatiza que o GPT é um modelo gerador e carece de conhecimento de domínio, o que pode levar a conclusões ou sugestões erradas. Portanto, o palestrante recomenda ler mais livros, obter conhecimento relacionado a finanças e verificar os fatos antes de aplicar algoritmos de ML para negociação.

  • 00:40:00 O apresentador enfatiza a importância de ter conhecimento relacionado ao domínio ao aplicar aprendizado de máquina em finanças. Ele sugere fazer cursos para adquirir esse conhecimento, o que pode permitir um melhor uso de ferramentas de aprendizado de máquina, como o ChatGPT. O apresentador também oferece acesso gratuito a quatro notebooks de um curso de negociação com aprendizado de máquina para que os espectadores entendam melhor o código. Durante a sessão de perguntas e respostas, foi levantada uma questão comum sobre se o ChatGPT consegue acompanhar as mudanças diárias nos mercados financeiros. O apresentador esclarece que, como modelo de linguagem, é tão bom quanto os dados com os quais é treinado e não é atualizado diariamente. Para o uso eficaz do ChatGPT ou de qualquer modelo de aprendizado de máquina em finanças, é essencial manter-se atualizado com os dados mais recentes do mercado.

  • 00:45:00 Os palestrantes abordam diversas questões do público. Eles explicam que a sessão gravada será compartilhada por e-mail e em seu canal no YouTube. Eles também discutem a disponibilidade de um notebook nas próximas 24 horas e a definição de um pipeline em aprendizado de máquina. Os palestrantes respondem a uma pergunta sobre a conversão de código Python vetorizado em um que possa ser implantado em uma biblioteca para negociação ao vivo. É explicado que, embora o Charge possa ajudar a converter o código, ainda é necessário definir os acionadores do evento. Os palestrantes também mencionam que o Chargeability 3.5 não fornece informações para 2022. Por fim, os palestrantes falam sobre uma estratégia de negociação utilizando máximas e mínimas do dia seguinte e como ela foi otimizada usando aprendizado de máquina.

  • 00:50:00 O palestrante explica as aplicações do aprendizado profundo na negociação, incluindo previsão de séries temporais, otimização de portfólios e gerenciamento de riscos. Eles descrevem como o aprendizado profundo cria certos agentes que aprendem com os erros por meio de recompensas e punições, e como uma combinação de aprendizado profundo e aprendizado por reforço pode ser usada para melhorar o desempenho das estratégias de negociação. O palestrante enfatiza que a chave para usar o aprendizado de máquina de maneira confiável na negociação é a experiência e a intuição do domínio, e que ferramentas como o ChatGPT podem ser usadas para analisar dados históricos e fornecer informações sobre a probabilidade de sucesso em negociações futuras.

  • 00:55:00 O palestrante explica que usar apenas a exigibilidade pode não ser a melhor abordagem para determinar o risco das negociações, pois requer uma compreensão profunda do próprio domínio. É importante obter conhecimento e compreensão do domínio antes de confiar em qualquer ferramenta ou código para resolver o problema. Eles também mencionam a diferença entre dois cursos de negociação e respondem a uma pergunta sobre a conversão de código específico da plataforma de negociação para Python. Embora a cobrança possa ajudar na conversão de linguagem de programação genérica, pode não ser útil em conversões de código específicas da plataforma.
 

Compreendendo o comportamento do mercado financeiro: o papel de várias categorias de dados



Compreendendo o comportamento do mercado financeiro: o papel de várias categorias de dados

O anfitrião inicia o webinar apresentando o tópico de compreensão do comportamento do mercado financeiro e o papel de várias categorias de dados. Os palestrantes, incluindo o professor Gotham Mitra, Dr. Ernest Chan e Dr. Mateo Campoloni, são apresentados como especialistas com ampla experiência em comércio e carreiras acadêmicas. O webinar visa explorar como os dados de várias categorias desempenham um papel crucial na compreensão e previsão do comportamento do mercado financeiro, um tema que tem ganhado cada vez mais importância nos últimos tempos. Menciona-se que a sessão faz parte do certificado em Sentimentalysis and Alternative Data for Finance oferecido pela Opticks Systems e QuantInsti.

O primeiro palestrante enfatiza a importância dos dados na compreensão do comportamento do mercado financeiro. Embora no início apenas dados limitados, como preços de mercado, ordens de compra e venda e a profundidade do livro estivessem disponíveis, agora há uma ampla variedade de categorias de dados a serem consideradas. Isso inclui dados de notícias, dados de sentimento da mídia e dados alternativos. Apesar da hipótese do mercado eficiente, que sugere que os mercados eventualmente incorporam todas as informações, ainda existem ineficiências de curto prazo no mercado. Portanto, os dados desempenham um papel crucial na descoberta de novos alfas e na resolução de dois grandes problemas de mercado: planejamento de portfólio e controle de risco. O palestrante também destaca a crescente importância da inteligência artificial (IA) e do aprendizado de máquina no tratamento de dados.

O próximo palestrante apresenta o conceito de investimento causal, que envolve examinar as relações causais entre diferentes preditores e variáveis de destino, em vez de apenas analisar correlações estatísticas. Ao utilizar dados alternativos, como atividade de opções, os investidores podem obter informações sobre as causas subjacentes dos movimentos de preços e aumentar a precisão de suas estratégias de negociação. Um exemplo da estratégia de reversão à média é citado, enfatizando a importância de entender por que ela ocasionalmente falha. Através do uso de dados alternativos para descobrir as causas dos movimentos de preços, os investidores podem tomar decisões mais informadas sobre quando aplicar suas estratégias.

A importância dos dados para os operadores de mercado, particularmente dados alternativos, é discutida pelo palestrante a seguir. Dados alternativos referem-se a quaisquer dados que ainda não sejam um padrão do setor e formam um ecossistema em constante expansão com novos players e fornecedores de dados surgindo continuamente. Esses dados podem ser obtidos de vários canais, como transações com cartão de crédito, imagens de satélite, dados de dispositivos móveis, dados meteorológicos e muito mais. O palestrante também menciona o uso de ferramentas de processamento de linguagem natural para analisar documentos textuais e gerar indicadores de sentimento, que podem ser valiosos para os investidores complementarem suas estratégias de investimento.

O processo de utilização de dados alternativos em estratégias de investimento é descrito pelo próximo palestrante. Envolve a identificação de novas fontes de informação, incorporando e transformando os dados não estruturados em conjuntos de dados estruturados. Depois de desenvolver uma estratégia de investimento, a validação torna-se uma etapa crucial que requer a compreensão da confiabilidade dos dados e da significância estatística dos resultados. O palestrante enfatiza a importância de não se basear apenas em dados alternativos e também considerar dados de mercado na hora de criar modelos.

Os palestrantes abordam a importância de dados alternativos na captura de tendências de mercado e os desafios envolvidos no backtesting desses dados. Enquanto os traders técnicos dependiam anteriormente de métricas simples, como a média móvel de 120 dias, agora há um esforço para incorporar uma gama mais ampla de categorias de dados para entender as causas do retorno. No entanto, como os dados alternativos são relativamente novos, há preocupações sobre como testá-los e como eles permanecem consistentes ao longo do tempo. Compreender o impacto das estratégias de investimento requer avaliar a estabilidade do sistema em relação às flutuações aleatórias.

O uso de plataformas alternativas de dados como Bloomberg Icon e Reuters Quantum por traders para desenvolver estratégias de investimento robustas é discutido pelos palestrantes. Embora essas plataformas tenham seus próprios modelos para quantificar várias formas de dados, como sentimentos e notícias, os palestrantes recomendam que os traders criem seus próprios modelos. A importância de utilizar APIs para receber entradas de dados alternativas é destacada, e o valor de sites organizados como o Credit Suisse na análise de anúncios de empresas é mencionado. Por fim, os palestrantes observam que abordagens restritas e especializadas podem ser altamente eficazes na análise do comportamento do mercado.

Os palestrantes passam a discutir as várias ferramentas e sites que podem ser utilizados para entender o comportamento de diferentes classes de ativos no mercado financeiro e como acompanhar o mercado com base no estilo de investimento e no horizonte de tempo. Embora reconheçam que não existe uma solução única para todos, eles sugerem que informações qualitativas de sites como o Bloomberg podem ser úteis a esse respeito. Eles também enfatizam a importância de entender o sentimento e as fontes alternativas de dados, como microblogs e salas de bate-papo. No entanto, eles observam que não é necessariamente garantido que se tornar um especialista nessas áreas os levará a uma carreira melhor no mercado financeiro.

O palestrante explica a diferença entre desenvolver estratégias de negociação avançadas para grandes fundos e estratégias simples para traders independentes. É mencionado que técnicas complexas podem ser mais adequadas para candidatos a emprego em grandes fundos, enquanto traders independentes são aconselhados a começar com uma estratégia de nicho que pode não ser do interesse das instituições. Essa abordagem os ajuda a evitar os altos custos associados a feeds de dados complexos. O palestrante destaca ainda o crescente interesse em novas fontes de dados para negociação, tornando-se um campo relevante para aprender e buscar. Eles também mencionam que utilizam dados alternativos pessoalmente até certo ponto em seu gerenciamento de fundos e auxiliam os clientes na implementação de aprendizado de máquina e módulos baseados em processamento de linguagem natural ou na validação de suas próprias estratégias usando conjuntos de dados.

Durante a sessão de perguntas e respostas, é levantada uma questão sobre a venda de ticks azuis no Twitter e se as contas verificadas teriam mais peso no processamento de linguagem natural (NLP). Inicialmente, os painelistas têm dificuldade em entender a questão, mas depois admitem que não estão qualificados para respondê-la. A discussão então muda para fontes de dados financeiros tradicionais adequadas para iniciantes e estudantes, com Bloomberg e Definitive mencionados como possíveis opções. Sugere-se que os provedores de dados possam oferecer conjuntos de dados gratuitos com um certo nível de interação.

Em seguida, o palestrante discute o uso de fontes alternativas de dados para análise do mercado financeiro, citando especificamente a empresa DGLT, que coleta dados de fontes de notícias globais e locais. Embora reconhecendo o esforço necessário para filtrar informações relevantes, observa-se que os dados coletados podem fornecer uma perspectiva histórica sobre o comportamento do mercado desde o século XIX. Quando questionado se dados alternativos devem ser usados como fonte única ou para validação junto aos dados tradicionais, o palestrante afirma que não há uma regra geral e depende da estratégia específica que está sendo empregada. No entanto, eles enfatizam que os dados de mercado continuam sendo o principal impulsionador e os dados alternativos não devem ser usados exclusivamente.

O palestrante conclui o webinar discutindo o uso de dados alternativos nos mercados financeiros e como o aprendizado de máquina pode ser empregado para analisar esses dados. Eles destacam a necessidade de inserir vários tipos de dados, incluindo preço e dados fundamentais, em algoritmos preditivos de aprendizado de máquina. No entanto, eles também enfatizam que os dados alternativos por si só não podem servir como o único condutor e devem ser combinados com dados de preço de mercado. O público é encorajado a entrar em contato com qualquer dúvida que possa ter.

  • 00:00:00 O anfitrião apresenta o tópico do webinar, que é entender o comportamento do mercado financeiro e o papel de várias categorias de dados. Os palestrantes incluem o professor Gotham Mitra, o Dr. Ernest Chan e o Dr. Mateo Campoloni, que possuem ampla experiência em comércio e carreiras acadêmicas. O foco principal do webinar é explorar como os dados de várias categorias desempenham um papel crucial na compreensão e previsão do comportamento do mercado financeiro, que se tornou cada vez mais importante nos últimos tempos. A sessão faz parte do certificado em Sentimentalysis and Alternative Data for Finance oferecido pela Opticks Systems e QuantInsti.

  • 00:05:00 O palestrante discute a importância dos dados na compreensão do comportamento do mercado financeiro. Embora no início os únicos dados disponíveis fossem preços de mercado, ordens de compra e venda e a profundidade do livro, agora existem muito mais categorias de dados, incluindo dados de notícias, dados de sentimento da mídia e dados alternativos. Apesar da hipótese do mercado eficiente, que afirma que os mercados finalmente digerem todas as informações, ainda existem ineficiências de mercado de curto prazo. Como resultado, os dados são importantes para encontrar novos alfas e resolver dois grandes problemas do mercado: planejamento de portfólio e controle de risco. O palestrante também observa que a parte de IA e aprendizado de máquina em dados de conhecimento está se tornando cada vez mais importante no cenário de dados.

  • 00:10:00 O palestrante discute o conceito de investimento causal, que envolve observar as relações causais entre diferentes preditores e variáveis-alvo, em vez de simplesmente analisar correlações estatísticas. Com o uso de dados alternativos, como atividade de opções, os investidores podem entender as causas subjacentes dos movimentos de preços e usar essas informações para melhorar a precisão de suas estratégias de negociação. O palestrante cita o exemplo da estratégia de reversão à média e a importância de entender por que às vezes ela falha. Ao usar dados alternativos para descobrir as causas dos movimentos de preços, os investidores podem tomar decisões mais informadas sobre quando executar suas estratégias.

  • 00:15:00 O palestrante discute a importância dos dados para os operadores do mercado, especificamente dados alternativos, que se referem a quaisquer dados que ainda não sejam um padrão da indústria. Dados alternativos são um ecossistema em constante crescimento, com novos players e fornecedores de conjuntos de dados surgindo constantemente. Esses dados podem vir de várias fontes, como transações de cartão de crédito, imagens de satélite, dados de dispositivos móveis, dados meteorológicos e muito mais. O palestrante também menciona o uso de ferramentas de processamento de linguagem natural para processar documentos textuais e criar indicadores de sentimento que podem ser usados pelos investidores para complementar suas estratégias de investimento.

  • 00:20:00 O palestrante descreve o processo de uso de dados alternativos em estratégias de investimento, que envolve encontrar novas fontes de informação, incorporar as informações e transformá-las de conjuntos de dados não estruturados em conjuntos de dados estruturados. Depois de criar uma estratégia de investimento, a etapa crucial é a validação, o que requer entender a confiabilidade dos dados e a significância estatística dos resultados. Além disso, é importante não confiar apenas em dados alternativos e também considerar dados de mercado ao criar modelos.

  • 00:25:00 Os palestrantes discutem a importância de dados alternativos na captura de tendências no mercado e as dificuldades que surgem com o backtesting dos dados. Enquanto anteriormente, os traders técnicos dependiam de métricas simples, como a média móvel de 120 dias, agora há um esforço para incluir uma variedade de diferentes categorias de dados para entender as causas dos retornos. No entanto, os dados alternativos são apenas porque não existiam no passado, há uma questão de como fazer o backtest e quão consistente é ao longo do tempo. Os palestrantes enfatizam que entender o efeito das estratégias de investimento requer avaliar a estabilidade do sistema em relação a flutuações aleatórias.

  • 00:30:00 Os palestrantes discutem o uso de plataformas alternativas de dados, como Bloomberg Icon e Reuters Quantum, por traders para criar estratégias de investimento sólidas. Embora essas plataformas tenham seus próprios modelos para quantificar várias formas de dados, como dados de sentimento e dados de notícias, é recomendável que os traders criem seus próprios modelos. Além disso, os palestrantes falam sobre a importância do uso de APIs para receber entradas alternativas de dados e o valor de usar sites organizados como o Credit Suisse para analisar anúncios de empresas. Por fim, os palestrantes observam que abordagens restritas e especializadas podem ser bastante eficazes na análise do comportamento do mercado.

  • 00:35:00 Os palestrantes abordam as diversas ferramentas e sites que podem ser utilizados para entender o comportamento de diferentes classes de ativos no mercado financeiro, bem como acompanhar o mercado com base no estilo de investimento e horizonte de tempo. Embora não exista uma solução única para todos, informações qualitativas de sites como o Boomberg podem ser úteis. Os palestrantes também falam sobre a importância de entender o sentimento e dados alternativos como microblogs e salas de bate-papo. No entanto, não está claro se tornar-se um especialista nessas áreas necessariamente levaria a uma melhor carreira no mercado financeiro.

  • 00:40:00 O palestrante explica a diferença entre desenvolver estratégias de negociação avançadas para grandes fundos versus estratégias simples para traders independentes. Embora técnicas complexas possam ser mais adequadas para candidatos a emprego em grandes fundos, é melhor para traders independentes começar com uma estratégia de nicho que pode não ser do interesse de instituições e evitar os altos custos associados a feeds de dados complexos. O palestrante também observa que há um interesse crescente em novas fontes de dados para negociação, tornando-se um campo relevante para aprender e buscar. Eles também mencionam que usam dados alternativos até certo ponto em seu gerenciamento de fundos e também ajudam os clientes a implementar aprendizado de máquina e módulos baseados em processamento de linguagem natural ou validar suas próprias estratégias usando conjuntos de dados.

  • 00:45:00 Uma pergunta é feita sobre a venda de ticks azuis no Twitter e se as contas verificadas seriam ou não mais ponderadas no processamento de linguagem natural (NLP). Os painelistas inicialmente têm dificuldade em entender a pergunta e depois admitem que não estão qualificados para respondê-la. A discussão então segue para fontes de dados financeiros tradicionais para iniciantes e estudantes, com Bloomberg e Definitive mencionados como opções potenciais, e a sugestão de que os provedores de dados podem oferecer conjuntos de dados gratuitos com uma certa quantidade de interação.

  • 00:50:00 O palestrante aborda o uso de fontes alternativas de dados para análise do mercado financeiro, citando especificamente a empresa DGLT que coleta dados de fontes de notícias globais e locais. Embora possa dar muito trabalho filtrar as informações necessárias, os dados coletados podem remontar ao século XIX, fornecendo uma perspectiva histórica sobre o comportamento do mercado. Quando questionado se dados alternativos devem ser usados como fonte única ou para validação junto aos dados tradicionais, o palestrante afirma que não há uma regra geral e depende da estratégia específica que está sendo utilizada. No entanto, o palestrante enfatiza que os dados de mercado são fundamentais e dados alternativos não devem ser usados exclusivamente.

  • 00:55:00 O palestrante discute o uso de dados alternativos nos mercados financeiros e como o aprendizado de máquina pode ser usado para analisar esses dados. Ele observa que vários tipos de dados, incluindo preços e dados fundamentais, precisariam ser inseridos no algoritmo preditivo de aprendizado de máquina. No entanto, ele também menciona que os dados alternativos não podem ser usados como um driver autônomo e devem ser combinados com a entrada de preços de mercado. O palestrante conclui o webinar e incentiva os espectadores a entrar em contato com qualquer dúvida que possam ter.
 

Aprendizado de máquina para negociação de opções



Aprendizado de máquina para negociação de opções

No webinar sobre aprendizado de máquina para negociação de opções, o palestrante, Varun Kumar Patula, começa fornecendo uma introdução ao aprendizado de máquina e seu objetivo fundamental. Ele explica que os algoritmos de aprendizado de máquina são usados para analisar dados e descobrir padrões que podem passar despercebidos pelos humanos. Varun distingue entre inteligência artificial, aprendizado de máquina e aprendizado profundo, enfatizando que o aprendizado de máquina é um subconjunto de IA focado em modelos de treinamento para fazer previsões ou decisões com base em dados. Ele ainda categoriza o aprendizado de máquina em três tipos: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço, cada um com suas próprias características e aplicações.

O palestrante então se aprofunda na aplicação do aprendizado de máquina na negociação de opções, um dos principais focos do webinar. A negociação de opções envolve a compra ou venda de contratos de opções, que concedem ao titular o direito de comprar ou vender um ativo a um preço especificado dentro de um prazo específico. Varun destaca o alto risco envolvido na negociação de opções e explica como o aprendizado de máquina pode aumentar a precisão da análise, reduzindo assim o risco. Ele discorre sobre as várias aplicações do aprendizado de máquina na negociação de opções, incluindo opções de precificação, criação de estratégias de negociação, cálculo de volatilidade e previsão de volatilidade implícita. Esses aplicativos visam melhorar a tomada de decisão e aumentar a lucratividade na negociação de opções.

Para entender a necessidade de aprendizado de máquina na negociação de opções, são discutidas as limitações de modelos tradicionais como o modelo Black-Scholes. O modelo Black-Scholes assume taxa livre de risco constante e volatilidade, o que pode não ser verdade em cenários do mundo real. Varun menciona modelos alternativos como o modelo German Candy e o modelo Heston, que têm suas próprias limitações e requisitos de parâmetros de entrada. A solução proposta é utilizar o aprendizado de máquina como substituto ou combinação desses modelos, pois permite um conjunto expandido de recursos e parâmetros de entrada. Os modelos de aprendizado de máquina podem considerar fatores como volatilidade implícita ou realizada, taxas de juros e outros recursos relevantes para determinar o preço justo das opções. Isso permite preços mais precisos, seleção de preços de exercício e estratégias de cobertura. Varun destaca que a pesquisa empírica indica que os modelos de aprendizado profundo com várias camadas ocultas, como o modelo perceptron multicamadas, superam o modelo Black-Scholes, principalmente para opções que estão fora do dinheiro ou no dinheiro.

O webinar passa a explorar a otimização de decisões de negociação usando modelos de aprendizado de máquina para estratégias de opções. O processo geral envolve a análise do sentimento de alta ou baixa do ativo subjacente e a seleção de uma estratégia adequada de acordo. No entanto, muitas estratégias de opções têm distribuições de risco-recompensa distorcidas, necessitando de uma análise mais refinada. O aprendizado de máquina pode aprimorar essa análise considerando recursos como retornos anteriores, impulso e volatilidade para fornecer informações sobre o ativo subjacente. Esses recursos são inseridos em um modelo de aprendizado de máquina para classificar o próximo período de negociação como de alta ou baixa. O vídeo também aborda os recursos usados nos dados do índice SP500 e enfatiza a importância da análise de recursos nas decisões de estratégia de opções.

Em seguida, o palestrante se concentra na construção de modelos de aprendizado de máquina para decisões de negociação em spreads de opções verticais. Eles explicam que os parâmetros de entrada permanecem os mesmos do exemplo anterior, onde um classificador de árvore de decisão é usado para classificar o próximo dia de negociação como de alta ou de baixa. Para aproveitar as opções, são introduzidos spreads como spreads de chamadas de alta ou spreads de venda de baixa, pois limitam o risco. Os modelos de aprendizado de máquina são combinados para prever a faixa de negociação e a volatilidade do contrato. Ao alavancar esses modelos combinados, os traders podem determinar as configurações ideais para spreads verticais em suas estratégias de negociação enquanto prevêem a volatilidade implícita, que é crucial na negociação de opções.

Outra aplicação do aprendizado de máquina na negociação de opções é prever a volatilidade implícita e tomar decisões calculadas sobre estratégias de opções. Ao inserir a volatilidade implícita histórica e outros recursos relevantes em modelos de aprendizado de máquina, os traders podem prever a volatilidade e selecionar estratégias apropriadas, como short straddles ou short strangles. O palestrante compartilha um estudo de caso em que um modelo de aprendizado de máquina foi criado para prever a estratégia de opção mais adequada com base em uma lista de estratégias e recursos de entrada, incluindo dados subjacentes e dados de opções. Ao projetar um universo de estratégia e expandir o estudo para incluir diferentes contratos, os traders podem utilizar o aprendizado de máquina para criar e selecionar a melhor estratégia que se alinhe com seus objetivos de negociação.

No webinar, o palestrante descreve como criou 27 estratégias diferentes para negociação de opções, explorando várias combinações de posições e contratos. Para refinar as estratégias, eles as filtraram para 20, eliminando combinações que não tinham uma posição em um caller ou dependiam de combinações impraticáveis, como short straddles. Para determinar qual dessas 20 estratégias forneceria retornos máximos, o palestrante empregou um modelo de aprendizado de máquina, especificamente um modelo de memória de longo prazo (LSTM). Esse modelo incorporou recursos de entrada de ativos subjacentes, opções e volatilidade e utilizou um sistema de classificação multiclasse para identificar a estratégia ideal para implantação.

O vídeo também esclarece os recursos relacionados aos graus de opção e a estrutura da rede neural usada para o modelo LSTM. Treinando o modelo em aproximadamente 10 anos de dados, ele gerou rótulos de estratégia com base nos recursos de entrada. Os resultados demonstraram que o modelo de aprendizado de máquina superou o ativo subjacente ao longo do tempo. Para aprimorar a precisão da previsão dos modelos de aprendizado de máquina para opções, o palestrante recomenda várias práticas recomendadas. Isso inclui a utilização de níveis de probabilidade para ajuste fino, o emprego de vários modelos de visão, a implementação da técnica do classificador de votação e o aproveitamento da saída de vários classificadores para treinar outro modelo de aprendizado de máquina para maior precisão e lucratividade.

Além disso, o palestrante explora métodos para melhorar o desempenho dos modelos de classificação na negociação de opções. Esses métodos envolvem a utilização de níveis de probabilidade, empregando técnicas de conjunto combinando vários classificadores e usando modelos de aprendizado de máquina para agregar as saídas de diferentes modelos. A importância do ajuste de hiperparâmetros e técnicas de validação cruzada é enfatizada para alcançar maior precisão nos modelos. O palestrante também destaca a importância da negociação em papel antes de implantar uma estratégia com dinheiro real. Essa prática permite que os traders identifiquem e resolvam quaisquer problemas ou desafios práticos antes de arriscar o capital real.

Durante a sessão de perguntas e respostas que se segue, o palestrante responde às perguntas dos participantes. As perguntas abrangem vários tópicos, incluindo o desempenho da estratégia de aprendizado de máquina para negociação de opções, a metodologia usada para selecionar recursos para o modelo, os benefícios do aprendizado de máquina sobre os indicadores técnicos existentes, o cálculo da importância do recurso e o período de retenção apropriado para o SPY (Standard & Poor's 500 Index). O palestrante esclarece que o desempenho da estratégia não se deve apenas ao direcionamento do mercado em 2020, pois os dados utilizados para o modelo remontam a 2010 e abrangem períodos além de 2020. Eles explicam que a negociação de opções requer uma análise mais intrincada, considerando fatores como opções gregas e volatilidade implícita, tornando o aprendizado de máquina uma ferramenta valiosa. A seleção de recursos para o modelo é baseada em uma combinação de experiência comercial e tomada de decisão informada.

No final do webinar, o palestrante discute os pré-requisitos para o curso complementar, recomendando conhecimento prévio de aprendizado de máquina e cursos relacionados para maximizar seus benefícios. Embora o curso se concentre principalmente na construção de modelos de aprendizado de máquina para negociação de opções S&P 500, os conceitos podem ser adaptados e aplicados a outros contratos com mais treinamento e personalização. O curso não fornece um modelo de aprendizado de máquina pré-construído, mas equipa os participantes com o conhecimento e as habilidades necessárias para construir seus próprios modelos.

O webinar fornece uma visão geral abrangente da aplicação do aprendizado de máquina na negociação de opções. Abrange os fundamentos do aprendizado de máquina, suas distinções de outros campos relacionados e os três tipos de algoritmos de aprendizado de máquina. O webinar enfatiza a necessidade de aprendizado de máquina na negociação de opções devido à sua capacidade de aprimorar a precisão da análise e mitigar riscos. Várias aplicações de aprendizado de máquina na negociação de opções, incluindo opções de precificação, criação de estratégias de negociação e previsão de volatilidade implícita, são discutidas. O webinar também explora a construção de modelos de aprendizado de máquina para spreads de opções verticais e a otimização de decisões de negociação.

  • 00:00:00 O palestrante, Varun Kumar Patula, apresenta a agenda do webinar sobre aprendizado de máquina para negociação de opções. Ele começa com uma breve introdução ao aprendizado de máquina e seu objetivo principal de usar algoritmos de aprendizado de máquina para entender ou analisar dados e encontrar padrões internos que os humanos normalmente não percebem. Varun então explica as diferenças entre inteligência artificial, aprendizado de máquina e aprendizado profundo. Ele também observa que existem três tipos de algoritmos de aprendizado de máquina: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço. Por fim, ele destaca a necessidade da aplicação do aprendizado de máquina na negociação de opções e mergulha nas principais aplicações que estão tanto em pesquisa quanto na prática, bem como as melhores práticas a serem lembradas ao aplicar técnicas de aprendizado de máquina para negociação de opções.

  • 00:05:00 O palestrante apresenta o conceito de aprendizado de máquina e sua aplicação em vários campos, especialmente em serviços financeiros, como negociação algorítmica, gerenciamento de portfólio e detecção de fraudes. O foco deste webinar é a aplicação de aprendizado de máquina para negociação de opções. O palestrante explica que a negociação de opções envolve contratos de opções de compra ou venda, que oferecem a opção de comprar ou vender a um determinado preço definido e dívida específica. Os comerciantes usam a negociação de opções para cobertura, geração de renda ou especulação. O palestrante destaca o alto risco envolvido na negociação de opções e explica como o aprendizado de máquina pode aumentar a precisão da análise, reduzindo assim o risco. O aprendizado de máquina é usado para precificar opções, projetar estratégias de negociação, calcular a volatilidade e prever a volatilidade implícita de uma opção. A seção conclui discutindo as limitações do modelo Black-Scholes comumente usado.

  • 00:10:00 As limitações do modelo Black-Scholes, como assumir taxa livre de risco constante e volatilidade, são discutidas, juntamente com outros modelos como o modelo German Candy e o modelo Heston, que têm suas próprias limitações em relação aos parâmetros de entrada. A solução proposta é implementar o aprendizado de máquina como uma substituição ou combinação desses modelos, uma vez que o aprendizado de máquina permite aumentar o conjunto de recursos e expandir os parâmetros de entrada, ao contrário dos modelos tradicionais. O modelo ML pode identificar o preço justo das opções usando volatilidade implícita ou realizada, taxas de juros e outros recursos como entrada, permitindo precificação, seleção de preço de exercício e aplicações de hedge. A pesquisa empírica mostra que o modelo de melhor desempenho é o modelo de aprendizado profundo com várias camadas ocultas, o modelo perceptron multicamadas, que supera o modelo Black-Scholes, especialmente quando está fora do dinheiro ou no dinheiro.

  • 00:15:00 O vídeo discute como o aprendizado de máquina pode ser usado para otimizar as decisões de negociação usando estratégias de estado de opção. O processo geral para um trader envolve analisar o ativo subjacente e decidir se ele é otimista ou pessimista e, com base nisso, selecionar uma estratégia. No entanto, muitas estratégias de opções são altamente arriscadas com uma distorção na distribuição de risco-recompensa; portanto, a implementação do aprendizado de máquina pode melhorar a análise do ativo subjacente e fornecer uma melhor análise de sentimento. O esquema para construir uma arquitetura de ML envolve o uso de modelos de ML para fazer análises de sentimento ou prever o ativo subjacente. Recursos como retornos passados, impulso e volatilidade são usados para fornecer informações sobre o ativo e são inseridos no modelo de aprendizado de máquina para classificar se o próximo período de negociação será de alta ou baixa. O vídeo também discute os recursos usados nos dados do índice SP500 e a importância da análise de recursos.

  • 00:20:00 O palestrante discute a construção de modelos de aprendizado de máquina para decisões de negociação em spreads de opções verticais. Os parâmetros de entrada permanecem os mesmos do exemplo anterior, onde um classificador de árvore de decisão é usado para classificar o próximo dia de negociação como de alta ou baixa. Para aproveitar as opções, são introduzidos spreads, como spreads de chamada de alta ou spreads de venda de baixa, onde o risco é limitado. A ideia de combinar modelos de aprendizado de máquina entra em jogo quando um modelo prevê a faixa de negociação e outro modelo prevê se o contrato será altamente volátil ou baixo. Ao usar essas combinações de modelos, um comerciante pode decidir as configurações ideais de spread vertical para estratégias de negociação, ao mesmo tempo em que prevê a volatilidade implícita, o que é especialmente importante para a negociação de opções.

  • 00:25:00 O palestrante explica como os modelos de aprendizado de máquina podem ser usados na negociação de opções, prevendo a volatilidade implícita e tomando decisões calculadas sobre qual estratégia adotar. Ao inserir a volatilidade implícita histórica e outros recursos como entradas para modelos de aprendizado de máquina, os traders podem prever a volatilidade e assumir posições de acordo com estratégias como short straddle ou short strangle. O palestrante descreve um estudo de caso em que um modelo de aprendizado de máquina foi criado para prever qual estratégia de opção implantar com base em uma lista de estratégias e recursos de entrada, como dados subjacentes e dados de opções. Ao projetar o universo da estratégia e expandir o estudo para incluir diferentes contratos, os traders podem usar o aprendizado de máquina para criar e escolher a melhor estratégia para suas necessidades de negociação.

  • 00:30:00 O palestrante explica como eles criaram 27 estratégias diferentes para negociação de opções usando várias combinações de posições e contratos. Eles filtraram essas estratégias para 20 removendo combinações que não incluíam uma posição em um caller ou dependiam de combinações impraticáveis, como short straddles. Eles então usaram um modelo de aprendizado de máquina, especificamente um modelo de memória de longo prazo, para determinar qual dessas 20 estratégias forneceria os retornos máximos. O modelo pegou recursos de entrada de ativos subjacentes, opções e volatilidade e usou um sistema de classificação multiclasse para determinar a melhor estratégia a ser implantada.

  • 00:35:00 O vídeo discute o uso de certos recursos relacionados aos graus de opção e a estrutura da rede neural usada para o modelo LSTM. O modelo é treinado em cerca de 10 anos de dados e fornece rótulos de estratégia com base nos recursos de entrada. Os resultados mostram que ele supera o ativo subjacente com o tempo. As melhores práticas sugeridas para uma melhor previsão de modelos de aprendizado de máquina para opções incluem o uso de níveis de probabilidade para ajuste fino, uso de modelos de visão múltipla, uso da técnica de classificador de votação e fornecimento da saída de vários classificadores para outro modelo de ML para melhor precisão e lucratividade.

  • 00:40:00 O palestrante discute métodos para melhorar o desempenho de um modelo de classificação para negociação de opções, como o uso de níveis de probabilidade, multiplicação de árvores, combinação de diferentes classificadores por meio de técnicas justas da classe trabalhadora e uso de um modelo de aprendizado de máquina para obter a saída de vários modelos como entrada. O palestrante também enfatiza a importância do ajuste de hiperparâmetros e técnicas de validação cruzada para maior precisão. Além disso, destaca-se a importância da negociação em papel antes de implantar uma estratégia, pois permite identificar quaisquer problemas práticos antes de usar dinheiro real. Segue-se uma sessão de perguntas e respostas, com um participante perguntando sobre a experiência do palestrante.

  • 00:45:00 O palestrante discorre sobre a utilização do Delta na negociação de opções, afirmando que pode ser uma estratégia rentável dependendo da capacidade risco-recompensa e dos ativos subjacentes na carteira. Eles advertem contra confiar apenas em uma estratégia de hedge Delta e sugerem usá-la em conjunto com outras estratégias. O palestrante também aborda questões sobre o uso de modelos que não correspondem aos preços de mercado, o cálculo da importância dos recursos e o período de retenção do SPY. Eles explicam como calcular a importância do recurso e afirmam que diferentes períodos de retenção podem ser usados para prever o ativo subjacente.

  • 00:50:00 O palestrante aborda questões dos telespectadores relacionadas ao desempenho da estratégia de aprendizado de máquina para negociação de opções e a metodologia utilizada para chegar às funcionalidades do modelo. Eles explicam que o desempenho da estratégia não se deve apenas ao direcionamento do mercado em 2020, pois os dados utilizados para o modelo vão desde 2010 e vão além de 2020. Questionado sobre os benefícios do aprendizado de máquina sobre os indicadores técnicos existentes, o palestrante enfatiza que a negociação de opções requer uma análise mais complexa de dados, incluindo opções gregas e volatilidade implícita, tornando o aprendizado de máquina uma ferramenta valiosa. Por fim, o palestrante explica que as características do modelo foram selecionadas com base em uma combinação de experiência em negociação e decisões informadas.

  • 00:55:00 O palestrante discute os vários fatores que levam à tomada de decisões de negociação informadas usando aprendizado de máquina, como retornos anteriores e indicadores técnicos. Eles também mencionam o uso de recursos comumente usados por traders e corretores manuais. Em resposta a uma pergunta sobre o modelo LSTM, eles explicam que, embora os resultados atuais sejam baseados em dados diários, os algoritmos de negociação de alta ou média frequência também podem usar dados tick-by-tick. Outra pergunta é sobre o número de negócios no conjunto de treinamento, ao qual eles explicam que depende do caso e a proporção foi de 70:30. Por fim, eles diferenciam entre mesclar e empilhar modelos do Ensemble e explicam como a mesclagem envolve obter as saídas de vários modelos para treinar um novo modelo.

  • 01:00:00 O curso aborda os fundamentos do aprendizado de máquina e sua aplicação à negociação de opções. O curso se concentra na construção de modelos de aprendizado de máquina especificamente para negociação de opções SP500, mas os conceitos podem ser aplicados a outros contratos com mais treinamento e ajuste. O curso não fornece um modelo de aprendizado de máquina pronto para uso, mas fornece o conhecimento e as habilidades necessárias para criar um.

  • 01:05:00 Nesta seção, o palestrante discute os pré-requisitos para o curso e menciona que o conhecimento prévio de Machine Learning e cursos relacionados seria útil para aproveitar ao máximo este curso. O palestrante também agradece as inúmeras perguntas recebidas e garante ao público que elas serão respondidas ao final do webinar por meio de uma pesquisa. O webinar é concluído com o palestrante agradecendo ao público e incentivando-o a fornecer feedback para melhorar as próximas sessões.
 

Introdução ao investimento em fatores quantitativos



Introdução ao investimento em fatores quantitativos

Este vídeo apresenta o conceito de investimento em fatores quantitativos e sua classificação em diferentes fatores, incluindo valor, impulso, qualidade e tamanho. O palestrante explica que o investimento em fatores envolve a seleção de títulos com base em fatores específicos que supostamente geram retornos e o fazem por longos períodos de tempo. O vídeo abrange diferentes métodos quantitativos que podem ser usados para aplicar o investimento em fatores quantitativos, incluindo análise estatística, modelagem de fatores, aprendizado de máquina, modelos de otimização, análise de séries temporais, modelos de risco e simulação montagorial. O palestrante também discute as vantagens de usar o investimento em fatores quantitativos e o processo de seleção e combinação de fatores, além de esclarecer dúvidas relacionadas ao tema, inclusive sobre as fontes de dados e a adequação para negociação de média/alta frequência.

No webinar, Varun Kumar, analista quantitativo da QuantInsti, fornece uma introdução abrangente ao investimento em fatores quantitativos. Ele começa explicando o conceito de fatores, que são fontes amplas e persistentes de risco e retorno que orientam os investidores para retornos quantificáveis. Alguns fatores comuns incluem valor, impulso, qualidade, tamanho e volatilidade. A Kumar tem como exemplo o fator qualidade, que envolve o investimento em empresas com características de alta qualidade. Índices financeiros, como retorno sobre o patrimônio líquido e lucratividade da taxa de crescimento, são usados para quantificar a qualidade de uma empresa. Ações com índices e margens altas são consideradas de alta qualidade, enquanto aquelas com índices e margens mais baixos são consideradas de baixa qualidade. Dados históricos mostram que carteiras compostas por ações de alta qualidade geraram retornos excessivos por longos períodos de tempo.

Kumar então investiga a classificação de fatores no investimento em fatores quantitativos. Os fatores são categorizados em sete tipos, incluindo fatores macro, fatores baseados em estilo, fatores setoriais, fatores baseados em ESG, fatores baseados em sentimento, fatores baseados em liquidez e fatores técnicos. Ele fornece informações sobre como cada um desses fatores funciona e como eles podem ser usados para construir portfólios de fatores. Para ilustrar isso, ele apresenta exemplos de estratégias construídas usando fatores macroeconômicos e baseados em estilo. Essas estratégias envolvem a utilização de variáveis como crescimento do PIB, taxa de inflação, taxa de juros e retorno sobre o patrimônio para selecionar ações e construir um portfólio. Kumar também destaca a importância de considerar fatores como maior retorno sobre o patrimônio e uma baixa relação dívida/capital ao selecionar ações para um portfólio.

O webinar explora ainda vários fatores que podem ser incorporados às estratégias de investimento em fatores quantitativos, incluindo fatores de estilo, matriz setorial, critérios ESG, sentimento, liquidez e indicadores técnicos. Kumar explica como esses fatores podem ser utilizados para desenvolver uma estrutura lógica para a construção de portfólios e fornece exemplos do mundo real de estratégias que podem ser implementadas usando esses fatores. Ele aborda brevemente os critérios ESG, que significa critérios ambientais, sociais e de governança, e seu papel na classificação de empresas com base em seu impacto na sociedade e no meio ambiente.

A utilização de modelos matemáticos e análise estatística no investimento em fatores quantitativos também é discutida. Kumar enfatiza que esses métodos ajudam a eliminar vieses emocionais das decisões de investimento e permitem a exploração de fatores menos intuitivos. Ele descreve os sete métodos quantitativos mais usados neste campo, incluindo análise estatística, modelagem fatorial, aprendizado de máquina, modelos de otimização, análise de séries temporais, modelos de risco e simulações de Monte Carlo. O vídeo destaca como a análise estatística pode ser empregada para identificar padrões e correlações entre títulos e fatores.

As vantagens do investimento em fatores quantitativos na construção e gestão de carteiras de investimentos são exploradas no webinar. Uma das principais vantagens é a capacidade de simular condições extremas de mercado, o que ajuda os investidores a entender melhor as limitações de seus portfólios. O palestrante enfatiza as diferenças de abordagem entre investimento em fator tradicional e quantitativo, usando um estudo de caso de uma carteira de ações de grande capitalização com baixos índices preço/lucro. Enquanto o investimento tradicional envolve identificar fatores, determinar o universo de ações de grande capitalização e calcular os fatores para cada ação antes de classificá-los com base nos índices P/L, o investimento em fatores quantitativos emprega coleta de dados, pré-processamento e seleção de recursos. Um modelo é construído para prever os preços das ações com base nos recursos selecionados.

O processo de investimento em fatores quantitativos é explicado, enfatizando a importância de construir modelos precisos para prever os preços das ações com base em características específicas. O palestrante destaca que essa abordagem é baseada em dados e mais objetiva em comparação com o investimento em fatores tradicional, permitindo análises mais precisas e confiáveis. Para selecionar os melhores fatores para investir, os fatores devem ser persistentes, funcionar em diferentes mercados e setores, ser robustos a várias condições de mercado, não excessivamente sensíveis a mudanças na ética do mercado e possuir liquidez e capacidade suficientes.

O webinar também cobre a combinação de fatores no investimento em fatores quantitativos. Cinco métodos comumente usados são discutidos, incluindo peso igual e pontuação de fator, onde cada fator é pontuado com base em seu desempenho histórico e uma média ponderada é tomada para obter uma pontuação geral. Ressalta-se a importância da combinação de fatores, pois reduz o risco da carteira, aumenta a diversificação e minimiza a volatilidade do desempenho. O palestrante descreve cinco características principais de um melhor fator, incluindo ser apoiado por evidências empíricas, ter uma base econômica ou financeira, oferecer oportunidades de investimento de longo prazo, ser passível de investimento e ser intuitivo e amplamente aceito.

O palestrante continua discutindo vários métodos para combinar fatores no investimento em fatores quantitativos. Um desses métodos é a análise de componentes principais (PCA), que combina vários fatores em um conjunto menor de componentes não correlacionados. Essa abordagem reduz o número de fatores e aborda a questão dos fatores correlacionados, também conhecida como multicolinearidade. Outro método é a inclinação do fator, que envolve ajustar os pesos ou alocações em um portfólio para enfatizar um fator específico. Essa técnica oferece flexibilidade e permite que os investidores tenham como alvo fatores específicos. Além disso, o aprendizado de máquina pode ser aproveitado para selecionar ou combinar fatores com base em seu desempenho histórico, capturando relacionamentos não lineares de forma eficaz. O palestrante enfatiza a importância de ter cautela ao empregar algoritmos de aprendizado profundo, pois eles exigem quantidades substanciais de dados e podem ser propensos a superajuste. Recomenda-se combiná-los com métodos estatísticos tradicionais para obter os melhores resultados.

Além disso, o palestrante aborda as questões do público relacionadas ao investimento em fatores quantitativos. As perguntas abordam vários temas, como o uso de ação de preço e gráficos de longo prazo como fatores para investir, onde o palestrante sugere que pode ser usado como fator técnico, definindo-o adequadamente e estudando seu desempenho histórico. A distinção entre fatores negociados e não negociados é explicada, com um exemplo de imóveis como fator não negociado devido à dificuldade em determinar a liquidez. O foco do investimento em fatores quantitativos é principalmente em fatores negociados, pois seus dados são facilmente acessíveis e permitem backtesting. O palestrante também fornece informações sobre como determinar se uma empresa é mais focada em valor ou em crescimento, sugerindo técnicas como o uso da relação preço/lucro para definir ações de valor.

A discussão continua com a exploração de diferentes algoritmos usados no investimento em fatores quantitativos. Algoritmos como redes neurais recorrentes (RNNs) e memória de longo prazo (LSTM) são mencionados, com sua relevância dependente do tipo de dados que estão sendo analisados. Técnicas de aprendizado profundo podem ser empregadas para combinar fatores e determinar pesos ideais para cada fator, resultando em melhor desempenho do portfólio. O palestrante oferece conselhos sobre estratégias de fator de backtesting e enfatiza a importância de testar sua significância estatística em vários conjuntos de dados e mercados. O uso de bandas de Bollinger como um indicador técnico para identificar mercados laterais também é mencionado.

Por fim, o webinar termina com uma sessão final de perguntas e respostas, na qual o palestrante aborda perguntas adicionais do público. As perguntas incluem o papel dos algoritmos de aprendizado profundo na seleção de setores da indústria, destacando várias opções, como árvores de decisão, redes neurais e florestas aleatórias. É enfatizado que a seleção do algoritmo depende da tarefa específica e do conjunto de dados em questão. O palestrante reitera a importância de usar algoritmos de aprendizado profundo com cautela devido a seus requisitos de dados e potencial de superajuste. O público é agradecido por sua participação e eles são encorajados a fornecer feedback sobre a sessão.

  • 00:00:00 Varun Kumar, analista quantitativo da QuantInsti, apresenta o conceito de investimento em fator quantitativo e sua classificação em diferentes fatores, como valor, impulso, qualidade e tamanho. Ele explica que o investimento em fatores envolve a seleção de títulos com base em fatores específicos que supostamente geram retornos, e esses fatores são fontes tecnicamente amplas e persistentes de risco e retorno. O webinar abrange diferentes métodos quantitativos que podem ser usados para aplicar o investimento em fatores quantitativos e as diferenças entre o investimento em fatores gerais e o investimento em fatores quantitativos. A sessão termina com um estudo de caso sobre a seleção dos melhores fatores e uma discussão sobre como combinar os fatores.

  • 00:05:00 O vídeo fornece uma introdução ao investimento em fatores quantitativos e explica o que são fatores. Os fatores são fontes amplas e persistentes de risco e retorno e orientam os investidores para um determinado retorno quantificável. Fatores comuns incluem valor, impulso, qualidade, tamanho e volatilidade. Para ilustrar, o vídeo foca no fator qualidade, que envolve investir em empresas com características de alta qualidade. A qualidade de uma empresa é quantificada usando uma combinação de índices financeiros, como o retorno sobre o patrimônio e a rentabilidade da taxa de crescimento. Uma ação de alta qualidade teria índices altos e margens altas, enquanto as ações de baixa qualidade teriam índices mais baixos e margens baixas. Um portfólio pode então ser criado com uma combinação de ações de alta qualidade, que historicamente gerou retornos excessivos por longos períodos de tempo. Os fatores devem ser amplos e persistentes, gerando retornos em uma ampla gama de ativos e por longos períodos de tempo, respectivamente.

  • 00:10:00 O palestrante discute a classificação de fatores no investimento em fatores quantitativos. Os fatores são classificados em sete tipos, incluindo fatores macro, fatores baseados em estilo, fatores setoriais, fatores baseados em ESG, fatores baseados em sentimento, fatores baseados em liquidez e fatores técnicos. Eles explicam como esses fatores funcionam e como podem ser usados para criar um portfólio de fatores. Eles fornecem exemplos de estratégias construídas usando fatores macroeconômicos e baseados em estilo, que envolvem o uso de variáveis como crescimento do PIB, taxa de inflação, taxa de juros e retorno sobre o patrimônio para selecionar ações e criar um portfólio. O gerente de fundo de hedge usa dois critérios para selecionar ações e criar um portfólio - maior retorno sobre o patrimônio e baixo índice de dívida em relação ao patrimônio.

  • 00:15:00 O palestrante discute vários fatores que podem ser usados em estratégias de investimento em fatores quantitativos. Esses fatores incluem fatores de estilo, matriz setorial, critérios ESG, sentimento, liquidez e indicadores técnicos. O palestrante explica como esses fatores podem ser usados para criar uma lógica para um portfólio e dá exemplos de estratégias que podem ser implementadas usando esses fatores. O palestrante também explica brevemente os critérios ESG, que significa critérios ambientais, sociais e de governança, e como as organizações os utilizam para classificar as empresas com base em seu impacto na sociedade e no meio ambiente. Por fim, o palestrante faz uma pergunta sobre os critérios ESG e menciona que eles discutirão mais sobre isso nas próximas seções.

  • 00:20:00 O vídeo discute o investimento em fatores quantitativos e seu uso de modelos matemáticos e análises estatísticas para identificar fatores e sua relação com ações. Esses métodos permitem a remoção de vieses emocionais das decisões de investimento e a capacidade de explorar fatores menos intuitivos. O vídeo também lista os sete métodos quantitativos mais usados, incluindo análise estatística, modelagem fatorial, aprendizado de máquina, modelos de otimização, análise de séries temporais, modelos de risco e simulação montagorial. Por fim, o vídeo aborda brevemente o uso da análise estatística para identificar padrões e correlações entre títulos e fatores.

  • 00:25:00 O vídeo apresenta o investimento em fatores quantitativos, que envolve o uso de análises estatísticas para determinar a resposta de uma ação a determinados fatores. Esta informação é então usada para desenhar uma carteira, com mais dinheiro indo para ações que respondem mais fortemente aos fatores identificados. As técnicas de aprendizado de máquina também são discutidas como uma forma de descobrir e combinar fatores e fazer previsões sobre o desempenho futuro. A análise de séries temporais pode ser usada para analisar dados históricos e identificar tendências nos retornos, enquanto modelos de risco e simulações de Monte Carlo podem ajudar no gerenciamento de riscos. Técnicas de otimização são usadas para construir carteiras e maximizar a exposição do fator, minimizando o risco e os custos de transação.

  • 00:30:00 O vídeo explora as diferentes vantagens de usar o investimento em fatores quantitativos na construção e gestão de carteiras de investimento. Uma das principais vantagens é a capacidade de simular condições extremas de mercado para entender totalmente as limitações de um portfólio. O vídeo também destaca as principais diferenças na abordagem entre investimento em fator tradicional e quantitativo, usando um estudo de caso de uma carteira de ações de grande capitalização com baixos índices preço/lucro. A abordagem tradicional envolve a identificação do fator e a determinação do universo de ações de grande capitalização antes de calcular o fator para cada ação e classificá-las do índice P/L mais baixo para o mais alto. Em contraste, a abordagem de investimento em fator quantitativo usa coleta de dados, pré-processamento e seleção de recursos antes de construir um modelo para prever os preços das ações com base nos recursos.

  • 00:35:00 O palestrante explica o processo de investimento em fatores quantitativos, que envolve a construção de um modelo para prever preços de ações com base em características específicas e avaliar a precisão do modelo antes de construir um portfólio. Essa abordagem é orientada por dados e mais objetiva em comparação com o investimento tradicional em fatores, o que permite uma análise mais subjetiva. A principal vantagem de usar o investimento em fatores quantitativos é que ele fornece uma análise mais precisa e confiável dos dados. Para selecionar os melhores fatores para investir, os fatores devem ser persistentes, funcionar em diferentes mercados e setores, ser robustos a diferentes condições de mercado, não excessivamente sensíveis a mudanças na ética do mercado e investiveis com liquidez e capacidade suficientes.

  • 00:40:00 O instrutor discute as cinco principais características de um melhor Fator, que incluem: ser respaldado por evidências empíricas, ter fundamento econômico ou financeiro, oferecer oportunidades de investimento de longo prazo, ser passível de investimento e ser intuitivo e amplamente aceito. É importante combinar fatores, pois reduz o risco da carteira, aumenta a diversificação e reduz a volatilidade do desempenho. Existem cinco métodos comumente usados para combinar fatores, incluindo ponderação igual e pontuação de fator, em que cada fator é pontuado com base em seu desempenho histórico e uma média ponderada é obtida para obter uma pontuação geral. O instrutor enfatiza que um bom portfólio não apenas gera altos retornos, mas também atua com estabilidade em vários ciclos e diferentes dinâmicas de mercado.

  • 00:45:00 O palestrante discute vários métodos para combinar fatores no investimento em fatores quantitativos. Um desses métodos é o PCA (análise de componentes principais), que combina vários fatores em um conjunto menor de componentes não correlacionados. Isso reduz o número de fatores e elimina o problema de fatores correlacionados, conhecido como multicolinearidade. Outro método é a inclinação do fator, que envolve o ajuste dos pesos ou alocações em um portfólio para um fator específico. Isso é flexível e pode ser usado para direcionar fatores específicos. Por fim, o aprendizado de máquina pode ser usado para selecionar ou combinar fatores com base no desempenho histórico, capturando relacionamentos não lineares. O palestrante então convida o público a fazer perguntas e compartilha algumas ofertas para os participantes.

  • 00:50:00 O palestrante responde a diversas questões relacionadas ao investimento em fatores quantitativos. A primeira pergunta é sobre o uso de ação de preço e gráficos de longo prazo como fator de investimento, ao que o palestrante responde que pode ser usado como fator técnico, definindo-o adequadamente e estudando seu desempenho histórico. A segunda pergunta é se a capitalização é um fator, ao que o palestrante diz que o tamanho é um fator, e a capitalização pode ser usada como um dos fatores para determinar uma estratégia dependendo das condições do mercado. O palestrante também responde a uma pergunta sobre onde obter os dados, mencionando sites como o Yahoo Finance e APIs pagas como o Alpha Vantage. Por fim, o palestrante responde a uma pergunta sobre como usar o investimento em fatores quantitativos em negociações de média/alta frequência, afirmando que o investimento em fatores é mais adequado para investidores de longo prazo.

  • 00:55:00 Os algoritmos são particularmente úteis para selecionar setores da indústria. Existem vários algoritmos de aprendizado profundo que podem ser usados para essa finalidade, como árvores de decisão, redes neurais e florestas aleatórias. Depende da tarefa específica e do conjunto de dados em mãos. No entanto, é importante observar que os algoritmos de aprendizado profundo devem ser usados com cautela, pois exigem grandes quantidades de dados e podem ser propensos a superajuste. É recomendável usá-los em combinação com métodos estatísticos tradicionais para obter os melhores resultados.

  • 01:00:00 O palestrante discute os diferentes algoritmos usados no investimento de fatores quantitativos, como RNN e LSTM, e como eles dependem do tipo de dados que estão sendo analisados. O aprendizado profundo pode ser usado para combinar fatores e determinar os pesos para dar a cada fator um desempenho ideal. O palestrante também oferece conselhos sobre como testar uma estratégia de fator e testar sua significância estatística em vários conjuntos de dados e mercados. Eles sugerem usar Bollinger Bands como um indicador técnico para identificar mercados laterais. A diferença entre fatores negociados e não negociados também é explicada, sendo os fatores negociados baseados em títulos negociáveis publicamente e os fatores não negociados aqueles que não podem ser capturados em mercados públicos.

  • 01:05:00 O palestrante discute a diferença entre fatores negociados e não negociados, usando o setor imobiliário como exemplo de fator não negociado porque a liquidez não pode ser facilmente determinada. O foco do investimento em fatores quantitativos está nos fatores negociados, pois os dados são facilmente acessíveis e públicos, possibilitando o backtest. O palestrante também responde a uma pergunta do espectador sobre como determinar se uma empresa é mais focada em valor ou em crescimento, sugerindo técnicas como o uso da relação preço/lucro para definir ações de valor. Finalmente, o público é agradecido por sua participação e encorajado a fornecer feedback sobre a sessão.
 

Alocação de Ativos da Carteira com ML e Otimização para Ações Dividendos | Projeto Algo Trading



Alocação de Ativos da Carteira com ML e Otimização para Ações Dividendos | Projeto Algo Trading

A primeira apresentação do evento é feita por Raimondo Mourinho, um engenheiro independente de IA e big data conhecido por seu trabalho com pequenas e médias empresas na Itália, fornecendo soluções de IA para várias funções corporativas. Mourinho acredita na combinação de técnicas de aprendizado de máquina, estatísticas e probabilidade para criar sistemas de negociação avançados. Em sua apresentação, ele compartilha sua estrutura prática e escalável para desenvolver modelos de aprendizado de máquina na alocação de ativos de portfólio.

Mourinho começa apresentando os principais componentes necessários para projetar esse sistema. Ele enfatiza a importância de adotar uma mentalidade de portfólio, utilizando modelos de aprendizado de máquina para converter ideias em estratégias acionáveis e alavancar o poder dos recursos multi-cpu, multi-core e GPU. Esses ingredientes formam a base de sua estrutura. Embora ele mencione brevemente a necessidade de uma infraestrutura ao entrar no ar, ele se concentra nos blocos elementares da estrutura para negociação de baixa-média frequência, reconhecendo que a parte final da estrutura está além do escopo da apresentação.

O palestrante então se aprofunda nas competências necessárias para construir uma estrutura robusta para alocação de ativos de portfólio usando aprendizado de máquina e otimização para ações de dividendos em Python. Ele enfatiza a necessidade de uma forte compreensão das técnicas de portfólio, programação orientada a objetos, técnicas de multiprocessamento e programação assíncrona. Além disso, a experiência em ferramentas de otimização de hiperparâmetros, linguagem SQL e tecnologia Docker é considerada valiosa. Mourinho passa a explicar a primeira etapa da estrutura, que envolve a otimização de um banco de dados para séries temporais, pré-processamento de dados, manipulação de dados ausentes e discrepantes, normalização de dados e seleção de ativos dentro do universo de ativos designado.

A apresentação segue para discutir a fase de geração alfa, que corresponde à terminologia de aprendizado de máquina para gerar sinais de negociação. Mourinho destaca que, durante essa fase, os traders incorporam suas ideias usando vários indicadores, análises de sentimento e modelos econométricos. A etapa subsequente envolve a seleção de recursos, onde recursos redundantes, como recursos constantes e quase constantes, recursos não estacionários e recursos linearmente correlacionados, são removidos usando um método baseado em classificação. Além disso, ele menciona a utilização de diferenciação fracionária, uma técnica que mantém a estacionaridade desejada enquanto preserva informações cruciais dentro dos recursos. Essas melhorias são parte integrante da estrutura de Mourinho para alocação de ativos de portfólio usando aprendizado de máquina e otimização para ações de dividendos.

O reequilíbrio, que inclui seleção de ativos e alocação de peso, é explicado minuciosamente no pipeline de aprendizado. Mourinho emprega momento transversal, com base na força relativa entre ativos, para seleção de ativos. Para a alocação de peso, ele combina técnicas tradicionais como o algoritmo de linha crítica, portfólio de volatilidade inversa e portfólio de peso igual com modelos de aprendizado de máquina, como paridade de risco hierárquico e contribuição de risco igual hierárquico. O palestrante apresenta os resultados da simulação e avalia o desempenho usando dados históricos. Ele também menciona sua intenção de aprimorar ainda mais o portfólio, incorporando técnicas como a estratégia Drunken Monkey e a validação cruzada purgada combinatória. Além disso, Mourinho enfatiza a importância de uma gestão de dinheiro eficaz ao aplicar essas técnicas a cenários de negociação ao vivo.

Para abordar a estimativa de variabilidade de parâmetros, Mourinho recomenda o emprego de técnicas como simulação de Monte Carlo e bootstrapping. Ele apresenta os resultados de sua análise, concentrando-se na riqueza terminal e nos percentis máximos de rebaixamento. O palestrante enfatiza a importância de permanecer orientado por dados e não se apegar demais a ideias comerciais específicas. Ele também aconselha a mitigar o risco idiossincrático empregando diferentes técnicas e evitando o overfitting selecionando sistemas mais simples com desempenho comparável. Por fim, ele ressalta a necessidade de monitorar e ajustar continuamente os sistemas de negociação ao vivo devido à natureza não estacionária dos dados de séries temporais.

Durante a sessão de perguntas e respostas, Mourinho responde a várias perguntas do público. Um participante pergunta sobre a etapa mais crítica do pipeline, para a qual Mourinho destaca o pré-processamento de dados como essencial e demorado. Outra consulta gira em torno da normalização dos dados, e Mourinho sugere a prática comum de subtrair a média e dividir pelo desvio padrão na maioria dos casos. Com relação à remoção da correlação linear usando a Análise de Componentes Principais (PCA), ele reconhece sua possibilidade, mas adverte sobre a perda potencial de significado nos recursos e sugere a consideração de modelos como o Sharpe Ratio para interpretar os resultados de maneira eficaz.

O palestrante passa a discutir o uso do PCA para seleção de recursos e seu potencial impacto na interpretabilidade dos recursos. Os comerciantes quantitativos e algorítmicos aspirantes são aconselhados a considerar o EPAT (Programa Executivo em Negociação Algorítmica) como um ponto de partida valioso. Eles destacam que o programa oferece objetivos de aprendizagem abrangentes alinhados com os requisitos do setor. Os participantes do webinar recebem uma admissão antecipada estendida ao programa e podem agendar uma chamada de aconselhamento do curso para entender como isso pode ajudá-los a alcançar seus objetivos de carreira, seja estabelecendo uma mesa de negociação algorítmica ou incorporando tecnologias e ferramentas avançadas em suas negociações. estratégias.

Kurt Celestog, gerente de projetos da Hong Kong Exchange and Clearing Limited, sobe ao palco para compartilhar seu projeto sobre gerenciamento de portfólio, que estende a palestra de Jay Palmer sobre gerenciamento quantitativo de portfólio. O projeto da Celestog tem como foco a otimização do dividend yield por meio da gestão do portfólio. Seu objetivo é gerar um fluxo regular de receita de dividendos, garantindo estabilidade e crescimento nos pagamentos de dividendos, mantendo o valor do portfólio. Ele pretende superar o índice de referência ou ETF tanto em rendimento de dividendos quanto em retorno de preço por meio de técnicas de gerenciamento de portfólio ideais. A Celestog enfrentou o desafio de adquirir dados de dividendos e desenvolveu funções de web scraping para baixá-los. Ele dividiu o conjunto de dados em duas partes, cada uma cobrindo dez anos e abrangendo recessões e expansões econômicas.

O palestrante discute os desafios encontrados durante o processo de limpeza de dados para otimização da carteira de ações de dividendos. Os dados obtidos no site não eram limpos e exigiam modificações e normalizações para expressar os dividendos em valores em dólares, principalmente com os dividendos antecipados inicialmente apresentados como porcentagens. Os dados de preços foram obtidos do Yahoo Finance e foram calculadas métricas como rendimento anual de dividendos, crescimento de dividendos e crescimento médio. Um índice composto foi derivado para todas as ações selecionadas para criar dois portfólios: um portfólio igualmente ponderado e um portfólio otimizado por peso. O palestrante teve como objetivo analisar se uma única otimização, seguida por um período de manutenção de dez anos, superaria o benchmark e o ETF.

O palestrante compartilha os resultados do projeto de otimização de portfólio utilizando técnicas de aprendizado de máquina. Os gráficos apresentados mostram bolhas verdes no quadrante superior esquerdo, representando as cinco ações com a métrica combinada mais alta. Tanto as carteiras com ponderação igual quanto com ponderação ótima exibiram retornos médios e rendimentos de dividendos mais altos do que o benchmark. No entanto, nos dez anos seguintes, as ações de bancos e tecnologia ganharam mais popularidade, fazendo com que o desempenho da carteira otimizada diminuísse em relação ao benchmark. Para melhorar o desempenho, o palestrante experimentou reequilibrar as carteiras regularmente e selecionar as cinco melhores ações com base na métrica escolhida. As carteiras rebalanceadas superaram o benchmark e demonstraram um rendimento de dividendos maior.

O palestrante enfatiza como a otimização do portfólio e o rebalanceamento regular podem levar a rendimentos de dividendos mais altos e superar os índices de referência, especialmente com ações de dividendos como Fundos de investimento imobiliário (REITs). Ao reequilibrar os portfólios a cada seis meses e explorar diferentes períodos de retrospectiva, o palestrante superou com sucesso o índice em termos de rendimento médio de dividendos, crescimento de dividendos, retorno e reduções menores. No entanto, eles reconhecem os desafios na obtenção e limpeza de dados e observam que a função de rebalanceamento pode ser complexa, sugerindo o uso de programação orientada a objetos para lidar com essa complexidade. No geral, o palestrante destaca que a otimização do portfólio e o rebalanceamento regular são ferramentas valiosas para os investidores.

O palestrante destaca que o rebalanceamento frequente do portfólio é crucial para alcançar um desempenho superior. No entanto, devido à pouca frequência de disponibilidade de dados de dividendos para ações de dividendos, é difícil rebalancear com mais frequência do que uma ou duas vezes por ano. O palestrante também enfatiza a necessidade de mais trabalho no projeto, incluindo a exploração de diferentes critérios de otimização, incorporação de mais ações ao portfólio para maior diversificação e realização de backtesting extensivo. Eles sugerem expandir o universo de leituras e discutir o impacto dos custos de transação no desempenho do portfólio.

Durante a sessão de perguntas e respostas, Celestog responde a perguntas do público. Um participante pergunta sobre o desempenho do portfólio ponderado igual em comparação com o portfólio otimizado. Celestog explica que o portfólio de peso igual geralmente teve um bom desempenho, mas o portfólio otimizado gerou retornos mais altos, demonstrando a eficácia das técnicas de otimização de portfólio. Outro participante indaga sobre o impacto dos custos de transação no desempenho do portfólio. A Celestog reconhece que os custos de transação podem ter um impacto significativo e sugere incorporá-los ao processo de otimização para obter uma representação mais precisa do desempenho do mundo real. Ele também menciona a importância de considerar a derrapagem em cenários de negociação ao vivo e aconselha os participantes a testar exaustivamente suas estratégias usando dados históricos antes de implementá-las na negociação ao vivo.

No geral, as apresentações no webinar lançam luz sobre os aspectos práticos da alocação de ativos de portfólio usando aprendizado de máquina e técnicas de otimização para ações de dividendos. Os palestrantes destacaram a importância do pré-processamento de dados, seleção de recursos, rebalanceamento e monitoramento regular para alcançar resultados bem-sucedidos. Eles também enfatizaram a necessidade de aprendizado contínuo, adaptabilidade e exploração de diferentes estratégias para navegar na natureza dinâmica dos mercados financeiros. O público obteve informações valiosas sobre os desafios, técnicas e benefícios potenciais da utilização do aprendizado de máquina no gerenciamento de portfólio.

  • 00:00:00 A primeira apresentação é sobre alocação de ativos em carteira apresentada por Raimondo Mourinho. Mourinho é um engenheiro independente de inteligência artificial e big data que trabalha com várias pequenas e médias empresas na Itália para criar soluções completas de IA para funções corporativas como marketing, RH, vendas e produção. Ele acredita na combinação de técnicas de aprendizado de máquina com estatísticas e probabilidade para projetar sistemas de negociação superiores. Na apresentação, Mourinho compartilha sua estrutura prática e escalável para desenvolvimento de aprendizado de máquina na alocação de ativos de portfólio.

  • 00:05:00 O palestrante apresenta a estrutura escalável para alocação de peso de portfólio e explica os ingredientes necessários para projetar tal sistema. Os três ingredientes incluem projetar um sistema com uma mentalidade de portfólio, usar modelos de aprendizado de máquina para converter ideias e aproveitar os recursos multi-cpu, multi-core e GPU. O palestrante também compartilha os blocos elementares da estrutura para negociação de baixa-média frequência e menciona brevemente a necessidade de uma infraestrutura ao entrar no ar. O palestrante não aborda a última parte da estrutura, pois está fora do escopo da apresentação.

  • 00:10:00 O palestrante discute as competências necessárias para construir uma estrutura para alocação de ativos de portfólio usando aprendizado de máquina e otimização para ações de dividendos em Python com aulas. São necessárias competências como conhecimento de técnicas de portfólio, programação orientada a objetos, técnicas de multiprocessamento e programação assíncrona. O uso de ferramentas de otimização de hiperparâmetros, conhecimento da linguagem SQL e tecnologia Docker também é importante. O palestrante passa a discutir a primeira etapa da estrutura, que envolve a otimização de um banco de dados para séries temporais, pré-processamento de dados, tratamento de dados ausentes e discrepantes, normalização de dados e seleção de ativos dentro do universo de ativos.

  • 00:15:00 O palestrante discute a fase de geração alfa em termos de terminologia de aprendizado de máquina, que é comumente conhecida entre os comerciantes como a fase de geração alfa. Durante esta fase, o trader adiciona as ideias que vêm à sua mente usando vários indicadores, análises de sentimentos e modelos econométricos. A próxima etapa é a fase de seleção de recursos, onde os recursos desnecessários são removidos, incluindo recursos constantes e quase constantes, recursos não estacionários e recursos linearmente correlacionados usando um método baseado em classificação. O palestrante também menciona o uso de diferenciação fracionária, que permite a estacionariedade desejada enquanto retém algumas informações dentro do próprio recurso. Essas são as melhorias nas quais o palestrante está trabalhando como parte de sua estrutura para alocação de ativos de portfólio com ML e otimização para ações de dividendos.

  • 00:20:00 O palestrante explica a fase de reequilíbrio do pipeline de aprendizado, que envolve a seleção de ativos e a alocação de peso. Para a seleção de ativos, o alto-falante usa o momento da seção transversal com base na força relativa entre os ativos. Para a alocação de peso, técnicas tradicionais como o algoritmo de linha crítica, portfólio de volatilidade inversa e portfólio ponderado igual são usados junto com modelos de aprendizado de máquina como paridade de risco hierárquico e contribuição de risco igual hierárquico. Os resultados das simulações são mostrados e o palestrante avalia o desempenho usando dados históricos. O palestrante planeja melhorar o portfólio adicionando técnicas como a estratégia do Macaco Bêbado e a validação cruzada purgada combinatória. Por fim, o palestrante enfatiza a importância da gestão do dinheiro ao aplicar essas técnicas à negociação ao vivo.

  • 00:25:00 O palestrante discute a importância de estimar o intervalo de variabilidade dos parâmetros e sugere o uso de técnicas como simulação de Monte Carlo e bootstrap para conseguir isso. Eles então apresentam os resultados de suas análises com foco na riqueza terminal e nos percentis máximos de rebaixamento. O palestrante enfatiza a necessidade de ser orientado por dados e não se apaixonar por ideias de negociação. Eles também recomendam a mitigação do risco idiossincrático usando diferentes técnicas e evitando o overfitting, escolhendo sistemas mais simples com desempenho comparável. Finalmente, eles enfatizam a necessidade de monitorar e ajustar os sistemas de negociação ao vivo devido à natureza altamente não estacionária das séries temporais.

  • 00:30:00 Os palestrantes discutem algumas questões do público sobre a alocação de ativos da carteira usando ML e otimização para ações de dividendos. Um membro da audiência pergunta qual etapa do pipeline merece mais atenção, ao que Raymond responde que o pré-processamento de dados é essencial e a etapa que consome mais tempo. Outra pergunta é sobre normalização de dados, e Raymond sugere que subtrair a média e dividir pelo desvio padrão funciona bem na maioria dos casos. Por fim, quando questionado sobre a remoção da correlação linear usando o PCA, Raymond menciona que é possível, mas adverte que isso pode resultar na perda do significado do recurso e sugere o uso de modelos como o Sharpe Ratio para explicar os resultados.

  • 00:35:00 O palestrante discute o uso do PCA para seleção de recursos e a possível perda de significado dos recursos após a aplicação do PCA. Ele aconselha aspirantes a comerciantes quantitativos e algorítmicos a considerar o EPAT como um grande começo e menciona que o programa oferece objetivos de aprendizado abrangentes alinhados com as necessidades do setor. A admissão antecipada para o programa é estendida aos participantes do webinar, e eles podem agendar uma chamada de aconselhamento do curso para entender como o programa pode ajudar a atingir seus objetivos de carreira, incluindo iniciar uma mesa de negociação de algo ou aplicar tecnologias e ferramentas avançadas em suas estratégias de negociação.

  • 00:40:00 Kurt Celestog, gerente de projetos da Hong Kong Exchange and Clearing Limited, compartilha seu projeto sobre gerenciamento de portfólio, que estende a palestra de gerente de portfólio quantitativo de Jay Palmer para otimizar o rendimento de dividendos por meio do gerenciamento de portfólio. Sua motivação é obter um fluxo regular de receita de dividendos e, ao mesmo tempo, garantir que seus pagamentos de dividendos sejam estáveis e cresçam com o tempo e que o valor do portfólio não diminua com o tempo. Ele visa superar o índice de referência ou ETF tanto em rendimento de dividendos quanto em retorno de preço por meio de técnicas de gerenciamento de portfólio ideais. A Celestog enfrentou o desafio de obter dados de dividendos e teve que codificar funções de raspagem da web para baixá-los e dividiu o conjunto de dados em duas partes, de 10 anos cada, cobrindo recessões e expansões econômicas.

  • 00:45:00 O palestrante discute os desafios enfrentados na limpeza de dados para otimização do portfólio de ações de dividendos. Os dados do site não estavam limpos, o que precisou ser modificado e normalizado para que os dividendos fossem expressos em dólares e os dividendos antecipados em porcentagens. Os dados de preços foram obtidos do Yahoo Finance e métricas como rendimento anual de dividendos, crescimento de dividendos, crescimento médio entre outras métricas de preços foram calculadas a partir dos dados. Um índice composto foi calculado para todas as diferentes ações selecionadas que foi usado para criar duas carteiras, uma igualmente ponderada e a outra carteira otimizada por peso. O palestrante queria analisar se apenas uma otimização, seguida da manutenção da carteira por dez anos, superaria o benchmark e o ETF.

  • 00:50:00 O palestrante discute os resultados de sua otimização de portfólio com projeto de aprendizado de máquina. O quadrante superior esquerdo dos gráficos exibe bolhas verdes representando as cinco ações com a métrica combinada mais alta. O palestrante calculou os portfólios com peso igual e com peso ideal, ambos com retorno médio e rendimento de dividendos mais altos do que o benchmark. No entanto, nos dez anos seguintes, as ações de bancos e tecnologia se tornaram mais populares e o portfólio otimizado começou a ter um desempenho pior do que o benchmark. O palestrante tentou melhorar seu desempenho reequilibrando cada período e selecionando as cinco melhores ações com base na métrica escolhida. As carteiras rebalanceadas superam o benchmark e têm um rendimento de dividendos maior.

  • 00:55:00 O palestrante discute como a otimização do portfólio e o rebalanceamento regular podem alcançar um rendimento de dividendos mais alto e superar os índices de referência, especialmente com ações de dividendos como Fundos de investimento imobiliário (REITs). Ao reequilibrar os portfólios a cada seis meses e usar diferentes períodos de retrospectiva, o palestrante conseguiu superar o índice em termos de rendimento médio de dividendos, crescimento de dividendos, retorno e redução de perdas. No entanto, obter e limpar dados provou ser um desafio, e a função de rebalanceamento era complexa, o que poderia ser resolvido usando programação orientada a objetos. No geral, o palestrante sugere que a otimização do portfólio e o rebalanceamento regular podem ser ferramentas valiosas para os investidores.

  • 01:00:00 O palestrante observa que o rebalanceamento frequente do portfólio é necessário para o desempenho superior, mas a raridade dos dados de dividendos para ações ou leituras de dividendos dificulta o rebalanceamento com mais frequência do que uma ou duas vezes por ano. O palestrante também destaca a necessidade de mais trabalho no projeto, como explorar diferentes critérios de otimização, adicionar mais ações ao portfólio para maior diversificação e backtesting mais extensivo. Eles também sugerem estender o universo de leituras e estoques e manter um banco de dados pessoal devido ao histórico limitado e ao viés de sobrevivência. Finalmente, eles respondem a perguntas do público sobre a região de mercado limitada usada no projeto e o procedimento de otimização de peso usado.

  • 01:05:00 O palestrante discute como outliers podem afetar modelos de aprendizado de máquina, particularmente regressão linear e redes neurais. Esses modelos são altamente sensíveis a outliers e, portanto, o palestrante recomenda tratar outliers usando técnicas como intervalos interquartis, laço e regressão de crista. No entanto, ele sugere que os modelos lineares ainda fornecem os melhores resultados na negociação, por isso é importante tratar os valores discrepantes. O palestrante também oferece conselhos sobre o que é necessário para se tornar um comerciante de algo, recomendando uma abordagem multidisciplinar que inclui a compreensão dos mercados, microestrutura, habilidades de codificação e conceitos de aprendizado de máquina.

  • 01:10:00 O palestrante discute a importância de aprender e entender como aplicar linguagens de programação, como o Python, para diversificar e gerenciar o portfólio de investimentos de forma eficaz. Eles destacam os benefícios de fazer um curso abrangente em negociação de algo que cobre funções de mercado, codificação e gerenciamento de risco, mesmo para aqueles que não pretendem se envolver em negociação de alta frequência. A intensidade e a abrangência do curso oferecem algo para todos e fornecem uma boa base para uso pessoal na vida financeira. Os palestrantes concluem com uma discussão sobre seus planos futuros e a demanda por mais exploração de tópicos relacionados à negociação de algoritmos nas próximas sessões.
Razão: