Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Rama Cont e Francesco Capponi: "Impacto cruzado nos mercados de ações"
Rama Cont e Francesco Capponi: "Impacto cruzado nos mercados de ações"
Rama Cont e Francesco Capponi se aprofundam no conceito de impacto cruzado nos mercados de ações por meio de sua análise do fluxo de pedidos e dados de preços. Eles afirmam que o impacto cruzado significa que o preço de um ativo é influenciado não apenas por seu próprio fluxo de pedidos, mas também pelo fluxo de pedidos de outros ativos. Embora estudos teóricos anteriores tenham tentado derivar as consequências dos efeitos de impacto cruzado e estender os modelos de execução comercial ideal de um único ativo para vários ativos, Cont e Capponi propõem uma abordagem mais simplificada para explicar as correlações entre retornos de ativos e fluxo de pedidos.
Eles argumentam que uma matriz abrangente de coeficientes de impacto de preço não é necessária para explicar essas correlações. Em vez disso, eles afirmam que as correlações observadas podem ser atribuídas ao fato de que os participantes do mercado frequentemente se envolvem na negociação de vários ativos, gerando assim desequilíbrios de fluxo de ordens correlacionadas entre os ativos. Para identificar a significância dos coeficientes de impacto cruzado e os principais impulsionadores dos custos de execução, os apresentadores sugerem o uso de uma análise de componentes principais (PCA) nas matrizes de correlação de retornos e desequilíbrios no fluxo de pedidos.
Cont e Capponi propõem um modelo parcimonioso para impacto cruzado em mercados de ações, com foco no equilíbrio do fluxo de ordens de uma ação e na correlação dos desequilíbrios do fluxo de ordens. Eles acham que um modelo de um fator para o desequilíbrio do fluxo de pedidos é suficiente para explicar as correlações cruzadas dos retornos. Este modelo pode ser utilizado para execução de portfólio e análise de custo de transação, com os apresentadores recomendando o uso de um modelo confiável para impacto de ativo único, juntamente com um bom modelo para fatores comuns no fluxo de ordem entre ativos.
Os palestrantes enfatizam a importância de estabelecer um modelo causal e interpretação para a equação. Eles expressam sua prontidão em compartilhar materiais e atualizações adicionais, enfatizando seu compromisso de aprofundar a compreensão nesta área de pesquisa.
Adam Grealish: "Uma abordagem algorítmica para o investimento pessoal"
Adam Grealish: "Uma abordagem algorítmica para o investimento pessoal"
Adam Grealish, diretor de investimentos da Betterment, fornece informações sobre a abordagem algorítmica da empresa para investimentos pessoais e sua estratégia baseada em objetivos. A Betterment utiliza um modelo robo-advisory, alavancando algoritmos e intervenção humana mínima para fornecer consultoria e gerenciamento de investimentos a seus clientes.
Grealish destaca três fatores principais que determinam os resultados do investimento: manter os custos baixos, otimização de impostos e negociação inteligente. Embora todos os fatores sejam importantes, a Betterment enfatiza fortemente os três primeiros. A empresa emprega a técnica de otimização Black Litterman para construir portfólios globalmente diversificados e monitora continuamente os pesos-alvo em sua vasta base de clientes de meio milhão de indivíduos. A otimização de impostos, incluindo estratégias como coleta de prejuízos fiscais, localização de ativos e classificação de lotes, oferece oportunidades para superar o mercado.
Na segunda parte de sua discussão, Grealish distingue a abordagem da Betterment dos tradicionais consultores financeiros automatizados. Ao contrário da abordagem "tamanho único" dos consultores robóticos tradicionais, a abordagem algorítmica da Betterment considera fatores individuais, como metas, horizonte de tempo e tolerância a riscos. Essa personalização permite carteiras personalizadas adaptadas à situação única de cada investidor. A Betterment também oferece recursos adicionais, como coleta de prejuízos fiscais e portfólios coordenados por impostos para maximizar a eficiência tributária e aumentar os retornos.
Grealish investiga ainda mais as especificidades das estratégias de investimento da Betterment. A empresa incentiva a estabilidade de alocação de longo prazo, ajustando os portfólios apenas uma vez por ano para avançar em direção à alocação desejada. Eles utilizam algoritmos de reequilíbrio baseados em gatilhos para gerenciar o desvio da alocação de destino e minimizar os riscos. As carteiras da Betterment são construídas usando ETFs baseados em capitalização de mercado ampla, otimizando a exposição a classes de ativos de risco com prêmios de risco associados.
A otimização de custos é um aspecto significativo da filosofia de investimento da Betterment. A empresa aproveita a tendência de redução das taxas dos ETFs, revisando trimestralmente todo o universo de ETFs. O processo de seleção considera fatores além do índice de despesas, incluindo erros de rastreamento e custos de negociação, resultando em portfólios de baixo custo para os clientes da Betterment.
A otimização fiscal é outro elemento crucial da estratégia da Betterment. Grealish explica a importância do gerenciamento de impostos e descreve três estratégias eficazes: coleta de prejuízos fiscais, localização de ativos e classificação de lotes. A colheita de prejuízos fiscais envolve a venda de títulos com prejuízo para realizar perdas de capital para fins fiscais, enquanto a localização de ativos maximiza os retornos após os impostos, alocando ativos em contas estrategicamente. A triagem de lotes envolve a venda de lotes com as maiores perdas primeiro para otimizar os benefícios fiscais.
Grealish reconhece o impacto do comportamento do investidor nos resultados do investimento. A Betterment combate o comportamento negativo implementando padrões inteligentes, usando automação e incentivando o investimento baseado em metas. A empresa emprega design intencional e análise de dados para levar os usuários a agir quando se desviam de suas metas financeiras.
Em termos de desenvolvimentos futuros, Grealish discute os usos potenciais da IA no espaço fintech. A Betterment está explorando aplicativos de IA para automatizar tarefas financeiras, como consultoria robótica e gerenciamento de caixa. A empresa visa tornar os serviços financeiros que antes eram limitados a indivíduos e instituições de alto patrimônio líquido acessíveis a um público mais amplo. No entanto, a complexidade de individualizar a preparação de impostos apresenta desafios nessa área.
No geral, Adam Grealish fornece informações valiosas sobre a abordagem algorítmica da Betterment para investimentos pessoais, enfatizando estratégias baseadas em objetivos, otimização de custos, gerenciamento de impostos e mitigação de comportamento.
Miquel Noguer i Alonso: "Desenvolvimento mais recente em aprendizado profundo em finanças"
Miquel Noguer i Alonso: "Desenvolvimento mais recente em aprendizado profundo em finanças"
Neste vídeo abrangente, Miquel Noguer i Alonso explora o potencial do aprendizado profundo no campo financeiro, apesar das complexidades inerentes e da natureza empírica do setor. O aprendizado profundo oferece recursos valiosos na captura de relacionamentos não lineares e no reconhecimento de padrões recorrentes, principalmente em dados não estruturados e aplicativos financeiros. No entanto, também apresenta desafios como overfitting e eficácia limitada em situações não estacionárias. Para enfrentar esses desafios, a integração de fatores, análise de sentimento e processamento de linguagem natural podem fornecer informações valiosas para gerentes de portfólio que lidam com grandes quantidades de dados. É importante observar que não existe um modelo único para todos, e as redes neurais profundas não devem substituir os modelos tradicionais de benchmark. Além disso, Alonso destaca a importância do BERT, um modelo de linguagem de código aberto e altamente eficiente que demonstra um profundo conhecimento de números em textos financeiros, tornando-o particularmente valioso para conjuntos de dados financeiros.
Ao longo do vídeo, Alonso compartilha informações importantes e discute vários aspectos da utilização de modelos de aprendizado profundo em finanças. Ele explora a transformação de dados financeiros em imagens para análise usando redes neurais convolucionais, alavancando codificadores automáticos para compactação de dados não lineares e aplicando redes de memória para análise de séries temporais. A colaboração entre especialistas de domínio e profissionais de aprendizado de máquina é enfatizada como um fator crítico para abordar efetivamente problemas relacionados a finanças usando técnicas de aprendizado profundo.
Alonso investiga os desafios encontrados ao trabalhar com aprendizado profundo em finanças, como a natureza dinâmica do processo de geração de dados e a necessidade de desenvolver modelos que possam se adaptar a essas mudanças. Ele destaca conceitos da teoria da informação, complexidade e compactação de informações para encontrar a representação mais concisa. O Teorema da Aproximação Universal é discutido, enfatizando a capacidade das redes neurais profundas de aproximar qualquer função com precisão arbitrária, mas a generalização não é garantida. O palestrante recomenda uma exploração mais aprofundada de trabalhos de pesquisa sobre regularização, dimensões intrínsecas de redes neurais e redes neurais superparametrizadas.
O palestrante também aborda a ideia de um regime de interpolação, onde redes neurais profundas podem descobrir classes de função maiores que identificam funções de interpolação com normas menores. Eles discutem os aspectos qualitativos das redes neurais profundas, enfatizando a importância variável de diferentes camadas e seu papel na previsão de séries temporais. No entanto, enfatiza-se que os modelos lineares ainda servem como benchmarks, e os resultados dos modelos de aprendizagem profunda devem ser comparados com eles.
Alonso fornece informações sobre o desempenho de modelos de aprendizado profundo em finanças, mostrando os resultados do uso de redes de memória de longo prazo com vários estoques e demonstrando sua superioridade sobre outras redes neurais. Os modelos de aprendizagem profunda são mostrados para superar os modelos lineares na seleção das melhores ações no S&P 500, resultando em melhores índices de informação fora da amostra. O palestrante ressalta que o aprendizado profundo tem um bom desempenho consistente e pode ser uma escolha confiável ao selecionar um modelo.
Os fatores desempenham um papel crucial em modelos de aprendizado profundo para finanças, permitindo a exploração de relações não lineares com retornos. A utilização da não linearidade distingue esta abordagem dos exercícios de séries temporais puras. O palestrante também enfatiza a importância da seleção de parâmetros durante o período de treinamento e adverte contra assumir que o uso de mais dados sempre leva a uma maior precisão. É importante observar que esses modelos não incorporam custos ou considerações da vida real, pois são principalmente para fins de pesquisa com base em dados históricos.
O palestrante esclarece o foco de seu artigo, destacando que a intenção não é afirmar que as redes neurais profundas são superiores, mas sim enfatizar a necessidade de serem usadas juntamente com os modelos tradicionais de benchmark. A importância de capturar relacionamentos não lineares e entender os ciclos recorrentes é discutida, juntamente com a necessidade de considerar parâmetros como a janela de aprendizado. As redes neurais profundas podem fornecer informações únicas em cenários específicos, capturando efeitos de segunda ou terceira ordem que os modelos lineares podem ignorar. No entanto, enfatiza-se que não existe um modelo universal e as redes neurais profundas devem complementar os modelos de referência existentes, em vez de substituí-los.
A aplicação do processamento de linguagem natural, especificamente análise de sentimento, em finanças também é explorada. Dada a grande quantidade de informações geradas nos mercados, as ferramentas de big data são essenciais para investigar e analisar espaços de alta dimensão. O aprendizado de máquina, especialmente o aprendizado profundo, é valioso para lidar com esses desafios. Os modelos de linguagem podem ser aproveitados para tarefas como análise de sentimentos, que podem fornecer informações sobre o momento do mercado. A raspagem da internet tem se mostrado uma abordagem eficiente para detectar mudanças nas informações que podem indicar mudanças no mercado. No geral, o processamento de linguagem natural oferece informações valiosas para gerentes de portfólio que lidam com grandes volumes de dados.
No vídeo, o palestrante aprofunda as duas abordagens de análise de sentimento em finanças. O método tradicional envolve contar a frequência de palavras positivas e negativas, enquanto a abordagem mais avançada utiliza aprendizado profundo e incorporação de palavras para compreender o significado contextual e semântico das palavras. O palestrante destaca a eficácia da representação de codificador bidirecional de transformadores (BERT), um modelo de linguagem de ponta que oferece uma representação de palavras mais precisa e eficiente. A capacidade do BERT de entender números em textos financeiros é particularmente crucial para uma análise financeira precisa. Outros aproximadores de funções, como perceptrons multicamadas, redes de memória e covnets, também são mencionados como ferramentas úteis em finanças.
Além disso, o palestrante discute o conceito de transformar dados financeiros em imagens e empregar redes neurais convolucionais para análise. Essa abordagem se mostra especialmente benéfica para problemas de aprendizado não supervisionado. É introduzido o uso de autoencoders para compressão de dados não lineares e redes de memória para análise de séries temporais. As redes de memória podem ser adequadas para analisar dados de séries temporais se o ambiente for suficientemente estável. Além disso, o palestrante aborda o uso de modelos transformadores para processamento de linguagem em finanças e fornece informações sobre sua implementação usando o TensorFlow.
Em relação à implementação de modelos de aprendizado profundo de código aberto em finanças, o palestrante enfatiza que, embora possa ser necessário treinamento específico para aplicações financeiras, é uma meta alcançável devido à abundância de código aberto disponível. A colaboração entre especialistas de domínio e aprendizes de máquina é crucial para resolver problemas relacionados a finanças, pois existem inúmeras oportunidades para alavancar o aprendizado de máquina no campo. O palestrante observa que, embora as abordagens artesanais de processamento de linguagem natural sejam atualmente utilizadas em finanças, os modelos de aprendizado profundo ainda precisam ser amplamente adotados no setor.
O vídeo também investiga os métodos tradicionais de controle artesanal em finanças, em que os indivíduos usam dicionários para descrever entidades como o JP Morgan, garantindo ao mesmo tempo que não haja erros de digitação. A eficácia de vários algoritmos de aprendizado de máquina, como redes de memória de longo prazo e BERT, é discutida. O BERT é considerado o estado da arte em pesquisas publicadas. O potencial do aprendizado de máquina para investimentos transversais também é explorado, sugerindo o uso de fatores ou retornos para auxiliar as máquinas na interpretação de retornos ou fatores planos.
Abordando a dificuldade de encontrar valores ótimos em aprendizado profundo, o palestrante reconhece que pode ser um problema NP. Cientistas de dados humanos com experiência e intuição devem fazer escolhas heurísticas com base em seus conhecimentos. O desafio de entender e interpretar redes neurais profundas é destacado, pois até mesmo os matemáticos lutam para formular equações para explicar seu desempenho excepcional. A análise qualitativa é freqüentemente empregada em tais casos. No entanto, com o tempo e depois de trabalhar com vários conjuntos de dados, os cientistas de dados podem desenvolver uma intuição para selecionar os parâmetros mais apropriados para situações específicas.
Gordon Ritter: "Aprendizado por Reforço e a Descoberta de Oportunidades de Arbitragem"
Gordon Ritter: "Aprendizado por Reforço e a Descoberta de Oportunidades de Arbitragem"
Neste vídeo, Gordon Ritter explora a aplicação do aprendizado por reforço no contexto dos mercados financeiros, focando especificamente na descoberta de oportunidades de arbitragem na negociação de derivativos. Ele enfatiza a importância do planejamento e da estratégia multiperíodos complexos quando confrontados com a incerteza. Ritter demonstra o uso de funções de valor para guiar a busca por políticas ótimas e propõe uma função de recompensa que combina incremento de período único com uma constante multiplicada pelo quadrado do desvio da média.
Ritter discute o processo de criação de uma simulação que inclui uma oportunidade de arbitragem sem instruir explicitamente a máquina onde encontrá-la. Ele destaca o uso de simulações estocásticas para modelar mercados financeiros e sugere que, com dados suficientes, um agente treinado por meio de aprendizado por reforço pode identificar a arbitragem do mercado. No entanto, ele reconhece as limitações do aprendizado por reforço, como overfitting e os desafios em lidar com cenários imprevistos. Testes adicionais, como explorar estratégias de negociação de neutralidade gama, são propostos para expandir as capacidades de agentes treinados.
O vídeo inclui uma análise do desempenho de um agente de aprendizado por reforço em comparação com um agente de linha de base em hedge de derivativos. O agente treinado demonstra uma economia significativa de custos, mantendo uma faixa semelhante de volatilidade realizada, mostrando sua capacidade de fazer compensações entre custo e risco. Ritter discute a relevância das funções de valor no aprendizado por reforço para negociação de derivativos, já que os próprios preços de derivativos podem ser vistos como uma forma de função de valor.
Ritter também destaca a importância de construir vetores de estado apropriados e espaços de ação no aprendizado por reforço. Incluir informações relevantes no vetor de estado e definir ações adequadas são essenciais para uma tomada de decisão eficaz. Ele apresenta o uso dos processos de Ornstein e Límbico como um meio de modelar a dinâmica de reversão à média, que pode potencialmente levar a oportunidades de arbitragem.
Além disso, o vídeo discute os desafios de usar retornos de curto prazo para oportunidades de negociação e as limitações de espaços de estado finitos. Ritter sugere empregar espaços de estado contínuos e métodos de aproximação de função, como árvores modelo e redes neurais, para enfrentar esses desafios e melhorar a estimativa de funções de valor.
Por fim, Ritter reconhece que, embora o aprendizado por reforço possa ser uma ferramenta valiosa na descoberta de oportunidades de arbitragem, não é uma abordagem garantida nas negociações da vida real. Ele conclui destacando o potencial do aprendizado por reforço para descobrir negociações lucrativas por meio de sistemas estocásticos, mas adverte contra esperar que ele encontre oportunidades de arbitragem se elas não existirem no mercado. As limitações do aprendizado por reforço, incluindo overfitting e sua incapacidade de lidar com cenários imprevistos, também são reconhecidas.
Marcos Lopez de Prado: "As 7 razões pelas quais a maioria dos fundos de aprendizado de máquina falha"
Marcos Lopez de Prado: "As 7 razões pelas quais a maioria dos fundos de aprendizado de máquina falha"
Marcos Lopez de Prado fez uma apresentação abrangente descrevendo as razões por trás do fracasso da maioria dos fundos de aprendizado de máquina no setor financeiro. Ele enfatizou a importância de vários fatores-chave que contribuem para o sucesso neste domínio.
Um dos principais fatores destacados por Prado foi a ausência de uma teoria bem formulada em fundos discricionários. Ele observou que muitas conversas sobre investimentos carecem de uma abordagem construtiva e abstrata devido à falta de uma base teórica sólida. Sem uma teoria para orientar a tomada de decisões, os fundos discricionários lutam para interagir com os outros e testar suas ideias, resultando em escolhas ruins e possíveis perdas.
De Prado também discutiu os efeitos prejudiciais de trabalhar em silos isolados dentro de fundos de aprendizado de máquina. Ele enfatizou que a colaboração e a comunicação são essenciais para o sucesso, alertando contra a contratação de vários PhDs e segregando-os em tarefas separadas. Em vez disso, ele defendeu uma abordagem baseada em equipe, na qual os especialistas trabalham de forma independente, mas possuem conhecimento da experiência uns dos outros, levando a melhores estratégias e resultados.
A especialização dentro da equipe foi outro aspecto fundamental destacado por Prado. Ele enfatizou a importância de reunir um grupo de especialistas capazes de lidar com sistemas e tarefas complexas. Esses especialistas devem possuir habilidades independentes enquanto compreendem a estratégia geral e estão cientes das áreas de especialização de seus colegas. Esse paradigma de metaestratégia é valioso não apenas para desenvolver estratégias eficazes, mas também para tomar decisões informadas em situações incertas, incluindo contratação, supervisão de investimentos e definição de critérios de parada.
O tratamento adequado dos dados financeiros foi outro fator importante discutido por Prado. Ele enfatizou a necessidade de obter estacionariedade nos dados, preservando informações valiosas. Ele sugeriu diferenciar dados por fração para reter informações de memória de observações anteriores, permitindo previsões críticas em pontos específicos. Além disso, ele aconselhou o uso de um limite específico para obter uma correlação quase perfeita entre as séries estacionária e original sem usar memória excessiva. De Prado alertou contra o uso de retornos nos casos em que não há contratos futuros líquidos, recomendando o uso de uma única observação na maioria dos cenários.
A frequência de amostragem e a rotulagem adequada dos dados também foram abordadas por de Prado. Ele propôs basear a frequência de amostragem na chegada de informações de mercado, em vez de confiar em métodos convencionais, como observações diárias ou minuciosas. Usando técnicas como barras de dólar que amostram com base no volume de transações, pode-se garantir que quantidades iguais de informações sejam incluídas na amostra. A rotulagem adequada das observações, como o uso do método Touch Barrier Labeling, permite o desenvolvimento de estratégias de risco, levando em consideração a dinâmica dos preços e a possibilidade de ser interrompido.
O conceito de meta-aprendizagem, em que um modelo de aprendizado de máquina prevê a precisão das previsões de outro modelo, foi discutido como um meio de obter precisão e recuperação. Ao compor dois modelos separados, pode-se equilibrar a compensação entre precisão e recall usando a média harmônica. De Prado recomendou o emprego de diferentes algoritmos de aprendizado de máquina para tarefas distintas para otimizar o desempenho.
De Prado destacou os desafios de aplicar o aprendizado de máquina em finanças, enfatizando a necessidade de especialistas humanos filtrarem dados antes de usar algoritmos de aprendizado de máquina. Os dados financeiros são inerentemente confusos e não iid, dificultando a vinculação de observações específicas aos ativos. Além disso, as constantes mudanças nos mercados financeiros devido a regulamentações e leis exigem uma abordagem cuidadosa e diferenciada para a implementação de algoritmos de aprendizado de máquina. Simplesmente conectar dados financeiros a um modelo de aprendizado de máquina não é suficiente para obter sucesso nas finanças.
Abordar as questões de não unicidade e overfitting foi outro aspecto significativo da apresentação de Prado. Ele propôs uma metodologia para determinar a singularidade das observações, recomendando a remoção de observações que contenham informações mais antigas do que as compartilhadas com o conjunto de teste, um processo conhecido como "limpeza". Isso ajuda a criar modelos de aprendizado de máquina mais precisos, alinhando-se com as suposições das técnicas de validação cruzada. De Prado também alertou contra os perigos do overfitting, enfatizando que repetidamente as estratégias de back-testing podem levar a falsos positivos e diminuir a utilidade ao longo do tempo. Considerar o número de tentativas envolvidas na descoberta de estratégias é crucial para evitar overfitting e falsos positivos. De Prado aconselhou estabelecer um limite alto para o desempenho de estratégias para mitigar os riscos associados ao overfitting.
O conceito de "morango deflacionado" foi introduzido por de Prado, ilustrando que muitos fundos de hedge exibem assimetria negativa e excesso de curtose positivo, mesmo que os gestores de fundos não tenham intencionalmente visado essas características. Isso ocorre principalmente porque os gestores de fundos são avaliados com base no índice de Sharpe, e essas propriedades estatísticas podem inflar o índice. De Prado enfatizou a importância de considerar o tamanho da amostra e o número de tentativas envolvidas na produção de uma descoberta ao analisar os retornos. Ele alertou contra o investimento em estratégias com baixa probabilidade de atingir um verdadeiro índice de Sharpe maior que zero.
Alcançar um equilíbrio entre o ajuste do modelo e o overfitting foi enfatizado por de Prado. Ele desaconselhou a busca por um ajuste perfeito, pois isso pode levar ao excesso de confiança e ao aumento do risco. Em vez disso, ele recomendou encontrar uma maneira de preservar memórias importantes enquanto aplica efetivamente modelos estatísticos. De Prado também alertou contra o uso de modelos excessivamente complicados, pois eles podem impedir a alimentação de dados e a polinização cruzada, impedindo a eficácia geral dos algoritmos de aprendizado de máquina.
De Prado abordou o fenômeno da indústria em que certas características ou métricas se tornam preferidas, levando a uma convergência de estratégias. Comparando-o com a criação de cães, onde a preferência humana e a estética moldam certas características, ele explicou como o uso de métricas específicas, como a combinação de índice de Sharpe e assimetria negativa, tornou-se favorecido em fundos de hedge, mesmo que não fosse inicialmente visadas. Abordar esse fenômeno se mostra desafiador, pois ocorre sem nenhum evento desencadeador específico.
Além disso, de Prado enfatizou a importância de usar dados de preços recentes nas previsões, pois têm maior relevância para o futuro imediato. Ele recomendou empregar decaimento de peso exponencial para determinar o comprimento da amostra ao usar todos os dados disponíveis. Além disso, ele destacou a importância de controlar o número de testes e evitar ambientes de trabalho isolados como armadilhas comuns que levam ao fracasso dos fundos de aprendizado de máquina. Ele observou que as finanças diferem de outros campos em que o aprendizado de máquina fez avanços significativos, e a contratação de estatísticos nem sempre pode ser a abordagem mais eficaz para o desenvolvimento de algoritmos de negociação bem-sucedidos.
Em resumo, a apresentação de Marcos Lopez de Prado esclareceu os motivos pelos quais a maioria dos fundos de aprendizado de máquina falha no setor financeiro. Ele enfatizou a necessidade de uma teoria bem formulada, colaboração em equipe, especialização, tratamento adequado e diferenciação de dados financeiros, amostragem e rotulagem apropriadas, abordando desafios como não exclusividade e overfitting e incorporando experiência humana na implementação de algoritmos de aprendizado de máquina. Ao compreender esses fatores e adotar uma abordagem cuidadosa e diferenciada, os profissionais podem aumentar a probabilidade de sucesso no mundo dinâmico e complexo das finanças.
Irene Aldridge: "Risco em tempo real na otimização de portfólio de longo prazo"
Irene Aldridge: "Risco em tempo real na otimização de portfólio de longo prazo"
Irene Aldridge, presidente e diretora executiva da Able Alpha Trading, oferece uma discussão abrangente sobre o impacto da negociação de alta frequência (HFT) em gerentes de portfólio de longo prazo e as mudanças sistêmicas no mercado que afetam todo o setor. Ela explora a crescente automação em finanças, impulsionada pelos avanços em big data e aprendizado de máquina, e suas implicações para a otimização de portfólio. Além disso, Aldridge investiga os desafios e oportunidades apresentados pelos dados de volume intradiário e propõe uma abordagem passo a passo que integra a identificação de riscos em tempo real usando big data. Ela defende uma estratégia de otimização de portfólio com mais nuances que incorpore fatores microestruturais e sugere o uso de fatores como medida defensiva. Aldridge também aborda o ciclo de vida de três anos de estratégias quantitativas, o potencial da realidade virtual e automação na análise de dados e a aplicação de uma matriz de computador na otimização de portfólio.
Ao longo de sua apresentação, Aldridge desafia o equívoco de que as negociações de alta frequência não têm impacto sobre os gerentes de portfólio de longo prazo. Ela argumenta que mudanças sistêmicas no mercado afetam todas as estratégias de investimento, independentemente de seu horizonte de tempo. Com base em sua experiência em engenharia elétrica, desenvolvimento de software, gerenciamento de riscos e finanças, Aldridge enfatiza a importância de explorar novas áreas, como avaliação de riscos em tempo real e otimização de portfólio.
Aldridge destaca a mudança significativa em direção à automação no setor financeiro, observando que a negociação manual deu lugar a sistemas automatizados em ações, câmbio, renda fixa e negociação de commodities. Para permanecerem relevantes, os participantes do setor adotaram técnicas de big data e aprendizado de máquina. No entanto, ela reconhece a resistência inicial de alguns comerciantes que temiam que a automação tornasse obsoleta sua experiência.
O palestrante explora a evolução do big data e seu papel na otimização do portfólio. Ela aponta que a disponibilidade de grandes quantidades de dados estruturados e não estruturados revolucionou o cenário financeiro. Aldridge explica como técnicas como decomposição de valor singular (SVD) permitem o processamento de grandes conjuntos de dados para extrair informações valiosas. O SVD é cada vez mais usado para automatizar a alocação de portfólio, com o objetivo de incorporar o máximo de dados possível para informar as decisões de investimento.
Aldridge investiga o processo de redução de dimensões de dados usando decomposição de valor singular. Ao plotar valores singulares derivados desse processo, os pesquisadores podem identificar os vetores que contêm informações significativas enquanto tratam os vetores restantes como ruído. Essa técnica pode ser aplicada a vários conjuntos de dados financeiros, incluindo capitalização de mercado, beta, preço e volatilidade intradiária. O conjunto de dados reduzido resultante fornece orientação confiável para fins de pesquisa e auxilia na identificação de fatores cruciais para otimização de portfólio de longo prazo.
O palestrante discute os fatores comuns empregados pelos analistas de portfólio, como preço, risco de mercado (beta), capitalização de mercado e rendimento de dividendos. A atividade institucional também é um fator importante, e Aldridge destaca o uso de big data para analisar dados de ticks e detectar padrões. O reconhecimento da atividade institucional fornece sinais visíveis aos participantes do mercado, levando ao aumento do volume e à execução favorável.
Aldridge distingue entre estratégias HFT agressivas e passivas e seu impacto na liquidez. Estratégias agressivas de HFT, caracterizadas por cancelamentos de pedidos, podem corroer a liquidez e contribuir para o risco, enquanto estratégias passivas de HFT, como criação de mercado, podem reduzir a volatilidade ao fornecer liquidez. Ela observa que a preferência pelo preço médio ponderado por volume por parte dos investidores institucionais e o uso de preços médios ponderados pelo tempo em determinados mercados, como câmbio, onde as informações de volume nem sempre estão disponíveis.
O palestrante aborda os desafios impostos pelo volume de dados intradiário, dada a multiplicidade de trocas, intervalos de tempo reduzidos e a necessidade de determinar o melhor negócio e a melhor oferta entre várias trocas. Apesar desses desafios, Aldridge vê oportunidades significativas para inovação e pesquisas adicionais no corte e análise de dados de volume intradiário. Ela menciona o Processador de Informações de Segurança (SIP) executado pela SEC, que agrega ordens de limite de várias bolsas, mas reconhece o desafio contínuo de reconciliar e resolver problemas em diferentes bolsas.
Aldridge destaca os fatores microestruturais inexplorados e os riscos na otimização do portfólio. Embora os gerentes de portfólio de longo prazo tradicionalmente se concentrem nas características de risco-retorno e ignorem os fatores microestruturais, Aldridge sugere incorporá-los como entradas e alavancar a riqueza de dados disponíveis. Ela propõe uma abordagem passo a passo que envolve o uso de decomposição de valor singular para prever o desempenho com base em retornos anteriores e a utilização de big data para identificar e lidar com riscos em tempo real. Algoritmos podem ajudar a identificar e alavancar complexidades complexas em trocas, como ordens de ping, que podem passar despercebidas por operadores humanos.
Ao desafiar as limitações da otimização de portfólio tradicional, Aldridge apresenta uma abordagem mais abrangente que integra fatores microestruturais e outras dinâmicas de mercado. Ela destaca o potencial disruptivo de fatores como ETFs e flash crashes e enfatiza que as matrizes de correlação sozinhas podem não ser suficientes para analisar o risco. Ao considerar fatores microestruturais independentes que vão além dos movimentos mais amplos do mercado, Aldridge defende uma estratégia diferenciada de otimização de portfólio que pode aumentar os retornos e melhorar os índices de Sharpe. Mais detalhes sobre sua abordagem podem ser encontrados em seu livro, e ela recebe perguntas do público sobre negociação de alta frequência.
Aldridge investiga ainda mais a persistência da negociação de alta frequência em um dia e suas implicações para a alocação de portfólio de longo prazo. Ela ilustra isso com o exemplo do volume de negociação intradia de alta frequência do Google, que exibe estabilidade dentro de um determinado intervalo ao longo do tempo. Aldridge destaca os custos mais baixos associados à negociação de alta frequência em ações com preços mais altos e a menor porcentagem de volume de negociação de alta frequência em penny stocks. Além disso, ela observa que a complexidade da codificação muitas vezes impede os operadores de alta frequência de se envolverem com ações com altos dividendos. Estratégias agressivas de negociação de alta frequência envolvem ordens de mercado ou ordens de limite agressivas colocadas perto do preço de mercado.
O palestrante explica o ciclo de vida de três anos de uma estratégia quantitativa, esclarecendo os desafios enfrentados pelos quants na produção de estratégias bem-sucedidas. O primeiro ano normalmente envolve trazer uma estratégia bem-sucedida de um emprego anterior e ganhar um bom bônus. O segundo ano é marcado por tentativas de inovar, mas muitos lutam para desenvolver uma estratégia de sucesso durante esse período. No terceiro ano, aqueles que encontraram uma estratégia bem-sucedida podem ganhar um bom bônus, enquanto outros podem optar por sair e levar sua estratégia anterior para uma nova empresa. Isso contribui para uma concentração de estratégias de negociação de alta frequência semelhantes, que podem ser ajustadas ou levemente modificadas e geralmente executam negociações ao mesmo tempo. Aldridge enfatiza que a negociação de alta frequência, como outras formas de automação, é benéfica e não deve ser descartada.
Aldridge conclui sua apresentação discutindo o potencial da realidade virtual e automação na análise de dados. Ela aborda a utilidade de portfólios e fatores baseados em beta, usando o exemplo de comprar um par de meias versus comprar um computador Dell e como as mudanças no beta afetam seus preços de maneira diferente. Também é destacada a importância de normalizar as devoluções e abordar a aleatoriedade nos dias úteis. Aldridge sugere o emprego de fatores como forma de defesa e enfatiza que o uso de fatores pode ser uma abordagem agradável.
Em uma seção, Aldridge explica a aplicação de uma matriz de computador para determinar a importância ou o coeficiente de cada ação em um portfólio. A matriz incorpora covariância de variância e técnicas de encolhimento para ajustar os retornos e obter um resultado mais preciso. Ao identificar padrões nos retornos dos dias anteriores, a matriz pode prever resultados futuros e otimizar o portfólio. Embora o modelo de brinquedo discutido represente um exemplo básico, ele exemplifica o potencial de usar uma matriz de computador para otimização de portfólio de longo prazo.
Em resumo, a apresentação de Irene Aldridge fornece informações valiosas sobre o impacto da negociação de alta frequência em gerentes de portfólio de longo prazo e o cenário em evolução do setor financeiro. Ela enfatiza o papel da automação, big data e aprendizado de máquina na otimização do portfólio. Aldridge discute os desafios e as oportunidades apresentadas pelos dados de volume intradiário, defende a incorporação de fatores microestruturais e propõe uma abordagem passo a passo para a identificação de riscos em tempo real. Suas ideias contribuem para uma compreensão mais sutil da otimização de portfólio e destacam o potencial da realidade virtual e da automação para análise de dados. A abordagem abrangente de Aldridge incentiva os gerentes de portfólio a adotar os avanços tecnológicos e aproveitar as grandes quantidades de dados disponíveis para tomar decisões de investimento informadas.
Além disso, Aldridge enfatiza a importância de considerar fatores microestruturais que muitas vezes passam despercebidos na otimização de portfólio tradicional. Ao incorporar fatores como ETFs e flash crashes na análise, os gerentes de portfólio podem obter uma compreensão mais precisa da dinâmica do mercado e dos riscos associados. Ela desafia a noção de que as matrizes de correlação sozinhas são suficientes para a análise de risco e propõe uma abordagem mais sofisticada que leva em consideração fatores microestruturais independentes. Essa abordagem tem o potencial de aumentar os retornos do portfólio e melhorar o desempenho ajustado ao risco.
Aldridge também lança luz sobre o intrincado mundo das negociações de alta frequência. Ela discute a distinção entre estratégias HFT agressivas e passivas, destacando seu impacto na liquidez e volatilidade do mercado. Enquanto estratégias agressivas envolvendo cancelamento de pedidos podem corroer a liquidez e aumentar o risco, estratégias passivas focadas em pedidos limitados e criação de mercado podem fornecer liquidez e reduzir a volatilidade. Compreender a dinâmica da negociação de alta frequência e suas implicações na alocação de portfólio é essencial para os gestores de portfólio de longo prazo.
Além disso, Aldridge discute os desafios e oportunidades associados aos dados de volume intradiário. Com várias trocas e intervalos de tempo cada vez menores, analisar e interpretar efetivamente esses dados pode ser complexo. No entanto, Aldridge vê isso como uma oportunidade de inovação e mais pesquisas. Ela menciona o Processador de Informações de Segurança (SIP) operado pela SEC, que agrega ordens limitadas de várias bolsas para determinar o melhor negócio e a melhor oferta. No entanto, ela reconhece que conciliar e resolver problemas entre diferentes bolsas continua sendo um desafio.
A apresentação de Aldridge também enfatiza a importância do uso de fatores como forma de defesa na otimização do portfólio. Ao considerar vários fatores além das características tradicionais de risco-retorno, os gerentes de portfólio podem obter insights mais profundos e melhorar seu processo de tomada de decisão. Fatores como capitalização de mercado, beta, preço e volatilidade intradiária podem fornecer informações valiosas para otimizar portfólios de longo prazo.
Por fim, Aldridge aborda o potencial da realidade virtual e automação na análise de dados. Esses avanços tecnológicos oferecem novas possibilidades para analisar dados financeiros complexos e obter uma compreensão mais profunda da dinâmica do mercado. Ao aproveitar o poder da automação e alavancar as ferramentas de realidade virtual, os gerentes de portfólio podem aprimorar seus recursos de análise de dados e tomar decisões de investimento mais informadas.
Em conclusão, a discussão de Irene Aldridge sobre o impacto da negociação de alta frequência e o cenário financeiro em evolução fornece informações valiosas para gerentes de portfólio de longo prazo. Sua exploração de automação, big data e aprendizado de máquina destaca o potencial transformador dessas tecnologias na otimização de portfólio. Ao incorporar fatores microestruturais, utilizando fatores como uma forma de defesa e adotando avanços tecnológicos, os gerentes de portfólio podem se adaptar à dinâmica do mercado em mudança e desbloquear novas oportunidades para alcançar o desempenho ideal do portfólio a longo prazo.
Noções básicas de negociação quantitativa
Noções básicas de negociação quantitativa
Neste vídeo sobre os fundamentos da negociação quantitativa, o comerciante algorítmico Shaun Overton discute os desafios e oportunidades envolvidos na negociação algorítmica. Overton explica que a coleta, análise e negociação de dados são os três problemas simples envolvidos na negociação algorítmica, embora o processo possa ser complicado devido à localização de dados de alta qualidade e análise adequada. Pode ser um desafio selecionar a plataforma certa com bons dados e recursos para atender aos objetivos do trader, sendo as plataformas mais populares MetaTrader, NinjaTrader e TradeStation, dependendo do tipo de negociação preferido. Overton também discute a dura realidade de como é fácil explodir contas ao negociar no mercado real e como é importante gerenciar o risco. Além disso, ele explica como os traders quantitativos podem prever movimentos exagerados no mercado e discute o impacto das guerras cambiais.
O vídeo "Basics of Quantitative Trading" no YouTube abrange várias estratégias para negociação algorítmica, incluindo análise de sentimento e estratégias de longo prazo baseadas em linhas de gráfico; no entanto, os maiores retornos são feitos durante eventos e tendências de big tail. Os participantes do vídeo discutem diferentes plataformas para backtesting, desafios de integração de múltiplas plataformas para análise de negociação e o crescente interesse em formalizar e automatizar estratégias de negociação. Alguns traders de longo prazo buscam a automação, pois estão no jogo há muito tempo, e o NinjaTrader para linguagens de programação é recomendado, mas tem limitações.
O que é um comerciante quant?
O que é um comerciante quant?
"O que é um comerciante quantitativo?" é um vídeo em que Michael Halls-Moore mergulha no mundo do comércio quantitativo, explicando como a matemática e a estatística são usadas para desenvolver estratégias de negociação e analisar as ineficiências do mercado. Embora os fundos quantitativos se concentrem principalmente em estratégias de curto prazo, o palestrante destaca que abordagens automatizadas e de baixa frequência também são utilizadas. Os comerciantes institucionais priorizam o gerenciamento de risco, enquanto os comerciantes de varejo são movidos pelos lucros. A detecção efetiva do regime de mercado é crucial, mas desafiadora devido a eventos aleatórios no mercado. É aconselhável que os comerciantes quant não confiem apenas em um único modelo, mas pesquisem e testem constantemente novos modelos para explicar a dinâmica de mercado conhecida e desconhecida. Apesar dos riscos envolvidos, os comerciantes quantitativos bem-sucedidos podem obter um retorno anual impressionante de 35% sobre as taxas.
No vídeo, Michael Halls-Moore oferece uma perspectiva perspicaz sobre o conceito de "negociador quantitativo". Ele explica que os comerciantes quant empregam técnicas matemáticas e estatísticas no campo das finanças, utilizando métodos computacionais e estatísticos. Seu trabalho abrange uma ampla gama de atividades, desde a programação de estruturas de negociação até a realização de pesquisas aprofundadas e o desenvolvimento de estratégias de negociação robustas. Embora as regras de compra e venda desempenhem um papel, elas não são o único foco, pois os comerciantes quant operam dentro de um sistema maior onde os geradores de sinal são apenas um componente.
Os fundos Quant normalmente se envolvem em negociações de alta frequência e se esforçam para otimizar a tecnologia e as microestruturas dos ativos de mercado. Os prazos envolvidos na negociação de quant podem variar muito, variando de microssegundos a semanas. Os comerciantes de varejo têm uma oportunidade significativa na adoção de estratégias de estilo de alta frequência.
Ao contrário da crença popular, a negociação quantitativa não se concentra apenas na negociação e arbitragem de alta frequência. Ele também incorpora estratégias automatizadas e de baixa frequência. No entanto, devido à sua abordagem científica de capitalizar as ineficiências físicas do sistema, os fundos quantitativos concentram-se predominantemente em estratégias de curto prazo. O palestrante enfatiza a importância de ter uma mistura de experiências científicas e comerciais para prosperar no campo do comércio quantitativo.
Uma distinção notável entre comerciantes de varejo e institucionais reside em sua abordagem ao gerenciamento de risco. Os comerciantes de varejo são movidos principalmente por motivos de lucro, enquanto os comerciantes institucionais priorizam o gerenciamento de risco, mesmo que isso signifique sacrificar retornos potenciais. Os traders institucionais adotam uma mentalidade de risco em primeiro lugar e enfatizam a devida diligência, testes de estresse e implementação de apólices de seguro contra perdas para mitigar os riscos de forma eficaz.
O gerenciamento de risco envolve várias técnicas, como ajustar a alavancagem com base no patrimônio da conta usando estruturas matemáticas como o critério de Kelly. Os traders mais conservadores optam por reduzir os rebaixamentos para atingir uma taxa de crescimento controlada. Os principais indicadores de risco, como o VIX, são utilizados para avaliar a volatilidade futura. Nessas negociações, o sistema de gerenciamento de risco tem mais importância do que o sistema de entrada. Enquanto os stop loss são empregados no acompanhamento de tendências, as estratégias de reversão à média exigem a reavaliação e a exploração de diferentes cenários e dados históricos para o planejamento de rebaixamento. Antes de implementar algoritmos de negociação, as fases de backtesting são conduzidas para gerenciar os fatores de risco de forma eficaz.
O vídeo investiga a importância de filtrar estratégias de negociação e usar backtesting como uma ferramenta para filtrá-las, em vez de colocá-las diretamente em produção. Ele destaca a importância de esperar reduções piores durante o avanço e utilizar mecanismos de filtragem para determinar a adequação de uma estratégia de implementação. A conversa, então, aprofunda a crença de Nassim Nicholas Taleb em fat tails e explora como a tecnologia de aprendizado de máquina pode ser empregada para aplicar estratégias de negociação de intervalo e negociação de tendência, permitindo a detecção do regime de mercado.
A detecção eficaz do regime de mercado é um aspecto crítico das finanças quantitativas. No entanto, apresenta desafios devido à sua dependência de eventos aleatórios, como quedas nas taxas de juros e tendências do mercado. Empresas mais sofisticadas rastreiam dados fundamentais e os incorporam em seus modelos para aprimorar a detecção do regime de mercado. Ao negociar, a seleção de ações ou ETFs depende do mercado específico, e escolher os ativos certos pode ser uma tarefa complexa. O palestrante enfatiza que uma combinação de modelos matemáticos e fundamentos de mercado é crucial para uma defesa eficaz contra eventos do Cisne Negro, pois períodos anteriores de alta volatilidade podem fornecer insights para prever a volatilidade futura e as mudanças no mercado.
O vídeo explora ainda mais os possíveis retornos e riscos associados ao comércio quantitativo. Os comerciantes Quant têm o potencial de obter um retorno anual impressionante de 35% sobre as taxas, especialmente quando combinados com uma sólida formação educacional, como um PhD, e um processo de gerenciamento eficiente. No entanto, os quants de alta frequência podem enfrentar desafios quando ocorrem alterações no hardware ou na troca subjacente, levando potencialmente a falhas no sistema.
Apesar dos riscos envolvidos, é considerado favorável alcançar um retorno consistente de 15% a 20% explorando oportunidades lucrativas no longo prazo. Os comerciantes Quant não dependem de um único algoritmo mágico ou entram em pânico quando se deparam com problemas. Em vez disso, eles se aprofundam em propriedades estatísticas que podem ser complexas de analisar, mas se preparam com antecedência para lidar com possíveis desafios.
O vídeo enfatiza a importância de evitar o excesso de confiança em um único modelo na negociação quantitativa. Os modelos não podem prever com precisão todos os eventos futuros, como evidenciado pelas quebras históricas de Wall Street e falhas de investimento resultantes de deficiências do modelo. É essencial que os traders de quant pesquisem e testem continuamente novos modelos, avaliando seu desempenho. Os períodos de saque são uma parte inerente da jornada de negociação e os traders devem estar preparados para navegar por eles.
Em conclusão, embora alguns traders possam se concentrar demais em microgerenciar seus modelos, é vital entender se um modelo é responsável por toda a dinâmica do mercado, incluindo as incógnitas desconhecidas. Os comerciantes Quant devem adotar uma abordagem multidimensional, combinando modelos matemáticos com os fundamentos do mercado para obter uma compreensão abrangente do comportamento do mercado. Ao refinar e diversificar constantemente suas estratégias, os comerciantes quant podem aumentar suas chances de sucesso em um cenário financeiro em constante evolução.
PyCon Canada 2015 - Karen Rubin: Construindo uma Estratégia de Negociação Quantitativa (Keynote)
PyCon Canada 2015 - Karen Rubin: Construindo uma Estratégia de Negociação Quantitativa (Keynote)
Continuando a discussão, Karen Rubin investiga as descobertas e percepções de seu estudo sobre CEOs do sexo feminino nas empresas da Fortune 1000. A análise revela que as CEOs do sexo feminino geram um retorno de 68%, enquanto os CEOs do sexo masculino geram um retorno de 47%. No entanto, Karen enfatiza que seus dados ainda não demonstram que as CEOs do sexo feminino superam seus colegas do sexo masculino. Ela considera este estudo como um conceito intrigante dentro de empresas de alta receita e alta capitalização de mercado.
Motivada por suas descobertas, Karen enfatiza a importância da diversidade na indústria de finanças e tecnologia. Ela incentiva mais mulheres a ingressarem no campo e participarem da formulação de estratégias de investimento. Ela acredita que incorporar ideias como investir em CEOs mulheres pode contribuir para a criação de um fundo diverso e inclusivo.
Ampliando a discussão, Karen aborda outros fatores que podem influenciar o sucesso dos CEOs, incluindo o sexo, o método de contratação (interno ou externo) e até mesmo o mês de nascimento. Ela reconhece a teoria de que as empresas podem nomear CEOs do sexo feminino quando a organização está tendo um desempenho ruim e, posteriormente, substituí-las por CEOs do sexo masculino para colher os benefícios da reestruturação. No entanto, Karen não foi capaz de arbitrar essa teoria até agora. Além disso, ela observa que os preços das ações costumam cair após o anúncio de um CEO, embora ela permaneça incerta se essa tendência difere entre CEOs mulheres e homens.
Em conclusão, Karen destaca que a construção de uma estratégia de negociação quantitativa para CEOs envolve a consideração de vários fatores e a realização de análises minuciosas. Embora seu estudo forneça informações valiosas sobre o desempenho de CEOs do sexo feminino, ela enfatiza a necessidade de mais pesquisas e exploração para obter uma compreensão mais abrangente da dinâmica de gênero na liderança executiva e seu impacto nos resultados do investimento.
Aprendizado de Máquina para Webinar de Negociação Quantitativa com o Dr. Ernie Chan
Aprendizado de Máquina para Webinar de Negociação Quantitativa com o Dr. Ernie Chan
O Dr. Ernie Chan, uma figura proeminente no setor financeiro, compartilha suas ideias e experiências com o aprendizado de máquina na negociação. Ele começa refletindo sobre suas primeiras tentativas de aplicar o aprendizado de máquina à negociação e reconhece que inicialmente não produziu resultados bem-sucedidos. O Dr. Chan enfatiza a importância de entender as limitações do aprendizado de máquina na negociação, particularmente em negociações de futuros e índices, onde os dados podem ser insuficientes.
No entanto, ele destaca o potencial do aprendizado de máquina na geração de estratégias de negociação lucrativas quando aplicado a ações de tecnologia individuais, dados do livro de pedidos, dados fundamentais ou fontes de dados não tradicionais, como notícias. Para lidar com as limitações de disponibilidade de dados e viés de espionagem de dados, o Dr. Chan sugere a utilização de técnicas de reamostragem, como sobreamostragem ou ensacamento. Essas técnicas podem ajudar a expandir o conjunto de dados, mas é crucial preservar a autocorrelação serial nos dados da série temporal ao usá-los para estratégias de negociação.
A seleção de recursos desempenha um papel vital em aplicativos de aprendizado de máquina bem-sucedidos na negociação. O Dr. Chan enfatiza a importância de reduzir o viés de amostragem de dados selecionando recursos ou preditores relevantes. Ele explica que, embora muitas pessoas acreditem que ter mais recursos é melhor, na negociação, um conjunto de dados rico em recursos pode levar a autocorrelação espúria e resultados ruins. Ele discute três algoritmos de seleção de recursos: seleção de recursos avançados, árvores de classificação e regressão (CART) e floresta aleatória, que ajudam a identificar as variáveis mais preditivas.
O Dr. Chan investiga o algoritmo de classificação das máquinas de vetores de suporte (SVM), que visa prever retornos futuros de um dia e sua natureza positiva ou negativa. O SVM encontra um hiperplano para separar os pontos de dados e pode exigir transformações não lineares para uma separação efetiva. Ele também aborda outras abordagens de aprendizado de máquina, como redes neurais, mas destaca suas limitações na captura de recursos relevantes e sua inadequação para negociação devido à natureza não estacionária dos mercados financeiros.
O webinar também enfatiza a importância de uma função de destino personalizada em uma estratégia de negociação. O Dr. Chan recomenda técnicas como regressão passo a passo, árvores de decisão e regressão por conjunto para desenvolver modelos preditivos. Ele ressalta a importância de reduzir a raiz quadrada do número de negócios para obter alta precisão na proteção de retornos. O índice de Sharpe é apresentado como uma referência eficaz para avaliar a eficácia da estratégia, com um índice de dois ou mais considerado favorável.
O Dr. Chan fornece informações valiosas sobre a aplicação do aprendizado de máquina no setor financeiro, destacando seu potencial em determinadas áreas e alertando sobre suas limitações. Ele enfatiza a importância da seleção de recursos, reamostragem de dados e seleção de uma função de destino apropriada para aplicativos de aprendizado de máquina bem-sucedidos em negociações quantitativas.