Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Martin Scholl (Universidade de Oxford): "Estudando Ecologia de Mercado Usando Modelos Baseados em Agentes"
Martin Scholl (Universidade de Oxford): "Estudando Ecologia de Mercado Usando Modelos Baseados em Agentes"
Martin Scholl, pesquisador da Universidade de Oxford, mergulhou no estudo da ecologia de mercado usando modelos baseados em agentes. Ao contrário das abordagens tradicionais que dependem de suposições como a hipótese do mercado eficiente, Scholl discorda da teoria do equilíbrio das expectativas racionais comumente empregada nas finanças neoclássicas. Ele acredita que essa teoria exige que todos os participantes tenham uma perfeita compreensão do mundo real, o que é irreal, dadas as limitações cognitivas tanto dos investidores de varejo quanto dos gestores de fundos. Em vez disso, ele defende a aplicação de ferramentas da biologia para analisar dados financeiros do mundo real, oferecendo uma nova perspectiva sobre a compreensão dos mercados financeiros.
Para explorar a ecologia de mercado, Scholl compara as estratégias de investimento às espécies em biologia, com investidores individuais representando indivíduos de uma determinada espécie. A riqueza agregada investida usando uma estratégia particular é comparável à abundância ou tamanho total da população daquela espécie. Em um modelo de brinquedo de um jogo de investimento, Scholl apresenta um cenário simplificado onde os agentes podem optar por deixar sua riqueza em uma conta do mercado monetário ou investir em uma ação que pague dividendos. Este modelo permite o exame de várias estratégias de investimento e objeções ao pressuposto neoclássico da racionalidade perfeita.
Scholl identifica diferentes estratégias de investimento empregadas em modelos baseados em agentes para estudar ecologia de mercado. A primeira é uma estratégia perfeitamente racional, onde o valor patrimonial líquido é dividido entre ações e dinheiro. Um investidor em valor estima a taxa de crescimento do dividendo para fazer previsões futuras e entender o preço futuro da ação. A segunda estratégia envolve seguidores de tendências que analisam preços recentes e extrapolam tendências. A terceira estratégia abrange os noise traders que entram no mercado para atender às necessidades de liquidez, mas não são sensíveis ao preço em uma escala de tempo curta. No entanto, seu processo de ruído de reversão à média está conectado ao valor fundamental em uma escala de tempo longa.
Para simular os mecanismos de mercado e estudar a ecologia do mercado, Scholl e sua equipe utilizam modelos baseados em agentes com a ajuda de pacotes de software. Eles garantem a comparabilidade entre diferentes execuções do modelo, fixando dotações e dividindo as dotações iniciais entre indivíduos de diferentes espécies, acompanhando a participação relativa. As simulações duram 200 anos, permitindo observar o retorno médio anual de cada espécie. Curiosamente, eles descobriram que cada estratégia tem pelo menos uma região onde é mais lucrativa, independentemente de sua abundância.
Em seus experimentos, Scholl examina o comportamento dos seguidores de tendências e o impacto do reinvestimento dos lucros. Ele observa que o mercado passa a maior parte do tempo em uma região instável e caótica com grandes outliers, resultando em ruído pontilhado. Quando os investidores reinvestem seus lucros, as trajetórias flutuam em torno de um ponto central identificado, mas não convergem totalmente para ele. Aumentar a concentração de seguidores de tendência leva a uma maior volatilidade nos retornos. Scholl atribui o rápido afastamento dos seguidores de tendências à racionalidade dos investidores e à autocorrelação positiva no processo de dividendos.
Scholl explica que modelos baseados em agentes podem ser empregados para construir uma matriz de comunidade financeira, semelhante às equações Volterra de predador e presa usadas em biologia. O retorno de uma estratégia particular é igualado ao tamanho da população, e a sensibilidade do retorno às mudanças no tamanho da população representa a matriz da comunidade. No mercado financeiro, a competição entre diferentes estratégias surge quando os preços se desviam dos pontos de equilíbrio. Scholl enfatiza que os mercados financeiros exibem dependência de densidade, tornando as interações entre espécies mais complexas do que em sistemas biológicos. Essa dependência de densidade leva a cenários como aumentos de preços semelhantes a bolhas, mas reconhece que tais situações não são realistas.
No contexto da ecologia de mercado, Scholl discute as implicações práticas de suas descobertas. Ele apresenta um modelo linear que usa a abundância de espécies para descrever as relações entre diferentes tipos de predadores, impactando assim os resultados do mercado. Essa abordagem destaca a natureza multidimensional dos investimentos e demonstra a importância de dimensionar adequadamente as estratégias para evitar perdas ou tornar-se presa em mercados financeiros altamente dependentes da densidade. Ele desafia a visão tradicional de que os preços das ações refletem todas as informações fundamentais disponíveis e apresenta os mercados financeiros como sistemas complexos influenciados por várias condições.
Scholl detalha ainda mais o uso de um modelo linear simples dentro de modelos baseados em agentes para estudar a ecologia do mercado. Ao analisar as participações e a abundância relativa das atividades de mercado, ele descobriu que essa abordagem superava os modelos derivados de departamentos que pressupõem racionalidade e traduzem os fundamentos automaticamente. No entanto, ele reconhece as limitações de seu modelo e enfatiza a necessidade de mais pesquisas para aumentar seu realismo. Um aspecto que ele aborda é a sensibilidade do modelo a diferentes receitas e definições, principalmente em relação ao acompanhamento de tendências. Embora os dividendos desempenhem um papel significativo em seu modelo, a incorporação de elementos mais realistas para os mercados financeiros do mundo real exigiria etapas adicionais.
Sobre a adaptabilidade das crenças dos agentes em seu modelo, Scholl aponta que as operações de mercado muitas vezes envolvem gestores de fundos seguindo estratégias traçadas em prospectos por períodos prolongados. Isso indica uma tendência para processos mecânicos de alocação de ativos. Como resultado, Scholl tende a modelar menos comportamento adaptativo e menos inteligência. No entanto, ele destaca que outros pesquisadores de seu grupo na Universidade de Oxford estão explorando ativamente a aplicação de algoritmos evolutivos para alterar parâmetros e até inovar novas estratégias.
A pesquisa de Martin Scholl se concentra no estudo da ecologia de mercado usando modelos baseados em agentes. Ele desafia as teorias e suposições financeiras tradicionais aplicando conceitos da biologia para entender melhor os mercados financeiros. Ao comparar estratégias de investimento com espécies em biologia, analisando diferentes estratégias e simulando mecanismos de mercado, Scholl revela a complexidade dos mercados financeiros e a interação entre várias estratégias. Suas descobertas sugerem que os mercados financeiros são altamente dependentes da densidade, e o dimensionamento adequado das estratégias de investimento é crucial para evitar perdas e se tornar uma presa nesse ecossistema dinâmico. O trabalho de Scholl fornece informações valiosas sobre a natureza dos mercados como sistemas complexos, contrastando com a visão tradicional de que os preços das ações refletem apenas informações fundamentais.
Kevin Webster: "Como o impacto do preço distorce o P&L da contabilidade"
Kevin Webster: "Como o impacto do preço distorce o P&L da contabilidade"
Em um vídeo do YouTube, Kevin Webster investiga o tópico de como o impacto do preço pode distorcer as demonstrações contábeis de lucros e perdas (P&L). Ele enfatiza a importância de modelar com precisão o impacto do preço para gerenciar o risco com eficácia e destaca a importância de gerenciar o risco de liquidez para evitar ficar com uma posição ilíquida. Webster reconhece que existem vários modelos de impacto de preços disponíveis, mas eles geralmente concordam com a maioria dos dados.
A palestra começa abordando a interseção entre o impacto do preço e o risco de liquidez, observando particularmente que a liquidez dos principais mercados era muitas vezes tida como certa antes da crise financeira. Webster compartilha citações poderosas que ilustram como o impacto do preço cria uma ilusão de lucro, levando a deslocamentos de preços para longe dos valores financeiros. O objetivo da palestra é formalizar matematicamente esse conceito, fornecendo uma estrutura quantitativa baseada na estimativa do impacto da liquidação no mercado para eliminar a ilusão de lucro.
Webster explica o impacto do preço como um modelo causal para negociação, onde negociações mais agressivas empurram os preços ainda mais e vice-versa. Os modelos de impacto de preço são amplamente utilizados na análise de custos de transação e execução otimizada, servindo como ferramentas de pré-negociação para estimar custos de transação esperados e otimizar estratégias de execução. Ele apresenta um relatório simulado de análise de custo de transação que permite que os traders avaliem o desempenho de seus algoritmos trimestralmente, com foco em minimizar a derrapagem de pedidos e considerar movimentos mecânicos e derrapagem alfa.
O palestrante aborda as diretrizes publicadas pela European Securities and Markets Authority (ESMA) sobre testes de estresse de liquidez, que envolvem a simulação de liquidação de ativos durante períodos de estresse de mercado. Simular reações do mercado, como deslocamentos de preços, e empregar estratégias de hedge são cruciais para reduzir a exposição ao risco. Webster faz referência a várias literaturas sobre testes de estresse de liquidez e impacto de preço no P&L contábil, incluindo os trabalhos de Cascioli, Boucheron, Farmer e comitês regulatórios como ESMA e o Baffled Committee. Ele enfatiza a necessidade de testes de estresse de liquidez para mitigar situações que possam impactar o P&L contábil e resultar em altos custos de liquidação.
É introduzido o conceito de pegada comercial, que mede o efeito de distorção do impacto do preço no P&L contábil e une diferentes definições de P&L. Webster apresenta um modelo simples de liquidação para ilustrar as conclusões significativas sobre P&L contábeis tiradas pelo artigo da Casadio-Bouchard-Farmer. Ele explica como os operadores de número e gerentes de plataforma observam diariamente superestimar seu P&L final, levando à deflação quando a negociação é concluída. No entanto, essa propriedade de inflação pode ser medida e exibida em tempo real, fornecendo informações acionáveis para os traders. Webster observa que as perdas de inflação de posição geralmente são temporárias e dependem da tolerância ao risco.
São discutidas as questões relacionadas à avaliação de uma posição acionária e seu impacto no P&L de uma empresa. Webster destaca a ambigüidade na determinação de quais preços usar para marcar a posição do estoque e a diferença entre o P&L contábil e o P&L fundamental usado pelos algoritmos de negociação. A pegada de negociação é definida como a diferença entre o P&L contábil e o P&L fundamental, com a ambigüidade resolvida quando a posição é fechada. O palestrante explora a inflação de posição, fazendo certas suposições sob as quais essa propriedade se mantém. O modelo de impacto e seus dois casos, o mole OW original e o mole W estudados por Fruehwirth e Bond, também são abordados.
Webster explica que, para que o modelo faça sentido, uma condição de não arbitragem entre lambda e beta precisa ser satisfeita, juntamente com uma condição de equação de autofinanciamento. Ele se aprofunda no cálculo do P&L esperado na hora do fechamento e como a pegada comercial introduz viés no P&L contábil. A propriedade de inflação de posição faz com que a posição infle durante a fase de entrada na posição, permaneça durante a fase de manutenção e eventualmente evapore. Todos esses aspectos podem ser observados em tempo real em uma tela de negociação, fornecendo informações valiosas aos traders.
Webster explica ainda mais as distorções no P&L contábil causadas pelo impacto do preço. Ele discute como os comerciantes podem fazer negócios lucrativos mesmo sem alfa, mas adverte que esses lucros duram pouco devido aos custos de transação. Monitorar os deslocamentos de preços desde o início é crucial para evitar perdas. Além disso, Webster observa que os gerentes de portfólio preferem ver seus portfólios como um todo e introduz o conceito de portfólio estacionário, que controla o tamanho e o giro de um portfólio no mundo das finanças matemáticas.
O conceito de uma carteira estacionária é então explorado em relação à estimativa dos custos de transação corrente. Ao entender a escala de tempo do propagador, os traders podem estimar até que ponto suas posições estão infladas e a ilusão de lucro que podem perder ao liquidar suas posições. Webster demonstra a estrutura usando dados empíricos, mostrando sua aplicabilidade a cenários do mundo real. Ele aplica a estrutura a um modelo de liquidação e explica as diferenças entre P&L contábil e P&L fundamental, destacando como eles informam diferentes funções objetivas com base na aversão ao risco de um trader.
O palestrante investiga o impacto das vendas de fogo ou da atividade de negociação de outros participantes do mercado nos lucros e perdas e na posição de um trader. Hedging agressivo pode levar a efeitos de crowding e inflação de posição, resultando em perdas permanentes. A modelagem precisa do impacto do preço é crucial para o gerenciamento de risco eficaz, e o gerenciamento do risco de liquidez é enfatizado para evitar acabar com posições ilíquidas.
Webster reconhece que, embora existam muitos modelos diferentes de impacto de preço disponíveis, eles geralmente concordam com a maioria dos dados. No entanto, podem surgir diferenças na quantidade e duração da persistência do impacto. Deslocamentos temporários podem durar de alguns dias a um mês. Do ponto de vista do gerenciamento de riscos, há um curso de ação claro, enquanto do ponto de vista do trader e do desempenho, a comunicação eficaz torna-se fundamental. Entender se o P&L é mecânico ou não e remover a parte mecânica permite que os traders se concentrem no alfa real ou vantagem em seus negócios.
O palestrante explica o princípio de "nenhuma manipulação de preços", destacando que mesmo que os comerciantes obtenham lucros, eles não podem mantê-los, pois acabarão por evaporar. A inflação de posição leva à deflação do valor comercial ao longo do tempo ou à liquidação imediata, resultando em P&L zero ou mesmo negativo. Portanto, os comerciantes precisam contar com outras variáveis para gerar lucros sustentáveis. Webster explora ainda mais a correlação entre o estado de impacto inicial, o impacto causado pelo restante do mercado e o impacto dos hedges do trader e do restante do mercado.
Em conclusão, Kevin Webster fornece uma compreensão abrangente de como o impacto do preço pode distorcer o P&L contábil. Ele lança luz sobre os custos extras durante regimes de liquidez de alta volatilidade e sua correlação com o mercado mais amplo, enfatizando seu impacto no viés. Do ponto de vista regulatório, títulos corporativos e seguradoras provavelmente serão mais afetados por esse viés. Enquanto Webster admite que carece de respostas detalhadas para mercados fora de ações, ele fornece uma base matemática sólida para entender o impacto do preço e sua potencial distorção de P&L.
Laura Leal (Princeton University) - "Aprendendo um Controle Funcional para Finanças de Alta Frequência"
Laura Leal (Princeton University) - "Aprendendo um Controle Funcional para Finanças de Alta Frequência"
Laura Leal, pesquisadora da Universidade de Princeton, fez uma apresentação informativa sobre a aplicação de redes neurais profundas em finanças de alta frequência. Ela enfatizou as limitações das soluções convencionais e explorou as vantagens da utilização de redes neurais neste domínio. Leal destacou sua capacidade de se adaptar a fatores complexos, como autocorrelação e sazonalidade intradiária, com os quais os modelos tradicionais lutam. Ao alavancar as redes neurais, os traders podem obter uma execução ideal, minimizando o impacto no mercado e negociando sem problemas.
Para abordar as preocupações sobre a natureza da caixa preta das redes neurais, Leal introduziu o conceito de explicabilidade. Ela discutiu a projeção do controle da rede neural em um manifold de dimensão inferior, permitindo uma melhor compreensão dos riscos associados e o desvio de setores de risco familiares. A equipe avaliou o desempenho do controle da rede neural, comparando-o com a clássica solução PDE (equação diferencial parcial) de forma fechada. Eles examinaram a função de valor, a riqueza de marcação a mercado e os erros relativos nas projeções para avaliar a precisão e a eficácia da abordagem de rede neural.
Leal mergulhou nas complexidades do treinamento da rede neural, enfatizando a importância de incorporar dados do mundo real e dinâmica precisa. Ela também propôs um controlador de múltiplas preferências que permite aos traders inserir suas preferências de risco, permitindo uma adaptação mais rápida às novas condições de mercado. Ao considerar os parâmetros de aversão ao risco e incorporar as preferências de um trader, a rede neural pode gerar uma solução para o problema de otimização estocástica em finanças de alta frequência.
O apresentador discutiu a estrutura da rede neural utilizada para controle de risco, destacando sua natureza recorrente. Embora a rede não seja excessivamente profunda, ela emprega uma estrutura recorrente a cada passo de tempo, atualizando os pesos simultaneamente. As entradas para a rede incluem tempo e estoque, enquanto a saída é o próprio controle – determinando a quantidade ideal de estoques para negociar em cada passo de tempo. Para enfrentar o desafio da disponibilidade limitada de dados financeiros, o aprendizado de transferência é empregado, simulando dados usando métodos de Monte Carlo.
Leal delineou o processo de projetar o controle da rede neural em um espaço de função linear usando regressão linear. Essa técnica de projeção facilita um melhor entendimento das funções não lineares da rede neural e seu alinhamento com soluções de controle de forma fechada. Os resultados demonstraram o impacto da incorporação dos parâmetros de sazonalidade e aversão ao risco na reação do modelo ao mercado. Além disso, o apresentador enfatizou a importância de gama, que normalmente é definido como dois na literatura, mas mostrou uma solução não linear quando considerado como três sobre dois.
O desempenho e a precisão do controle da rede neural na execução de negociações para finanças de alta frequência foram minuciosamente avaliados. Leal comparou a função de valor, riqueza de marcação a mercado e erros relativos em projeções em diferentes cenários e valores gama. Embora a rede neural tenha apresentado desempenho superior, ela executou negócios de maneira não linear, desviando-se da solução de controle conhecida. Isso levantou questões sobre a decisão de negociar usando a rede neural e determinar os níveis de margem apropriados com base em sua divergência da solução estabelecida.
Leal explorou os benefícios da abordagem do controlador de múltiplas preferências, permitindo que os traders insiram seus parâmetros de conversão de risco e comecem a negociar imediatamente com um modelo pré-treinado. Embora a solução de rede neural levasse mais tempo para ser executada do que a solução PDE, ela oferecia maior flexibilidade e adaptabilidade a diferentes preferências de risco. Para aumentar a explicabilidade, Leal propôs uma ideia de projeção usando regressão linear, reduzindo a carga computacional e mantendo a capacidade de preferência múltipla. Ela também destacou as aplicações mais amplas do conceito de aproximação de redes neurais, sugerindo sua relevância em outros problemas financeiros, como hedging.
O processo de treinamento da rede neural em finanças de alta frequência foi discutido, enfatizando o treinamento offline para evitar problemas de latência associados ao aprendizado por reforço online. A rede leva tempo, estoque e parâmetros de aversão ao risco como entradas e produz uma taxa como saída. Leal também descreveu o procedimento de ajuste fino no aprendizado de transferência, fazendo a transição de dados simulados para incrementos de dados reais obtidos da Bolsa de Valores de Toronto depois que a rede convergiu. O apresentador destacou a importância de usar dados do mundo real e dinâmicas precisas durante o processo de treinamento, pois aumenta a capacidade da rede de capturar as complexidades das finanças de alta frequência.
Na seção subsequente, Laura Leal forneceu informações sobre as entradas e a função objetiva empregadas na rede neural para finanças de alta frequência. A rede neural incorpora o estoque como uma proporção do volume médio de um estoque específico durante um dia, permitindo uma representação normalizada. A função objetivo é enquadrada como um problema de maximização, com a saída servindo como controle para a execução ótima. A estrutura da rede neural é baseada na aproximação de função, utilizando dois nós de entrada e quatro camadas ocultas para capturar os relacionamentos subjacentes.
Respondendo a uma questão sobre a discrepância entre duas soluções de controle, Leal esclareceu que ela pode ser interpretada como reflexo da mudança de utilidade do investidor. Ao ajustar o parâmetro gama, diferentes funções de utilidade podem ser empregadas, levando a variações nas soluções de controle. Em sua pesquisa, a equipe escolheu o valor gama de três metades com base em testes empíricos com traders reais, o que resultou em desempenho satisfatório.
Leal destacou ainda que a saída da rede neural é observável e analisável. Eles podem monitorar as posições assumidas pela rede e como elas evoluem ao longo do pregão, fornecendo transparência e insights sobre o processo de tomada de decisão. Esse nível de interpretabilidade e compreensão permite que os traders ganhem confiança nas estratégias de execução da rede neural.
Os desafios associados ao desenvolvimento de controles funcionais para finanças de alta frequência também foram discutidos por Leal. Embora um processo de controle médio possa fornecer informações gerais sobre a execução da negociação, ele pode não representar com precisão o comportamento de trajetórias individuais. A dinâmica do mercado, como o surgimento de estoques de memes, exige a adaptação de métodos de controle para capturar as condições em evolução de forma eficaz.
Concluindo, a apresentação de Laura Leal esclareceu as complexidades da criação de controles eficazes no âmbito das finanças de alta frequência. Ao alavancar redes neurais profundas, pesquisadores e traders podem superar as limitações dos modelos tradicionais e se adaptar à intrincada dinâmica desse domínio. A incorporação de preferências de risco, medidas de explicabilidade e dados do mundo real contribuem para o desenvolvimento de soluções de controle robustas e adaptáveis. Por meio de seu trabalho, Leal e sua equipe oferecem insights e soluções valiosas que abrem caminho para uma tomada de decisão mais eficiente e informada em finanças de alta frequência.
Zihao Zhang (Oxford-Man Institute) - "Aprendizado Profundo para Mercado por Dados de Pedidos"
Zihao Zhang (Oxford-Man Institute) - "Aprendizado Profundo para Mercado por Dados de Pedidos"
Zihao Zhang, pesquisador de pós-doutorado no Oxford-Man Institute e parte do grupo de pesquisa de aprendizado de máquina, apresenta o trabalho recente de sua equipe sobre a aplicação de aprendizado profundo ao mercado por dados de pedidos. Seu foco está em dados de microestrutura de mercado, particularmente o livro de pedidos de limite, que fornece informações valiosas sobre a demanda geral e dinâmica de oferta para um instrumento financeiro específico. Ao combinar os dados do mercado por pedido e do livro de pedidos limitados, Zhang e sua equipe descobriram que podem reduzir a variação do sinal e obter melhores sinais preditivos. Esta aplicação de seu modelo tem potencial para melhorar a execução comercial e as estratégias de criação de mercado.
Zhang começa sua apresentação fornecendo uma breve introdução aos dados de microestrutura de mercado, enfatizando especificamente a importância dos dados de mercado por pedido. Essa fonte de dados oferece informações altamente granulares, fornecendo atualizações e eventos frequentes em comparação com os dados do livro de pedidos limitados, que receberam mais atenção na literatura existente. Ele apresenta seu modelo de aprendizado profundo, explicando as arquiteturas de rede que eles projetaram para analisar o mercado por dados de pedidos. Zhang destaca que seu trabalho representa o primeiro modelo preditivo usando dados de mercado por pedido para prever movimentos de alta frequência, oferecendo uma fonte alternativa de informações que expande as possibilidades de descoberta alfa.
Em seguida, Zhang investiga o conceito do livro de ordens limitadas, que serve como um registro abrangente de todas as ordens limitadas pendentes para um instrumento financeiro em um determinado momento. Ele enfatiza que, embora os dados do gráfico ofereçam informações de baixa frequência, o preço de uma ação é, na verdade, representado pelo livro de ordens limitadas, que é uma série temporal multivariada. Zhang explica como o livro de pedidos limitados é organizado em diferentes níveis de preço com base nos pedidos enviados, com cada nível de preço consistindo em vários pedidos pequenos segmentados por diferentes traders. Ele também discute como o livro de pedidos é atualizado quando novas mensagens chegam, o que pode introduzir novas posições, cancelar pedidos existentes ou modificar pedidos atuais. Zhang aponta que os dados derivados do livro de pedidos limitados revelam a relação geral de demanda e oferta para um instrumento financeiro específico, e seu objetivo é determinar se a utilização de dados de mercado por pedido, contendo informações sobre colocação e cancelamento de pedidos, pode fornecer informações adicionais para fazer previsões.
Seguindo em frente, Zhang explora como os dados do mercado por pedido podem ser utilizados no aprendizado profundo para prever os movimentos do mercado. Embora as sequências de mensagens nos dados de ordens de mercado possuam dimensões menores em comparação com o livro de ordens de limite, elas oferecem informações adicionais que podem ser aproveitadas para previsões. Zhang explica como eventos passados podem ser transformados em matrizes 2D, formando imagens que podem ser inseridas em uma rede neural para previsão. Os recursos resultantes da camada convolucional podem então ser integrados nas camadas neurais recorrentes para aprender a estrutura e capturar dependências adicionais. A camada final produz previsões com base em uma configuração de classificação usando retornos de limite.
Zhang passa a discutir a arquitetura de rede empregada para fazer previsões usando dados do livro de pedidos limitados. Nesse caso, os dois primeiros componentes são substituídos por mensagens de traders individuais e as camadas convolucionais são substituídas por uma camada LSTM ou camada de atenção. Zhang explica brevemente o mecanismo de atenção, que facilita a previsão de ponto único e envolve uma estrutura de codificador-decodificador. O codificador extrai características significativas dos tempos de entrada e os resume em um estado oculto, enquanto o decodificador gera a previsão. A normalização é empregada para determinar se uma ordem é de compra ou venda com base no preço médio.
Na seção subsequente, Zhang apresenta os resultados de seu modelo treinado com um grupo de ativos, normalizado para uma escala semelhante e testado usando diferentes modelos, como o modelo linear simples, perceptron multicamada, LSTM e modelo de atenção, incorporando ordem limite dados do livro e dados ambientais puros. Os resultados indicam que os sinais preditivos dos dados ambientais exibem menos correlação com os sinais do livro de pedidos de limite, sugerindo que uma combinação dessas duas fontes pode reduzir a variação do sinal, se beneficiar da diversificação e produzir sinais preditivos superiores. Portanto, um modelo de conjunto que calcula a média dos sinais preditivos de ambos os tipos de dados demonstra o melhor desempenho.
Zhang passa a discutir os benefícios potenciais de incorporar dados de mercado por pedido (MBO) em previsões e destaca a capacidade de realizar engenharia de recursos com esses dados. Ele apresenta os resultados para horizontes de previsão variando de dois a 20 ticks à frente, observando comportamentos semelhantes observados para 50 e 100 ticks à frente. Zhang também aborda questões do público, incluindo a possibilidade de treinar um único modelo usando todos os instrumentos para melhor generalização e a fonte dos dados MBO da London Stock Exchange. Em resposta à pergunta de um membro da platéia sobre focar em NF1 em vez de PNL, Zhang concorda e reconhece que PNL é uma medida de sucesso mais relevante.
Zhang discute ainda o uso de sinais preditivos e várias maneiras de defini-los, como usar um sinal bruto ou definir um limite com base nas probabilidades softmax. Ele resume os pontos principais do artigo, que propõe a modelagem de dados de mercado por pedido (MBO) em vez de dados de livro de pedidos limitados e testes de modelos de aprendizado profundo, incluindo o mecanismo de retenção LSTM. Os resultados indicam que uma combinação de MBO e dados do livro de pedidos limitados produz os melhores resultados. Zhang aborda as questões do público sobre a autocorrelação entre os movimentos do mercado, filtrando negociações de ruído e a motivação para usar camadas CNN na modelagem de imagens de ordem de limite.
Na seção seguinte, Zhang explica como a carteira de pedidos pode ser tratada como uma estrutura espacial que pode ser explorada de forma eficaz usando redes neurais convolucionais (CNNs). O uso de uma CNN para extrair informações de cada nível de preço provou ser valioso para previsões. A camada de memória de longo prazo (LSTM) é escolhida em vez de perceptrons multicamadas, pois mantém o fluxo temporal de dados e resume eventos passados para fazer previsões. Zhang observa que os benefícios de usar um mecanismo de atenção são limitados devido à natureza das séries temporais financeiras. O artigo inclui uma descrição detalhada dos hiperparâmetros empregados em seu modelo.
Zhang aborda a preocupação com o grande número de parâmetros usados nos métodos de rede neural e sua eficácia na previsão do mercado de ações. Ele reconhece que a abundância de parâmetros pode ser objeto de crítica, mas enfatiza que sua equipe apenas ajustou alguns parâmetros específicos para seu modelo. Eles ainda não consideraram o uso do spread bid-ask como critério de sucesso, mas reconhecem seu potencial para exploração adicional. Zhang acredita que seu modelo tem valor prático para execução comercial e estratégias de criação de mercado. No entanto, ele menciona que, caso se pretenda cruzar o spread, pode ser necessário reduzir a amostragem dos dados, pois as frequentes atualizações nos dados do livro de ofertas podem complicar a execução do negócio. Por fim, ao modelar o livro de pedidos com limite Elo, eles agregam o tamanho total em cada nível de preço, em vez de incluir informações sobre tamanhos de pedidos individuais.
Na seção final, Zhang explica as diferenças entre o mercado por pedido e o mercado por dados de preço. Dados de mercado por pedido permitem rastrear pedidos individuais, o que não é possível com dados de preço de mercado. Com a engenharia de recursos adequada, os dados de mercado por pedido podem fornecer informações adicionais e gerar alfa. Zhang também discute como seu modelo trata as modificações no preço de uma ordem de limite específica, mantendo o tamanho inalterado. Cada nova mensagem com preços atualizados é tratada como uma nova atualização, enriquecendo o conjunto de dados.
No geral, a apresentação de Zihao Zhang mostra a aplicação do aprendizado profundo ao mercado por dados de pedidos, destacando seu potencial para extrair informações valiosas dos dados da microestrutura do mercado. Ao combinar os dados do mercado por pedido e do livro de pedidos com limite, a equipe de Zhang demonstrou a redução da variação do sinal e a geração de sinais preditivos aprimorados. Seu trabalho promete melhorar a execução comercial e as estratégias de criação de mercado, oferecendo uma contribuição valiosa para o campo da análise do mercado financeiro.
Vineel Yellapantula (Cornell MFE '20): "Quantificação de texto em registros da SEC"
Vineel Yellapantula (Cornell MFE '20): "Quantificação de texto em arquivos da SEC"
Vineel Yellapantula apresenta seu projeto de verão, que envolve a aplicação de técnicas de processamento de linguagem natural (NLP) para negociar ações com base em informações textuais encontradas em arquivos da SEC, com foco especial na seção MD&A. O objetivo do projeto é atribuir uma pontuação a cada relatório das 430 ações presentes no mercado americano e analisar seu desempenho agrupando-as em cinco quantis com base na pontuação. Yellapantula utiliza métodos tradicionais, como cosseno e similaridade de Jaccard para determinar a pontuação de similaridade entre textos, com a similaridade de Jaccard provando ser mais consistente ao longo do tempo. Ele também explora a criação de um modelo de análise de sentimento usando redes neurais recorrentes (RNNs) com Keras em um conjunto de dados de texto, alcançando uma precisão impressionante de 87,5% com seu modelo.
Durante a apresentação, Yellapantula enfatiza a importância de selecionar o método adequado para cada problema específico e incorporar dados adicionais para melhorar os resultados. Ele destaca a abundância de informações disponíveis por meio de dados de texto, principalmente em arquivos 10-K, e menciona que os fatores desenvolvidos usando documentos anteriores podem ser mais eficazes do que aqueles baseados apenas no documento atual. Yellapantula aponta várias alternativas para a utilização de técnicas de aprendizado profundo com dados de texto, incluindo luva, word2vec, BERT e RNNs. Ele sugere ainda a incorporação de mais fontes de dados, como arquivamentos 8-K e ciclos de notícias, para aumentar o poder preditivo dos modelos. No entanto, ele reconhece a presença de viés de seleção em seu estudo, pois se concentra em ações de bom desempenho presentes no índice de 2007 a 2020.
Na seção dedicada à análise de sentimentos, Yellapantula explica o processo de criação de um modelo usando RNNs com Keras. As etapas envolvem a tokenização do texto para entender seu significado, reduzindo a dimensionalidade por meio de incorporações e empregando uma camada LSTM e uma camada densa com uma função sigmoide para classificação de sentimentos. Ele demonstra a aplicação dessa abordagem usando revisões do IMDB, restringindo o comprimento da revisão a 500 palavras e preenchendo revisões mais curtas com zeros para manter a consistência. Por meio de avaliação rigorosa, Yellapantula atinge uma taxa de precisão de 87,5% com seu modelo de análise de sentimento.
Além disso, Yellapantula destaca a importância da correlação de informações na determinação da eficácia dos fatores e sua consistência ao longo do tempo. Ele faz referência a um estudo que sugere que empresas com relatórios estáveis tendem a ter um bom desempenho, indicando-o como um fator promissor a ser explorado. Em conclusão, Yellapantula expressa gratidão ao público por seu interesse e espera um maior envolvimento no futuro.
O projeto de Vineel Yellapantula demonstra a aplicação de técnicas de PNL para extrair informações valiosas de informações textuais em arquivos da SEC. Ao atribuir notas aos relatórios e analisar seu desempenho, seu trabalho contribui para a compreensão de como a linguagem pode influenciar a negociação de ações. Além disso, sua exploração da análise de sentimentos usando RNNs mostra o potencial do aprendizado profundo na captura de sentimentos de dados textuais. Por meio de uma cuidadosa seleção de metodologia e da incorporação de fontes de dados adicionais, Yellapantula enfatiza a oportunidade de aumentar a precisão e eficácia de tais modelos.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Universidade de Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Universidade de Parma)
Peter Carr apresenta um produto financeiro chamado "stoptions" que combina características de contratos futuros e opções de venda. Stoptions permitem que o proprietário evite mudanças de preços desfavoráveis incorporando um elemento de opção de venda das Bermudas. Carr explica o conceito de opções e fornece um exemplo de opção de três dias com diferentes andares associados a ela. Ele então passa a discutir a avaliação das paradas de um dia e dois dias, sendo que esta última tem dois andares e a flexibilidade de exercer no primeiro ou no segundo dia.
Carr explora ainda mais a avaliação de stop para períodos mais longos, investigando a recursão para trás, a avaliação de uma opção casada e o uso de pseudo-somas. Ele sugere a utilização da distribuição logística para representar as mudanças de preços em opções de venda casadas. O valor das paradas pode ser obtido usando fórmulas simples para opções "at-the-money", e a avaliação e cobertura podem ser feitas analiticamente.
Carr conclui o artigo discutindo os desafios associados à adoção de tais opções pelo mercado. Ele destaca a importância de encontrar um comprador e um vendedor para esses produtos e compartilha suas conversas com potenciais compradores e vendedores. Além disso, Carr reconhece que o modelo de paradas é uma alternativa aos modelos existentes, como Black-Scholes e Bachelier, mas pode não se adequar perfeitamente a todas as situações. No entanto, ele enfatiza que seu modelo visa capturar a multiplicidade de operações binárias com significado especial em finanças.
Em uma seção posterior, Carr e Lorenzo Torricelli propõem um modelo de "paradas" usando um paradigma conjugado e distribuição logística. Este modelo oferece flexibilidade na estrutura a termo com um único parâmetro, permitindo a acomodação de várias estruturas a termo de uma só vez. No entanto, pode não se ajustar perfeitamente ao mercado devido ao seu gráfico de volatilidade implícita descendente. Os autores reconhecem as limitações de seu modelo e reconhecem as inúmeras operações binárias em finanças que seu modelo pretende capturar. Eles discutem a opcionalidade entre um strike e uma única opção, bem como a opcionalidade repetida por meio de pseudossoma. A seção termina com apreciação mútua e expectativa de participar dos seminários uns dos outros.
Lorenzo Torricelli (Universidade de Parma) - "Processos Logísticos Aditivos na Precificação de Opções"
Lorenzo Torricelli (Universidade de Parma) - "Processos Logísticos Aditivos na Precificação de Opções"
Lorenzo Torricelli, um distinto professor da Universidade de Parma, investiga as complexidades da precificação de opções explorando o modelo logístico aditivo e a especificação autossimilar. Em sua esclarecedora apresentação, ele elucida a fórmula de precificação de opções vanilla usando esses modelos inovadores e exemplifica sua aplicação apresentando uma comparação de densidade entre o modelo de precificação logística e os modelos normais tradicionais.
Além disso, Torricelli realiza uma análise de benchmark da estrutura a termo cumulativa para o modelo logístico contra uma revolução linear da estrutura a termo para modelos homogêneos. Suas observações perspicazes revelam que o modelo logístico oferece significativamente mais flexibilidade na modelagem da estrutura temporal, proporcionando assim uma vantagem notável sobre as abordagens convencionais.
Para fornecer uma compreensão abrangente, Torricelli também examina as superfícies de volatilidade associadas a esses modelos. Ele observa a presença de um desvio positivo no modelo decorrente da distribuição distorcida dos retornos logarítmicos e da curtose da distribuição logística. No entanto, ele destaca a ausência de desvio na própria distribuição logística, pois apresenta simetria. Torricelli discute ainda o impacto dos parâmetros modais na estrutura a termo da volatilidade, reconhecendo o potencial de melhoria na parametrização escolhida.
Em conclusão, Torricelli enfatiza que as fórmulas de opções derivadas desses modelos são explícitas e bem conhecidas, facilitando sua implementação prática. Notavelmente, ele elogia a impressionante velocidade demonstrada durante o teste de desempenho. Como prova de transparência e colaboração acadêmica, Torricelli planeja tornar o código associado a esses modelos publicamente acessível, beneficiando tanto pesquisadores quanto profissionais.
Yumeng Ding (Cornell MFE '20) - "Interpretando modelos de aprendizado de máquina"
Yumeng Ding (Cornell MFE '20) - "Interpretando modelos de aprendizado de máquina"
Yumeng Ding, um pesquisador proficiente, investiga o domínio da interpretação de modelos de aprendizado de máquina para previsões de preços de ações. Em sua análise abrangente, ela explora uma variedade de métodos de interpretabilidade, incluindo gráficos de dependência parcial, importância de recursos de permutação, estatísticas de borda e LIME, para esclarecer o funcionamento interno desses modelos. Ao empregar esses métodos, Ding pretende desvendar a contribuição de fatores individuais e seus efeitos interativos na previsão dos preços das ações.
O estudo de Ding gira em torno de três tipos de fatores: técnico, qualidade e valor, que são utilizados como entradas para vários modelos de aprendizado de máquina, como classificadores e regressões. Aproveitando os métodos de interpretabilidade mencionados anteriormente, ela desvenda as intrincadas relações entre esses fatores e as previsões de preços de ações. Por meio de backtesting rigoroso, Ding descobre que os modelos não lineares superam os modelos lineares em termos de desempenho. Além disso, ela observa que os efeitos de diferentes fatores apresentam variações temporais, destacando a natureza dinâmica da previsão do preço das ações. Por fim, Ding identifica o AdaBoost como o modelo mais adequado para seu cenário específico.
É importante ressaltar que Ding ressalta a importância dos métodos de interpretabilidade na compreensão dos modelos de aprendizado de máquina. Ela ressalta que, embora a abordagem vetorial forneça informações rápidas sobre as interações mais preditivas, ela não revela a qualidade dessas interações. Ding enfatiza o valor de empregar gráficos bidimensionais de dependência parcial para visualizar interações mais simples de forma eficaz. Além disso, ela recomenda o método de plotagem de linha para aprofundar as complexidades das interações individuais e visualizar os efeitos locais, desde que os dados sejam suficientemente claros do ruído.
Resumindo suas descobertas, Ding enfatiza duas conclusões importantes de seu projeto. Em primeiro lugar, ela confirma que os modelos de aprendizado de máquina superam as regressões lineares ingênuas na maioria dos cenários devido à sua capacidade de capturar efeitos de interação complexos. Em segundo lugar, ela destaca a viabilidade de interpretar modelos de aprendizado de máquina, aproveitando uma variedade de métodos de interpretabilidade. Essas técnicas permitem que os pesquisadores elucidem as contribuições individuais dos fatores e compreendam suas influências interativas nas previsões.
Silvia Ruiz (Cornell MFE '20): "Como prever movimentos de estoque usando técnicas de PNL"
Silvia Ruiz (Cornell MFE '20): "Como prever movimentos de estoque usando técnicas de PNL"
Silvia Ruiz, recém-formada no programa Cornell MFE, compartilha insights de seu projeto focado na previsão de preços de ações usando técnicas de NLP (Natural Language Processing). O objetivo da pesquisa de sua equipe era explorar a relação entre arquivamentos corporativos, como relatórios 10-K e 10-Q, e o impacto subsequente nos preços das ações. Para conseguir isso, eles coletaram um conjunto de dados substancial composto por 1.095 relatórios do site EDGAR, abrangendo 50 empresas em cinco setores do S&P 500.
Inicialmente, Ruiz e sua equipe experimentaram modelos baseados em dicionário, mas encontraram limitações em sua eficácia. Para resolver isso, eles incorporaram métodos avançados como o modelo word to back e Finberg, que se mostraram cruciais para compreender as nuances contextuais incorporadas nos arquivos corporativos. Além disso, eles empregaram várias medidas de sentimento, incluindo polaridade e complexidade de palavras, bem como um modelo xg boost, para prever movimentos de preços de ações.
A precisão de suas previsões foi avaliada em dois períodos de tempo diferentes. No curto prazo, seu modelo alcançou uma precisão notável de 61%, enquanto no longo prazo demonstrou uma precisão respeitável de 53%. Aproveitando essas previsões como sinais para decisões de investimento, eles superaram um portfólio igualmente ponderado. No entanto, Ruiz destaca a necessidade de mais pesquisas em diversos setores para aumentar a precisão e generalização de suas descobertas.
Silvia Ruiz conclui sua discussão oferecendo generosamente suas informações de contato e fornecendo um link para o repositório de seu projeto no Github. Este gesto encoraja consultas de acompanhamento e promove a colaboração no avanço da compreensão e aplicação de técnicas de PNL no domínio da previsão de preços de ações.
Charles-Albert Lehalle: "Uma tentativa de entender o processamento de linguagem natural"
Charles-Albert Lehalle: "Uma tentativa de entender o processamento de linguagem natural"
Nesta apresentação em vídeo, Charles-Albert Lehalle e sua equipe investigam as aplicações do Processamento de Linguagem Natural (NLP) no domínio financeiro. Sua discussão gira em torno de três áreas principais: análise de sentimentos, previsão de preços de ações e modelagem de custos de transação. Eles reconhecem os desafios associados à PNL, como o risco de overfitting e viés nas incorporações, e propõem possíveis soluções, incluindo aprendizado multitarefa e expansão de léxicos. A equipe explora tanto o potencial quanto as limitações da PNL no setor financeiro, enfatizando a importância de entender o contexto e os padrões de linguagem em diferentes setores.
Lehalle e sua equipe apresentam seus próprios experimentos usando técnicas de PNL, fornecendo informações valiosas sobre como a PNL pode comprimir informações e oferecer indicadores informativos para analistas financeiros. Eles destacam os desafios de empregar o NLP em finanças, incluindo a exigência de conhecimento específico do domínio e a dificuldade de extrair informações significativas de dados de texto não estruturados. Preocupações éticas em torno do uso de NLP em finanças, como alavancar dados de mídia social para fins comerciais, também são discutidas.
Ao longo da apresentação, Charles-Albert Lehalle compartilha sua experiência e conhecimento sobre vários tópicos de PNL. Ele explica o uso de métodos NLP baseados em léxico e em incorporação em finanças, propondo uma combinação de ambas as abordagens para capturar recursos lexicais e probabilísticos em dados de texto. Os desafios de distinguir entre sinônimos e antônimos em incorporações são abordados, e a equipe de Lehalle explora modelos generativos para controlar a estrutura e o sentimento do texto. É enfatizada a importância de entender as incorporações e os modelos de referência, como matrizes que representam distribuições de palavras conjuntas.
Lehalle explora ainda mais a importância do contexto na PNL, discutindo como as incorporações podem ser tendenciosas para palavras positivas e negativas com base no contexto. Ele explica o uso de cadeias de Markov para estruturar modelos de matrizes de referência e apresenta experimentos para identificar sinônimos em incorporações. As limitações do NLP na captura de nomes de empresas e suas polaridades associadas são reconhecidas, juntamente com a sugestão de aprendizado multitarefa para incorporações supervisionadas. Os palestrantes também abordam o desequilíbrio de palavras positivas e negativas do Lexicon Loughran-McDonald e os desafios de processar a ironia em textos financeiros.
A apresentação termina com uma visão geral de um projeto de Sylvia Ruiz, recém-formada em Engenharia Financeira da Cornell. O projeto se concentra na previsão de preços de ações usando técnicas de PNL, especificamente coletando seções de discussão gerencial de registros 10-K e 10-Q de 50 empresas S&P 500 e analisando o sentimento para avaliar seu impacto nos preços das ações. Lehalle discute as limitações dos modelos baseados em dicionário e explica como sua equipe expandiu o dicionário, empregou o FinBERT para entender o contexto e utilizou vários recursos para medir o sentimento. Eles alcançaram um desempenho melhor do que um portfólio igualmente ponderado, tanto no curto quanto no longo prazo.
Em resumo, Charles-Albert Lehalle e sua equipe lançam luz sobre o potencial e os desafios da PNL em finanças. Eles oferecem insights, experimentos e estratégias para aplicar as técnicas de PNL de forma eficaz, enfatizando a importância do uso responsável e uma compreensão profunda da tecnologia e do domínio financeiro.